Goodhart's Law Das Prinzip, das besagt
"Wenn ein Maß zu einem Ziel wird, hört es auf, ein gutes Maß zu sein." Relevant für KI, da die Optimierung auf eine bestimmte Metrik zu unerwünschten Nebeneffekten führen kann, wenn die Metrik die eigentlichen Ziele nicht perfekt abbildet.