KI-Lexikon

Das erste große deutschsprachige KI-Lexikon

Ein Community-Projekt von David Mirga

← Zurück zur Übersicht

Goodhart's Law Das Prinzip, das besagt

"Wenn ein Maß zu einem Ziel wird, hört es auf, ein gutes Maß zu sein." Relevant für KI, da die Optimierung auf eine bestimmte Metrik zu unerwünschten Nebeneffekten führen kann, wenn die Metrik die eigentlichen Ziele nicht perfekt abbildet.

Kategorie: G | Quelle: Das große KI-Lexikon von David Mirga