Voreingenommenheit in der KI (Bias)
Systematische Fehler oder unfaire Ergebnisse von KI-Systemen, die oft aus verzerrten Trainingsdaten oder dem Design des Algorithmus resultieren.
Das erste große deutschsprachige KI-Lexikon
Ein Community-Projekt von David Mirga
Systematische Fehler oder unfaire Ergebnisse von KI-Systemen, die oft aus verzerrten Trainingsdaten oder dem Design des Algorithmus resultieren.