KI-Lexikon

Das erste große deutschsprachige KI-Lexikon

Ein Community-Projekt von David Mirga

← Zurück zur Übersicht

Implicit Bias (Implizite Voreingenommenheit / Systemische Verzerrung)

Unbeabsichtigte und oft unerkannte Verzerrungen in Daten, Algorithmen oder Modellen, die zu unfairen, diskriminierenden oder anderweitig problematischen Ergebnissen von KI-Systemen führen können.

Kategorie: I | Quelle: Das große KI-Lexikon von David Mirga