Implicit Bias (Implizite Voreingenommenheit / Systemische Verzerrung)
Unbeabsichtigte und oft unerkannte Verzerrungen in Daten, Algorithmen oder Modellen, die zu unfairen, diskriminierenden oder anderweitig problematischen Ergebnissen von KI-Systemen führen können.