Explainability Gap
Die Lücke zwischen der internen Komplexität eines KI-Modells (z. B. eines neuronalen Netzwerks) und der menschlichen Fähigkeit, dessen Entscheidungen oder Funktionsweise zu verstehen. Wird durch XAI-Methoden adressiert.
Das erste große deutschsprachige KI-Lexikon
Ein Community-Projekt von David Mirga
Die Lücke zwischen der internen Komplexität eines KI-Modells (z. B. eines neuronalen Netzwerks) und der menschlichen Fähigkeit, dessen Entscheidungen oder Funktionsweise zu verstehen. Wird durch XAI-Methoden adressiert.