KI-Lexikon

Das erste große deutschsprachige KI-Lexikon

Ein Community-Projekt von David Mirga

← Zurück zur Übersicht

Halluzination (Hallucination)

Das Phänomen, dass KI-Modelle (insbesondere LLMs) falsche, irreführende oder unsinnige Informationen generieren, diese aber oft sehr überzeugend darstellen; die Gefahr ist bei allen generativen Modellen vorhanden, kann aber durch Techniken wie Grounding oder Retrieval-Augmented Generation (RAG) reduziert werden.

Kategorie: H | Quelle: Das große KI-Lexikon von David Mirga