Halluzination (Hallucination)
Das Phänomen, dass KI-Modelle (insbesondere LLMs) falsche, irreführende oder unsinnige Informationen generieren, diese aber oft sehr überzeugend darstellen; die Gefahr ist bei allen generativen Modellen vorhanden, kann aber durch Techniken wie Grounding oder Retrieval-Augmented Generation (RAG) reduziert werden.