Halluzination
Hallucination
Auch bekannt als:
KI-Halluzination, Konfabulation
Halluzinationen sind ein bekanntes Problem bei LLMs, die manchmal erfundene Fakten als wahr darstellen.
Ursachen
- Statistische Mustererkennung statt echtem Wissen
- Luecken in den Trainingsdaten
- Modell tendiert zu plausiblen Antworten
Gegenmassnahmen
- RAG (Retrieval Augmented Generation)
- Fakten-Grounding
- Manuelle Überprüfung