Halluzination

Hallucination

KI-Technologie Einsteiger Aktualisiert: 14.01.2026
Auch bekannt als: KI-Halluzination, Konfabulation

Halluzinationen sind ein bekanntes Problem bei LLMs, die manchmal erfundene Fakten als wahr darstellen.

Ursachen

  • Statistische Mustererkennung statt echtem Wissen
  • Luecken in den Trainingsdaten
  • Modell tendiert zu plausiblen Antworten

Gegenmassnahmen

  • RAG (Retrieval Augmented Generation)
  • Fakten-Grounding
  • Manuelle Überprüfung

Unsere Lösungen zu diesem Thema

Möchten Sie Halluzination in Ihrem Unternehmen einsetzen?

Unsere Experten beraten Sie gerne zu den Möglichkeiten und Vorteilen.

Kostenlose Beratung anfragen