Halluzination – Wenn KI Fakten erfindet
RisikoEine Halluzination ist eine Antwort eines LLM, die plausibel klingt, aber faktisch falsch ist. Die KI "erfindet" Informationen, Quellen oder Zusammenhänge, die nicht existieren – und präsentiert sie mit voller Überzeugung.
Warum das kritisch ist
LLMs sagen nicht "Ich weiss es nicht". Stattdessen generieren sie eine Antwort, die grammatisch perfekt und logisch aufgebaut ist – aber inhaltlich falsch sein kann. Ohne Prüfung ist das nicht erkennbar.
Warum halluzinieren LLMs?
LLMs sind keine Wissensdatenbanken – sie sind statistische Textgeneratoren. Sie wurden trainiert, das wahrscheinlichste nächste Wort vorherzusagen. Das führt zu mehreren Problemen:
- Kein Wahrheitsbegriff: Das Modell unterscheidet nicht zwischen "wahr" und "plausibel". Es generiert, was statistisch passt.
- Lücken füllen: Wenn das Modell etwas nicht "weiss", erfindet es eine plausible Antwort, anstatt zu schweigen.
- Mustervervollständigung: Wenn der Nutzer nach einer Quelle fragt, generiert das Modell etwas, das wie eine Quellenangabe aussieht – auch wenn die Quelle nicht existiert.
- Überzeugender Ton: LLMs sind darauf optimiert, hilfreich zu klingen. Unsicherheit wird selten ausgedrückt.
Typische Halluzinationen
Erfundene Zitate: "Wie Einstein sagte: 'KI wird die Menschheit transformieren.'" – Einstein hat das nie gesagt.
Falsche Fakten: "Die Golden Gate Bridge wurde 1952 eröffnet." – Tatsächlich war es 1937.
Nicht existierende Quellen: "Laut einer Studie von McKinsey aus 2023..." – Die Studie existiert nicht.
Erfundene Personen: "Der Experte Dr. Hans Müller von der TU München empfiehlt..." – Diese Person gibt es nicht.
Wann sind Halluzinationen besonders gefährlich?
- Juristische Texte: Erfundene Gesetze, Urteile oder Paragraphen
- Medizinische Informationen: Falsche Dosierungen oder Behandlungsempfehlungen
- Technische Dokumentation: Falsche Spezifikationen oder Anleitungen
- Finanzberatung: Erfundene Kennzahlen oder Regularien
- Quellenarbeit: Nicht existierende Studien oder Publikationen
Wie kann man Halluzinationen reduzieren?
1. RAG (Retrieval Augmented Generation)
Die KI antwortet nur basierend auf bereitgestellten Dokumenten. Statt aus dem "Gedächtnis" zu antworten, zitiert sie aus echten Quellen. Mehr unter RAG.
2. Temperatur senken
Der Temperature-Parameter steuert die "Kreativität" der KI. Niedrigere Werte (0.1-0.3) machen Antworten vorhersehbarer und faktentreuer.
3. Explizite Anweisungen
Im Prompt klar formulieren: "Wenn du dir nicht sicher bist, sage es. Erfinde keine Informationen."
4. Quellenanforderung
"Nenne nur Fakten, die du mit einer Quelle belegen kannst." – Achtung: Die KI kann auch Quellen halluzinieren!
5. Menschliche Prüfung
Kritische Outputs immer von Menschen verifizieren lassen. KI als Entwurf, nicht als Endprodukt.
Best Practice für Unternehmen
Kombinieren Sie RAG mit klaren Prozessen: Die KI liefert Entwürfe basierend auf Ihren Dokumenten, Mitarbeiter prüfen und finalisieren. So nutzen Sie die Effizienz der KI ohne das Halluzinationsrisiko.
Halluzinationen erkennen
Warnsignale, die auf eine mögliche Halluzination hindeuten:
- Sehr spezifische Details (Namen, Zahlen, Daten), die schwer zu verifizieren sind
- Übertrieben selbstsichere Formulierungen
- Informationen, die zu perfekt zur Frage passen
- Quellen, die sich nicht finden lassen
- Widersprüche bei Nachfragen
Die Zukunft: Weniger Halluzinationen?
Die Forschung arbeitet an Lösungen:
- Grounding: Modelle an externe Wissensquellen anbinden (Grounding)
- Besseres Training: Modelle darauf trainieren, Unsicherheit auszudrücken
- Fact-Checking: Automatische Verifikation generierter Aussagen
- Confidence Scores: Modelle geben an, wie sicher sie sich sind
Aber: Halluzinationen sind ein fundamentales Problem der Technologie. Vollständige Elimination ist aktuell nicht absehbar.
← Zurück zum Glossar