Ihr KI-Assistent hat Ihnen gerade eine überzeugende Antwort mit konkreten Daten und Quellenangaben gegeben. Es gab nur ein Problem: Die Hälfte davon war frei erfunden. Willkommen in der Welt der KI-Halluzinationen.
Was sind KI-Halluzinationen?
In der KI bezeichnet „Halluzination“ die Generierung von Informationen, die faktisch falsch sind, aber überzeugend präsentiert werden. Das Modell „erfindet“ Fakten, Zitate, Statistiken oder sogar wissenschaftliche Studien, die nicht existieren — und das mit der gleichen Selbstsicherheit, mit der es korrekte Informationen liefert.
Warum passiert das?
Large Language Models wie GPT-4 oder Claude wurden auf gewaltigen Textmengen trainiert. Sie lernen, statistische Muster in der Sprache zu erkennen und den wahrscheinlichsten nächsten Text zu generieren. Sie „verstehen“ Informationen nicht — sie reproduzieren Wahrscheinlichkeiten. Wenn die Trainingsdaten lückenhaft oder widersprüchlich sind, füllt das Modell die Lücken mit plausibel klingenden, aber falschen Informationen.
Wann sind Halluzinationen besonders gefährlich?
Medizinische Informationen: Wenn eine KI falsche Medikamentendosierungen oder nicht existierende Wechselwirkungen empfiehlt, kann das ernsthafte Folgen haben.
Juristische Beratung: Ein KI-generierter Rechtstext mit erfundenen Paragraphen oder Urteilen kann erheblichen Schaden anrichten.
Akademische Arbeit: KI-generierte Quellen und Zitate, die nicht existieren, können akademische Integrität und Reputation gefährden.
Wie schützen Sie sich?
Überprüfen Sie kritische Informationen immer anhand unabhängiger, vertrauenswürdiger Quellen. Nutzen Sie KI als Ausgangspunkt für Recherchen, nicht als endgültige Wahrheitsquelle. Fordern Sie die KI auf, Quellen zu nennen — und verifizieren Sie diese. Je wichtiger die Information, desto gründlicher sollte die Überprüfung sein.