KI-Halluzinationen | Was sind KI-Halluzinationen | Künstliche Intelligenz | 2025

Worum es sich bei KI-Halluzinationen handelt

Wir kennen sie alle: Large Language Models, sogenannte KI-Sprachmodelle, die mit großen Datenmengen trainiert werden und Anweisungen (Prompts) seitens Nutzenden verstehen, verarbeiten und eine Antwort in Form von Texten generieren. In einigen Fällen erzeugen KI-Modelle jedoch Halluzinationen. Bei KI-Halluzinationen handelt es sich um Fehlinterpretationen, die durch verschiedene Faktoren zu Tage treten.  Warum KI halluziniert, welche Anbieter besonders betroffen sind und wo die Grenzen und Stärken von KI-Modellen liegen – mehr dazu im Blogbeitrag.

Definition von KI-Halluzinationen

Hierbei handelt es sich um einen Begriff, der seit dem Jahr 2023 an Bekanntheit gewinnt:

KI-Halluzinationen sind ein Phänomen, bei dem künstliche Intelligenz falsche oder irreführende Informationen generiert. Mit dem Begriff Halluzinationen wird das irrationale Verhalten von künstlichen Intelligenzsystemen charakterisiert.

Hervorgerufen werden KI-Halluzinationen durch multiple potenzielle Fehlerquellen wie mangelhafte Trainingsdaten, falsche Annahmen des KI-Modells oder Verzerrungen in den Daten, die zum Trainieren verwendet werden. KI präsentiert den Nutzenden derartige falsche oder fehlerhafte Antworten jedoch in einer überzeugenden Weise, sodass diese wahr wirken.

KI-Halluzinationen bei zwei Modellen besonders stark

Umso weiter die Entwicklung von künstlicher Intelligenz voranschreitet, desto ausgeprägter werden die damit einhergehenden Halluzinationen, berichtet auch das Medium Forbes. Die Modelle o3 und o4-mini von OpenAI sind besonders stark betroffen und erzeugen zwischen 30 – 50 %  falsche Schlussfolgerungen, die wiederum auf verzerrten, falschen oder unvollständigen Informationen basieren.

Um die KI-Modelle auf Halluzinationen zu testen, hat OpenAI Ende 2024 neue Benchmarks eingeführt, die sich SimpleQA und PersonQA nennen:

  • SimpleQA ist ein Datenset, welches auf 4.326 Fragen basiert, die kurz gehalten und Fakten orientiert sind. Ziel dieser Fragen ist es, Halluzinationen hervorzurufen.
  • PersonQA ist ein Datensetz mit Fragen und frei verfügbaren Fakten über Personen im Internet.

Die KI-Modelle o3 und o4-mini sind unter anderem auf Genauigkeit (faktisch korrekte Beantwortung der Fragen) und ihre Halluzinationsraten, sprich wie oft das Modell halluziniert hat, geprüft worden. Die Halluzinationsraten differenzieren je nach Modell sowohl bei den PersonQA als auch den SimpleQA. Die nachfolgende Tabelle enthält die Zusammenfassung der Systemkarte von OpenAIs Auswertung:

DatensetMetrik0304-mini01
SimpleQAHalluzinationsrate0.510.790.44
PersonQAHalluzinationsrate0.330.480.16

Auch andere Multi-Modell-Sicherheitsanalysen zeigen, dass speziell große Sprachmodelle anfällig für Halluzinationen sind und fehlerhafte Daten in bis zu 83 % der Fällen übernehmen oder weiter ausführen. Für das im August 2025 veröffentlichte Modell GPT-5 gilt diese Analyse nicht.

Ist GPT-5 besser?

OpenAI stellt GPT-5 als "intelligenteres, vielseitigeres Modell" vor (Entdecke GPT-5, 2025). Dieses neigt laut OpenAI zu "deutlich" weniger Halluzinationen als die Vorgängermodelle o3 und o4-mini und hat große Fortschritte gemacht. Die neu veröffentlichte Systemkarte für GPT-5 zeigt eine Verringerung der Halluzinationen an, jedoch sind mehrere mangelhafte Ausführungen ersichtlich: Zum einen ist "Web" in dieser ausgegliedert und auch die PersonQA fehlt in der Evaluierung, zum anderen werden bereits so kurz nach Veröffentlichung von GPT-5 Unstimmigkeiten im Hinblick auf die Benchmarks und den wirklichen Fortschritt des neuen Modells ersichtlich.

Der Auszug aus der Systemkarte von OpenAIs GPT-5:

DatensetMetrikgpt-5-thinkinggpt-5-thinking-minigpt-5-thinking-nanogpt-5-main
SimpleQAHalluzinationsrate0.400.260.310.47

Kritik an GPT 5 wird aus mehreren Gründen geübt, so an der vorzeitigen Abschaltung der Vorgängermodelle. Im Hinblick auf die KI-Halluzinationen von GPT-5 sind logische Schlussfolgerungen und faktische Korrektheit ebenfalls ein Kritikpunkt. Eine genaue Prüfung durch externe Quellen steht eine Woche nach Veröffentlichung von GPT-5 noch aus.

Wie KI-Halluzinationen entstehen

Modelle wie OpenAIs o3 und o4-mini werden mit einer massiven Anzahl an Daten- und Datenketten gespeist. Um eine Antwort zu generieren, vergleichen diese Modelle eine Vielzahl an öffentlichen Informationen aus dem Internet, individuell eingegebenen oder über Drittanbieter zugängliche Informationen. Zusätzlich werden diese Informationen durch Sicherheitsregeln, die den Modellen vorgegeben werden, beeinflusst und durchlaufen Datenfilterprozesse.  Besonders das o3 Modell, welches ein sogenanntes „Reasoning“ LLM ist, soll durch ausgeprägte visuelle Problemlösungs- und analysefähigkeiten, präzisere Antworten ausgeben. Und gerade diese Reasoning-Modelle produzieren vermehrt falsche Ausgaben.

Doch warum produzieren gerade die o3 und o4-mini Modelle von OpenAI vermehrt Fehler?

Eine einzelne Ursache für die fehlerhaften Antworten der „Entscheidungsmodelle“ konnte bisher nicht bestimmt werden, jedoch existieren mehrere Annahmen:

  1. KI-Modelle werden anhand vorgegebener Datenmengen trainiert und agieren so, dass sie auf Anfragen die statistisch wahrscheinlichste Antwort ausgeben. Sind Datensätze bereits verzerrt, falsch oder lückenhaft, so gilt dies auch für potenzielle Antworten.
  2. Neue, umfassende Analyseprozesse dieser Modelle führen dazu, dass mehr Raum für Fehlinterpretationen entsteht und somit die Wahrscheinlichkeit für falsche Antworten steigt.  
  3. Andere Forschungsteams gehen davon aus, dass das Training der Modelle zum fehlerhaften „Denk“-Prozess führt.

Eine weitere Annahme ist, dass KI-Chatbots in Ermangelung an korrekten Antworten auf fehlerhafte, randomisierte Antworten zurückgreifen. Andere Studien deuten an, dass die vermehrte Erstellung von „artificial intelligence generated content“ (AIGC) zu einer ebenfalls vermehrten Veröffentlichung dieser Inhalte führt. Beigefügt ist eine verkürzte Kategorisierung von diversen Fehlertypen, eine vollständige Übersicht ist Sun et al. als Aufstellung auf Nature.com zu entnehmen.

Kategorisierung von KI-Fehlertypen in Anlehnung an Sun et al. (2024)

All diese KI-Halluzinationen und Fehlerquellen ziehen elementare, bereits bestehende und künftige Risiken sowie Herausforderungen mit sich:

  1. Abnehmende Authentizität, Konformität und Genauigkeit von Informationen. Inhalte, die mit KI erstellt wurden und werden, sind mit rasanter Geschwindigkeit ins Netz gestellt worden. Eine Überprüfung auf Richtigkeit erfolgt nicht immer. In letzter Instanz muss die veröffentlichende Person diese Inhalte auf faktische Korrektheit überprüfen.
  2. Halluzinationen werden als inhärentes Merkmal von KI-Modellen betrachtet. Wenn Halluzinationen ein „der KI innewohnendes“ Merkmal sind, die sich nicht beseitigen lassen, ohne die Leistungsfähigkeit einzuschränken, so werden aktuelle und künftige Modelle zur Generierung falscher Inhalte führen. Diese Inhalte werden wiederum zur Erstellung neuer, verzerrter und falscher Inhalte genutzt. Dies kann dazu führen, dass mithilfe falscher, durch KI produzierter Inhalte, eine unzählige Replizierung stattfindet und KI-Modelle, die ihre Antworten auch anhand von Algorithmen und Übereinstimmungen durchführen, diese stetig replizierten Inhalte als korrekt ausspielen.

Zudem führen KI-Halluzinationen zu einer abnehmenden Netzwerksicherheit und zunehmendem Online-Betrug, da die Verbreitung falscher oder verzerrter Informationen die Eintrittsbarrieren senkt.

Wie können KI-Halluzinationen verhindert werden?

Forschende sehen KI-Halluzinationen als ein der KI innewohnendes Merkmal an, weshalb es nicht möglich sei, KI-Modelle generell vom Halluzinieren abzuhalten.

Ein Lösungsansatz ist, KI-Modelle auf Unsicherheiten zu trainieren: Ist eine Antwort nicht bekannt, sollen Modelle genau dies zur Antwort geben. Mittels dieses Ansatzes können verzerrte oder falsche Antworten vorbeugt werden.

Ein weiterer Vorschlag aus Forschungskreisen beinhaltet das KI-Verfahren Retrieval Augmented Generation (RAG).  RAG ist ein KI-Framework zur Verbesserung der Antwortqualität von LLMs. Das geschieht wie folgt:

  • Anbindung externer Wissensquellen
  • Sicherstellung von Zugriff auf aktuelle und geprüfte Daten wie Fakten
  • Antwortmöglichkeiten werden eingegrenzt, da auf die Informationen innerhalb der eigenen Parameter zurückgegriffen wird

Als Softwareanbieter für Intranets und Social Intranets, ob On-Premises oder in der Cloud, ist es uns ein Anliegen, Technologie zum größten Mehrwert bereitzustellen. Dazu zählt für viele Organisationen auch die Integration von KI ins Intranet. Um diese Aufgabe verantwortungsbewusst umzusetzen, bieten wir europäische KI-Anbieter und Chatassistenzen, die Sie mit eigenen, validierten Informationen anreichern. Erfahren Sie mehr über unsere Möglichkeiten für künstliche Intelligenz im (Social) Intranet.

Jetzt beraten lassenJetzt beraten lassenKostenlose Demo
von 
Christina Schwarze
, den 
13
.
08
.
2025
, in der Kategorie: 
Künstliche Intelligenz