Was sind KI-Halluzinationen?
Eine KI-Halluzination ist eine plausibel klingende, aber faktisch falsche Aussage, die ein Sprachmodell generiert. Das Modell erfindet nicht bewusst, sondern produziert Outputs, die sicher wirken, aber nicht wahr sind.
Ein Beispiel: Du fragst ChatGPT nach dem Gründungsjahr einer bestimmten lokalen Agentur, und die KI antwortet: "2015". Tatsächlich wurde die Agentur 2018 gegründet. ChatGPT hat das Jahr erfunden. Nicht aus böser Absicht, sondern weil sein Trainings-Mechanismus diese Antwort als statistisch wahrscheinlich bewertet hat.
Das ist nicht einfach ein Bug, den man fixen kann. Halluzinationen sind eine strukturelle Eigenschaft von Sprachmodellen, nicht ein Fehler im Code. Sie entstehen aus der Art heraus, wie LLMs funktionieren.
Warum LLMs halluzinieren
Das Prinzip eines Sprachmodells ist grundlegend: Next-Token-Prediction. Das Modell berechnet, welches Wort statistisch am wahrscheinlichsten als nächstes kommt, basierend auf allen bisherigen Wörtern.
Das Problem: Das Modell hat keine eingebaute Realitätsprüfung. Es antwortet nicht "Ich weiß das nicht" oder "Das solltest du recherchieren", sondern schließt die Wahrscheinlichkeitslücke durch Erfindung. Der Output sieht korrekt aus, weil das Modell Sprache beherrscht, aber der Fakt ist falsch.
Trainingsdaten sind ein zweiter Grund. Das Modell wurde auf Milliarden von Texten trainiert. Diese Trainingsdaten sind ein statistisches Destillat von Internet, Büchern und Dokumenten. Wenn dein Unternehmen klein ist und nur auf wenigen Seiten erwähnt wird, kann die KI "lernen", dass du existierst, aber die Details sind verwässert. Später halluziniert die KI Details, um die Lücke zu füllen.
Veraltete Trainingsdaten sind ein dritter Grund. Wenn ein Modell im Juni 2023 trainiert wurde, aber dein Unternehmen gab es damals noch nicht, kann es dich nicht kennen. Später ist das Modell ein Snapshot und wird nicht aktualisiert. Das führt zu systematischen Halluzinationen über neue Dinge.
Typen von Halluzinationen
Faktische Fehler: Daten, die einfach falsch sind. Gründungsjahr, Produktpreis, Mitarbeiterzahl.
Erfundene Quellen: Die KI zitiert einen Artikel oder ein Buch, das gar nicht existiert. "Laut dem Artikel 'SEO 2025' von XYZ" und es gibt keinen solchen Artikel.
Entitätsverwechslung: Die KI verwechselt zwei Unternehmen oder zwei Personen mit ähnlichen Namen. Sie schreibt über "Hans Müller aus Berlin" und meint eigentlich "Hans Mueller aus München".
Veraltete Informationen: Die KI präsentiert Informationen von 2020 als aktuell. Dein Preis hat sich geändert, dein Fokus hat sich geändert, aber die KI kennt nur die alte Version.
Halb-Erfindungen: Die KI kombiniert echte Fakten mit Vermutungen. Dein Unternehmen existiert, aber die KI erfindet Details über deine Services, weil die Realität vage in ihren Trainingsdaten ist.
Was das für GEO bedeutet
Für dich als Website-Betreiber ist das kritisch. Du kannst nicht kontrollieren, wie KI-Systeme über dich sprechen. Wenn eine KI dich falsch darstellt, kannst du nicht einfach "Google kontaktieren", weil KI-Systeme keine direkte Feedback-Schleife haben.
Das Risiko ist real: Ein Entscheider fragt ChatGPT "Welche lokale Agentur macht SEO in Passau", und ChatGPT antwortet falsch über dich. Der Lead ist weg, bevor du es weißt.
Das zweite Risiko: Dein guter Ruf wird beschädigt, ohne dass du es weißt. Die KI behauptet, dass du Preise in einer bestimmten Range anbietest (falsch), oder dass dein Team aus bestimmten Spezialisten besteht (falsch), und potenzielle Kunden bekommen ein falsches Bild.
Das dritte Risiko: Die Halluzination wird repliziert. Wenn eine KI etwas über dich erfunden hat, zitieren andere KI-Systeme möglicherweise diese falsche Information weiter. Fehler propagieren sich.
RAG als Gegenmittel
RAG (Retrieval-Augmented Generation) ist eine Technik, die Halluzinationen reduziert. Statt nur aus Gedächtnis zu antworten, recherchiert die KI zuerst, ruft echte Dokumente ab und antwortet basierend auf den recherchierten Quellen.
Das Ergebnis: Weniger Halluzinationen, bessere Quellenangaben, aktuellere Informationen.
Aber RAG ist keine Lösung. Es reduziert Halluzinationen, eliminiert sie nicht. Wenn die recherchierten Quellen selbst Fehler enthalten oder widersprüchlich sind, kann die KI immer noch falsch liegen. Wenn deine Website schlecht strukturiert ist und die KI nur Teile davon ausliest, kann sie trotzdem zu falschen Schlüssen kommen.
Qualität der Quellen ist entscheidend. Wenn die erste Quelle, die eine RAG-KI findet, dein Wikipedia-Profil ist und dort deine Gründung falsch datiert ist, wird die KI die falsche Information verbreiten.
Halluzinationen erkennen und melden
Du brauchst ein kontinuierliches Monitoring. Das bedeutet:
Regelmäßig fragen: Frag KI-Systeme explizit nach dir. "Wer ist [Dein Unternehmen]", "Welche Services bietet [Dein Unternehmen]", "Wo findest du Informationen über [Dein Unternehmen]". Notiere, was falsch ist.
Feedback-Funktionen nutzen: ChatGPT und Claude haben Feedback-Buttons. Wenn die KI dich falsch darstellt, markiere es als falsch. Das hilft den Entwicklern, ihre Systeme zu verbessern.
Realistische Erwartungen: Eine KI wird nie perfekt sein. Dein Ziel ist nicht, dass die KI dich zu 100 Prozent korrekt darstellt, sondern zu 80-90 Prozent. Das ist gut genug für erste Kontakte.
5 Maßnahmen gegen falsche KI-Aussagen
1. Strukturierte Daten: Nutze Schema.org (schema.org/Organization, schema.org/LocalBusiness). Das gibt der KI klare, maschinenelle Fakten.
2. Wikipedia und Wikidata: Wenn du relevant genug bist, eine Wikipedia-Seite. Minimal: Ein Wikidata-Eintrag. Die KI vertraut diesen kuratierten Quellen.
3. Konsistente Fakten überall: Gleicher Firmenname auf deiner Website, Google My Business, LinkedIn, Branchenverzeichnissen. Widerspruchsfreiheit erhöht Vertrauen.
4. Zitierfähige Passagen: Auf deiner Website sollten klare Statements stehen: "Gipfelstolz wurde 2020 gegründet" oder "Wir spezialisieren uns auf GEO". Nicht versteckt in Fließtext, sondern deutlich.
5. Regelmäßige Überprüfung: Mindestens monatlich checken, wie KI-Systeme dich darstellen. Halluzinationen entstehen kontinuierlich, nicht einmalig.
Zusammenfassung
KI-Halluzinationen sind unvermeidlich, aber minimierbar. Dein Job ist nicht, sie zu eliminieren, sondern dafür zu sorgen, dass die KI bei Recherchen die richtige Information über dich findet. Das geht über Struktur, Konsistenz und kontinuierliches Monitoring. Je klarer dein digitaler Fußabdruck, desto weniger halluziniert die KI über dich.
