gerlinger.ai
Über unsInvestition
KI-Readiness-Check
Assessment2 Min.

KI-Readiness-Check

KI-ROI-Rechner
Kalkulator2 Min.

KI-ROI-Rechner

DSGVO-KI-Check
Checkliste4 Min.

DSGVO-KI-Check

KI-Lösungsfinder
Quiz2 Min.

KI-Lösungsfinder

KI-Kosten-Vergleichsrechner
Kalkulator2 Min.

KI-Kosten-Vergleichsrechner

Prompt-Bibliothek
RessourceUnbegrenzt

Prompt-Bibliothek

Nano Banana 2 Prompt Builder
GeneratorUnbegrenzt

Nano Banana 2 Prompt Builder

Kostenlose Tools

KI-Readiness-Check
Assessment2 Min.

KI-Readiness-Check

KI-ROI-Rechner
Kalkulator2 Min.

KI-ROI-Rechner

DSGVO-KI-Check
Checkliste4 Min.

DSGVO-KI-Check

KI-Lösungsfinder
Quiz2 Min.

KI-Lösungsfinder

KI-Kosten-Vergleichsrechner
Kalkulator2 Min.

KI-Kosten-Vergleichsrechner

Prompt-Bibliothek
RessourceUnbegrenzt

Prompt-Bibliothek

Nano Banana 2 Prompt Builder
GeneratorUnbegrenzt

Nano Banana 2 Prompt Builder

Neueste Artikel

KI-Agenten im Google Workspace: Dein digitaler Assistent
ki-im-mittelstand

KI-Agenten im Google Workspace: Dein digitaler Assistent

Echtzeit-Dashboards: Daten bündeln, besser planen
praxisbeispiele

Echtzeit-Dashboards: Daten bündeln, besser planen

Claude Code im B2B: Warum Unternehmen umsteigen
wissen

Claude Code im B2B: Warum Unternehmen umsteigen

KI am Arbeitsplatz: Wenn der Algorithmus Excel bedient
automatisierung

KI am Arbeitsplatz: Wenn der Algorithmus Excel bedient

Compliance-Schulungen mit KI automatisieren
automatisierung

Compliance-Schulungen mit KI automatisieren

Apple M5 Chip: Lokale KI ohne teure Server
ki-im-mittelstand

Apple M5 Chip: Lokale KI ohne teure Server

gerlinger.ai
5.0
TÜV-zertifiziert in Verkaufspsychologie
Intelligente WebsitesAutomatisierungKI-TelefonassistentChatbotsInterne WissensdatenbankDeine eigene Firmen-KIIndividuelle Software
Intelligente WebsitesAutomatisierungKI-TelefonassistentChatbotsInterne WissensdatenbankDeine eigene Firmen-KIIndividuelle Software
Top 10 KI-ToolsBlogKI-LexikonFAQKI-Einführungs-ChecklisteDSGVO-Vorlagen-Paket
KI-Readiness-CheckKI-ROI-RechnerDSGVO-KI-CheckKI-LösungsfinderKostenvergleichsrechnerPrompt-Bibliothek
Kontaktformularhallo@gerlinger.aiLinkedIn

© 2026 JANGER GmbH. Alle Rechte vorbehalten.

ImpressumDatenschutzAGB
  1. Lexikon
  2. Halluzination

Halluzination

Wenn eine KI falsche oder erfundene Informationen als Fakten ausgibt.

Teilen:
Surrealer Korridor mit verzerrter Realität und violetter Beleuchtung

Das Wichtigste auf einen Blick

  • ✓Jede KI-Ausgabe muss bei kritischen Anwendungen von einem Menschen geprüft werden
  • ✓RAG-Systeme mit Firmendaten reduzieren Halluzinationen am effektivsten
  • ✓Schule alle Mitarbeiter, die KI nutzen, im Erkennen von Halluzinationen
  • ✓Quellenangaben in KI-Antworten einfordern, damit Aussagen überprüfbar werden
  • ✓Nutze niedrigere Temperature-Werte für faktenbasierte Aufgaben

Definition

KI-Halluzinationen treten auf, wenn ein Sprachmodell Informationen generiert, die plausibel klingen, aber faktisch falsch sind. Das Modell 'erfindet' Fakten, Zitate oder Daten, weil es auf Wahrscheinlichkeit basiert und nicht auf Wahrheit. Halluzinationen sind ein bekanntes Problem aller LLMs. Sie entstehen, weil Sprachmodelle keine echte Wissensdatenbank haben, sondern Texte auf Basis statistischer Muster erzeugen. Besonders häufig treten Halluzinationen bei Nischenthemen, Zahlenangaben und konkreten Quellenverweisen auf. Die Rate variiert je nach Modell und Aufgabe zwischen 3 und 27 Prozent.

Halluzination: So funktioniert's

Sprachmodelle generieren Text Wort für Wort, wobei sie jeweils das wahrscheinlichste nächste Wort vorhersagen. Wenn das Modell zu einem Thema keine verlässlichen Informationen in seinen Trainingsdaten hatte, extrapoliert es aus verwandten Mustern und erzeugt plausibel klingende, aber falsche Inhalte. Das Modell hat kein Konzept von 'wahr' oder 'falsch', sondern nur von 'wahrscheinlich' oder 'unwahrscheinlich'. Verschiedene Gegenmaßnahmen reduzieren Halluzinationen: RAG bindet verifizierte Daten ein, niedrigere Temperature-Einstellungen machen die Ausgabe konservativer, und Chain-of-Thought-Prompting verbessert die logische Kohärenz.

Relevanz für dein Unternehmen

Halluzinationen sind das größte Risiko bei unkontrollierter KI-Nutzung. Gegenmaßnahmen: RAG (KI mit echten Firmendaten verknüpfen), menschliche Überprüfung bei kritischen Entscheidungen und Quellenangaben aktivieren. Lokale Systeme mit Wissensbasis reduzieren das Risiko erheblich. Für den Mittelstand besonders kritisch: Falsche Preisangaben, erfundene Vertragsbedingungen oder fehlerhafte rechtliche Aussagen können reale Schäden verursachen. Der wichtigste Schutz ist ein Bewusstsein für das Problem bei allen Mitarbeitern, die KI nutzen.

Vorteile und Nachteile

Vorteile

  • +Bewusstsein für Halluzinationen führt zu besserem, kritischerem Umgang mit KI
  • +Treibt die Entwicklung von Verifizierungssystemen und RAG-Technologien voran
  • +Menschliche Expertise wird als Kontrolle unverzichtbar und aufgewertet
  • +Fördert den Aufbau strukturierter Wissensdatenbanken im Unternehmen

Nachteile / Grenzen

  • −Halluzinationen sind nicht immer sofort erkennbar, besonders bei Nischenthemen
  • −Können Vertrauen in KI-Systeme nachhaltig beschädigen
  • −Erfordern immer eine menschliche Prüfung, was den Automatisierungsgrad begrenzt
  • −Kein Modell ist aktuell halluzinationsfrei, das Problem lässt sich nur reduzieren, nicht eliminieren

Praxisbeispiele

  • 1KI zitiert eine nicht existierende Studie
  • 2Chatbot nennt falschen Preis oder falsche Konditionen
  • 3Zusammenfassung enthält Fakten, die im Originaldokument nicht stehen
  • 4KI erfindet plausibel klingende, aber falsche Rechtsnormen
  • 5Generierte Produktbeschreibung enthält nicht existierende technische Spezifikationen

Häufig gestellte Fragen

Teilen:
Jannis Gerlinger

Über den Autor

Jannis Gerlinger

Geschäftsführer, JANGER GmbH

Jannis Gerlinger ist Geschäftsführer der JANGER GmbH. Seit über 15 Jahren entwickelt er digitale Lösungen, erst im UX/UI Design und E-Commerce, heute mit dem Fokus auf sichere KI-Systeme für den Mittelstand. Mit seiner TÜV-Zertifizierung in Verkaufspsychologie verbindet er technisches Know-how mit einem tiefen Verständnis für Geschäftsprozesse.

Verwandte Begriffe

Large Language Model (LLM)RAG (Retrieval-Augmented Generation)PromptGuardrails

KI-Praxistipps per E-Mail

Die neuesten Praxis-Tipps zur KI-Einführung direkt in dein Postfach. Kein Spam, jederzeit abbestellbar.

Bereit für KI in deinem Unternehmen?

Kostenloses Erstgespräch: Wir zeigen dir, wie KI konkret in deinem Unternehmen aussehen kann.

Verwandte Begriffe

Large Language Model (LLM)

Große Sprachmodelle, die menschliche Sprache verstehen und generieren.

RAG (Retrieval-Augmented Generation)

KI-Technik, die eigene Unternehmensdaten in die Antwort einbezieht.

Prompt

Die Texteingabe oder Anweisung, die an ein KI-System gestellt wird.

Guardrails

Sicherheitsmechanismen, die KI-Systeme innerhalb definierter Grenzen halten.

KI praktisch erleben

Genug Theorie, sieh selbst, wie KI in deinem Unternehmen funktioniert.

Zum Blog