gerlinger.ai
TÜV-zertifiziert in Verkaufspsychologie
Über michInvestition
Claude Code ist UNFASSBARER als alles vorher
YouTube

Claude Code ist UNFASSBARER als alles vorher

Claude Design, das ist einfach nur IRRE
YouTube

Claude Design, das ist einfach nur IRRE

Webdesigner werden arbeitslos: ich baue 10.000€-Websites mit Claude Code in 60 Minuten
YouTube

Webdesigner werden arbeitslos: ich baue 10.000€-Websites mit Claude Code in 60 Minuten

Diese KI bricht aus JEDER Sandbox aus: deshalb darfst du sie nicht nutzen
YouTube

Diese KI bricht aus JEDER Sandbox aus: deshalb darfst du sie nicht nutzen

Claude vergisst ALLES, außer du machst DAS
13:01
YouTube

Claude vergisst ALLES, außer du machst DAS

YouTube-Videos

Claude Code ist UNFASSBARER als alles vorher
YouTube

Claude Code ist UNFASSBARER als alles vorher

Claude Design, das ist einfach nur IRRE
YouTube

Claude Design, das ist einfach nur IRRE

Webdesigner werden arbeitslos: ich baue 10.000€-Websites mit Claude Code in 60 Minuten
YouTube

Webdesigner werden arbeitslos: ich baue 10.000€-Websites mit Claude Code in 60 Minuten

Diese KI bricht aus JEDER Sandbox aus: deshalb darfst du sie nicht nutzen
YouTube

Diese KI bricht aus JEDER Sandbox aus: deshalb darfst du sie nicht nutzen

Claude vergisst ALLES, außer du machst DAS
13:01
YouTube

Claude vergisst ALLES, außer du machst DAS

Neueste Artikel

KI-Telefonassistent für Unternehmen: Nie wieder Anrufe verpassen
praxis-guides

KI-Telefonassistent für Unternehmen: Nie wieder Anrufe verpassen

Was kostet KI? Leitfaden für den Mittelstand
ki-im-mittelstand

Was kostet KI? Leitfaden für den Mittelstand

KI im Vertrieb: 5 Hebel für mehr Abschlüsse
ki-im-mittelstand

KI im Vertrieb: 5 Hebel für mehr Abschlüsse

KI-Agenten im Google Workspace nutzen
ki-im-mittelstand

KI-Agenten im Google Workspace nutzen

Echtzeit-Dashboards: Ressourcenplanung
praxisbeispiele

Echtzeit-Dashboards: Ressourcenplanung

Claude Code für B2B: KI-Agent im Praxistest
wissen

Claude Code für B2B: KI-Agent im Praxistest

gerlinger.ai
5.0
TÜV-zertifiziert in Verkaufspsychologie
KI-Beratung für den MittelstandInterne WissensdatenbankAutomatisierungIntelligente WebsitesChatbotsKI-TelefonassistentDeine eigene Firmen-KIIndividuelle Software
KI-Beratung für den MittelstandInterne WissensdatenbankAutomatisierungIntelligente WebsitesChatbotsKI-TelefonassistentDeine eigene Firmen-KIIndividuelle Software
Baugewerbe & HandwerkE-Commerce & HandelMaschinenbau & IndustrieImmobilien
Top 10 KI-ToolsBlogKI-LexikonFAQKI-Einführungs-ChecklisteDSGVO-Vorlagen-Paket
KI-Readiness-CheckKI-ROI-RechnerDSGVO-KI-CheckKI-LösungsfinderKostenvergleichsrechnerPrompt-Bibliothek
Kontaktformularhallo@gerlinger.aiLinkedInYouTube

© 2026 JANGER GmbH. Alle Rechte vorbehalten.

ImpressumDatenschutzAGB
  1. Lexikon
  2. Halluzination
KI-Lexikon

Halluzination

Wenn eine KI falsche oder erfundene Informationen als Fakten ausgibt.

Teilen:
Surrealer Korridor mit verzerrter Realität und violetter Beleuchtung

Das Wichtigste auf einen Blick

  • ✓Jede KI-Ausgabe muss bei kritischen Anwendungen von einem Menschen geprüft werden
  • ✓RAG-Systeme mit Firmendaten reduzieren Halluzinationen am effektivsten
  • ✓Schule alle Mitarbeiter, die KI nutzen, im Erkennen von Halluzinationen
  • ✓Quellenangaben in KI-Antworten einfordern, damit Aussagen überprüfbar werden
  • ✓Nutze niedrigere Temperature-Werte für faktenbasierte Aufgaben

Definition

KI-Halluzinationen treten auf, wenn ein Sprachmodell Informationen generiert, die plausibel klingen, aber faktisch falsch sind. Das Modell 'erfindet' Fakten, Zitate oder Daten, weil es auf Wahrscheinlichkeit basiert und nicht auf Wahrheit. Halluzinationen sind ein bekanntes Problem aller LLMs. Sie entstehen, weil Sprachmodelle keine echte Wissensdatenbank haben, sondern Texte auf Basis statistischer Muster erzeugen. Besonders häufig treten Halluzinationen bei Nischenthemen, Zahlenangaben und konkreten Quellenverweisen auf. Die Rate variiert je nach Modell und Aufgabe zwischen 3 und 27 Prozent.

Halluzination: So funktioniert's

Sprachmodelle generieren Text Wort für Wort, wobei sie jeweils das wahrscheinlichste nächste Wort vorhersagen. Wenn das Modell zu einem Thema keine verlässlichen Informationen in seinen Trainingsdaten hatte, extrapoliert es aus verwandten Mustern und erzeugt plausibel klingende, aber falsche Inhalte. Das Modell hat kein Konzept von 'wahr' oder 'falsch', sondern nur von 'wahrscheinlich' oder 'unwahrscheinlich'. Verschiedene Gegenmaßnahmen reduzieren Halluzinationen: RAG bindet verifizierte Daten ein, niedrigere Temperature-Einstellungen machen die Ausgabe konservativer, und Chain-of-Thought-Prompting verbessert die logische Kohärenz.

Relevanz für dein Unternehmen

Halluzinationen sind das größte Risiko bei unkontrollierter KI-Nutzung. Gegenmaßnahmen: RAG (KI mit echten Firmendaten verknüpfen), menschliche Überprüfung bei kritischen Entscheidungen und Quellenangaben aktivieren. Lokale Systeme mit Wissensbasis reduzieren das Risiko erheblich. Für den Mittelstand besonders kritisch: Falsche Preisangaben, erfundene Vertragsbedingungen oder fehlerhafte rechtliche Aussagen können reale Schäden verursachen. Der wichtigste Schutz ist ein Bewusstsein für das Problem bei allen Mitarbeitern, die KI nutzen.

Vorteile und Nachteile

Vorteile

  • +Bewusstsein für Halluzinationen führt zu besserem, kritischerem Umgang mit KI
  • +Treibt die Entwicklung von Verifizierungssystemen und RAG-Technologien voran
  • +Menschliche Expertise wird als Kontrolle unverzichtbar und aufgewertet
  • +Fördert den Aufbau strukturierter Wissensdatenbanken im Unternehmen

Nachteile / Grenzen

  • −Halluzinationen sind nicht immer sofort erkennbar, besonders bei Nischenthemen
  • −Können Vertrauen in KI-Systeme nachhaltig beschädigen
  • −Erfordern immer eine menschliche Prüfung, was den Automatisierungsgrad begrenzt
  • −Kein Modell ist aktuell halluzinationsfrei, das Problem lässt sich nur reduzieren, nicht eliminieren

Praxisbeispiele

  • 1KI zitiert eine nicht existierende Studie
  • 2Chatbot nennt falschen Preis oder falsche Konditionen
  • 3Zusammenfassung enthält Fakten, die im Originaldokument nicht stehen
  • 4KI erfindet plausibel klingende, aber falsche Rechtsnormen
  • 5Generierte Produktbeschreibung enthält nicht existierende technische Spezifikationen

Häufig gestellte Fragen

Teilen:
Jannis Gerlinger

Über den Autor

Jannis Gerlinger

Geschäftsführer, JANGER GmbH

Jannis Gerlinger ist Geschäftsführer der JANGER GmbH. Seit über 15 Jahren entwickelt er digitale Lösungen, erst im UX/UI Design und E-Commerce, heute mit dem Fokus auf sichere KI-Systeme für den Mittelstand. Mit seiner TÜV-Zertifizierung in Verkaufspsychologie verbindet er technisches Know-how mit einem tiefen Verständnis für Geschäftsprozesse.

Verwandte Begriffe

Large Language Model (LLM)RAG (Retrieval-Augmented Generation)PromptGuardrails

KI-Praxistipps per E-Mail

Die neuesten Praxis-Tipps zur KI-Einführung direkt in dein Postfach. Kein Spam, jederzeit abbestellbar.

Bereit für KI in deinem Unternehmen?

Kostenloses Erstgespräch: Wir zeigen dir, wie KI konkret in deinem Unternehmen aussehen kann.

Verwandte Begriffe

Large Language Model (LLM)

Große Sprachmodelle, die menschliche Sprache verstehen und generieren.

RAG (Retrieval-Augmented Generation)

KI-Technik, die eigene Unternehmensdaten in die Antwort einbezieht.

Prompt

Die Texteingabe oder Anweisung, die an ein KI-System gestellt wird.

Guardrails

Sicherheitsmechanismen, die KI-Systeme innerhalb definierter Grenzen halten.

KI-Ready-Check buchen

In 15 Minuten findest du heraus, wo KI in deinem Betrieb den größten Hebel hat. Kostenlos, unverbindlich.