gerlinger.ai
Über unsInvestition
KI-Readiness-Check
Assessment2 Min.

KI-Readiness-Check

KI-ROI-Rechner
Kalkulator2 Min.

KI-ROI-Rechner

DSGVO-KI-Check
Checkliste4 Min.

DSGVO-KI-Check

KI-Lösungsfinder
Quiz2 Min.

KI-Lösungsfinder

KI-Kosten-Vergleichsrechner
Kalkulator2 Min.

KI-Kosten-Vergleichsrechner

Prompt-Bibliothek
RessourceUnbegrenzt

Prompt-Bibliothek

Nano Banana 2 Prompt Builder
GeneratorUnbegrenzt

Nano Banana 2 Prompt Builder

Kostenlose Tools

KI-Readiness-Check
Assessment2 Min.

KI-Readiness-Check

KI-ROI-Rechner
Kalkulator2 Min.

KI-ROI-Rechner

DSGVO-KI-Check
Checkliste4 Min.

DSGVO-KI-Check

KI-Lösungsfinder
Quiz2 Min.

KI-Lösungsfinder

KI-Kosten-Vergleichsrechner
Kalkulator2 Min.

KI-Kosten-Vergleichsrechner

Prompt-Bibliothek
RessourceUnbegrenzt

Prompt-Bibliothek

Nano Banana 2 Prompt Builder
GeneratorUnbegrenzt

Nano Banana 2 Prompt Builder

Neueste Artikel

KI-Agenten im Google Workspace: Dein digitaler Assistent
ki-im-mittelstand

KI-Agenten im Google Workspace: Dein digitaler Assistent

Echtzeit-Dashboards: Daten bündeln, besser planen
praxisbeispiele

Echtzeit-Dashboards: Daten bündeln, besser planen

Claude Code im B2B: Warum Unternehmen umsteigen
wissen

Claude Code im B2B: Warum Unternehmen umsteigen

KI am Arbeitsplatz: Wenn der Algorithmus Excel bedient
automatisierung

KI am Arbeitsplatz: Wenn der Algorithmus Excel bedient

Compliance-Schulungen mit KI automatisieren
automatisierung

Compliance-Schulungen mit KI automatisieren

Apple M5 Chip: Lokale KI ohne teure Server
ki-im-mittelstand

Apple M5 Chip: Lokale KI ohne teure Server

gerlinger.ai
5.0
TÜV-zertifiziert in Verkaufspsychologie
Intelligente WebsitesAutomatisierungKI-TelefonassistentChatbotsInterne WissensdatenbankDeine eigene Firmen-KIIndividuelle Software
Intelligente WebsitesAutomatisierungKI-TelefonassistentChatbotsInterne WissensdatenbankDeine eigene Firmen-KIIndividuelle Software
Top 10 KI-ToolsBlogKI-LexikonFAQKI-Einführungs-ChecklisteDSGVO-Vorlagen-Paket
KI-Readiness-CheckKI-ROI-RechnerDSGVO-KI-CheckKI-LösungsfinderKostenvergleichsrechnerPrompt-Bibliothek
Kontaktformularhallo@gerlinger.aiLinkedIn

© 2026 JANGER GmbH. Alle Rechte vorbehalten.

ImpressumDatenschutzAGB
  1. Lexikon
  2. Token

Token

Die kleinste Verarbeitungseinheit eines Sprachmodells.

Teilen:
Zerlegter Text in einzelne leuchtende violette Bausteine die durch ein KI-Modell fließen

Das Wichtigste auf einen Blick

  • ✓Tokens sind die Abrechnungseinheit bei Cloud-KI: verstehe deinen Token-Verbrauch, um Kosten zu kontrollieren
  • ✓Deutsche Texte verbrauchen ca. 30 % mehr Tokens als englische Texte gleicher Länge
  • ✓Lokale KI-Modelle eliminieren Token-Kosten vollständig
  • ✓Prompt-Engineering kann den Token-Verbrauch um 30-50 % reduzieren
  • ✓Das Kontextfenster bestimmt, wie viel Text ein Modell auf einmal verarbeiten kann

Definition

Tokens sind die Bausteine, in die ein Sprachmodell Text zerlegt. Ein Token entspricht ungefähr einem Wort oder Wortteil (im Deutschen ca. 0,75 Wörter pro Token, da zusammengesetzte Wörter oft in mehrere Tokens aufgeteilt werden). Die Menge der verarbeiteten Tokens bestimmt Kosten und Geschwindigkeit bei Cloud-KI-Diensten. Jedes Sprachmodell hat ein maximales Kontextfenster, das in Tokens gemessen wird, z. B. 128.000 Tokens bei GPT-4 Turbo. Sowohl die Eingabe (Prompt) als auch die Ausgabe (Antwort) verbrauchen Tokens, wobei Output-Tokens in der Regel teurer sind als Input-Tokens.

Token: So funktioniert's

Ein Tokenizer zerlegt den Eingabetext in kleine Einheiten nach einem erlernten Vokabular. Häufige Wörter wie 'der' oder 'und' werden zu einem einzelnen Token, seltene oder lange Wörter in mehrere Teile zerlegt. Das Wort 'Geschäftsführer' könnte z. B. in 'Geschäfts' und 'führer' aufgeteilt werden. Dieses Verfahren heißt Subword-Tokenization und basiert meist auf dem Byte Pair Encoding (BPE) Algorithmus. Das Sprachmodell verarbeitet dann diese Token-Sequenz und erzeugt die Antwort Token für Token, wobei jedes neue Token auf allen vorherigen basiert.

Relevanz für dein Unternehmen

Bei Cloud-KI wird nach Token-Verbrauch abgerechnet. Lange Dokumente bedeuten viele Tokens und damit höhere Kosten. Die Preisunterschiede sind erheblich: GPT-4 kostet etwa 30-mal so viel pro Token wie GPT-3.5. Lokale KI-Systeme haben keine Token-Kosten, du zahlst nur für Hardware und Strom. Das macht lokale KI besonders wirtschaftlich bei hohem Datenvolumen. Durch Prompt-Optimierung und geschickte Systemgestaltung lassen sich Token-Kosten um 30-50 % reduzieren, ohne die Qualität zu beeinträchtigen.

Vorteile und Nachteile

Vorteile

  • +Transparente Kostenberechnung bei Cloud-KI-Diensten
  • +Prompt-Optimierung kann Token-Verbrauch und Kosten signifikant senken
  • +Lokale Modelle eliminieren Token-Kosten komplett
  • +Größere Kontextfenster ermöglichen die Verarbeitung ganzer Dokumente in einem Durchgang

Nachteile / Grenzen

  • −Deutsche Texte verbrauchen mehr Tokens als englische (ca. 30 % mehr)
  • −Token-Kosten können bei hohem Volumen schnell unkontrolliert steigen
  • −Kontextfenster-Limits begrenzen die maximale Dokumentlänge pro Anfrage
  • −Unterschiedliche Modelle verwenden unterschiedliche Tokenizer, was Kostenvergleiche erschwert

Praxisbeispiele

  • 1GPT-4 kostet ca. 30 $ pro 1 Million Tokens
  • 2Ein typischer Geschäftsbrief hat ~300 Tokens
  • 3Lokale Modelle: keine Token-Kosten
  • 4Das Kontextfenster von Claude 3 umfasst 200.000 Tokens, etwa 500 Seiten Text
  • 5Ein 50-seitiges PDF verbraucht ca. 25.000 Tokens bei der Analyse

Häufig gestellte Fragen

Teilen:
Jannis Gerlinger

Über den Autor

Jannis Gerlinger

Geschäftsführer, JANGER GmbH

Jannis Gerlinger ist Geschäftsführer der JANGER GmbH. Seit über 15 Jahren entwickelt er digitale Lösungen, erst im UX/UI Design und E-Commerce, heute mit dem Fokus auf sichere KI-Systeme für den Mittelstand. Mit seiner TÜV-Zertifizierung in Verkaufspsychologie verbindet er technisches Know-how mit einem tiefen Verständnis für Geschäftsprozesse.

Verwandte Begriffe

Large Language Model (LLM)ROI (Return on Investment)PromptKontextfenster

KI-Praxistipps per E-Mail

Die neuesten Praxis-Tipps zur KI-Einführung direkt in dein Postfach. Kein Spam, jederzeit abbestellbar.

Bereit für KI in deinem Unternehmen?

Kostenloses Erstgespräch: Wir zeigen dir, wie KI konkret in deinem Unternehmen aussehen kann.

Verwandte Begriffe

Large Language Model (LLM)

Große Sprachmodelle, die menschliche Sprache verstehen und generieren.

ROI (Return on Investment)

Kennzahl fuer die Wirtschaftlichkeit einer Investition.

Prompt

Die Texteingabe oder Anweisung, die an ein KI-System gestellt wird.

Kontextfenster

Die maximale Textmenge, die ein KI-Modell gleichzeitig verarbeiten kann.

KI praktisch erleben

Genug Theorie, sieh selbst, wie KI in deinem Unternehmen funktioniert.

Zum Blog