Zu lange System-Prompts kosten bis zu 20 % mehr und senken die Qualität. So optimierst du KI-Anweisungen für bessere Ergebnisse bei niedrigeren Kosten.

Jannis Gerlinger

Stell dir vor, du stellst einen neuen Mitarbeiter ein. Am ersten Tag drückst du ihm ein 50-seitiges Handbuch in die Hand. Jede Regel, jeder Sonderfall, jede Ausnahme. Was passiert? Er ist überfordert, macht Fehler und braucht länger für einfache Aufgaben.
Genau das passiert auch bei KI-Systemen. Viele Unternehmen packen ihre System-Prompts und Konfigurationsdateien mit Anweisungen voll. Je mehr Regeln, desto besser, denken sie. Eine Studie der ETH Zürich zeigt das Gegenteil: Zu viele und zu komplexe Anweisungen senken die Erfolgsrate von KI-Agenten um 3 % und erhöhen die API-Kosten um bis zu 20 %.
Für ein mittelständisches Unternehmen mit 30 Mitarbeitern, das KI-Tools für Kundenservice, Angebotserstellung und Dokumentenverarbeitung nutzt, sind 20 % Mehrkosten keine Kleinigkeit. Das können schnell mehrere tausend Euro pro Jahr sein, die du dir mit besseren Anweisungen sparst.
Bevor wir die Lösung besprechen, kurz zum Mechanismus. KI-Modelle wie Claude, GPT oder Gemini arbeiten mit sogenannten Tokens. Ein Token entspricht ungefähr einem Wort oder Wortteil. Jeder Token kostet Geld.
Das Entscheidende: Dein System-Prompt wird bei jeder einzelnen Anfrage mitgesendet. Er ist kein einmaliger Aufwand, sondern ein laufender Kostenfaktor.
Ein Rechenbeispiel:
Halbierst du den System-Prompt auf 1.000 Tokens, sparst du 360 EUR pro Jahr. Bei mehreren KI-Anwendungen und höherer Nutzung multipliziert sich der Effekt schnell.
KI-Modelle haben ein begrenztes Kontextfenster. Jeder Token, den dein System-Prompt belegt, fehlt für die eigentliche Aufgabe. Ein aufgeblähter Prompt lässt weniger Platz für die Nutzereingabe und die Antwort. Das Ergebnis: kürzere, weniger hilfreiche Antworten bei komplexen Aufgaben.
Forscher der ETH Zürich haben untersucht, wie sich die Qualität und Länge von Anweisungsdateien auf die Leistung autonomer KI-Agenten auswirkt. Die Ergebnisse sind eindeutig.
Die Studie testete Agenten mit unterschiedlich umfangreichen Konfigurationsdateien. Das Ergebnis: Agenten mit aufgeblähten Anweisungen lösten Aufgaben 3 % seltener erfolgreich. Gleichzeitig stiegen die Kosten pro Aufgabe um bis zu 20 %.
Der Grund liegt im Verhalten der LLMs. Zu viele Anweisungen erzeugen Konflikte. Wenn Regel A sagt "Sei ausführlich" und Regel B sagt "Fass dich kurz", muss die KI abwägen. Das kostet Rechenzeit, erzeugt inkonsistente Ergebnisse und führt zu Halluzinationen.
Ein weiteres Ergebnis der Studie: Anweisungen, die von KI-Modellen selbst geschrieben wurden, performen schlechter als menschlich verfasste. Der Grund: KI-Modelle neigen zu Redundanz. Sie wiederholen Regeln in anderen Worten, fügen unnötige Einschränkungen hinzu und erzeugen widersprüchliche Vorgaben.
Viele Unternehmen nutzen genau diesen Ansatz. Sie lassen ChatGPT oder Claude ihre System-Prompts schreiben. Das spart Zeit bei der Erstellung, kostet aber bei jeder Nutzung mehr Geld und liefert schlechtere Resultate.
Die ETH-Studie zeigt einen klaren Zusammenhang: Je kürzer und präziser die Anweisungen, desto besser die Ergebnisse. Das gilt sowohl für autonome KI-Agenten als auch für einfache Chatbot-Anwendungen.
Wenn weniger besser ist, warum schreiben wir dann so viel? Drei psychologische Muster erklären das Verhalten.
Mehr Regeln fühlen sich an wie mehr Kontrolle. Wenn du jede Eventualität abdeckst, kann nichts schiefgehen, glauben viele. Tatsächlich ist das Gegenteil der Fall. Je mehr Regeln, desto wahrscheinlicher sind Widersprüche und unvorhersehbares Verhalten.
Wer viel über sein Unternehmen weiß, will alles teilen. Aber die KI braucht nicht deine komplette Firmengeschichte, um eine Kundenanfrage zu beantworten. Sie braucht klare, konkrete Handlungsanweisungen.
Viele System-Prompts wachsen organisch. Ein Mitarbeiter fügt eine Regel hinzu, ein anderer ergänzt eine Ausnahme. Nach sechs Monaten ist der Prompt ein Flickenteppich aus widersprüchlichen Anweisungen, die niemand mehr hinterfragt.
Die Forschungsergebnisse lassen sich in fünf konkrete Handlungsempfehlungen übersetzen.
Lass deine KI-Anweisungen nicht von einer KI schreiben. Formuliere sie selbst, in deinen Worten. Menschlich geschriebene Anweisungen sind kürzer, präziser und erzeugen weniger Konflikte.
Das heißt nicht, dass du keine KI zur Hilfe nehmen darfst. Nutze sie als Sparringspartner: Lass die KI Fragen stellen, Lücken aufzeigen oder Formulierungen prüfen. Aber die finale Anweisung schreibst du.
Geh jede einzelne Anweisung durch und stell dir die Frage: Was passiert, wenn ich das streiche? Wenn die Antwortqualität gleich bleibt, ist die Anweisung überflüssig.
Diesen Test kannst du systematisch durchführen:
Suche nach Anweisungen, die dasselbe in anderen Worten sagen. "Antworte freundlich" und "Sei höflich und zuvorkommend" sind redundant. Eine der beiden reicht.
Besonders bei gewachsenen System-Prompts verstecken sich Duplikate in verschiedenen Abschnitten. Lies den gesamten Prompt einmal durch und markiere alles, was doppelt vorkommt.
Statt fünf Regeln zur Tonalität zu schreiben, gib ein Beispiel. Ein konkretes Frage-Antwort-Paar zeigt der KI besser, was du willst, als abstrakte Beschreibungen. Das Konzept nennt sich Few-Shot Learning und ist eine der effektivsten Techniken für präzise KI-Ergebnisse.
Schlecht (45 Tokens): "Antworte immer freundlich, professionell und nahbar. Verwende eine Du-Ansprache. Sei nicht zu förmlich, aber auch nicht zu lässig. Achte auf einen warmen Ton."
Besser (30 Tokens): "Tonalität wie in diesem Beispiel: Frage: 'Wie lange dauert die Einrichtung?' Antwort: 'Die Einrichtung dauert 2-3 Tage. Wir begleiten dich durch jeden Schritt.'"
Das Beispiel spart Tokens und ist gleichzeitig unmissverständlich.
Nicht jede Anweisung muss bei jeder Anfrage dabei sein. Trenne deine Anweisungen in:
Viele KI-Plattformen erlauben es, unterschiedliche Prompts für verschiedene Anwendungsfälle zu definieren. Ein Kundenservice-Assistent braucht andere Anweisungen als ein interner Recherche-Assistent.
Du willst wissen, ob deine KI-Anweisungen optimal aufgestellt sind? In einer kostenlosen Demo analysieren wir gemeinsam dein Setup und zeigen dir die größten Einsparpotenziale.
Ein Großhandelsunternehmen mit 30 Mitarbeitern nutzte KI für drei Bereiche: Kundenanfragen beantworten, Angebote erstellen und Lieferscheine verarbeiten. Der System-Prompt war über Monate gewachsen und umfasste 4.500 Tokens.
Bei der Überprüfung zeigte sich:
Der System-Prompt wurde auf 1.800 Tokens gekürzt, eine Reduktion um 60 %. Die Ergebnisse:
Das Unternehmen hatte vorher unbewusst Geld verbrannt, nur weil niemand den System-Prompt kritisch hinterfragt hatte.
Neben zu langen Prompts gibt es weitere Stolperfallen, die Kosten treiben und Qualität senken.
"Wir sind ein 1985 gegründetes Familienunternehmen mit Sitz in Stuttgart und 47 Mitarbeitern in drei Abteilungen..." Solche Informationen sind für die meisten KI-Aufgaben irrelevant. Die KI braucht sie nicht, um eine Kundenanfrage zu beantworten oder ein Angebot zu erstellen.
Stattdessen: Nur die Informationen einfügen, die das Ergebnis direkt beeinflussen. Produktnamen, Preisregeln, Eskalationspfade.
"Sage niemals X, verwende niemals Y, erwähne niemals Z." Lange Listen von Verboten verbrauchen Tokens und sind weniger effektiv als positive Anweisungen. Sag der KI, was sie tun soll, nicht was sie lassen soll.
Stattdessen: "Verwende diese Formulierungen: ..." statt "Verwende niemals folgende Formulierungen: ..."
KI-Strategien entwickeln sich weiter, Prozesse ändern sich, neue Produkte kommen dazu. Aber der System-Prompt bleibt unverändert. Ergebnis: veraltete Anweisungen, die Verwirrung stiften.
Stattdessen: Plane eine quartalsweise Überprüfung. 30 Minuten reichen, um den Prompt auf Aktualität zu prüfen.
Ein System-Prompt, den niemand mehr pflegt, wird mit der Zeit zum Risiko. Veraltete Preise, falsche Produktnamen oder überholte Regeln können Kunden verärgern und Vertrauen kosten.
Optimierung ohne Messung ist Rätselraten. Drei Kennzahlen helfen dir, den Effekt deiner Prompt-Kürzung zu bewerten.
Miss die durchschnittlichen API-Kosten pro Anfrage vor und nach der Optimierung. Die meisten KI-Plattformen zeigen den Token-Verbrauch pro Anfrage. Multipliziere mit dem Token-Preis und du hast deine Kosten.
Definiere 10 bis 20 Standardanfragen, die dein Team regelmäßig stellt. Bewerte die Antworten auf einer Skala von 1 bis 5. Vergleiche die Durchschnittswerte vor und nach der Prompt-Optimierung. Die Qualität sollte gleich bleiben oder steigen.
Kürzere Prompts werden schneller verarbeitet. Miss die Zeit zwischen Anfrage und Antwort. Besonders bei zeitkritischen Anwendungen wie Kundenservice macht jede Sekunde einen Unterschied.
Führe den Vergleich mit mindestens 50 Anfragen durch, bevor du Schlüsse ziehst. Einzelne Anfragen schwanken zu stark für belastbare Aussagen.
Die Parallele zum Mitarbeiter-Onboarding ist kein Zufall. Gute Einarbeitung funktioniert nach dem gleichen Prinzip, egal ob Mensch oder Maschine.
Ein neuer Mitarbeiter bekommt am ersten Tag die wichtigsten Regeln. Nicht alle. Er lernt den Rest im Arbeitsalltag. Genau so solltest du auch deine KI-Systeme einrichten:
Dieser iterative Ansatz spart Kosten, liefert bessere Ergebnisse und hält den Wartungsaufwand niedrig. Er ist auch die Grundlage für eine erfolgreiche KI-Einführung im Mittelstand.
Die Erkenntnisse aus der Forschung haben direkte Auswirkungen auf die tägliche KI-Nutzung im Unternehmen. Drei Punkte sind besonders relevant.
Wer den System-Prompt schreibt und pflegt, beeinflusst die Kosten und die Qualität der gesamten KI-Nutzung. Das ist keine IT-Aufgabe, sondern eine Führungsaufgabe. Definiere klare Verantwortlichkeiten: Wer darf den Prompt ändern? Wer prüft die Änderungen?
Unternehmen, die ihre KI-Anweisungen schlank halten, haben niedrigere Kosten und bessere Ergebnisse. Das ist ein konkreter Wettbewerbsvorteil gegenüber Konkurrenten, die ihre KI mit überladenen Prompts drosseln. Bei steigender KI-Nutzung wächst dieser Vorteil.
Wenn du KI in mehreren Abteilungen einsetzt, multiplizieren sich die Kosten für ineffiziente Prompts. Ein optimierter System-Prompt zahlt sich bei jeder zusätzlichen Anwendung aus. Investiere die Zeit für die Optimierung, bevor du skalierst.
Du setzt bereits KI ein und fragst dich, ob deine Konfiguration optimal ist? In einem persönlichen Gespräch prüfen wir dein Setup und zeigen dir, wo du Kosten sparen und Ergebnisse verbessern kannst.
Die Forschung ist eindeutig: Weniger Anweisungen führen zu besseren Ergebnissen bei niedrigeren Kosten. Der Reflex, möglichst viel zu erklären, schadet mehr als er nutzt.
Prüfe deine bestehenden KI-Anweisungen mit dem Streichtest. Eliminiere Duplikate, ersetze abstrakte Regeln durch konkrete Beispiele und trenne Pflicht von Kür. Die Investition: ein Nachmittag. Das Ergebnis: bessere KI-Ergebnisse und niedrigere Kosten, ab sofort und dauerhaft.
Der nächste konkrete Schritt: Öffne deinen wichtigsten System-Prompt, zähle die Tokens und streich alles, was die Qualität nicht messbar verbessert.
Jannis Gerlinger ist Geschäftsführer der JANGER GmbH. Seit über 15 Jahren entwickelt er digitale Lösungen, erst im UX/UI Design und E-Commerce, heute mit dem Fokus auf sichere KI-Systeme für den Mittelstand. Mit seiner TÜV-Zertifizierung in Verkaufspsychologie verbindet er technisches Know-how mit einem tiefen Verständnis für Geschäftsprozesse.
Die neuesten Praxis-Tipps zur KI-Einführung direkt in dein Postfach. Kein Spam, jederzeit abbestellbar.

KI implementieren im Mittelstand: Praktische 10-Schritte-Anleitung für Geschäftsführer - vom ersten Pilotprojekt bis zum unternehmensweiten Rollout.
Weiterlesen
Nano Banana 2 generiert 4K-Bilder in Sekunden, rendert lesbaren Text und nutzt Echtzeit-Wissen. Praxis-Guide mit Prompt-Tipps, Kosten und Vergleich für den Mittelstand.
Weiterlesen
Professionelles Marketingmaterial mit KI statt teurer Agentur: Tools, Kosten und Praxis-Workflow für KMUs. Spare bis zu 90 % bei Bildern und Grafiken.
WeiterlesenKostenloses Erstgespräch, keine Vorabkosten, keine Verpflichtung.