Was kostet ein einfaches „Danke“? Mehr, als man denkt – zumindest bei ChatGPT. Wenn täglich Millionen Menschen höflich mit der KI sprechen, summiert sich das zu Millionenkosten für OpenAI. Ein virales Instagram-Reel bringt das Thema auf den Punkt und trifft einen wunden Nerv in der KI-Welt. Denn hinter der Höflichkeit steckt weit mehr als gutes Benehmen: Jeder dieser kleinen Ausdrücke verbraucht Tokens, die Energie, Wasser und letztlich Geld kosten. Was auf den ersten Blick banal erscheint, wird zu einem Symbol für ein größeres Spannungsfeld zwischen menschlichem Umgangston und technischer Effizienz. Warum das relevant ist und was das über uns im Umgang mit Maschinen aussagt, wird in diesem Artikel beleuchtet.
Wie viele Tokens brauche ich?
Jede Eingabe bei ChatGPT erzeugt Tokens, somit auch ein höfliches Bitte und Danke. Aber was bedeuten diese Token eigentlich?
Sie sind die Basiseinheit, mit welcher OpenAI die Länge von Texten und somit den Preis der Programmierschnittstelle berechnet. Wieviele Tokens eine Eingabe benötigt, hängt von vier Aspekten ab:
- Die Anzahl der Zeichen
- Die Textsprache
- Die Satzzeichen und Emojis
- Das verwendete GPT-Modell
Das kann dazu führen, dass ein Text kürzer ist, als die verwendeten Tokens und somit höhere Kosten trägt, als man zuerst meinen könnte. Satzzeichen benötigen für gewöhnlich einen Token, während Emojis zwei bis drei benötigen. Bei der Textsprache gibt es jedoch erhebliche Unterschiede. Um ein Beispiel zu nennen, im Englischen verbraucht ein Wort einen Tokens, während im Deutschen ein Wort 1,8 Tokens benötigt und im Spanischen sogar zwei Tokens (OPENAI GPT TOKEN GUIDE — TOKENSYSTEM ERKLÄRT, n.d.).
Außerdem verbraucht das neue GPT-4-Modell weniger Tokens als die vorherige Version und spart somit Energie und Kosten.
Nachdem man seine Tokens nun zählen kann, bleibt nur noch die Frage, was diese denn kosten.
Das neueste Modell GPT-4o berechnet für 1 Mio. Tokens durch Anfragen fünf Dollar. Um die Kosten einzuschränken, gibt es eine maximale Anzahl, die pro Anfrage genutzt werden dürfen, diese beträgt bei dem aktuellen Modell 128.000 Tokens (OPENAI GPT TOKEN GUIDE — TOKENSYSTEM ERKLÄRT, n.d.).
Experten schätzen die Kosten einer Frage an ChatGPT daher auf, 0,02 Euro (Was Kostet ChatGPT? – Digital, 2023). Das mag auf den ersten Blick wenig klingen, doch bei 4,5 Milliarden Visits pro Monat summiert sich das (Kaiser, 2025).
Dieser Preis wird durch zwei wesentliche Aspekte kalkuliert:
- Der Verbrauch von Kilowattstunden. Als Beispiel benötigt ChatGPT für einen Text mit 100 Wörtern 0,14kWh, was dem Energieverbrauch von 14 LED Lampen für eine Stunde entspricht (“Bitte” Und “Danke” Kosten ChatGPT Mehrere Millionen Dollar, 2025).
- Der Wasserverbrauch, um die Rechenzentren zu kühlen. Die Menge wird hierbei auf 0,5 Liter Wasser für einen Chat mit 10 bis 50 Fragen geschätzt (Fett, 2024).
Somit kostet auch ein höfliches Bitte und Danke, da es Tokens benötigt, die wiederum durch den benötigten Strom-und Wasserverbrauch Geld kosten. Laut Sam Altman, dem CEO von OpenAI, steigen diese Kosten in Millionenhöhe, nur für Freundlichkeit (Petereit, 2025).
Warum sind Menschen höflich zu einem Computer?
Warum sagen Menschen überhaupt Bitte und Danke zu einen Computer? Eine Umfrage im Jahr 2024 fand heraus, dass zwei Drittel von ChatGPT Nutzer:innen in den USA höflich zu ihrem Chatbot sind (Petereit, 2025). Und das hat zwei wesentliche Gründe:
- Aus Gewohnheit
- Aus Angst vor einer KI-Übernahme
Doch was ändert dieses Verhalten an der Antwort, abgesehen von erheblich höheren Kosten? ChatGPT ist darauf trainiert, in einem ähnlichen Ton zu antworten, wie es die Frage
erhält. Daher führt ein respektvoller Umgang mit der KI zu einer ebenso respektvollen Antwort (“Bitte” Und “Danke” Kosten ChatGPT Mehrere Millionen Dollar, 2025).
Außerdem ist diese Höflichkeit ein Spiegel unserer Haltung gegenüber der Technologie. Wer
„Bitte“ und „Danke“ schreibt, behandelt das System nicht nur wie ein Tool, sondern fast schon wie einen Gesprächspartner. Das mag irrational erscheinen, schafft aber eine Form von Beziehung, die unser Nutzungsverhalten beeinflusst.
Aus menschlicher Sicht nachvollziehbar, aus Sicht der Serverkosten aber eine teure Angewohnheit. Denn je freundlicher die Welt zu KI spricht, desto mehr Tokens werden erzeugt und damit auch Kosten. Ob das auf Dauer tragbar ist oder ob wir bald lernen müssen, effizienter zu kommunizieren, bleibt offen. Ein Balanceakt zwischen Höflichkeit und Ressourcenverbrauch.
So kann OpenAI Geld sparen:
Ein kostspieliges Problem wie dieses, das durch die wiederholte Verwendung von Höflichkeitsfloskeln entsteht, könnte durch technische Lösungen gemildert werden. Diese würde den Ressourcenverbrauch optimieren, ohne die Qualität der Interaktion zu beeinträchtigen:
- Höflichkeitsfloskeln wie „Bitte“ und „Danke“ könnten automatisch erkannt und bei der Token-Zählung ignoriert werden. So würde der freundliche Umgangston nicht länger zur Kostenfalle, zumindest nicht für OpenAI. Doch ganz ohne Nebenwirkungen kommt dieser Ansatz nicht aus. Sprache ist nuanciert, und was wie eine Höflichkeit aussieht, kann im Kontext eine wichtige Bedeutung tragen. Wird zu viel herausgefiltert, leidet unter Umständen die Qualität der Antwort.
- Ein dezenter Nutzerhinweis im Interface könnte die Nutzer auf das Problem aufmerksam machen, wie zum Beispiel: „Höflichkeitsfloskeln erhöhen Ihre Token-Anzahl geringfügig.“
- Ein intelligentes Prompt-Handling im Backend könnte zwar erkennen, dass es sich um Höflichkeit handelt, diese aber nicht technisch in die Bearbeitung einfließen lassen.
Letztlich bleibt es ein Balanceakt zwischen Effizienz und menschlicher Ausdrucksweise. Denn am Ende geht es nicht nur um Kosten, sondern auch darum, wie wir mit Maschinen sprechen wollen.
Fazit: Höflichkeit oder Effizienz?
Höflichkeit hat ihren Preis – zumindest, wenn sie an eine KI gerichtet ist. Was uns im Alltag kaum auffällt, zeigt im System von OpenAI deutliche Auswirkungen: Jedes „Bitte“ und „Danke“ kostet Rechenleistung, Wasser, Strom und damit Geld. Und doch wäre es zu kurz gedacht, nur auf die Effizienz zu schauen und die menschliche Ausdrucksweise zu opfern. Vielmehr stellt sich die Frage, wie wir in Zukunft mit KI sprechen wollen. Zwischen Ressourcenbewusstsein und sozialem Umgangston braucht es neue Lösungen, technisch wie kulturell. Denn am Ende prägt nicht nur der Algorithmus die Interaktion, sondern auch, wie wir uns entscheiden, mit Technologie zu kommunizieren.