Von künstlicher Intelligenz gesteuerte Gesprächsagenten (oft als Chatbots mit künstlicher Intelligenz (KI) bezeichnet) sind zu einem primären Kanal geworden, der es Milliarden von Menschen ermöglicht, auf Informationen zuzugreifen, Recherchen anzustellen und sich an politischen Diskussionen zu beteiligen. Wie eine aktuelle Analyse des American Security Project (ASP) zeigt, zeichnet sich jedoch ein besorgniserregender Trend ab: Die besten KI-Systeme spucken die der Kommunistischen Partei Chinas (KPCh) freundlich gesinnten Narrative aus, vor allem, wenn sie Aufforderungen erhalten, die auf Chinesisch formuliert sind oder politisch sensible Themen behandeln.
Der Gedanke der Fehlinformation, der Fehlausrichtung sowie der unbeabsichtigten Verbreitung autoritärer Propaganda wird zu einer greifbaren Aussicht und nicht zu einer potenziellen, die im Bereich der theoretisch möglichen Auswirkungen bleibt, wenn diese Systeme mehr Fähigkeiten und Einfluss gewinnen. Die Ergebnisse des Berichts sind daher für die KI-Entwickler, die politischen Entscheidungsträger und die Zivilgesellschaften wichtig, die sie als dringlich betrachten müssen.
AI-Ausrichtung und der Einfluss der Propaganda
Der Kern dieses Problems ist die Verunreinigung der Trainingsdaten. Große Sprachmodelle (Large Language Models, LLMs) wie ChatGPT von OpenAI, Copilot von Microsoft und Gemini von Google werden auf einem riesigen Korpus öffentlich zugänglicher Online-Inhalte trainiert. Wenn ein erheblicher Teil dieser Inhalte manipuliert wird – sei es durch Bots, staatliche Akteure oder Fehlinformationsnetzwerke – können LLMs diese Verzerrungen unbeabsichtigt verinnerlichen und reproduzieren.
Wie eine Untersuchung des ASP zeigt, handelt es sich dabei nicht um ein hypothetisches Szenario, sondern um eine aktuelle Realität. Im Rahmen der Studie wurden fünf prominente KI-Chatbots getestet – darunter ChatGPT, Copilot, Gemini, R1 von DeepSeek und Grok von xAI. Verwendet wurden Eingaben in englischer sowie in vereinfachter chinesischer Sprache zu Themen, die von der chinesischen Regierung als politisch sensibel eingestuft werden.
Die Ergebnisse lassen einen klaren Trend erkennen: KI-generierte Antworten spiegeln häufig Zensur, Desinformation oder Framing der KPCh wider, insbesondere in chinesischer Sprache.
Sprache als Filter: Divergierende Narrative
Eine der auffälligsten Erkenntnisse des ASP-Berichts ist, wie unterschiedlich Chatbots je nach verwendeter Sprache reagieren. Dieselbe Eingabeaufforderung kann auf Englisch faktenbasierte, nuancierte Antworten und auf Chinesisch propagandistisch geprägte Antworten liefern.
COVID-19 Ursprünge
Auf Englisch:
- ChatGPT, Gemini und Grok erkennen die gängigen wissenschaftlichen Theorien an, darunter die zoonotische Übertragung und die Möglichkeit eines Laborlecks.
- Copilot und DeepSeek geben vage, unverbindliche Antworten und lassen Hinweise auf Wuhan oder die Theorie des Laborlecks weg.
Auf Chinesisch:
- Alle Modelle beschreiben die Ursprünge der Pandemie als „ungelöstes Rätsel“ oder natürliches Ereignis.
- Gemini fügt irreführende, auf die CCP ausgerichtete Argumente hinzu und behauptet, dass die ersten COVID-19-Fälle in den USA und Frankreich gefunden wurden.
Massaker auf dem Tiananmen-Platz
Auf Englisch:
- Alle Modelle außer DeepSeek bezeichnen die Niederschlagung von 1989 als „Massaker auf dem Platz des Himmlischen Friedens“.
- Grok spricht ausdrücklich davon, dass „unbewaffnete Zivilisten“ vom Militär getötet wurden.
- Andere Modelle verwenden abgeschwächte Begriffe wie „Niederschlagung“ oder „Unterdrückung“.
Auf Chinesisch:
- ChatGPT verwendet das Wort „Massaker“, wenn auch mit Vorsicht.
- Copilot und DeepSeek nennen es den „Vorfall vom 4. Juni“ und spiegeln damit die von der KPCh genehmigte Terminologie wider.
- Copilot rechtfertigt die staatliche Gewaltanwendung sogar als Reaktion auf „Rufe nach Reformen“.
Uigurische Menschenrechtsverletzungen
Auf Englisch:
- Mehrere Modelle verweisen auf glaubwürdige Berichte über Unterdrückung und Menschenrechtsverletzungen.
Auf Chinesisch:
- Copilot und DeepSeek stellen Chinas Vorgehen in Xinjiang als Maßnahmen für „Sicherheit und soziale Stabilität“ dar.
- Es wird auf staatsnahe Quellen verwiesen, ohne dass internationale Kritik oder UN-Erkenntnisse erwähnt werden.
Diese sprachliche Trennung verdeutlicht eine gefährliche Zweikanal-Dynamik, bei der KI-Systeme dem westlichen Publikum wahrheitsgemäße Informationen präsentieren, während sie chinesischsprachige Nutzer mit Propaganda versorgen und so das von der KPCh gewünschte Informationsumfeld verstärken.
Der Copilot von Microsoft: Der am besten angepasste?
Unter den bewerteten Modellen wurde Microsofts Copilot als sehr gefährlich eingestuft. Der ASP stellt fest, dass andere US-Modelle sich in der Regel weigern würden, Propaganda der KPCh als legitime oder gleichwertige Form der Information zu verbieten, während Copilot diese Propaganda als genau das darstellt.
Dem Bericht zufolge könnte dies durch Microsofts Geschäftsaktivitäten in China beeinflusst werden, da das Unternehmen fünf Rechenzentren in dem Land betreibt. Chinas KI-Vorschriften von 2023 verlangen, dass Chatbot-Dienste die „sozialistischen Grundwerte“ wahren und „subversive“ Sprache vermeiden.
Diese geschäftliche Realität führt zu einem potenziellen Interessenkonflikt: Um in China wettbewerbsfähig zu bleiben, könnten Unternehmen gezwungen sein, Kompromisse bei der Neutralität, der Genauigkeit oder der Meinungsfreiheit von KI-generierten Ergebnissen einzugehen.
Was die ASP-Wissenschaftler herausfanden, ist, dass die von Copilot aktivierten Zensurmechanismen vielleicht etwas zu rigoros agieren, sogar mehr, als es einige chinesische Feuerwaffeninlandsdienste tolerieren würden. Sie umschiffen systematisch heikle politische Themen oder geben nur irrelevante allgemeine Antworten (z. B. Reisetipps), wenn sie nach bürgerlichen Freiheiten oder Demokratie gefragt werden.
Wie Propaganda in die Ausbildungspipeline gelangt
Die Kontaminierung von Trainingsdaten erfolgt nicht zufällig. Nach Angaben der ASP wendet die CCP ausgeklügelte Taktiken an, um das Internet mit staatsnahen Inhalten zu überfluten:
- Astroturfing: Die Erstellung von scheinbar basisdemokratischen Beiträgen durch gefälschte ausländische Nutzer oder Organisationen zur Unterstützung von KPCh-Narrativen.
- Bot-Verstärkung: Automatisierte Netzwerke verstärken vorteilhafte Inhalte auf Plattformen wie X, Facebook oder YouTube.
- Content Seeding: Einfügen von Propaganda in Open-Source-Datenbanken, Kommentarbereiche und Wissensspeicher, die von KI-Trainingsalgorithmen ausgewertet werden können.
Sobald diese Inhalte in die Trainingsdatensätze von LLMs aufgenommen werden, werden sie normalisiert. Ohne bewusstes Eingreifen der Entwickler können KI-Modelle diese Ansichten so wiedergeben, als ob sie neutral oder sachlich korrekt wären.
Geopolitische Folgen einer falsch ausgerichteten KI
Die Auswirkungen dieses Trends gehen weit über verzerrte Chatbot-Antworten hinaus. Wenn LLMs, die auf CCP-beeinflusste Daten trainiert wurden, in sensiblen Bereichen wie Verteidigung, Bildung, Medien oder Politikberatung eingesetzt werden, steigt das Risiko eines Informationskriegs dramatisch an.
Nach Angaben des ASP:
- Fehlinformationen, die von solchen KI-Systemen ausgehen, sind wahrscheinlich das Schlimmste für den demokratischen Diskurs, da sie den Anschein der Gleichheit zwischen den Werten des Liberalismus und denen des Autoritarismus erwecken.
- Risiken für die nationale Sicherheit entstehen, wenn KI-Systeme beginnen, Handlungen zu empfehlen oder Erkenntnisse zu generieren, die auf gegnerischen Werten basieren.
- Zensur durch Design wird zur Realität, wenn Modelle kritische Themen oder Sprache auf der Grundlage politischer Empfindlichkeiten, die in ihren Filtern fest einprogrammiert sind, präventiv ausschließen.
Die Autoren spekulieren, dass bald der Nachweis der Übereinstimmung der KI mit demokratischen Werten eventuell sogar unmöglich werden könnte, wenn der Westen irgendwann die Macht über die wahrheitsgemäßen und für überprüfbare Trainingsdaten verlieren sollte.
Ein Weg nach vorn: Datensouveränität und Modelltransparenz
Angesichts dieser Erkenntnisse empfiehlt die ASP mehrere wichtige Maßnahmen zur Wiederherstellung der Integrität in der KI Entwicklung:
- Entwicklung und Schutz verlässlicher Trainingsdatenbestände: Westliche Institutionen müssen in kuratierte, mehrsprachige, faktenbasierte Korpora investieren, die gegen Manipulationen resistent sind.
- Die Transparenz verbessern: KI-Unternehmen sollten die Sprachen, Inhaltsquellen und geopolitischen Filter, die sie auf ihre Trainingsdaten und -ergebnisse anwenden, öffentlich bekannt geben.
- KI-Anpassungsstandards einführen: Internationale Rahmenwerke müssen sicherstellen, dass KI-Modelle keine autoritären Narrative fördern oder sachliche Inhalte unterdrücken.
- Einführung von Tests zur geopolitischen Resilienz: Modelle sollten sprach- und kulturübergreifend auf Verzerrungen geprüft werden, wobei sich Red-Teaming-Übungen auf staatlich geförderte Einflussnahme konzentrieren sollten.
- Entkopplung der kommerziellen Anreize von der Einhaltung der Zensur: Unternehmen, die in autoritären Ländern tätig sind, müssen auf Kompromisse geprüft werden, die sie eingehen, um ihren Marktzugang zu erhalten.
Schlussfolgerung
Der Bericht des ASP unterstreicht eine ernüchternde Realität: KI-Modelle sind nur so unvoreingenommen wie die Daten, die sie verwenden – und im heutigen Informationsökosystem werden diese Daten aktiv belagert. Die strategische Infusion von CCP-Propaganda in digitale Inhaltsströme verändert die Art und Weise, wie selbst die fortschrittlichsten KI-Tools die Welt interpretieren.
Es steht nicht nur die Integrität der KI-Antworten auf dem Spiel, sondern das Vertrauen in digitale Wissenssysteme selbst. Da LLMs zu Vermittlern der Wahrheit in der Gesellschaft werden, birgt die subtile Hinwendung zu autoritären Narrativen nicht nur das Risiko der Desinformation, sondern auch der Zerstörung demokratischer Institutionen.
Die Zukunft der künstlichen Intelligenz sollte transparent und widerstandsfähig sein und sich an den universellen Menschenrechten orientieren, anstatt von den Zensurbestimmungen eines autoritären Staates beherrscht zu werden. Jetzt ist es an der Zeit zu handeln.