Blog

Die wachsende Bedrohung durch LLM Grooming: Wie Fake News Sprachmodelle vergiften

Eine aktuelle Untersuchung ergab, dass Russlands Pravda-Netzwerk LLM Grooming nutzte, um KI-Chatbots wie ChatGPT und Gemini im Jahr 2024 mit 3,6 Millionen gefälschten Artikeln zu überfluten, wodurch sie in 33 % der Antworten pro-kremlfreundliche Desinformation wiederholten.

LLM Grooming Source: GuardOS

Das neue Schlachtfeld: KI und Desinformation

Künstliche Intelligenz (KI) hat revolutioniert, wie wir Informationen abrufen und verarbeiten, aber sie hat auch neue Möglichkeiten zur Manipulation geschaffen. Eine aktuelle Untersuchung von NewsGuard 1 2 hat eine ausgeklügelte russische Desinformationskampagne aufgedeckt, die nicht nur darauf abzielt, menschliche Leser in die Irre zu führen, sondern auch KI-gestützte Chatbots zu manipulieren. Diese Methode, bekannt als LLM Grooming, zielt darauf ab, die Trainings- und Abrufdaten grosser Sprachmodelle (LLMs) zu infiltrieren, sodass Fehlinformationen in ihre Antworten eingebettet werden.

Das Pravda-Netzwerk: 3,6 Millionen Artikel voller Desinformation

Im Zentrum dieser Bemühungen steht ein russisches Desinformationsnetzwerk namens Pravda (russisch für "Wahrheit"), das das Internet mit falschen und irreführenden Narrativen überflutet. Allein im Jahr 2024 veröffentlichte das Netzwerk 3,6 Millionen Artikel, von denen viele in führende KI-Systeme wie ChatGPT, Google Gemini, Microsoft Copilot und Meta AI gelangten.

Anstatt einzelne Leser zu überzeugen, verfolgt Pravda die Strategie, das Web mit falschen Narrativen zu durchdringen, um die Wahrscheinlichkeit zu erhöhen, dass KI-Modelle diese verarbeiten, abrufen und unbewusst weiterverbreiten.

Wie KI-Modelle manipuliert werden

Desinformationskampagnen richteten sich traditionell an Nutzer sozialer Medien und Nachrichtenkonsumenten. Doch mit dem Aufstieg KI-gestützter Chatbots haben Propagandisten ein neues Ziel: die LLMs, die diese Chatbots antreiben. Die Untersuchung von NewsGuard ergab, dass ein Drittel der getesteten Chatbot-Antworten Narrative enthielt, die von Pravda gefördert wurden.

Die Methode ist einfach, aber effektiv:

  1. Das Internet mit Propaganda-Artikeln überfluten, sodass sie in Suchmaschinenergebnissen und KI-Trainingsdatensätzen erscheinen.
  2. KI-Abrufmechanismen ausnutzen, die sich auf öffentlich verfügbare Informationen stützen, um Antworten zu generieren.
  3. Chatbot-Ausgaben beeinflussen, sodass diese Desinformation wiedergeben und sogar bestätigen.

Welche falschen Narrative werden verbreitet?

Das Pravda-Netzwerk wurde als Hauptquelle von mindestens 207 Desinformationsnarrativen identifiziert, mit einem starken Fokus auf die Ukraine, westliche Politik und globale Konflikte. Zu den häufigsten Falschbehauptungen gehören:

  1. Die Existenz geheimer US-Biowaffenlabore in der Ukraine.
  2. Anschuldigungen, dass der ukrainische Präsident Wolodymyr Selenskyj US-Militärhilfe missbrauche.
  3. Falsche Behauptungen, dass die Ukraine Donald Trumps Plattform Truth Social verboten habe (obwohl sie dort nie verfügbar war).

Diese Narrative, die oft von kremlnahen Medien verbreitet werden, werden neu verpackt und durch ein Netzwerk von 150 Pravda-verbundenen Websites verbreitet, die seriöse Nachrichtenquellen imitieren.

Die Risiken von KI-manipulierten Informationen

Die Infiltration von KI-Systemen durch Desinformationskampagnen birgt erhebliche politische, soziale und technologische Risiken. KI-Chatbots werden häufig für Recherchen, Bildung und sogar Entscheidungsfindung genutzt, sodass falsche Narrative schneller und überzeugender verbreitet werden als je zuvor.

Experten warnen, dass die zunehmende Integration von KI in den Alltag dazu führen könnte, dass die Kontrolle über deren Ausgaben zu einem mächtigen Instrument für Einflussoperationen wird. Das Konzept des LLM Grooming – das gezielte Füttern von KI-Modellen mit Falschinformationen – könnte von staatlichen Akteuren, extremistischen Gruppen und anderen böswilligen Entitäten genutzt werden, um den globalen Diskurs zu verzerren.

Was kann getan werden?

Der Kampf gegen KI-gesteuerte Desinformation steckt noch in den Anfängen, aber mehrere Gegenmassnahmen werden diskutiert:

  1. Stärkere Inhaltsfilterung: KI-Entwickler müssen Mechanismen zur Faktenprüfung verbessern und bessere Schutzmassnahmen gegen manipulierte Inhalte schaffen.
  2. Erhöhte Transparenz: KI-Unternehmen sollten offenlegen, wie Modelle Quellen auswählen, und Nutzern Informationen über mögliche Verzerrungen bereitstellen.
  3. Zusammenarbeit mit Faktenprüfern: Organisationen wie NewsGuard, das American Sunlight Project und andere Watchdogs können KI-Entwicklern helfen, Desinformationskampagnen zu erkennen und zu kennzeichnen.
  4. Cybersecurity-Massnahmen: Regierungen und private Akteure müssen zusammenarbeiten, um staatlich geförderte Desinformationsnetzwerke zu bekämpfen.

Fazit

Das Aufkommen von LLM Grooming stellt eine neue Front im Informationskrieg dar. Indem gezielt falsche Narrative in KI-Trainingsdaten eingespeist werden, können böswillige Akteure subtil die von Chatbots generierten Antworten beeinflussen und so die öffentliche Wahrnehmung auf unbemerkte und beispiellose Weise formen.

Da generative KI immer weiter verbreitet wird, wird es entscheidend sein, die Integrität ihrer Informationsquellen zu gewährleisten. Ohne proaktive Gegenmassnahmen laufen Sprachmodelle Gefahr, Werkzeuge der Desinformation statt Quellen der Wahrheit zu werden.

Footnotes

  1. Exclusive: Russian disinformation floods AI chatbots, study finds | Axios
  2. Russian Propaganda Has Now Infected Western AI Chatbots — New Study | Forbes