World News

10 Dinge, die ich beim Beta-Test einer KI zur Verfolgung von Desinformation gelernt habe

18 Monate lang koordinierte ich PROMPT, ein von der EU finanziertes Projekt zum Einsatz von KI in der Analyse von Desinformationsnarrativen. Dafür habe ich mit mehr als 30 Projektpartnern zusammengearbeitet, unter anderem mit einer Reihe von Faktenprüfer:innen und Journalist:innen sowie Redaktionen aus verschiedenen europäischen Ländern. Wir haben Beta-Test-Sitzungen mit mehreren Dutzend Teilnehmenden organisiert. Aus diesem Prozess habe ich zehn Lektionen mitgenommen:

1) Bei Informationsexpert:innen kann man sich keine Fehlalarme leisten. Wenn man KI-Tools testet, um festzustellen, ob sie Übereinstimmungen zwischen A und B finden – wobei A hier ein Social-Media-Beitrag und B ein bekanntes Desinformationsnarrativ ist – bekommt man nicht immer das richtige Ergebnis. Im Rahmen eines Experiments darf das passieren, aber man kann keine irreführenden Informationen an Fachleute weitergeben. Eine der größten Herausforderungen bei unserem Pretest war es, die Anzahl der „falschen Positiven” zu reduzieren, also Auffälligkeiten, die erkannt wurden, aber tatsächlich harmlos sind. Obwohl KI viel leisten kann, gibt es natürlich kein perfektes Wundermittel, um Desinformation zu erkennen – oder zumindest haben wir es noch nicht gefunden.

2) Tempo ist entscheidend, denn Journalist:innen müssen unter Termindruck schnell arbeiten. Es ist eine Herausforderung, Daten zu sammeln und auszuwerten, um sie zu unterstützen. Dabei geht es vor allem  darum, qualitativ hochwertige Daten in ausreichender Menge zu erhalten, um nützliche Erkenntnisse zu gewinnen. Mit Ausnahme von Wikipedia werde ich nicht näher darauf eingehen, wie Plattformen diese Aufgabe erschweren. Zusammenfassen lässt sich aber: Es ist nicht möglich, das gesamte Datenuniversum zu jedem Thema kontinuierlich zu scannen – oder nur sehr wenige könnten sich das leisten. Was tun wir also? Der PROMPT-Ansatz besteht darin, den richtigen Korpus zu identifizieren, der hilft, die Fragen von Journalist:innen zu beantworten, nicht den größten Korpus. Zum Beispiel: Wie spricht ein politischer Kandidat über und zu der Diaspora seines Landes? Nicht die KI stellt die richtige Frage, sondern die Journalist:innen.

3) KI-Kultur und -Umgang unterscheidet sich innerhalb der journalistischen Branche. Aus gutem Grund betrachten einige Journalist:innen KI nicht nur als potenziellen Ersatz oder Abwertung ihrer Arbeit, sondern auch als Quelle der Ausbeutung. KI-Einsatz oder Teams dabei zu unterstützen, KI-Tools aufzubauen, war nie einfach. Glücklicherweise haben wir in unserem Konsortium Faktenprüfer:innen sowie Medienexpert:innen, die daran gearbeitet haben, diese Lücke zu schließen, sowohl durch ihre Netzwerke als auch durch ein MOOC (Massive Open Online Course) und Leitlinien zu KI und Journalismus. Hinter diesem Bedarf an Zusammenarbeit über die Redaktionen hinaus steht das schwierige Schlagwort der „Gesamtgesellschaft”: Wie können wir diese Kollaboration in der Praxis aufrechterhalten, wenn EU-Projekte auslaufen?

4) Techniker:innen müssen kreativ sein, um  das Tool in die Arbeitsabläufe von Journalist:innen zu integrieren. Vergessen wir ausgefeilte Benutzeroberflächen mit schöner Datenvisualisierung. Unsere Beta-Tests haben gezeigt, dass Journalist:innen sich einfache, übersichtliche Funktionen wünschen. Die wichtigsten Narrative zum Thema LGBTQ+ im November 2025 auf vier ausgewählten Plattformen? Idealerweise benötigt das maximal zwei Klicks und zeigt dann ein einfaches Kreisdiagramm mit wenigen Farben und lesbaren Narrativen. Eine echte Herausforderung bleibt jedoch, wie das Tool in den Desktop oder Browser der Nutzenden integriert werden kann. Ich glaube, wir alle haben diese eine App, die seit zwei Jahren auf dem Desktop verstaubt.

Martin Lestra, Principle Investigator, PROMPT-Projekt

5) Das, was für den einen wichtig ist, ist es für andere möglicherweise nicht. In PROMPT haben wir eine MetaFake-Funktion entwickelt, mit der man mithilfe von KI auf einen bestehenden Debunk zugreifen kann, der zu den untersuchten Social-Media-Beiträgen passt. Anders gesagt: eine Abkürzung. Journalist:innen wollen ihre Zeit nicht damit verbringen, die gleichen Geschichten zu recherchieren, zusätzlich sind sie daran interessiert zu sehen, ob Kolleg:innen in anderen Ländern bereits ähnliche Desinformationsnarrative gesehen haben – zum Beispiel im Zusammenhang mit Wahlen. Ein weiteres Beispiel: Wir haben den Wikipedia Sensitivity Meter entwickelt, der die Anfälligkeit von Wikipedia-Seiten bewertet. Journalist:innen in unserem Konsortium nutzen ihn, um schnell zu überprüfen, ob Kontroversen offline auch auf der Plattform Debatten, oder schlimmer noch, Versuche der Informationsmanipulation auslösten.

6) Durch das Beta-Testing wurde außerdem klar, wie wichtig Wikipedia für Informationsfachleute ist. Wir wussten bereits, dass Journalist:innen Wikipedia auf verschiedene Arten nutzen, meistens für schnelle grundlegende Kontextinformationen vor einer Recherche. Im Verlauf des PROMPT-Projekts hat sich die Wahrnehmung von Wikipedia verändert, weil zwei Dinge passiert sind:   Erstens haben Musk & Co. auf Wikipedia aufmerksam gemacht, indem sie es angriffen – Wokipedia und Grokipedia – und zweitens wurden die Verbindungen zwischen Wikipedia und LLM-gestützten Chatbots deutlicher. Das Verständnis dafür, dass manipulierte Inhalte aus der Online-Enzyklopädie ihren Weg in ChatGPT finden würden, hat zugenommen. Das war für Journalist:innen interessant. Nach unserem Beta-Test haben einige von ihnen Retro-Engineering betrieben, um zu überprüfen, ob problematische Antworten von ChatGPT tatsächlich auf Probleme auf der Wikipedia-Seite hindeuten.

7) Journalist:innen suchen nach Anzeichen für Koordination auf Wikipedia und Social-Media-Plattformen. Sie interessieren sich dafür, wie Akteur:innen von Desinformationskampagnen sich koordinieren, wie sie sich gegenseitig reposten und wie sie Bots einsetzen, um ihre Reichweite zu vergrößern. Aus diesem Grund untersuchen die PROMPT-Tools koordiniertes unechtes Verhalten (« Coordinated Inauthentic Behavior »).

Bildquelle: Pixabay, Gerd Altmann

8) Die Beta-Tests von PROMPT unterstützten die großartige Arbeit der Journalist:innen. Einige befassten sich mit der rhetorischen Handschrift der russischen Desinformation über Transnistrien während der moldauischen Parlamentswahlen. Andere wiederum untersuchten die Makro-Narrative, die sich nach der jüngsten Entscheidung des EuGH zur Anerkennung gleichgeschlechtlicher Ehen in der EU gegen LGBTQ+-Gemeinschaften richteten. Das ist das Großartige an KI – man kann gleichzeitig an den Details und am Gesamtbild arbeiten.

9) PROMPT basiert auf der Prämisse, dass Desinformation in verschiedenen Sprachen unterschiedlich funktioniert; und dass KI dabei helfen kann, dies zu entwirren. 18 Monate später und nach 6 Monaten Beta-Testing glaube ich, dass die Beta-Tester:innen über das Projekt hinaus ein echtes Interesse daran haben, die digitale Kultur der Desinformation zu analysieren. Wie lässt sich humorgestützte Desinformation vom Estnischen ins Französische übersetzen? Wie können scheinbar harmlose Wörter – Globalist, Kollaborateur – verschlüsselte Bedeutungen haben, die nur ein bestimmtes Publikum ansprechen? Wir haben mit unseren Beta-Tests nur die Oberfläche dieses faszinierenden Forschungszweiges angekratzt, indem wir KI zur Identifizierung von Dogwhistles eingesetzt haben. Journalist:innen leisten einen wichtigen Beitrag zu diesem Bereich. Dank unserer Projektpartner haben wir mit EJO, EFCSN und EDMO zusammengearbeitet und hoffen, dies auch weiterhin tun zu können. Denkbar wäre beispielsweise ein interaktives europäisches Wörterbuch mit Dogwhistles und verschlüsselter Sprache, das Faktenprüfer:innen bei ihren Untersuchungen unterstützen könnte.

10) PROMPT ist ein weiterer Meilenstein in der Forschung zum Thema Desinformation. Wo liegt die nächste Herausforderung? Nach Gesprächen mit Journalist:innen während der Beta-Tests und der Überprüfung ihrer Arbeit scheint es, dass ein nächster Schritt die Aufdeckung und Bekämpfung von Desinformation in privaten Messaging-Apps sein könnte. Wenn Sie sich ebenfalls für dieses Thema interessieren, melden Sie sich bitte bei uns!

Der Beitrag 10 Dinge, die ich beim Beta-Test einer KI zur Verfolgung von Desinformation gelernt habe erschien zuerst auf Europäisches Journalismus-Observatorium (EJO).

Читайте на сайте