Plattform Wiederaufbau Ukraine

Transparenz und gute Regierungsführung Spotting AI fakes: „Can you beat the machine?“ - Online-Workshop zu KI und Desinformation im Kontext des Wiederaufbaus der Ukraine

KI-Fakes, also mit künstlicher Intelligenz erstellte oder manipulierte Bilder, Videos oder Texte, überschwemmen Netzwerke, untergraben Vertrauen und bedrohen demokratische Prozesse. Der Workshop „Spotting AI Fakes“, von Rachel Baig, Deputy Head of Fact-checking bei der Deutschen Welle (DW) zeigt, wie man Manipulation erkennt, Fakten prüft und sich schützt.

Weitere Informationen

Die Aufzeichnung der Veranstaltung vom 17. September 2025 finden Sie hier: Spotting AI fakes: Can you beat the machine? (Externer Link)

Die Deutsche Welle (DW) (Externer Link) ist Deutschlands Auslandsrundfunk mit dem Auftrag, weltweit unabhängigen Journalismus zu bieten.

Rachel Baig betont gleich zu Beginn, dass KI-generierte Falschinformationen weltweit zu einem zentralen Problem geworden seien – nicht nur in Krisenregionen wie der Ukraine oder bei Naturkatastrophen, sondern auch bei Wahlen und gesellschaftlichen Debatten. Laut einer globalen Umfrage (Externer Link) von UNESCO und Ipsos befürchten 87 % der Befragten, dass Desinformation ihre Wahlen beeinflussen könnte. Einer Forsa Umfrage (Externer Link) von 2017 nach fühlen sich auch in Deutschland viele überfordert, Fake News zu erkennen. Baig erläutert: „Es gibt verschiedene Formen von Desinformation. Aus dem Kontext gerissene Videos, manipulierte Bilder, Deepfakes, Fake-Webseiten oder KI-generierte Influencer. Hinter diesen Fälschungen stehen politische Einflussnahme, gesellschaftliche Spaltung, finanzielle Interessen oder das gezielte Untergraben von Medienvertrauen.“

DWs Strategie gegen Desinformation: Faktenchecks, Pre-bunking und Medienkompetenz

Hier finden Sie die Präsentation von Rachel Baig.

Dateityp PDF | Dateigröße 8 MB, Seiten 49 Seiten

Beim Fact-Checking (Externer Link) entlarvt sie Falschmeldungen, liefert Kontext und stärkt Medienkompetenz.

Hier (Externer Link) finden Sie weiterführende Tipps des DW-Faktencheck-Teams, sowie den YouTube-Auftritt der DW in längeren oder kürzeren Formaten.

Im zweiten Teil ihres Vortrags erklärt Baig die Rolle der Deutschen Welle. Obwohl diese öffentlich finanziert werde, arbeite man dort unabhängig und sehe es als Kernauftrag, Menschen gegenüber Propaganda und Desinformation widerstandsfähiger zu machen. Drei Hauptziele leiteten dabei die Fact-Checker der DW:

  1. Falschmeldungen kontern und Mythen aufklären.
  2. Kontext und transparente Quellen liefern, um Missverständnisse zu vermeiden.
  3. Medienkompetenz stärken und vermitteln, wie jede*r selbst Fakes erkennen kann.

Ein Schwerpunkt ihrer Arbeit spiele das sogenannte Pre-bunking: Schon bevor Kampagnen starten, werden hier durch das DW-Faktencheck-Team Social-Media-Trends analysiert, um frühzeitig auf Falschbehauptungen hinzuweisen – etwa zu Impfungen oder Wahlen. Baig zeigt in ihrem Vortrag, dass Desinformation ein Dauerphänomen ist, das alle Altersgruppen betrifft. Sie veranschaulicht dies anhand gezielter Kampagnen gegen Präsident Selenskyj: manipulierte Videos oder falsche Luxusausgaben sollten seine Glaubwürdigkeit und Spendenbereitschaft untergraben. Russische „Z-Blogger“ verbreiteten solche Narrative koordiniert über Hunderte identische Accounts. Influencer*innen würden über Soziale Medien eher jüngere Menschen ansprechen, während manipulierte Videos über etablierte Medien stärker auf die ältere Generation abzielten.

Standbild eines Videocalls mit Rachel Baig und Katharina Lehner

Rachel Baig von der Deutschen Welle erklärt im Gespräch mit Katharina Lehner von der Plattform Wiederaufbau Ukraine, wie man KI-Fakes erkennen kann.

Rachel Baig von der Deutschen Welle erklärt im Gespräch mit Katharina Lehner von der Plattform Wiederaufbau Ukraine, wie man KI-Fakes erkennen kann.

Praktische Werkzeuge und Herausforderungen beim Erkennen von Fakes

Rachel Baig warnt vor sogenannten KI-Halluzinationen: „Chatbots wie Grok oder Meta AI können überzeugend falsche Informationen liefern, wenn sie für Schnell-Checks genutzt werden. KI-Fakes treten nicht nur in visuellen Medien auf, sondern auch in Audio, Text und auf gefälschten Webseiten.“

Unterstützen können Tools wie Hive Moderation, AI or Not und True Media (vorübergehend pausiert), die Bilder, Videos und Audios analysieren, aber nur eine etwa 50/50-Chance auf korrekte Ergebnisse bieten. Baig rät, zuerst eigene Beobachtungen heranzuziehen und die Tools nur ergänzend einzusetzen.

Fünf Kern-Tipps helfen beim Erkennen von Manipulation:

  • Details prüfen, beispielsweise Finger an der Hand, Schrift und Sprache, Marken-Logos
  • Rückwärtssuchen nutzen, also eine umgekehrte Bildersuche, um den Ursprung und frühere Verwendungen des Materials zu finden
  • verlässliche Quellen vergleichen
  • auf Inkonsistenzen achten
  • den gesunden Menschenverstand
    einsetzen

Ein zusätzliches Tool der Faktenprüfung ist laut Raichel Baig die Geolokalisierung, mit der man überprüfen könne, ob ein Foto oder Video tatsächlich den genannten Ort zeigt. Dazu empfiehlt Baig, Straßenschilder, markante Gebäude, Logos oder Autotypen zu identifizieren und mit Google Maps oder Satellitenbildern abzugleichen. Ebenso könne es helfen, auf unterschiedliche Dialekte zu achten und damit eine Verortung vornehmen zu können.

Unsichtbare Wasserzeichen großer KI-Anbieter wie Google seien laut Baig ein Fortschritt, würden jedoch bei Screenshots oder Screenrecordings ihre Wirkung verlieren. Während Europa an strengeren Regelungen arbeite, fehle in vielen anderen Weltregionen der politische Druck auf die Anbieter von Social-Media-Plattformen.

Schutzempfehlungen für NGOs und Aktivist*innen

Algorithmische Verstärkung bezeichnet den Einsatz von Algorithmen, um bestimmte Inhalte basierend auf Nutzerverhalten und Relevanz hervorzuheben. Dies führt dazu, dass populäre Inhalte eine höhere Sichtbarkeit erhalten, während weniger gefragte Inhalte weniger beachtet werden.

Das International Fact-Checking Network (IFCN) ist ein globales Netzwerk am Poynter Institute, das Faktenprüfer*innen durch gemeinsame Standards, Zertifizierung und Austausch unterstützt.

Baig rät NGOs und Menschenrechtsaktivist*innen, Desinformation nicht über private Smartphones zu recherchieren. Denn wer eigene Geräte nutze, riskiere psychische Belastungen auch in der Freizeit, etwa weil die Inhalte im Kopf nachwirken oder durch algorithmische Verstärkungen immer wieder auftauchen können. Auf Arbeitsgeräten oder in Inkognito-Browsern bleibe die Konfrontation stärker auf den beruflichen Rahmen begrenzt.

Obwohl seriöse Inhalte weniger Klicks erzielten als Fake News bleibe das konsequente Verbreiten faktenbasierter Informationen essenziell, um Aufmerksamkeit und Vertrauen zu schaffen.

Abschließend betont Rachel Baig, dass etablierte Medienhäuser und IFCN-Mitglieder wie DW, BBC, CNN, ARD, ZDF oder die Washington Post die verlässlichsten Quellen sind. Auch wenn sie gelegentlich Fehler machen, korrigieren sie diese transparent. KI-Fälschungen würden immer raffinierter, doch mit dem richtigen Wissen, Achtsamkeit und geeigneten Werkzeugen ließen sie sich aufdecken.

Rachel Baig unterstreicht: „Medienkompetenz bleibt der wichtigste Schutz gegen die Schneeballwirkung von Fake News.“