Transparenz und gute Regierungsführung Spotting AI fakes: „Can you beat the machine?“ - Online-Workshop zu KI und Desinformation im Kontext des Wiederaufbaus der Ukraine
Rachel Baig betont gleich zu Beginn, dass KI-generierte Falschinformationen weltweit zu einem zentralen Problem geworden seien – nicht nur in Krisenregionen wie der Ukraine oder bei Naturkatastrophen, sondern auch bei Wahlen und gesellschaftlichen Debatten. Laut einer globalen Umfrage (Externer Link) von UNESCO und Ipsos befürchten 87 % der Befragten, dass Desinformation ihre Wahlen beeinflussen könnte. Einer Forsa Umfrage (Externer Link) von 2017 nach fühlen sich auch in Deutschland viele überfordert, Fake News zu erkennen. Baig erläutert: „Es gibt verschiedene Formen von Desinformation. Aus dem Kontext gerissene Videos, manipulierte Bilder, Deepfakes, Fake-Webseiten oder KI-generierte Influencer. Hinter diesen Fälschungen stehen politische Einflussnahme, gesellschaftliche Spaltung, finanzielle Interessen oder das gezielte Untergraben von Medienvertrauen.“
DWs Strategie gegen Desinformation: Faktenchecks, Pre-bunking und Medienkompetenz
Im zweiten Teil ihres Vortrags erklärt Baig die Rolle der Deutschen Welle. Obwohl diese öffentlich finanziert werde, arbeite man dort unabhängig und sehe es als Kernauftrag, Menschen gegenüber Propaganda und Desinformation widerstandsfähiger zu machen. Drei Hauptziele leiteten dabei die Fact-Checker der DW:
- Falschmeldungen kontern und Mythen aufklären.
- Kontext und transparente Quellen liefern, um Missverständnisse zu vermeiden.
- Medienkompetenz stärken und vermitteln, wie jede*r selbst Fakes erkennen kann.
Ein Schwerpunkt ihrer Arbeit spiele das sogenannte Pre-bunking: Schon bevor Kampagnen starten, werden hier durch das DW-Faktencheck-Team Social-Media-Trends analysiert, um frühzeitig auf Falschbehauptungen hinzuweisen – etwa zu Impfungen oder Wahlen. Baig zeigt in ihrem Vortrag, dass Desinformation ein Dauerphänomen ist, das alle Altersgruppen betrifft. Sie veranschaulicht dies anhand gezielter Kampagnen gegen Präsident Selenskyj: manipulierte Videos oder falsche Luxusausgaben sollten seine Glaubwürdigkeit und Spendenbereitschaft untergraben. Russische „Z-Blogger“ verbreiteten solche Narrative koordiniert über Hunderte identische Accounts. Influencer*innen würden über Soziale Medien eher jüngere Menschen ansprechen, während manipulierte Videos über etablierte Medien stärker auf die ältere Generation abzielten.
Rachel Baig von der Deutschen Welle erklärt im Gespräch mit Katharina Lehner von der Plattform Wiederaufbau Ukraine, wie man KI-Fakes erkennen kann.
Praktische Werkzeuge und Herausforderungen beim Erkennen von Fakes
Rachel Baig warnt vor sogenannten KI-Halluzinationen: „Chatbots wie Grok oder Meta AI können überzeugend falsche Informationen liefern, wenn sie für Schnell-Checks genutzt werden. KI-Fakes treten nicht nur in visuellen Medien auf, sondern auch in Audio, Text und auf gefälschten Webseiten.“
Fünf Kern-Tipps helfen beim Erkennen von Manipulation:
- Details prüfen, beispielsweise Finger an der Hand, Schrift und Sprache, Marken-Logos
- Rückwärtssuchen nutzen, also eine umgekehrte Bildersuche, um den Ursprung und frühere Verwendungen des Materials zu finden
- verlässliche Quellen vergleichen
- auf Inkonsistenzen achten
- den gesunden Menschenverstand
einsetzen
Ein zusätzliches Tool der Faktenprüfung ist laut Raichel Baig die Geolokalisierung, mit der man überprüfen könne, ob ein Foto oder Video tatsächlich den genannten Ort zeigt. Dazu empfiehlt Baig, Straßenschilder, markante Gebäude, Logos oder Autotypen zu identifizieren und mit Google Maps oder Satellitenbildern abzugleichen. Ebenso könne es helfen, auf unterschiedliche Dialekte zu achten und damit eine Verortung vornehmen zu können.
Unsichtbare Wasserzeichen großer KI-Anbieter wie Google seien laut Baig ein Fortschritt, würden jedoch bei Screenshots oder Screenrecordings ihre Wirkung verlieren. Während Europa an strengeren Regelungen arbeite, fehle in vielen anderen Weltregionen der politische Druck auf die Anbieter von Social-Media-Plattformen.
Schutzempfehlungen für NGOs und Aktivist*innen
Baig rät NGOs und Menschenrechtsaktivist*innen, Desinformation nicht über private Smartphones zu recherchieren. Denn wer eigene Geräte nutze, riskiere psychische Belastungen auch in der Freizeit, etwa weil die Inhalte im Kopf nachwirken oder durch algorithmische Verstärkungen immer wieder auftauchen können. Auf Arbeitsgeräten oder in Inkognito-Browsern bleibe die Konfrontation stärker auf den beruflichen Rahmen begrenzt.
Obwohl seriöse Inhalte weniger Klicks erzielten als Fake News bleibe das konsequente Verbreiten faktenbasierter Informationen essenziell, um Aufmerksamkeit und Vertrauen zu schaffen.
Abschließend betont Rachel Baig, dass etablierte Medienhäuser und IFCN-Mitglieder wie DW, BBC, CNN, ARD, ZDF oder die Washington Post die verlässlichsten Quellen sind. Auch wenn sie gelegentlich Fehler machen, korrigieren sie diese transparent. KI-Fälschungen würden immer raffinierter, doch mit dem richtigen Wissen, Achtsamkeit und geeigneten Werkzeugen ließen sie sich aufdecken.
Rachel Baig unterstreicht: „Medienkompetenz bleibt der wichtigste Schutz gegen die Schneeballwirkung von Fake News.“