Interview
Millionen Views in Social Media:Myanmar-Erdbeben - KI-Fakes fluten das Netz
von Jan Schneider und Oliver Klein
|
Im Netz gehen dramatische Erdbeben-Videos viral, viele davon sind aber KI-Fakes. Auf den ersten Blick wirken sie authentisch - ZDFheute erklärt, wie Sie die Fälschungen entlarven.
Eine Woche nach dem verheerenden Erdbeben in Myanmar und Thailand kämpfen die Einsatzkräfte noch immer mit den Folgen der Katastrophe. Tausende Menschen starben, Tausende haben ihr Zuhause verloren, internationale Hilfsorganisationen arbeiten intensiv daran, Betroffene zu versorgen.
Im Netz nutzen zahlreiche Social-Media-Nutzer die Krise für ihre eigenen Zwecke: Auf Plattformen wie TikTok, Facebook, X (früher Twitter) und YouTube werden gezielt dramatische Videos veröffentlicht, die mithilfe von Künstlicher Intelligenz erstellt wurden - nur um Aufmerksamkeit und Reichweite zu erzielen. Oft mit Erfolg: Die Clips werden teilweise millionenfach angesehen.
Hohe Reichweite - trotz klarer Fake-Indizien
Besonders prominent kursierte ein Video mit der Überschrift "17 M people affected" ("17 Millionen Menschen betroffen"). Der Clip zeigt dramatische Szenen mit zerstörten Häusern und aufgerissenen Straßen, im Hintergrund lodert ein Feuer. Das Material wurde angeblich in Myanmar aufgenommen.
Der Clip wurde tausendfach geteilt und verbreitete sich unter anderem in Ländern wie Russland, China, Thailand, Südkorea und Indien. Tatsächlich handelt es sich aber nicht um eine echte Aufnahme, sondern um computergenerierte Bilder, die mittels der KI-Software Runway erstellt wurden. In manchen Versionen des Videos war noch ein Wasserzeichen der KI-Software zu sehen - in anderen Versionen wurde es gezielt entfernt, um die Herkunft der Videos zu verschleiern.
Ein gefälschtes Video einer zerstörten Stadt, angeblich aufgenommen in Myanmar.
Quelle: Tiktok / @the.360.report
Ein weiteres weit verbreitetes Video zeigt eine Skyline mit markanten Pagoden und zerstörten Gebäuden, angeblich aufgenommen in Mandalay, der zweitgrößten Stadt von Myanmar. Experten konnten nachweisen, dass die dargestellten Tempelanlagen keiner real existierenden Stadt entsprechen. Zudem fielen zahlreiche Anomalien auf, etwa unnatürliche Bewegungen von Personen oder völlig stillstehende Menschen - klare Indizien einer KI-Fälschung.
Auch bei diesem Clip war in einigen Versionen noch ein Wasserzeichen der KI zu sehen, diesmal handelt es sich um die Software Wan des chinesischen Anbieters Alibaba. Das Video wurde unter anderem von einem Account mit mehr als zwei Millionen Followern auf X geteilt - mit der Behauptung, das Material stamme von der BBC. Angezeigt wurde allein dieser Post mehr als 800.000 Mal.
Eine gefälschte Aufnahme von Tempelanlagen in Mandalay. In einigen Versionen des Videos ist das Wasserzeichen der KI-Software (eingekreist) noch zu sehen.
Quelle: X / @MarioNawfal
Selbe Tonspur in 22.000 völlig verschiedenen Videos
Besonders dramatisch wirken KI-Videos von einstürzenden Gebäuden, angeblich aus nächster Nähe gefilmt. Eine Sammlung solcher gefälschter Aufnahmen wurde auf TikTok mit dem Titel "Myanmar Earthquake Update: March 31, 2025" geteilt und schnell verbreitet. Zu sehen sind mehrere einstürzende Gebäude und Brücken, Suchtrupps in Trümmern und eine entgleisende Bahn. Durch zahlreiche Bildfehler und Anomalien sind die Clips als KI-generiert zu erkennen.
Unser Korrespondent Norman Odenthal berichtet aus Mandalay und zeigt, wie es tatsächlich vor Ort aussieht:
Ein Problem der KI-Clip-Produzenten: Die computergenerierten Videos sind zunächst einmal stumm. Das "Myanmar Earthquake Update"-Video ist jedoch unterlegt mit krachendem Lärm und lautem, panischen Geschrei. Es ist ein Sound aus der TikTok-Datenbank mit dem Namen "Original Sound - disaster today" ("Originalton - Katastrophe heute").
Genau diese Tonspur wird allein bei TikTok auch in rund 22.000 anderen Videos verwendet. Die Clips zeigen Tornados, Waldbrände, Überschwemmungen, sogar Ufo-Landungen - die meisten der Videos sind ebenfalls KI-Fakes.
Screenshot aus einem KI-Fake-Video eines zusammenstürzenden Hauses. Auffällig ist, dass sich die gezeigten Menschen normal weiterbewegen, obwohl unmittelbar neben ihnen Trümmer herabstürzen.
Quelle: TikTok / @the.360.report
KI-Experte rät zur Prüfung
Die Flut an Fake-Videos ist auch Martin Steinebach nicht entgangen. Er ist KI-Experte am Fraunhofer Institut für Sichere Informationstechnologie (SIT): "Was wir bei solchen Ereignissen häufig sehen, ist eine Mischung aus KI-Bildern und Aufnahmen von älteren Katastrophen."
Es geht vielen Hersteller der Fake-Videos dabei nicht darum, ein besonders gutes Video zu erstellen, es soll schlicht Aufmerksamkeit generiert werden.
Martin Steinebach, Fraunhofer Institut für Sichere Informationstechnologie (SIT)
Dass Fake-Videos in Zukunft einfach von einer Software erkannt werden können, glaubt Steinebach nicht. Er sieht aktuell große Herausforderungen bei der Erkennung solcher Manipulationen: "Bisher sind uns keine zuverlässigen technischen Ansätze bekannt, die automatisch genutzt werden können."
Es ist unerlässlich, sich Wissen über das Thema anzueignen, um qualifiziert mit den Tools umgehen zu können und deren Ergebnisse zu bewerten.
Martin Steinebach, Fraunhofer Institut für Sichere Informationstechnologie (SIT)
So können Sie KI-Fakes entlarven
Der Inhalt KI-generierter Videos ist oft nicht konsistent. Bei Personen fallen häufig unnatürliche Bewegungen, Fehler bei Proportionen des Körpers oder unlogisches Verhalten auf. Beispiel: In manchen der Videos, die angeblich aus dem Erdbebengebiet in Südostasien stammen, stürzen Hochhäuser ein. Die Personen davor laufen jedoch noch auf das Unglück zu, statt in Panik wegzurennen.
Sieht man sich ein Video auf dem Smartphone an, rät Martin Steinebach vom Fraunhofer Institut für Sichere Informationstechnologie (SIT), in relevante Bereiche zu zoomen und Details genau unter die Lupe zu nehmen - "beispielsweise beim Übergang von Kopf zu Hals - hier zeigen Deepfake-Verfahren manchmal unsaubere Übergänge". Außerdem lohne es sich immer, auf Dinge im Hintergrund zu achten: "Manchmal schweben Objekte, Menschen verschwinden oder laufen rückwärts, sie verschmelzen mit Objekten." Tipp: Videos auf größeren Bildschirmen anschauen - da sind solche Fehler leichter zu erkennen.
Sieht man sich ein Video auf dem Smartphone an, rät Martin Steinebach vom Fraunhofer Institut für Sichere Informationstechnologie (SIT), in relevante Bereiche zu zoomen und Details genau unter die Lupe zu nehmen - "beispielsweise beim Übergang von Kopf zu Hals - hier zeigen Deepfake-Verfahren manchmal unsaubere Übergänge". Außerdem lohne es sich immer, auf Dinge im Hintergrund zu achten: "Manchmal schweben Objekte, Menschen verschwinden oder laufen rückwärts, sie verschmelzen mit Objekten." Tipp: Videos auf größeren Bildschirmen anschauen - da sind solche Fehler leichter zu erkennen.
Ist Künstliche Intelligenz im Spiel ist, gibt es von einer bestimmten Szene in der Regel nur ein einziges Video. Keine anderen Clips oder Fotos in Sozialen Netzwerken zeigen dasselbe spektakulär einstürzende Hochhaus oder dieselbe außergewöhnlich aufgerissene Straße. Die Realität sieht meist anders aus: Passiert ein außergewöhnliches Ereignis in der Öffentlichkeit, wird das meistens von mehreren Menschen gefilmt, die ihre Clips online stellen. Also: Besser immer prüfen, ob es andere Berichte oder Videos gibt, die die Inhalte genau so bestätigen.
KI-Clips dauern meistens nur wenige Sekunden, längere Versionen sind oft Zusammenschnitte von solchen kurzen KI-Sequenzen. Die Video-KI Sora von OpenAI produziert zum Beispiel Videos, die exakt fünf Sekunden lang sind. Zudem haben die KI-Clips keinen Originalton. Ersteller von KI-Videos legen oft Soundeffekte darunter, die nicht wirklich zum Bildinhalt passen - oder sogar einfach nur Musik.
Im Netz gibt es zahlreiche Webseiten, die versprechen, KI-generiertes Bildmaterial zu entlarven. Dazu lädt man entweder den Link des Videos oder den Clip selbst auf der Seite hoch. Doch der Aufwand lohnt sich nur bedingt: Solche KI-Detektoren sind bei der Erkennung von Fälschungen bisher sehr unzuverlässig. Besser als Tools ist derzeit immer noch der gesunde Menschenverstand.
Quelle: dpa
Sie wollen auf dem Laufenden bleiben? Dann sind Sie beim ZDFheute-WhatsApp-Channel richtig. Hier erhalten Sie die wichtigsten Nachrichten auf Ihr Smartphone. Nehmen Sie teil an Umfragen oder lassen Sie sich durch unseren Podcast "Kurze Auszeit" inspirieren. Zur Anmeldung: ZDFheute-WhatsApp-Channel.
Mehr zum Erdbeben in Südostasien
mit Video
Massive Zerstörung nach Erdbeben:Militärjunta in Myanmar ruft Waffenruhe aus
FAQ
Erdplatten in Bewegung:Was die Katastrophe in Myanmar auslöste
mit Video