Netz-Fakes

Gefälschte Fotos und Videos entlarven

+
Irgendetwas stimmt mit dem Foto nicht. Wen dieses Gefühl beschleicht, sollte der Sache nachgehen. Foto: Christin Klose/dpa-tmn

Deutschland sitzt um 20.00 Uhr kollektiv vorm Fernseher und schaut Nachrichten? Das war einmal. Für viele haben soziale Medien längst klassische Nachrichten ersetzt. Doch dort lauert Desinformation.

Kaiserslautern (dpa/tmn) - Gerade jene Bilder und Videos, die im Netz am häufigsten geklickt werden, sind oft gefälscht oder aus dem Zusammenhang gerissen. Doch wie erkennt man Fakes?

Wer allein auf technische Lösungen hofft, wird enttäuscht: "Es gibt keine Webseite und kein Tool, das Ihnen mit Sicherheit bestätigen kann, dass ein Foto nicht manipuliert ist", warnt Prof. Martin Steinebach vom Fraunhofer-Institut für Sichere Informationstechnologie (SIT).

Das bedeutet aber nicht, dass Technologie nicht wertvolle Hilfe leisten kann. "Die einfachste und häufigste Art von Desinformation ist die Wiederverwendung von alten Fotos oder Videos in neuem Kontext", sagt Steinebach. Wird solches Archivmaterial seriös eingesetzt, etwa weil zu einem aktuellen Ereignis noch keine Bilder vorliegen, gibt es eine Einblendung.

Diese trägt den Hinweis "Archivmaterial" oder besteht aus dem Datum der Aufnahme samt ihrem Urheber. Fotos und Videos können aber natürlich auch unkommentiert instrumentalisiert werden, um die Wahrnehmung von Ereignissen zu verfälschen.

Umgekehrte Bildersuche nutzen

Ein irreführender oder betrügerischer Foto-Einsatz lässt sich oft durch die inverse Bildersuche von Suchmaschinen sichtbar machen. "Allerdings können schon kleine Veränderungen am Bild oder der Trick, es spiegelverkehrt zu publizieren, die inverse Bildersuche ins Leere laufen lassen", warnt Prof. Steinebach. Um Veränderungen oder Bildmontagen zu entdecken, gibt es Webtools wie Fotoforensics.com oder Forensically.

Solche Tools arbeiten basierend auf der Annahme, dass durch die verschiedenen Komprimiervorgänge, die ein Digitalfoto meist durchläuft, sich dessen Bildflächen am Ende unterscheiden - etwa in den Farbwerten oder genereller im Bildrauschen, erläutert IT-Forensiker Steinebach. Teils analysierten sie auch Metadaten.

Aber auch hier gibt es ein Aber: "Wenn das Foto nach der Manipulation nochmals komprimiert wird, kann das frühere Manipulationen verdecken", erklärt Steinebach. Umgekehrt reagierten Flächen mit viel Textur anders als plane Flächen, was falschen Alarm auslösen könne.

Steinebach selbst habe zu Testzwecken schon einmal das Foto eines Stromzählers manipuliert und mit unterschiedlichen Tools untersucht. Ergebnis: Die völlig andere Struktur der Plomben löste Fake-Alarm aus, der veränderte Zählerstand blieb unbemerkt.

Manipulierte Videos erkennen

Auch mit Videos wird der Versuch unternommen, falsche Tatsachen vorzuspielen oder zu untermauern. Die Nutzung bereits vorhandener Aufnahmen in neuem, falschem Kontext, ist auch hier die häufigste Manipulationsform.

Die US-amerikanische Sektion von Amnesty International stellt auf einer Seite namens Citizenevidence eine Suchmaske bereit, in die Links verdächtiger Youtube-Videos kopiert werden können. Die Seite stellt dann Metadaten wie Aufnahmeort oder Zeitpunkt des Hochladens fest und extrahiert zudem einzelne Bilder, die wiederum für eine inverse Bildersuche verwendet werden können.

Bei Videos außerhalb von Youtube gilt es, genauer hinzuschauen: Sind Schriftzüge in der Sprache des Landes verfasst, wo das Ereignis angeblich stattgefunden hat? Stimmen Jahres- und Tageszeit überein? Außerdem sei es wichtig, mindestens eine zweite Quelle für das Ereignis zu finden, betont Pina Merkert vom IT-Fachmagazin "c't".

"Wenn es keine zweite Quelle gibt oder die erste behauptet, andere Medien würden dieses Ereignis bewusst verschweigen, ist das eher ein Hinweis, dass ich gerade angelogen werde", sagt Merkert.

Mit Deepfakes rechnen

Ganz anders funktionieren sogenannte Deepfakes. Das sind Video-Fälschungen, bei denen etwa prominente Köpfe auf andere Körper gesetzt oder Menschen falsche Aussagen untergeschoben werden. "Man erkennt sie meist an typischen Fehlern wie verschwurbelten Haaren und komisch geformten Ohren", erklärt Pina Merkert.

Das liege daran, dass die dazu eingesetzte Künstliche Intelligenz (KI) zwar immer besser werde - aber nur, wenn die Datenbasis stimmt. Wurden also bestimmte Menschen oft beim Reden gefilmt, seien Lippen, Mund, Nase oder Augen leichter darzustellen. Für die oft von Haaren verdeckten Ohren oder dem selten sichtbaren Mund-Innenraum fehlten der KI aber Beispiele, um realistisch wirkende Bilder zu errechnen.

Gesprochene Sprache lasse sich recht einfach etwa mit Googles Sprachsynthese-Programm Wavenet nachbilden. Hierfür seien anfangs riesige Datensätze nötig gewesen, die nur große Firmen händeln konnten. Inzwischen sei die nötige Datenmenge aber um den Faktor vier geschrumpft und Manipulationen entsprechend einfacher, weiß Merkert.

Sie rät jedem, sich Beispiele anzusehen, um ein Gefühl für Deepfakes zu bekommen - etwa auf den gängigen Videoportalen: "Die sind leicht zu finden, weil die Mehrzahl ja nicht in böser Absicht, sondern einfach als Gag mit Promis produziert wurde."

Fotoforensics.com

Forensically

Citizenevidence von Amnesty International

Mehr zum Thema

Das könnte Sie auch interessieren

Meistgelesene Artikel

Wird Komet „Atlas“ mit bloßem Auge sichtbar? Seine Helligkeit nimmt schnell zu

Der Komet „Atlas“ wird schnell heller - wird er der nächste Komet, der mit bloßem Auge sichtbar ist? Beobachter warten bereits lange darauf. Er wird heller und heller.
Wird Komet „Atlas“ mit bloßem Auge sichtbar? Seine Helligkeit nimmt schnell zu

So sehen Sie die „Starlink“-Internet-Satelliten von SpaceX über Deutschland

Die „Starlink“-Satelliten von SpaceX sind am Himmel über Deutschland gut zu sehen. „Starlink“-Konkurrent OneWeb meldet unterdessen in der Coronkrise Insolvenz an
So sehen Sie die „Starlink“-Internet-Satelliten von SpaceX über Deutschland

WhatsApp startet neue Funktion gegen Fake-News zu Corona

Über Corona kursieren immer wieder Fake-News auf WhatsApp. Jetzt testet der Messenger-Dienst eine neue Funktion zu deren Bekämpfung.
WhatsApp startet neue Funktion gegen Fake-News zu Corona

Google: Video-Messenger Duo schultert ein Dutzend Teilnehmer

Je mehr Teilnehmer, desto besser. So lautet die Devise, wenn es in diesen Tagen um Videotelefonie-Anwendungen geht. Deshalb hat nun Google eines seiner …
Google: Video-Messenger Duo schultert ein Dutzend Teilnehmer

Kommentare

Hinweise für das Kommentieren

Von Mo. bis Fr. in der Zeit von 18 bis 9 Uhr und am Wochenende werden keine neuen Kommentare freigeschaltet.
Bitte bleiben Sie fair und sachlich - keine Beleidigungen, keine rassistischen, rufschädigenden und gegen die guten Sitten verstoßenden Beiträge. Kommentare, die gegen diese Regeln verstoßen, werden von der Redaktion kommentarlos gelöscht.