Deepfake Forensik: Wie lassen sich KI-generierte Fälschungen entlarven? Experten setzen auf eine Kombination aus aufmerksamem Hinsehen und ausgefeilten Analysewerkzeugen, um Manipulationen aufzudecken.

Zusammenfassung
- Deepfakes sind KI-generierte Fälschungen von Bildern, Videos und Audioaufnahmen.
- Die Entlarvung von Deepfakes erfordert sowohl menschliche Beobachtungsgabe als auch den Einsatz von Technologie.
- IT-Forensiker analysieren Ungereimtheiten in Licht, Schatten und Ton, um Fälschungen zu identifizieren.
- Software-Tools können subtile Artefakte und Unstimmigkeiten in Deepfakes aufspüren.
| PRODUKT: | Deepware Scanner, Reality Defender, Sensity AI (Beispiele) |
|---|---|
| SICHERHEIT: | Betroffene Systeme: Alle digitalen Plattformen. Schweregrad: Hoch (Manipulation, Desinformation). Patch verfügbar?: Nein (ständiger Wettlauf). Handlungsempfehlung: Sensibilisierung, kritische Prüfung von Inhalten. |
| APP: | FakeCatch (Google Research), Plattform: Forschungsprojekt, Preis: N/A, Entwickler: Google Research |
Deepfake Forensik: Wie IT-Experten Fälschungen entlarven
Die rasante Entwicklung künstlicher Intelligenz (KI) hat nicht nur innovative Anwendungen hervorgebracht, sondern auch neue Herausforderungen geschaffen. Sogenannte Deepfakes, täuschend echt wirkende, KI-generierte oder manipulierte Inhalte, sind auf dem Vormarsch. Sie können für harmlose Unterhaltung sorgen, aber auch für Rufschädigung, Wahlbeeinflussung oder Desinformation missbraucht werden. Wie Stern berichtet, arbeiten IT-Forensiker intensiv daran, diese Fälschungen zu entlarven.
Was sind typische Anzeichen für einen Deepfake?
Ein erster Schritt zur Erkennung von Deepfakes ist die aufmerksame Beobachtung. Stimmen die Lichtverhältnisse im Video mit dem angegebenen Aufnahmeort und -zeitpunkt überein? Verlaufen die Schatten in die richtige Richtung? Solche Ungereimtheiten können erste Hinweise auf eine Manipulation liefern. Auch Asynchronitäten zwischen Lippenbewegungen und Tonspur sind verdächtig. (Lesen Sie auch: Heino Solidaritätskonzert: Heimatliebe oder Kontroverse?)
Achten Sie auf Artefakte im Gesichtsbereich, insbesondere um Mund und Nase. Auch unnatürliche Hauttöne oder fehlende Details wie Poren können auf eine Fälschung hindeuten.
So funktioniert es in der Praxis: Analyse von Licht und Schatten
Nicolas Müller vom Fraunhofer-Institut für Angewandte und Integrierte Sicherheit erklärt, wie man mit einfachen Mitteln Deepfakes aufspüren kann. Ein Beispiel: Bei einem Interview, das angeblich im Freien aufgenommen wurde, kann man überprüfen, ob die Schatten aller Objekte im Bild von einem gemeinsamen Fluchtpunkt ausgehen. Dazu zieht man auf einem Standbild Linien von den Schatten zu den jeweiligen Objekten, die den Schatten werfen. Treffen sich diese Linien nicht in einem Punkt, ist die Wahrscheinlichkeit hoch, dass es sich um einen Deepfake handelt.
Das Bundesamt für Sicherheit in der Informationstechnik (BSI) bietet auf seiner Webseite ebenfalls Informationen und Tipps zum Thema Deepfakes und Desinformation.
Der Einsatz von Hightech-Tools in der Deepfake Forensik
Neben der manuellen Analyse setzen IT-Forensiker auch auf spezialisierte Software. Diese Tools können subtile Artefakte aufspüren, die mit dem bloßen Auge nicht erkennbar sind. Sie analysieren beispielsweise die Konsistenz von Hautstrukturen, die Frequenzverteilung in Audioaufnahmen oder die Übereinstimmung von 3D-Modellen mit dem Gesicht der dargestellten Person. Google Research arbeitet beispielsweise an FakeCatch, einer Technologie, die mithilfe von Photoplethysmographie (PPG) subtile Veränderungen der Hautfarbe analysiert, um Deepfakes zu erkennen. Details dazu finden sich im Google AI Blog. (Lesen Sie auch: Wismar Wal: Rettungsaktion für Gestrandeten Buckelwal Geplant)
Photoplethysmographie (PPG) ist eine nicht-invasive Methode zur Messung von Veränderungen des Blutvolumens in der Haut. Diese Veränderungen können durch Herzschlag, Atmung und andere physiologische Prozesse verursacht werden. Deepfakes weisen oft Unregelmäßigkeiten in diesen Mustern auf.
Vorteile und Nachteile
Die Vorteile der Deepfake Forensik liegen klar auf der Hand: Sie ermöglicht die Aufdeckung von Fälschungen und trägt so zur Bekämpfung von Desinformation und Rufschädigung bei. Allerdings gibt es auch Nachteile. Zum einen ist die Entwicklung von Deepfakes rasant, so dass die Erkennungsmethoden ständig angepasst werden müssen. Zum anderen können die Ergebnisse der forensischen Analyse vor Gericht problematisch sein, da sie oft auf Wahrscheinlichkeiten und statistischen Modellen basieren. Ein hundertprozentiger Beweis für eine Fälschung ist selten zu erbringen.

Heise online bietet ein Dossier zum Thema Deepfakes mit aktuellen Nachrichten und Hintergrundinformationen.
Deepfake Forensik vs. traditionelle Bildforensik
Die Deepfake Forensik unterscheidet sich von der traditionellen Bildforensik, die sich mit der Analyse von Manipulationen an herkömmlichen Bildern und Videos befasst. Während die traditionelle Bildforensik auf Spuren von Bearbeitungswerkzeugen oder Inkonsistenzen in der Bildstruktur achtet, konzentriert sich die Deepfake Forensik auf KI-spezifische Artefakte und Unstimmigkeiten, die durch den Generierungsprozess entstehen. (Lesen Sie auch: Lottozahlen Samstag: Ihre Chance auf den Grossen…)
Wie geht es weiter?
Die Deepfake Forensik steht vor großen Herausforderungen. Einerseits müssen die Erkennungsmethoden immer ausgefeilter werden, um mit der steigenden Qualität der Deepfakes Schritt zu halten. Andererseits ist es wichtig, die Ergebnisse der forensischen Analyse verständlich und nachvollziehbar zu machen, um sie auch vor Gericht verwenden zu können. Die Entwicklung von standardisierten Analyseverfahren und Zertifizierungen für IT-Forensiker könnte hier einen wichtigen Beitrag leisten.
Ursprünglich berichtet von: Stern










