Deepfakes erkennen: Von Indizien zum kryptografischen Beweis

Warum klassische Erkennungsmethoden an ihre Grenzen stoßen – und weshalb nur Lösungen wie C2PA echte Sicherheit bieten. Die Analogie: Indizien sind wie Fingerabdrücke (anfechtbar), C2PA ist wie ein DNA-Match (eindeutig).

Mai 2024: Der CEO des weltgrößten Werbekonzerns WPP bekommt einen Videoanruf. Stimme, Gesicht, Gestik – alles passt. Nur: Die Person existiert nicht. Ein Deepfake. Die Fallzahlen solcher Betrugsversuche stiegen zwischen 2022 und 2023 um 1.740 Prozent. Durchschnittlicher Schaden pro Vorfall: über 500.000 Dollar.

Das betrifft nicht nur CEOs. Das betrifft alle.

Kernaussage
Indizien = Fingerabdrücke
Hilfreich, aber anfechtbar
C2PA = DNA-Match
Praktisch eindeutig (Kollisionswahrscheinlichkeit 2-256)

Klassische Methoden liefern Wahrscheinlichkeiten. Kryptografische Signaturen liefern mathematische Gewissheit – nicht absolut, aber mit einer Sicherheit, die physikalisch nicht zu überwinden ist.


Bild oder Video prüfen – jetzt und kostenlos 

Sie haben ein verdächtiges Bild oder Video gefunden? Prüfen Sie es hier in Sekunden. Unser Forensik-Tool analysiert Medien auf vier Ebenen: Metadaten, kryptografische Signaturen (C2PA), technische Manipulationsspuren und KI-generierte Artefakte.

So funktioniert's:

  1. Laden Sie ein Bild oder Video hoch (oder fügen Sie einen YouTube/Vimeo-Link ein)
  2. Die Analyse läuft automatisch – keine Anmeldung, keine Installation
  3. Sie erhalten einen Authentizitäts-Score mit detaillierter Aufschlüsselung

Echt oder Fake?

So funktioniert's

Laden Sie ein Bild oder Video hoch – wir analysieren es auf 4 Ebenen:

Metadaten – EXIF, Kamera, Software
C2PA – Kryptografische Signatur
Signal – Kompression, Rauschen, Artefakte
Semantik – KI-Erkennung, Gesichter, Objekte

Bild oder Video hier ablegen

JPEG, PNG, WebP, MP4, WebM – max. 20 MB

Kein eigenes Bild? Testen Sie mit diesen Beispielen:

Beta · Ergebnisse dienen zur Orientierung und sind rechtlich nicht bindend.

Wie sind die Ergebnisse zu interpretieren?

Der Authentizitäts-Score quantifiziert forensische Indikatoren auf einer Skala von 0–100%:

ScoreBedeutungErläuterung
90–100%Kryptografisch verifiziertC2PA-Signatur validiert – mathematisch beweisbare Herkunft
75–89%Keine IndikatorenForensische Analyse unauffällig – aber ohne C2PA keine absolute Gewissheit
50–74%Nicht eindeutigGemischte Signale – kann durch legitime Bearbeitung entstehen
35–49%InkonsistenzenTechnische Anomalien festgestellt – weitere Prüfung empfohlen
0–34%Starke IndikatorenMehrere Manipulationshinweise – hohe Wahrscheinlichkeit für Fälschung

Richtung: Höherer Score = authentischer, niedrigerer Score = verdächtiger. Ohne C2PA-Signatur maximal ~85% erreichbar.

Quellen: C2PA Specification · HFMF: Hierarchical Fusion (WACV 2025) · MIT JPEG Forensics · Visual Counter Turing Test (2024)

Weiterlesen: Was sind Deepfakes? · 6 Typen · Schutzmaßnahmen


Überblick 

Was sind Deepfakes?

Definition und Technologie

Chancen & Risiken

Kreative Nutzung vs. Gefahren

Deepfakes erkennen

Indizien: Metadaten · Signal · KI

Die Zukunft: C2PA

Kryptografischer Beweis

Was tun?

Handlungsempfehlungen

Ressourcen

Tools, Skills, Materialien

Fazit

Das muss hängenbleiben


Was sind Deepfakes? 

Der Begriff kombiniert "Deep Learning" und "Fake". Gemeint sind Medien – Bilder, Videos, Audio –, die mithilfe von KI so verändert oder komplett neu erzeugt wurden, dass sie täuschend echt wirken.

Die Technologie dahinter: GANs, Diffusion Models und Autoencoders.

Sechs Typen synthetischer Medien 

1. Face Swap (Gesichtertausch) 

Das Gesicht einer Person wird Bild für Bild durch ein anderes ersetzt. Die KI lernt dabei, Gesichter in eine Art "mathematischen Fingerabdruck" (Latent Space) zu übersetzen. Der Encoder zerlegt beide Gesichter in diese Codes, der Decoder setzt sie neu zusammen – mit dem Gesicht von Person A auf dem Kopf von Person B. Früher brauchte man dafür hunderte Fotos beider Personen. Heute reicht bei modernen Tools wie SimSwap ein einziges Bild.

Face Swap in Aktion: Ein Gesicht wird nahtlos auf einen anderen Körper übertragen – Wikimedia Commons / CC BY-SA 4.0

Real vs. DeepFake: Nicolas Cage's Gesicht auf Elon Musk – so funktioniert Face Swap – Wikimedia Commons / CC BY-SA 4.0

WIRED: Forscher erklärt Face Swap und Deepfake-Technologie

Ausblick: One-shot Face Swapping ermöglicht künftig Gesichtstausch mit nur einem einzigen Referenzbild. Aktuelle Forschung wie GHOST 2.0 und DynamicFace fokussiert auf temporale Konsistenz in Videos und Identity-Preservation bei extremen Posen. Diffusion-basierte Ansätze versprechen noch höhere Qualität bei geringerem Trainingsaufwand.

2. Face Reenactment (Mimik-Übertragung) 

Ein Gesicht wird mit der Mimik einer anderen Person animiert – die "Marionetten-Technik". Face2Face (Thies et al., Stanford/TU München) extrahiert Landmark-Punkte des Zielgesichts und überträgt Ausdrücke in Echtzeit. Die Technologie ermöglicht es, einer Person beliebige Worte "in den Mund zu legen", ohne ihre Stimme zu klonen.

Shakespeare erwacht: KI animiert historisches Portrait – Wikimedia Commons / Public Domain

Pharao Tutanchamun: 3.300 Jahre alte Totenmaske erwacht – Wikimedia Commons / Public Domain

Face2Face: Echtzeit-Mimik-Transfer – Stanford/TU München (CVPR 2016)

Ausblick: Audio-driven Face Animation kombiniert Sprachsynthese mit Gesichtsanimation für vollständig synthetische Videokonferenzen. Forschung an Neural Head Reenactment verbessert die Darstellung extremer Kopfbewegungen.

3. Voice Clone (Stimmklon) 

KI generiert Sprache in der Stimme einer Person. Tacotron 2 (Google) und VALL-E (Microsoft) benötigen nur wenige Sekunden Audiomaterial für überzeugende Ergebnisse. Die Technologie analysiert Stimmcharakteristika wie Tonhöhe, Sprechrhythmus und Klangfarbe und synthetisiert beliebige Texte in dieser Stimme.

Elvis lebt? KI-generiertes Bild zeigt den King in verschiedenen Lebensphasen – Midjourney / Wikimedia Commons / Public Domain

Prigoschin als KI-Kunst: Wenn KI-Bilder viraler werden als echte Fotos – Wikimedia Commons / CC BY-SA 4.0

ElevenLabs: Stimmen klonen mit wenigen Sekunden Audio

Ausblick: Zero-shot Voice Cloning ermöglicht Stimmklonen ohne jegliches Training auf der Zielstimme. Emotional Voice Synthesis fügt realistische Emotionen hinzu – Freude, Trauer, Wut.

4. Lip Sync (Lippensynchronisation) 

Lippenbewegungen werden an einen anderen Audiotrack angepasst. Wav2Lip (IIIT Hyderabad) mappt Phoneme auf Viseme (visuelle Mundformen) und erzeugt frame-genaue Synchronisation. Jemand "sagt" Dinge, die nie gesagt wurden – besonders gefährlich in Kombination mit Voice Cloning.

StyleGAN-Gesichter: Diese Personen existieren nicht – synthetische Gesichter als Basis für Lip Sync – Wikimedia Commons / CC BY-SA 4.0

REAIM 2023: 'Real or Fake?' – Deepfake-Erkennung im militärischen Kontext – Niederländisches Außenministerium / CC BY-SA 2.0

Wav2Lip: KI synchronisiert Lippen perfekt zu beliebigem Audio

Ausblick: High-Fidelity Lip Sync mit Diffusion Models verbessert die Qualität dramatisch. Multilingual Lip Sync ermöglicht automatische Synchronisation über Sprachgrenzen hinweg.

5. Full Body Puppetry (Ganzkörper-Steuerung) 

Körperbewegungen einer Person werden auf eine andere übertragen – wie digitale Marionetten. Das First Order Motion Model (Siarohin et al., University of Trento) extrahiert Keypoints aus einem Driving-Video und überträgt sie auf ein statisches Quellbild. So "tanzt" jede Person jeden beliebigen Tanz.

DigiDoug bei TED2019: Echtzeit-Ganzkörper-Puppetry – ein Mensch steuert den digitalen Avatar – Wikimedia Commons / CC BY-SA 4.0

KI-Karikatur: Macron vor Demonstranten – auch stilisierte Bilder können täuschend wirken – Wikimedia Commons / CC BY-SA 4.0

First Order Motion Model: Ganzkörper-Animation aus einem Bild – University of Trento

Ausblick: 3D-aware Body Motion Transfer berücksichtigt Tiefe und Perspektive. Neural Body Avatars ermöglichen fotorealistische Ganzkörper-Deepfakes in Echtzeit.

6. Fully Synthetic (Komplett erfunden) 

Komplett erfundene Personen, Szenen oder Ereignisse. StyleGAN (NVIDIA Research, Karras et al.) und Stable Diffusion generieren fotorealistische Gesichter von Menschen, die nie existiert haben. This Person Does Not Exist demonstriert die Überzeugungskraft.

Viral März 2023: Papst in Designer-Pufferjacke – Millionen hielten es für echt – Midjourney / Wikimedia Commons / Public Domain

Januar 2025: Fake-Bild des brennenden Hollywood-Schilds ging während der Waldbrände viral – Wikimedia Commons / Public Domain

StyleGAN: Reise durch den Latent Space – von Gesicht zu Gesicht morphen

Ausblick: Video Diffusion Models generieren ganze Videoclips synthetisch. Controllable Generation ermöglicht präzise Steuerung von Alter, Ausdruck und Blickrichtung generierter Gesichter.


Zwei Seiten einer Medaille 

Deepfakes sind ein Werkzeug – wie ein Messer oder ein Hammer. Die Technologie selbst ist neutral. Entscheidend ist, wofür sie eingesetzt wird.

BereichAnwendungen
Entertainment & FilmSchauspieler:innen digital verjüngen, posthume Auftritte, Lippensynchronisation
Satire & KunstPolitische Satire, digitale Kunstprojekte, kreative Experimente
BarrierefreiheitGebärdensprach-Avatare, personalisierte Lernvideos, Kommunikationshilfen
Gaming & VRPersonalisierte Avatare, realistische NPCs, immersive Erlebnisse
Die Zahlen

8 Millionen Deepfakes werden 2025 geteilt – gegenüber 500.000 in 2023. Laut Europol könnten bis 2026 90% der Online-Inhalte synthetisch generiert sein. Die EU-Kommission schätzt: 98% aller Deepfakes sind pornografischer Natur.


Deepfakes erkennen 

Perfekte Deepfakes sind selten. Die meisten hinterlassen Spuren – wenn man weiß, wonach man suchen muss.

Gesichtsränder

Achten Sie auf unnatürliche Übergänge zwischen Gesicht und Hintergrund. Oft flackern die Ränder oder das Gesicht "schwebt" leicht über dem Körper. Bei Kopfbewegungen wird das besonders sichtbar.

Blinzeln

Frühe Deepfakes blinzelten nie. Neuere Modelle sind besser – achten Sie auf asymmetrisches Blinzeln oder starre Augen.

Lippensynchronität

Stimmt die Mundbewegung exakt zum Audio? Bei Voice-Clone-Overlays treten oft minimale Verzögerungen auf – besonders bei "p", "b" oder "m".

Schatten & Licht

Eine Lichtquelle erzeugt konsistente Schatten. Bei zusammengesetzten Bildern zeigen Schatten manchmal in verschiedene Richtungen – physikalisch unmöglich.

Augenreflexionen

Die Augen spiegeln die Umgebung. Bei Deepfakes zeigen die Reflexionen im linken und rechten Auge manchmal unterschiedliche Szenen.

Haare & Details

Haare sind schwer zu faken. Achten Sie auf unnatürlich glatte Konturen, "verschmelzende" Strähnen oder Haare, die durch Objekte hindurchgehen.

Was sind Metadaten? 

Metadaten sind "Daten über Daten" – unsichtbare Informationen, die in Mediendateien eingebettet sind. Sie verraten oft mehr über ein Bild oder Video als der sichtbare Inhalt selbst.

TypWas es enthältForensischer Nutzen
EXIF (Exchangeable Image File Format)Kameramodell, Objektiv, Blende, ISO, Belichtungszeit, Datum/Uhrzeit, GPS-KoordinatenZeigt, womit und wo ein Foto aufgenommen wurde. KI-generierte Bilder haben oft keine oder generische EXIF-Daten.
IPTC (International Press Telecommunications Council)Titel, Beschreibung, Keywords, Copyright, Urheber, KontaktdatenStandard für Nachrichtenagenturen. Professionelle Fotos haben vollständige IPTC-Daten.
XMP (Extensible Metadata Platform)Bearbeitungshistorie, verwendete Software, Presets, VersionenZeigt, wie ein Bild bearbeitet wurde. Adobe-Software schreibt detaillierte XMP-Daten.
ICC-ProfilFarbraum (sRGB, Adobe RGB, ProPhoto RGB)Konsistenz prüfen: Stimmt der Farbraum zum angeblichen Aufnahmegerät?
ThumbnailEingebettete VorschauManchmal zeigt das Thumbnail das Originalbild vor der Manipulation!

Beispiel EXIF-Daten:

Kamera: Canon EOS R5
Objektiv: RF 24-70mm F2.8 L IS USM
Datum: 2026-01-15 14:23:07
GPS: 48.2082° N, 16.3738° E (Wien)
Software: Adobe Lightroom 8.2

Tools zur Verifikation 

Reverse Image Search

Laden Sie das Bild bei Google Images, TinEye oder Yandex hoch. Finden Sie ältere Versionen oder den Ursprung?

C2PA / Content Credentials

Manche Kameras und Software signieren Medien kryptografisch. Tools wie Content Authenticity Verify zeigen die Bearbeitungshistorie.

C2PA – Der kommende Standard

Die Coalition for Content Provenance and Authenticity etabliert einen offenen Standard für kryptografische Mediensignatur. Hardware und Software attestieren Herkunft, Aufnahmezeitpunkt und Bearbeitungshistorie – eine lückenlose Chain of Custody für digitale Medien.

C2PA Logo

Steering Committee

AdobeAdobe
BBCBBC
GoogleGoogle
MetaMeta
MicrosoftMicrosoft
OpenAIOpenAI
Publicis GroupePublicis Groupe
SonySony
TruepicTruepic

Content Credentials: Das CR-Icon 

Content Credentials CR Icon

C2PA = technischer Standard. Content Credentials = sichtbares "CR"-Icon für Nutzer:innen.

Was zeigt das CR-Icon?

  • Wer hat das Medium erstellt? (Kamera, Person, KI)
  • Mit welcher Software wurde es bearbeitet?
  • Wurde KI zur Generierung verwendet?
  • Welche Bearbeitungsschritte fanden statt?

Der Clou: Alle Angaben sind kryptografisch signiert. Ändert jemand auch nur ein Pixel, wird die Signatur ungültig – Manipulation sofort erkennbar.

Logo & Icon: Open Source · Linux Foundation

Jetzt prüfen 

Zum Forensik-Tool

Nutzen Sie unser kostenloses Prüf-Tool am Anfang des Artikels, um Bilder und Videos auf Manipulationen zu analysieren.

→ Zum Tool: Bild oder Video prüfen

Faustregel

Je wichtiger eine Information ist, desto mehr Quellen sollten Sie prüfen. Ein virales Video ohne verifizierbare Quelle verdient Skepsis – unabhängig davon, wie authentisch es wirkt.

Deepfake-Detection Skill

Technische Dokumentation für Entwickler:innen: PRNU-Analyse, IGH-Klassifikation, DQ-Artefakte, semantische Forensik und LLM-augmentierte Sensemaking.

Skill auf GitHub öffnen →


Was tun? 

Wenn Sie einen Deepfake identifizieren 

  1. Nicht teilen – auch nicht "zur Warnung". Jede Verbreitung erhöht die Reichweite.
  2. Quelle prüfen – Wo wurde das Material zuerst veröffentlicht? Gibt es unabhängige Bestätigungen?
  3. Plattform melden – Die meisten Plattformen bieten Melde-Funktionen für manipulierte Medien.
  4. Kontext dokumentieren – Screenshot mit Zeitstempel und URL sichern.

Wenn Sie selbst betroffen sind 

Sofort handeln

Bei Deepfakes, die Sie persönlich darstellen:

  • Beweise sichern – Screenshots, URLs, Zeitstempel
  • Plattform kontaktieren – Take-down beantragen
  • Rechtliche Schritte prüfen – In Österreich: § 78 UrhG (Recht am eigenen Bild), § 107c StGB (Cybermobbing)
  • Unterstützung holenSaferinternet.at Helpline, Rat auf Draht (147)

Die Zukunft 

Generative Modelle entwickeln sich schneller als Erkennungsmethoden. Der strategische Fokus verschiebt sich deshalb: Nicht reaktive Detektion, sondern proaktive Authentifizierung wird zum entscheidenden Faktor.

C2PA: Der neue Industriestandard 

C2PA (Coalition for Content Provenance and Authenticity) ist die technische Antwort auf KI-generierte Inhalte. Der Standard funktioniert wie ein fälschungssicherer digitaler Reisepass: Jede Bearbeitung wird kryptografisch signiert und zur Historie hinzugefügt.

Wer nutzt C2PA heute?

  • KI-Generatoren: DALL-E 3, Adobe Firefly, Google Gemini – alle signieren automatisch
  • Software: Adobe Photoshop/Lightroom speichern Bearbeitungsschritte kryptografisch
  • Hardware: Leica M11-P, Sony-Kameras signieren bereits bei der Aufnahme; Nikon und Canon folgen
  • Smartphones: Google Pixel 10 (2025/26) mit nativer Unterstützung; Samsung Galaxy folgt
  • Plattformen: Microsoft 365 führt 2026 verpflichtende C2PA-Wasserzeichen für KI-Inhalte ein

In der Praxis: Auf Websites erscheint ein "cr"-Icon (Content Credentials). Ein Klick zeigt die komplette Historie: "Original von Kamera X, bearbeitet mit Software Y am Datum Z."

Herausforderung: Screenshots und Social-Media-Uploads können Metadaten entfernen ("Stripping"). Daher werden zusätzlich unsichtbare Wasserzeichen entwickelt, die mit C2PA gekoppelt sind.

Prognose: In 3–5 Jahren wird für Medienhäuser und Behörden gelten: Ohne kryptografischen Herkunftsnachweis ist keine Datei als vertrauenswürdig einzustufen.

Klick lädt YouTube (Datenschutz)

Demokratisierung der Synthese

Echtzeit-Video-Deepfakes sind technisch ausgereift und breit verfügbar. Die Asymmetrie zwischen Erstellung und Erkennung wächst.

Erosion synchroner Kommunikation

Deepfakes in Live-Videocalls werden realistisch. Das Vertrauen in visuelle Echtzeitkommunikation sinkt.

Probabilistische Forensik

Binäre Klassifikation weicht Konfidenz-Scores. Authentizitätsbewertung wird zur Wahrscheinlichkeitsaussage.

Kryptografische Provenienz

C2PA und Content Credentials werden zum Standard für digitale Authentizität. Ohne kryptografische Signatur gilt Inhalt künftig als unbestätigt – verifizierbare Herkunft ersetzt subjektive Einschätzung.
Paradigmenwechsel: Von reaktiver Erkennung zu proaktiver Authentifizierung

Ressourcen 

Für Schulen & Unterricht

Saferinternet.at bietet Unterrichtsmaterialien zum Thema "Wahr oder falsch im Internet" – kostenlos und praxiserprobt.

Materialien auf Saferinternet.at

Technische Tiefe

Das webconsulting Deepfake-Detection Skill dokumentiert forensische Methoden im Detail: PRNU-Analyse, IGH-Klassifikation, semantische Forensik und mehr.

RessourceBeschreibung
Content Authenticity InitiativeAdobe-geführte Initiative für Medien-Provenance
C2PA SpezifikationTechnischer Standard für Content Credentials
Saferinternet.atÖsterreichische Plattform für sicheres Internet
DeepfakeBenchAkademisches Benchmark für Deepfake-Erkennung

C2PA Testdateien 

Selbst testen

Laden Sie diese offiziellen Testbilder der C2PA Organisation herunter und analysieren Sie sie mit dem Forensik-Tool oben. So verstehen Sie, wie C2PA-Validierung funktioniert!

Diese Dateien haben intakte kryptografische Ketten – die Validierung sollte "Gültig" zeigen:

Adobe C2PA Testbild - gültig
adobe-20220124-C.jpg

Vollständige Kette: Gültiges Adobe-Zertifikat, verifizierte Signatur, unveränderte Claims.

Truepic Kamera C2PA Testbild - gültig
truepic-20230212-camera.jpg

Hardware-Signatur: Von einer C2PA-fähigen Kamera zum Aufnahmezeitpunkt signiert.

Erwartetes Ergebnis:C2PA erkannt, Signatur gültig, keine Manipulationen

So funktioniert die C2PA-Validierung 

Die kryptografische Kette wird Schritt für Schritt geprüft. Nur wenn alle vier Prüfungen bestanden werden, gilt das Medium als authentisch. Ein einziger Fehler in der Kette führt dazu, dass die nachfolgenden Schritte nicht mehr verifiziert werden können:

Gültige C2PA-Kette

1Zertifikat verifiziert
2Signatur gültig
3Claims unverändert
4Bild-Hash stimmt
Kette verifiziert

Manipulierte Kette

1Zertifikat verifiziert
2Signatur ungültig
3Claims nicht prüfbar
4Hash nicht prüfbar
Manipulation erkannt

C2PA-Validierung: Jede Schicht muss intakt sein – ein Fehler bricht die Kette

Lizenz & Quelle

Alle Testdateien sind unter CC BY-SA 4.0 lizenziert. Quelle: c2pa-org/public-testfiles


Fazit 

Deepfakes sind keine Zukunftsmusik – sie sind Gegenwart. Die Technologie entwickelt sich schneller als die Erkennungsmethoden.

Indizien sind wie Fingerabdrücke (anfechtbar), C2PA ist wie ein DNA-Match (eindeutig).

Konkret bedeutet das:

  • Heute: Nutzen Sie Signal-Analyse und Metadaten als Indizien – aber vertrauen Sie ihnen nicht blind
  • Morgen: Fordern Sie C2PA-verifizierte Medien von Kameras, Software und Plattformen
  • Immer: Kritisches Denken skaliert besser als jeder Algorithmus
Für technisch Interessierte

Deepfake-Detection Skill

Das Skill in der webconsulting-skills Collection dokumentiert forensische Analysemethoden im Detail – von Sensor-Fingerprints (PRNU/PCE) über Kompressions-Artefakte bis zu semantischer Forensik. Ideal für Entwickler:innen, die Erkennungs-Pipelines bauen oder das Thema tiefer verstehen wollen.

Auf GitHub öffnen

Hinweis

Dieser Artikel dient der Information und Medienkompetenz. Bei rechtlichen Fragen konsultieren Sie Expert:innen.

Kontaktieren Sie uns für ein unverbindliches Gespräch.

E-Mail: office@webconsulting.at

Lassen Sie uns über Ihr Projekt sprechen

Standorte

  • Mattersburg
    Johann Nepomuk Bergerstraße 7/2/14
    7210 Mattersburg, Austria
  • Wien
    Ungargasse 64-66/3/404
    1030 Wien, Austria

Dieser Inhalt wurde teilweise mithilfe von KI erstellt.