Es ist Mai 2024. Der Chef von einer großen Werbefirma bekommt einen Videoanruf. Die Stimme klingt ganz echt. Das Gesicht sieht echt aus. Aber diese Person gibt es gar nicht. Das nennt man ein Deepfake. Der Betrug klappt zum Glück nicht. Eine andere Firma aus Hongkong hat großes Pech. Die Firma verliert 25 Millionen Dollar im Februar 2024. Betrüger machen einen falschen Videoanruf. Sie geben sich als Finanzchef aus. Ein Computer macht alle Personen im Video.
Solche Angriffe nennt man CEO-Fraud. Das bedeutet Chef-Betrug. Mit Deepfakes ist dieser Betrug noch gefährlicher. Es gibt immer mehr Fälle. Die Zahl steigt um 1.740 Prozent an. Das passiert in Nordamerika zwischen den Jahren 2022 und 2023.
Das betrifft nicht nur Chefs. Das betrifft alle Menschen.
Alte Prüfmethoden liefern uns nur Hinweise. Das ist wie bei Fingerabdrücken. Hinweise helfen uns. Aber man kann Hinweise anzweifeln. C2PA-Signaturen sind eine neue Technik. Sie funktionieren wie ein DNA-Test. Sie sind fast völlig sicher. Hinweise zeigen nur eine Möglichkeit. Sichere Signaturen geben uns eine mathematische Gewissheit. Niemand kann diese Sicherheit austricksen.
Inhaltsverzeichnis
Prüfprogramm
Kostenlose Analyse der Dateien
Was sind Deepfakes?
Erklärung und Technik
Chancen & Risiken
Gute Nutzung gegen Gefahren
Fazit
Das ist wichtig
Bild oder Video prüfen – jetzt und kostenlos
Haben Sie ein komisches Bild oder Video gefunden? Prüfen Sie es hier ganz schnell. Unser Prüfprogramm untersucht die Dateien auf vier Ebenen. Es schaut sich versteckte Daten an. Es sucht nach sicheren C2PA-Signaturen. Es sucht nach Spuren von Bearbeitung. Und es sucht nach KI-Fehlern.
So funktioniert das Programm:
- Laden Sie ein Bild oder ein Video hoch. Sie können auch einen Link einfügen.
- Die Prüfung läuft ganz von alleine. Sie müssen sich nicht anmelden. Sie müssen nichts installieren.
- Sie bekommen danach ein klares Ergebnis. Wir erklären das Ergebnis genau.
Echt oder Fake?
So funktioniert's
Laden Sie ein Bild oder Video hoch – wir analysieren es auf 4 Ebenen:
Bild oder Video hier ablegen
JPEG, PNG, WebP, MP4, WebM – max. 20 MB
Beta · Ergebnisse dienen zur Orientierung und sind rechtlich nicht bindend.
Was bedeuten die Ergebnisse?
Das Programm vergibt Punkte von 0 bis 100 Prozent:
| Ergebnis | Bedeutung | Erklärung |
|---|---|---|
| 90–100% | Sicher geprüft | Die C2PA-Signatur ist gültig. Die Herkunft ist sicher bewiesen. |
| 75–89% | Keine Hinweise | Wir finden keine Spuren von Bearbeitung. Aber ohne C2PA gibt es keine volle Sicherheit. |
| 50–74% | Nicht eindeutig | Das Ergebnis ist unklar. Das passiert oft bei normaler Bildbearbeitung. |
| 35–49% | Ungereimtheiten | Wir finden technische Fehler. Bitte prüfen Sie das Bild genauer. |
| 0–34% | Starke Hinweise | Wir finden viele Spuren von Manipulation. Das Bild ist sehr wahrscheinlich falsch. |
Richtung: Ein hoher Wert bedeutet: Das Bild ist sehr wahrscheinlich echt. Ein niedriger Wert bedeutet: Das Bild ist verdächtig. Ohne C2PA-Signatur erreichen Sie höchstens 85 Prozent.
Quellen: C2PA Standard · HFMF: Hierarchical Fusion (WACV 2025) · MIT JPEG Forensics · Visual Counter Turing Test (2024)
Weiterlesen: Was sind Deepfakes? · 6 Typen · Schutzmaßnahmen
Was sind Deepfakes?
Das Wort mischt "Deep Learning" und "Fake". "Deep Learning" ist eine Lernmethode für Computer. "Fake" bedeutet Fälschung. Es geht um Bilder, Videos oder Töne. Ein Computerprogramm mit Künstlicher Intelligenz macht diese Dateien. Künstliche Intelligenz kürzt man mit KI ab. Die Dateien sehen sehr echt aus. Aber sie sind falsch.
Das ist die Technik dahinter: Es gibt GANs. Es gibt Diffusion Models. Und es gibt Autoencoders.
Sechs Typen synthetischer Medien
1. Face Swap (Gesichtertausch)
Ein Programm tauscht das Gesicht von einer Person. Das Programm macht das Bild für Bild im Video. Die KI übersetzt das Gesicht in einen Zahlencode. Das nennt man Latent Space. Ein Übersetzer macht das Gesicht zu Zahlen. Ein Rückübersetzer baut aus den Zahlen ein Bild. So kommt ein neues Gesicht auf einen alten Körper. Früher brauchte man viele Fotos dafür. Heute reicht oft ein einziges Bild.
Gesichtertausch in Aktion. Ein Gesicht geht nahtlos auf einen anderen Körper über. Wikimedia Commons / CC BY-SA 4.0
Echt gegen Falsch. Das Gesicht von Nicolas Cage liegt auf Elon Musk. Wikimedia Commons / CC BY-SA 4.0
WIRED: Ein Forscher erklärt die Technik hinter dem Gesichtertausch.
Ausblick: In Zukunft reicht ein einziges Bild für den perfekten Tausch. Forscher arbeiten an neuen Programmen. Diese Programme machen flüssige Videos ohne Fehler. Sie erhalten das Aussehen auch bei schwierigen Kopfbewegungen.
2. Face Reenactment (Mimik-Übertragung)
Ein Programm bewegt ein Gesicht. Es nutzt den Gesichtsausdruck einer anderen Person. Das nennt man die Marionetten-Technik. Das Programm sucht wichtige Punkte im Gesicht. Es überträgt die Bewegungen sofort. So können Sie Menschen falsche Worte in den Mund legen. Sie müssen die Stimme dafür nicht klonen.
Shakespeare erwacht. Eine KI bewegt ein altes Gemälde. Wikimedia Commons / Public Domain
Pharao Tutanchamun. Die alte Totenmaske bewegt sich durch KI. Wikimedia Commons / Public Domain
Face2Face: Schnelle Übertragung von Gesichtsausdrücken. Stanford/TU München (CVPR 2016)
Ausblick: Neue Programme verbinden Sprache direkt mit Gesichtsbewegungen. Das ermöglicht komplett falsche Videokonferenzen. Die Forscher verbessern auch schnelle Kopfbewegungen.
3. Voice Clone (Stimmklon)
Die KI macht die Sprache einer Person nach. Moderne Programme brauchen nur wenige Sekunden Tonaufnahme. Sie lernen sehr schnell. Die Programme untersuchen die Stimme. Sie prüfen die Höhe und den Klang. Dann sprechen sie jeden Text mit dieser Stimme.
Elvis lebt? Ein KI-Bild zeigt den Sänger in verschiedenen Lebensphasen. Midjourney / Wikimedia Commons / Public Domain
Prigoschin als KI-Kunst. KI-Bilder verbreiten sich oft schneller als echte Fotos. Wikimedia Commons / CC BY-SA 4.0
ElevenLabs: Ein Programm klont Stimmen mit wenig Aufnahmematerial.
Ausblick: In Zukunft brauchen Programme gar kein Training mehr. Sie machen jede Stimme sofort nach. Sie können dann auch Gefühle wie Freude oder Wut einbauen.
4. Lip Sync (Lippensynchronisation)
Ein Programm passt die Lippen an den Ton an. Es verbindet Laute genau mit passenden Mundformen. Die Lippen bewegen sich genau zur falschen Stimme. Jemand sagt Dinge im Video. Aber die Person hat das nie wirklich gesagt. Das ist sehr gefährlich zusammen mit falschen Stimmen.
StyleGAN-Gesichter. Diese Personen gibt es nicht. Sie dienen als Basis für falsche Mundbewegungen. Wikimedia Commons / CC BY-SA 4.0
REAIM 2023: Echt oder Falsch? Falsche Bilder bei der Armee. Niederländisches Außenministerium / CC BY-SA 2.0
Wav2Lip: Die KI bewegt die Lippen perfekt zum Ton.
Ausblick: Neue Modelle verbessern die Bildqualität ganz stark. Sie ermöglichen auch automatische Übersetzungen in andere Sprachen. Die Lippen passen dann immer perfekt zum Text.
5. Full Body Puppetry (Ganzkörper-Steuerung)
Ein Programm überträgt Bewegungen von einer Person auf eine andere. Das ist wie bei einer digitalen Marionette. Ein Programm nimmt Bewegungen aus einem echten Video. Es überträgt die Bewegungen auf ein einfaches Foto. So kann jede Person jeden Tanz tanzen.
DigiDoug bei TED2019. Ein Mensch steuert eine digitale Figur am Bildschirm. Wikimedia Commons / CC BY-SA 4.0
KI-Karikatur. Macron vor Demonstranten. Auch Zeichnungen können sehr echt wirken. Wikimedia Commons / CC BY-SA 4.0
First Order Motion Model: Bewegungen für den ganzen Körper aus einem Bild. Universität Trento
Ausblick: Neue Programme beachten auch die Tiefe im Raum. Sie machen bald sehr echte Ganzkörper-Videos in Echtzeit.
6. Fully Synthetic (Komplett erfunden)
Die KI erfindet alles ganz neu. Die KI macht neue Personen und neue Ereignisse. Diese Personen haben nie gelebt. Diese Dinge sind nie passiert. Die Programme machen sehr überzeugende Bilder. Diese Internetseite zeigt diese falschen Gesichter sehr gut.
März 2023: Der Papst trägt eine Designer-Jacke. Viele Millionen Menschen hielten das Bild für echt. Midjourney / Wikimedia Commons / Public Domain
Januar 2025: Ein falsches Bild zeigt das brennende Hollywood-Schild. Es ging im Internet schnell um die Welt. Wikimedia Commons / Public Domain
StyleGAN: Eine Reise durch künstliche Daten. Gesichter verändern sich fließend.
Ausblick: Neue Modelle machen bald ganze Videos komplett künstlich. Nutzer können Alter und Blickrichtung ganz genau steuern.
Chancen und Risiken
Deepfakes sind ein Werkzeug. Sie sind wie ein Messer oder ein Hammer. Die Technik selbst ist neutral. Es kommt darauf an, was die Menschen damit tun.
| Bereich | Anwendung |
|---|---|
| Unterhaltung & Film | Filmemacher machen Schauspieler im Computer jünger. Tote Stars können wieder auftreten. Lippen passen perfekt zum Ton. |
| Spaß & Kunst | Künstler machen lustige politische Videos. Sie nutzen die Technik für Kunstprojekte. |
| Hilfen im Alltag | Es gibt Figuren für Gebärdensprache. Es gibt Hilfen für die Kommunikation. |
| Spiele & VR | Spieler bekommen eigene Figuren. Die Erlebnisse wirken sehr echt. |
Im Jahr 2025 teilen Menschen 8 Millionen Deepfakes. Im Jahr 2023 waren es nur 500.000. Die Polizei von Europa gibt eine Warnung ab. Bis zum Jahr 2026 sind vielleicht 90 Prozent der Inhalte künstlich. Die EU sagt: 98 Prozent von allen Deepfakes zeigen nackte Menschen.
Deepfakes erkennen
Perfekte Deepfakes gibt es selten. Die meisten Deepfakes hinterlassen Spuren. Sie müssen nur wissen, was Sie suchen.
Gesichtsränder
Achten Sie auf die Ränder am Gesicht. Sind die Ränder komisch? Oft flackern die Ränder. Manchmal schwebt das Gesicht über dem Körper. Sie sehen das gut bei Kopfbewegungen.
Blinzeln
Frühe Deepfakes blinzeln nie. Neue Programme sind viel besser. Achten Sie auf die Augen. Blinzeln die Augen ungleichmäßig? Sind die Augen ganz starr?
Lippensynchronität
Passt die Mundbewegung ganz genau zum Ton? Bei falschen Stimmen gibt es oft kleine Fehler. Achten Sie auf die Buchstaben P, B oder M.
Schatten & Licht
Echtes Licht macht echte Schatten. Zusammengesetzte Bilder haben oft falsche Schatten. Die Schatten zeigen in verschiedene Richtungen. Das ist in der echten Welt unmöglich.
Augenreflexionen
Augen spiegeln die Umgebung. Bei Deepfakes spiegeln die Augen manchmal verschiedene Dinge. Das linke Auge zeigt ein anderes Bild als das rechte Auge.
Haare & Details
Haare sind sehr schwer für Computerprogramme. Achten Sie auf komische Haare. Sind die Ränder zu glatt? Verschmelzen einzelne Haare miteinander? Gehen Haare durch andere Dinge hindurch?
Was sind Metadaten?
Metadaten sind Daten über Daten. Sie sind unsichtbare Informationen in einer Datei. Sie verraten oft sehr viel über ein Bild oder Video. Sie verraten oft mehr als das sichtbare Bild.
| Typ | Inhalt | Nutzen für die Prüfung |
|---|---|---|
| EXIF (Exchangeable Image File Format) | Kamera, Objektiv, Blende, Datum, Uhrzeit, Ort | Welches Gerät macht das Foto? Wo macht das Gerät das Foto? Künstliche Bilder haben meistens keine EXIF-Daten. |
| IPTC (International Press Telecommunications Council) | Titel, Beschreibung, Rechte, Ersteller, Kontakt | Das ist der Standard für Nachrichten. Wer hat das Bild gemacht? Gute Fotos haben vollständige IPTC-Daten. |
| XMP (Extensible Metadata Platform) | Bearbeitung, Software, Versionen | Wie ändert eine Person das Bild? Programme wie Adobe speichern diese Daten ab. |
| ICC-Profil | Farbraum (sRGB, Adobe RGB, ProPhoto RGB) | Das prüft die Farben. Passt der Farbraum zu der genannten Kamera? |
| Thumbnail | Eingebettete Vorschau | Das ist ein kleines Vorschaubild. Manchmal zeigt die Vorschau noch das echte Originalbild! |
Beispiel für EXIF-Daten:
Tools zur Verifikation
Bildersuche
Suchen Sie nach dem Bild im Internet. Nutzen Sie Seiten wie Google Images, TinEye oder Yandex. Finden Sie ältere Bilder? Finden Sie das Original?
C2PA / Content Credentials
Manche Kameras unterschreiben Bilder digital. Diese Technik heißt C2PA. Internetseiten wie Content Authenticity Verify prüfen diese Unterschrift. Sie zeigen die echte Geschichte vom Bild.
C2PA – Der kommende Standard
Die Coalition for Content Provenance and Authenticity etabliert einen offenen Standard für kryptografische Mediensignatur. Hardware und Software attestieren Herkunft, Aufnahmezeitpunkt und Bearbeitungshistorie – eine lückenlose Chain of Custody für digitale Medien.
Steering Committee
Content Credentials: Das CR-Icon

C2PA ist eine neue Regel für Technik. Content Credentials ist das sichtbare Zeichen für Menschen.
Was zeigt das CR-Zeichen?
- Wer macht das Bild? (Kamera, Mensch oder KI)
- Welches Programm ändert das Bild?
- Nutzt der Mensch dabei eine KI?
- Was macht der Mensch genau mit dem Bild?
Der Trick an der Sache: Alle Daten haben eine sichere digitale Unterschrift. Ändert jemand auch nur einen einzigen Punkt im Bild? Dann ist die Unterschrift sofort ungültig. Sie erkennen die Fälschung sofort.
Logo & Icon: Open Source · Linux Foundation
Jetzt prüfen
Nutzen Sie unser kostenloses Prüfprogramm ganz oben. Es untersucht Ihre Bilder und Videos auf Fehler.
Faustregel
Je wichtiger eine Nachricht ist, desto mehr Quellen müssen Sie prüfen. Ein Video ohne gute Quelle verdient immer Misstrauen. Das Video kann noch so echt aussehen.
Deepfake-Detection Skill
Das ist eine Anleitung für Programmierer. Sie erklärt die Untersuchung ganz genau.
Was tun?
Wenn Sie einen Deepfake finden
- Nicht teilen. Teilen Sie das Bild auch nicht als Warnung. Das hilft den Betrügern nur noch mehr.
- Quelle prüfen. Wer zeigt das Bild zuerst? Bestätigen andere Leute das Bild?
- Plattform melden. Die meisten Internetseiten haben einen Knopf zum Melden.
- Beweise dokumentieren. Machen Sie ein Bildschirmfoto. Schreiben Sie die Uhrzeit und die Internetseite auf.
Wenn Sie selbst betroffen sind
Handeln Sie bei falschen Bildern von sich selbst sofort!
- Beweise sichern: Speichern Sie Bildschirmfotos, Links und Uhrzeiten.
- Internetseite anschreiben: Fordern Sie die Löschung von dem Bild.
- Rechtliche Hilfe suchen: In Österreich gibt es Gesetze gegen falsche Bilder.
- Unterstützung holen: Rufen Sie bei Beratungsstellen an. Saferinternet.at, Rat auf Draht (147)
Die Zukunft
Die KI-Programme entwickeln sich sehr schnell. Sie lernen schneller als unsere Prüfprogramme. Wir müssen in Zukunft umdenken. Wir müssen echte Bilder sofort sicher machen. Wir dürfen nicht nur nach Fälschungen suchen.
C2PA: Der neue Standard
C2PA ist die neue technische Antwort auf KI. Der Standard arbeitet wie ein digitaler Ausweis. Der Ausweis ist sehr sicher gegen Fälschungen. Das Programm unterschreibt jede Änderung mit einer sicheren Technik. Das Programm speichert alle Schritte in einer Liste.
Wer nutzt C2PA heute?
- KI-Programme: Viele bekannte KI-Programme unterschreiben Bilder sofort automatisch.
- Software: Bildprogramme wie Adobe Photoshop speichern alle Arbeitsschritte sicher ab.
- Hardware: Manche Kameras von Leica oder Sony unterschreiben Bilder direkt beim Fotografieren.
- Smartphones: Neue Handys von Google oder Samsung bekommen diese Technik bald.
- Plattformen: Programme von Microsoft verlangen bald diese sicheren Zeichen für KI-Bilder.
In der Praxis: Auf Internetseiten sehen Sie ein CR-Zeichen. Sie klicken auf das kleine Zeichen. Sie sehen die ganze Geschichte vom Bild. Zum Beispiel: Eine bestimmte Kamera macht das Originalbild. Jemand bearbeitet das Bild an einem bestimmten Datum.
Herausforderung: Bildschirmfotos löschen diese Daten oft. Nutzer schneiden die Daten oft beim Hochladen ab. Deshalb erfinden Forscher auch unsichtbare Wasserzeichen. Sie verbinden diese Wasserzeichen eng mit C2PA.
Prognose: In wenigen Jahren gilt eine neue Regel. Nachrichten und Behörden verlangen diesen sicheren Ausweis. Ohne sicheren Beweis der Herkunft können Sie keiner Datei vertrauen.
Klick lädt YouTube (Datenschutz)
Technik für alle
Gefahr für echte Videoanrufe
Unsichere Prüfungen
Sichere Unterschriften
Neues Denken: Von der späten Suche zur sofortigen Sicherheit
Ressourcen
Für Schulen & Unterricht
Die Seite Saferinternet.at bietet gutes Material für den Unterricht. Das Material kostet nichts und hilft im Alltag.
Technische Tiefe
Unsere Anleitung erklärt die Prüfung von Bildern ganz genau. Wir erklären verschiedene Fehler im Bild.
Weiterführende Links
| Link | Beschreibung |
|---|---|
| Content Authenticity Initiative | Initiative für die Herkunft von Medien |
| C2PA Spezifikation | Technischer Standard für Content Credentials |
| Saferinternet.at | Österreichische Seite für ein sicheres Internet |
| DeepfakeBench | Akademischer Test für das Erkennen von Deepfakes |
C2PA Testdateien
Laden Sie diese offiziellen Testbilder von der C2PA Gruppe herunter. Prüfen Sie die Bilder mit unserem Prüfprogramm ganz oben. So verstehen Sie die C2PA-Prüfung sehr gut!
Diese Dateien haben eine gültige Kette an Unterschriften. Das Programm zeigt das Wort "Gültig" an:

Alle Daten stimmen. Die Unterschrift ist gültig. Niemand hat das Bild heimlich verändert.

Unterschrift vom Gerät: Eine moderne Kamera unterschreibt das Bild direkt beim Fotografieren.
So funktioniert die C2PA-Validierung
Das Programm prüft die sichere Kette Schritt für Schritt. Alle vier Prüfungen müssen ein gutes Ergebnis zeigen. Nur dann ist die Datei wirklich echt. Ein einziger Fehler bricht die ganze Kette ab. Dann kann das Programm die nächsten Schritte nicht mehr prüfen:
Gültige C2PA-Kette
Manipulierte Kette
C2PA-Prüfung: Jede Schicht muss komplett fehlerfrei sein. Ein einziger Fehler bricht die ganze Kette ab.
Alle Testdateien haben eine freie CC BY-SA 4.0 Lizenz. Quelle: c2pa-org/public-testfiles
Fazit
Deepfakes sind nicht nur Zukunft. Sie sind schon heute da. Die Technik entwickelt sich schneller als unsere Prüfprogramme.
Hinweise sind wie Fingerabdrücke. Sie sind nicht sicher. C2PA ist wie ein DNA-Test. C2PA ist ganz sicher.
Konkret bedeutet das für Sie:
- Heute: Suchen Sie nach Fehlern und Metadaten im Bild. Aber vertrauen Sie diesen Hinweisen nicht blind.
- Morgen: Fordern Sie sichere C2PA-Medien von Kameras und von Programmen.
- Immer: Denken Sie kritisch mit. Das hilft immer besser als jeder Computer-Algorithmus.
Deepfake-Detection Skill
Unsere Anleitung erklärt die Prüfung von Bildern ganz genau. Wir erklären verschiedene Fehler im Bild. Die Anleitung ist ideal für Programmierer. Sie hilft beim Bauen von neuen Erkennungs-Programmen.
Dieser Artikel hilft bei der Bildung für Medien. Fragen Sie bei rechtlichen Problemen immer richtige Experten.