Gefälschte Bilder erkennen: Von Hinweisen zu sicheren Beweisen

Alte Prüfmethoden stoßen an ihre Grenzen. Nur die Technik C2PA bietet echte Sicherheit. Hinweise sind wie Fingerabdrücke. Sie sind nicht sicher. C2PA ist wie ein DNA-Test. C2PA ist ganz sicher.

Auf einen Blick

  • Alte Methoden suchen nur nach Hinweisen. Nur C2PA-Signaturen bringen echte Sicherheit.
  • Es gibt sechs Arten von künstlichen Medien. Dazu gehören getauschte Gesichter, nachgemachte Stimmen und falsche Mundbewegungen.
  • Betrüger nutzen oft gefälschte Videos von Chefs. Diese Fälle steigen sehr stark an. Eine Firma verlor 25 Millionen Dollar durch einen falschen Videoanruf.
  • Ohne C2PA-Signatur ist die Prüfung nie ganz sicher. Sie erreichen höchstens 85 Prozent Sicherheit.

Es ist Mai 2024. Der Chef von einer großen Werbefirma bekommt einen Videoanruf. Die Stimme klingt ganz echt. Das Gesicht sieht echt aus. Aber diese Person gibt es gar nicht. Das nennt man ein Deepfake. Der Betrug klappt zum Glück nicht. Eine andere Firma aus Hongkong hat großes Pech. Die Firma verliert 25 Millionen Dollar im Februar 2024. Betrüger machen einen falschen Videoanruf. Sie geben sich als Finanzchef aus. Ein Computer macht alle Personen im Video.

Solche Angriffe nennt man CEO-Fraud. Das bedeutet Chef-Betrug. Mit Deepfakes ist dieser Betrug noch gefährlicher. Es gibt immer mehr Fälle. Die Zahl steigt um 1.740 Prozent an. Das passiert in Nordamerika zwischen den Jahren 2022 und 2023.

Das betrifft nicht nur Chefs. Das betrifft alle Menschen.

Wichtige Aussage

Alte Prüfmethoden liefern uns nur Hinweise. Das ist wie bei Fingerabdrücken. Hinweise helfen uns. Aber man kann Hinweise anzweifeln. C2PA-Signaturen sind eine neue Technik. Sie funktionieren wie ein DNA-Test. Sie sind fast völlig sicher. Hinweise zeigen nur eine Möglichkeit. Sichere Signaturen geben uns eine mathematische Gewissheit. Niemand kann diese Sicherheit austricksen.


Inhaltsverzeichnis  


Bild oder Video prüfen – jetzt und kostenlos  

Haben Sie ein komisches Bild oder Video gefunden? Prüfen Sie es hier ganz schnell. Unser Prüfprogramm untersucht die Dateien auf vier Ebenen. Es schaut sich versteckte Daten an. Es sucht nach sicheren C2PA-Signaturen. Es sucht nach Spuren von Bearbeitung. Und es sucht nach KI-Fehlern.

So funktioniert das Programm:

  1. Laden Sie ein Bild oder ein Video hoch. Sie können auch einen Link einfügen.
  2. Die Prüfung läuft ganz von alleine. Sie müssen sich nicht anmelden. Sie müssen nichts installieren.
  3. Sie bekommen danach ein klares Ergebnis. Wir erklären das Ergebnis genau.

Echt oder Fake?

So funktioniert's

Laden Sie ein Bild oder Video hoch – wir analysieren es auf 4 Ebenen:

Metadaten – EXIF, Kamera, Software
C2PA – Kryptografische Signatur
Signal – Kompression, Rauschen, Artefakte
Semantik – KI-Erkennung, Gesichter, Objekte

Bild oder Video hier ablegen

JPEG, PNG, WebP, MP4, WebM – max. 20 MB

Kein eigenes Bild? Testen Sie mit diesen Beispielen:

Beta · Ergebnisse dienen zur Orientierung und sind rechtlich nicht bindend.

Was bedeuten die Ergebnisse?

Das Programm vergibt Punkte von 0 bis 100 Prozent:

ErgebnisBedeutungErklärung
90–100%Sicher geprüftDie C2PA-Signatur ist gültig. Die Herkunft ist sicher bewiesen.
75–89%Keine HinweiseWir finden keine Spuren von Bearbeitung. Aber ohne C2PA gibt es keine volle Sicherheit.
50–74%Nicht eindeutigDas Ergebnis ist unklar. Das passiert oft bei normaler Bildbearbeitung.
35–49%UngereimtheitenWir finden technische Fehler. Bitte prüfen Sie das Bild genauer.
0–34%Starke HinweiseWir finden viele Spuren von Manipulation. Das Bild ist sehr wahrscheinlich falsch.

Richtung: Ein hoher Wert bedeutet: Das Bild ist sehr wahrscheinlich echt. Ein niedriger Wert bedeutet: Das Bild ist verdächtig. Ohne C2PA-Signatur erreichen Sie höchstens 85 Prozent.

Quellen: C2PA Standard · HFMF: Hierarchical Fusion (WACV 2025) · MIT JPEG Forensics · Visual Counter Turing Test (2024)

Weiterlesen: Was sind Deepfakes? · 6 Typen · Schutzmaßnahmen


Was sind Deepfakes?  

Das Wort mischt "Deep Learning" und "Fake". "Deep Learning" ist eine Lernmethode für Computer. "Fake" bedeutet Fälschung. Es geht um Bilder, Videos oder Töne. Ein Computerprogramm mit Künstlicher Intelligenz macht diese Dateien. Künstliche Intelligenz kürzt man mit KI ab. Die Dateien sehen sehr echt aus. Aber sie sind falsch.

Das ist die Technik dahinter: Es gibt GANs. Es gibt Diffusion Models. Und es gibt Autoencoders.

Sechs Typen synthetischer Medien  

1. Face Swap (Gesichtertausch)  

Ein Programm tauscht das Gesicht von einer Person. Das Programm macht das Bild für Bild im Video. Die KI übersetzt das Gesicht in einen Zahlencode. Das nennt man Latent Space. Ein Übersetzer macht das Gesicht zu Zahlen. Ein Rückübersetzer baut aus den Zahlen ein Bild. So kommt ein neues Gesicht auf einen alten Körper. Früher brauchte man viele Fotos dafür. Heute reicht oft ein einziges Bild.

Gesichtertausch in Aktion. Ein Gesicht geht nahtlos auf einen anderen Körper über. Wikimedia Commons / CC BY-SA 4.0

Echt gegen Falsch. Das Gesicht von Nicolas Cage liegt auf Elon Musk. Wikimedia Commons / CC BY-SA 4.0

WIRED: Ein Forscher erklärt die Technik hinter dem Gesichtertausch.

Ausblick: In Zukunft reicht ein einziges Bild für den perfekten Tausch. Forscher arbeiten an neuen Programmen. Diese Programme machen flüssige Videos ohne Fehler. Sie erhalten das Aussehen auch bei schwierigen Kopfbewegungen.

2. Face Reenactment (Mimik-Übertragung)  

Ein Programm bewegt ein Gesicht. Es nutzt den Gesichtsausdruck einer anderen Person. Das nennt man die Marionetten-Technik. Das Programm sucht wichtige Punkte im Gesicht. Es überträgt die Bewegungen sofort. So können Sie Menschen falsche Worte in den Mund legen. Sie müssen die Stimme dafür nicht klonen.

Shakespeare erwacht. Eine KI bewegt ein altes Gemälde. Wikimedia Commons / Public Domain

Pharao Tutanchamun. Die alte Totenmaske bewegt sich durch KI. Wikimedia Commons / Public Domain

Face2Face: Schnelle Übertragung von Gesichtsausdrücken. Stanford/TU München (CVPR 2016)

Ausblick: Neue Programme verbinden Sprache direkt mit Gesichtsbewegungen. Das ermöglicht komplett falsche Videokonferenzen. Die Forscher verbessern auch schnelle Kopfbewegungen.

3. Voice Clone (Stimmklon)  

Die KI macht die Sprache einer Person nach. Moderne Programme brauchen nur wenige Sekunden Tonaufnahme. Sie lernen sehr schnell. Die Programme untersuchen die Stimme. Sie prüfen die Höhe und den Klang. Dann sprechen sie jeden Text mit dieser Stimme.

Elvis lebt? Ein KI-Bild zeigt den Sänger in verschiedenen Lebensphasen. Midjourney / Wikimedia Commons / Public Domain

Prigoschin als KI-Kunst. KI-Bilder verbreiten sich oft schneller als echte Fotos. Wikimedia Commons / CC BY-SA 4.0

ElevenLabs: Ein Programm klont Stimmen mit wenig Aufnahmematerial.

Ausblick: In Zukunft brauchen Programme gar kein Training mehr. Sie machen jede Stimme sofort nach. Sie können dann auch Gefühle wie Freude oder Wut einbauen.

4. Lip Sync (Lippensynchronisation)  

Ein Programm passt die Lippen an den Ton an. Es verbindet Laute genau mit passenden Mundformen. Die Lippen bewegen sich genau zur falschen Stimme. Jemand sagt Dinge im Video. Aber die Person hat das nie wirklich gesagt. Das ist sehr gefährlich zusammen mit falschen Stimmen.

StyleGAN-Gesichter. Diese Personen gibt es nicht. Sie dienen als Basis für falsche Mundbewegungen. Wikimedia Commons / CC BY-SA 4.0

REAIM 2023: Echt oder Falsch? Falsche Bilder bei der Armee. Niederländisches Außenministerium / CC BY-SA 2.0

Wav2Lip: Die KI bewegt die Lippen perfekt zum Ton.

Ausblick: Neue Modelle verbessern die Bildqualität ganz stark. Sie ermöglichen auch automatische Übersetzungen in andere Sprachen. Die Lippen passen dann immer perfekt zum Text.

5. Full Body Puppetry (Ganzkörper-Steuerung)  

Ein Programm überträgt Bewegungen von einer Person auf eine andere. Das ist wie bei einer digitalen Marionette. Ein Programm nimmt Bewegungen aus einem echten Video. Es überträgt die Bewegungen auf ein einfaches Foto. So kann jede Person jeden Tanz tanzen.

DigiDoug bei TED2019. Ein Mensch steuert eine digitale Figur am Bildschirm. Wikimedia Commons / CC BY-SA 4.0

KI-Karikatur. Macron vor Demonstranten. Auch Zeichnungen können sehr echt wirken. Wikimedia Commons / CC BY-SA 4.0

First Order Motion Model: Bewegungen für den ganzen Körper aus einem Bild. Universität Trento

Ausblick: Neue Programme beachten auch die Tiefe im Raum. Sie machen bald sehr echte Ganzkörper-Videos in Echtzeit.

6. Fully Synthetic (Komplett erfunden)  

Die KI erfindet alles ganz neu. Die KI macht neue Personen und neue Ereignisse. Diese Personen haben nie gelebt. Diese Dinge sind nie passiert. Die Programme machen sehr überzeugende Bilder. Diese Internetseite zeigt diese falschen Gesichter sehr gut.

März 2023: Der Papst trägt eine Designer-Jacke. Viele Millionen Menschen hielten das Bild für echt. Midjourney / Wikimedia Commons / Public Domain

Januar 2025: Ein falsches Bild zeigt das brennende Hollywood-Schild. Es ging im Internet schnell um die Welt. Wikimedia Commons / Public Domain

StyleGAN: Eine Reise durch künstliche Daten. Gesichter verändern sich fließend.

Ausblick: Neue Modelle machen bald ganze Videos komplett künstlich. Nutzer können Alter und Blickrichtung ganz genau steuern.


Chancen und Risiken  

Deepfakes sind ein Werkzeug. Sie sind wie ein Messer oder ein Hammer. Die Technik selbst ist neutral. Es kommt darauf an, was die Menschen damit tun.

BereichAnwendung
Unterhaltung & FilmFilmemacher machen Schauspieler im Computer jünger. Tote Stars können wieder auftreten. Lippen passen perfekt zum Ton.
Spaß & KunstKünstler machen lustige politische Videos. Sie nutzen die Technik für Kunstprojekte.
Hilfen im AlltagEs gibt Figuren für Gebärdensprache. Es gibt Hilfen für die Kommunikation.
Spiele & VRSpieler bekommen eigene Figuren. Die Erlebnisse wirken sehr echt.
Die Zahlen

Im Jahr 2025 teilen Menschen 8 Millionen Deepfakes. Im Jahr 2023 waren es nur 500.000. Die Polizei von Europa gibt eine Warnung ab. Bis zum Jahr 2026 sind vielleicht 90 Prozent der Inhalte künstlich. Die EU sagt: 98 Prozent von allen Deepfakes zeigen nackte Menschen.


Deepfakes erkennen  

Perfekte Deepfakes gibt es selten. Die meisten Deepfakes hinterlassen Spuren. Sie müssen nur wissen, was Sie suchen.

Gesichtsränder

Achten Sie auf die Ränder am Gesicht. Sind die Ränder komisch? Oft flackern die Ränder. Manchmal schwebt das Gesicht über dem Körper. Sie sehen das gut bei Kopfbewegungen.

Blinzeln

Frühe Deepfakes blinzeln nie. Neue Programme sind viel besser. Achten Sie auf die Augen. Blinzeln die Augen ungleichmäßig? Sind die Augen ganz starr?

Lippensynchronität

Passt die Mundbewegung ganz genau zum Ton? Bei falschen Stimmen gibt es oft kleine Fehler. Achten Sie auf die Buchstaben P, B oder M.

Schatten & Licht

Echtes Licht macht echte Schatten. Zusammengesetzte Bilder haben oft falsche Schatten. Die Schatten zeigen in verschiedene Richtungen. Das ist in der echten Welt unmöglich.

Augenreflexionen

Augen spiegeln die Umgebung. Bei Deepfakes spiegeln die Augen manchmal verschiedene Dinge. Das linke Auge zeigt ein anderes Bild als das rechte Auge.

Haare & Details

Haare sind sehr schwer für Computerprogramme. Achten Sie auf komische Haare. Sind die Ränder zu glatt? Verschmelzen einzelne Haare miteinander? Gehen Haare durch andere Dinge hindurch?

Was sind Metadaten?  

Metadaten sind Daten über Daten. Sie sind unsichtbare Informationen in einer Datei. Sie verraten oft sehr viel über ein Bild oder Video. Sie verraten oft mehr als das sichtbare Bild.

TypInhaltNutzen für die Prüfung
EXIF (Exchangeable Image File Format)Kamera, Objektiv, Blende, Datum, Uhrzeit, OrtWelches Gerät macht das Foto? Wo macht das Gerät das Foto? Künstliche Bilder haben meistens keine EXIF-Daten.
IPTC (International Press Telecommunications Council)Titel, Beschreibung, Rechte, Ersteller, KontaktDas ist der Standard für Nachrichten. Wer hat das Bild gemacht? Gute Fotos haben vollständige IPTC-Daten.
XMP (Extensible Metadata Platform)Bearbeitung, Software, VersionenWie ändert eine Person das Bild? Programme wie Adobe speichern diese Daten ab.
ICC-ProfilFarbraum (sRGB, Adobe RGB, ProPhoto RGB)Das prüft die Farben. Passt der Farbraum zu der genannten Kamera?
ThumbnailEingebettete VorschauDas ist ein kleines Vorschaubild. Manchmal zeigt die Vorschau noch das echte Originalbild!

Beispiel für EXIF-Daten:

Tools zur Verifikation  

Bildersuche

Suchen Sie nach dem Bild im Internet. Nutzen Sie Seiten wie Google Images, TinEye oder Yandex. Finden Sie ältere Bilder? Finden Sie das Original?

C2PA / Content Credentials

Manche Kameras unterschreiben Bilder digital. Diese Technik heißt C2PA. Internetseiten wie Content Authenticity Verify prüfen diese Unterschrift. Sie zeigen die echte Geschichte vom Bild.

C2PA – Der kommende Standard

Die Coalition for Content Provenance and Authenticity etabliert einen offenen Standard für kryptografische Mediensignatur. Hardware und Software attestieren Herkunft, Aufnahmezeitpunkt und Bearbeitungshistorie – eine lückenlose Chain of Custody für digitale Medien.

C2PA Logo

Steering Committee

AdobeAdobe
BBCBBC
GoogleGoogle
MetaMeta
MicrosoftMicrosoft
OpenAIOpenAI
Publicis GroupePublicis Groupe
SonySony
TruepicTruepic

Content Credentials: Das CR-Icon  

Content Credentials CR Icon

C2PA ist eine neue Regel für Technik. Content Credentials ist das sichtbare Zeichen für Menschen.

Was zeigt das CR-Zeichen?

  • Wer macht das Bild? (Kamera, Mensch oder KI)
  • Welches Programm ändert das Bild?
  • Nutzt der Mensch dabei eine KI?
  • Was macht der Mensch genau mit dem Bild?

Der Trick an der Sache: Alle Daten haben eine sichere digitale Unterschrift. Ändert jemand auch nur einen einzigen Punkt im Bild? Dann ist die Unterschrift sofort ungültig. Sie erkennen die Fälschung sofort.

Logo & Icon: Open Source · Linux Foundation

Jetzt prüfen  

Zum Prüfprogramm

Nutzen Sie unser kostenloses Prüfprogramm ganz oben. Es untersucht Ihre Bilder und Videos auf Fehler.

→ Zum Prüfprogramm

Faustregel

Je wichtiger eine Nachricht ist, desto mehr Quellen müssen Sie prüfen. Ein Video ohne gute Quelle verdient immer Misstrauen. Das Video kann noch so echt aussehen.

Deepfake-Detection Skill

Das ist eine Anleitung für Programmierer. Sie erklärt die Untersuchung ganz genau.

Skill auf GitHub öffnen →


Was tun?  

Wenn Sie einen Deepfake finden  

  1. Nicht teilen. Teilen Sie das Bild auch nicht als Warnung. Das hilft den Betrügern nur noch mehr.
  2. Quelle prüfen. Wer zeigt das Bild zuerst? Bestätigen andere Leute das Bild?
  3. Plattform melden. Die meisten Internetseiten haben einen Knopf zum Melden.
  4. Beweise dokumentieren. Machen Sie ein Bildschirmfoto. Schreiben Sie die Uhrzeit und die Internetseite auf.

Wenn Sie selbst betroffen sind  

Sofort handeln

Handeln Sie bei falschen Bildern von sich selbst sofort!

  • Beweise sichern: Speichern Sie Bildschirmfotos, Links und Uhrzeiten.
  • Internetseite anschreiben: Fordern Sie die Löschung von dem Bild.
  • Rechtliche Hilfe suchen: In Österreich gibt es Gesetze gegen falsche Bilder.
  • Unterstützung holen: Rufen Sie bei Beratungsstellen an. Saferinternet.at, Rat auf Draht (147)

Die Zukunft  

Die KI-Programme entwickeln sich sehr schnell. Sie lernen schneller als unsere Prüfprogramme. Wir müssen in Zukunft umdenken. Wir müssen echte Bilder sofort sicher machen. Wir dürfen nicht nur nach Fälschungen suchen.

C2PA: Der neue Standard  

C2PA ist die neue technische Antwort auf KI. Der Standard arbeitet wie ein digitaler Ausweis. Der Ausweis ist sehr sicher gegen Fälschungen. Das Programm unterschreibt jede Änderung mit einer sicheren Technik. Das Programm speichert alle Schritte in einer Liste.

Wer nutzt C2PA heute?

  • KI-Programme: Viele bekannte KI-Programme unterschreiben Bilder sofort automatisch.
  • Software: Bildprogramme wie Adobe Photoshop speichern alle Arbeitsschritte sicher ab.
  • Hardware: Manche Kameras von Leica oder Sony unterschreiben Bilder direkt beim Fotografieren.
  • Smartphones: Neue Handys von Google oder Samsung bekommen diese Technik bald.
  • Plattformen: Programme von Microsoft verlangen bald diese sicheren Zeichen für KI-Bilder.

In der Praxis: Auf Internetseiten sehen Sie ein CR-Zeichen. Sie klicken auf das kleine Zeichen. Sie sehen die ganze Geschichte vom Bild. Zum Beispiel: Eine bestimmte Kamera macht das Originalbild. Jemand bearbeitet das Bild an einem bestimmten Datum.

Herausforderung: Bildschirmfotos löschen diese Daten oft. Nutzer schneiden die Daten oft beim Hochladen ab. Deshalb erfinden Forscher auch unsichtbare Wasserzeichen. Sie verbinden diese Wasserzeichen eng mit C2PA.

Prognose: In wenigen Jahren gilt eine neue Regel. Nachrichten und Behörden verlangen diesen sicheren Ausweis. Ohne sicheren Beweis der Herkunft können Sie keiner Datei vertrauen.

Video abspielen
Lädt YouTube & setzt Cookies

Klick lädt YouTube (Datenschutz)

Technik für alle

Echtzeit-Videos mit Deepfakes funktionieren sehr gut. Sehr viele Menschen nutzen diese Technik. Wir können Fälschungen immer schwerer erkennen.

Gefahr für echte Videoanrufe

Deepfakes in Live-Videos werden immer besser. Menschen verlieren das Vertrauen in echte Videoanrufe.

Unsichere Prüfungen

Alte Prüfprogramme geben nur noch Wahrscheinlichkeiten aus. Wir bekommen keine klaren Antworten mehr.

Sichere Unterschriften

C2PA wird der Standard für echte Bilder. Ohne sichere Unterschrift gilt ein Bild als unbestätigt. Die sichere Herkunft ersetzt unser bloßes Gefühl.

Neues Denken: Von der späten Suche zur sofortigen Sicherheit


Ressourcen  

Für Schulen & Unterricht

Die Seite Saferinternet.at bietet gutes Material für den Unterricht. Das Material kostet nichts und hilft im Alltag.

Materialien auf Saferinternet.at

Technische Tiefe

Unsere Anleitung erklärt die Prüfung von Bildern ganz genau. Wir erklären verschiedene Fehler im Bild.

LinkBeschreibung
Content Authenticity InitiativeInitiative für die Herkunft von Medien
C2PA SpezifikationTechnischer Standard für Content Credentials
Saferinternet.atÖsterreichische Seite für ein sicheres Internet
DeepfakeBenchAkademischer Test für das Erkennen von Deepfakes

C2PA Testdateien  

Selbst testen

Laden Sie diese offiziellen Testbilder von der C2PA Gruppe herunter. Prüfen Sie die Bilder mit unserem Prüfprogramm ganz oben. So verstehen Sie die C2PA-Prüfung sehr gut!

Diese Dateien haben eine gültige Kette an Unterschriften. Das Programm zeigt das Wort "Gültig" an:

Adobe Testbild - gültig
adobe-20220124-C.jpg

Alle Daten stimmen. Die Unterschrift ist gültig. Niemand hat das Bild heimlich verändert.

Truepic Kamera Testbild - gültig
truepic-20230212-camera.jpg

Unterschrift vom Gerät: Eine moderne Kamera unterschreibt das Bild direkt beim Fotografieren.

Erwartetes Ergebnis:Das Programm findet C2PA. Die Unterschrift ist gültig. Wir finden keine Manipulationen.

So funktioniert die C2PA-Validierung  

Das Programm prüft die sichere Kette Schritt für Schritt. Alle vier Prüfungen müssen ein gutes Ergebnis zeigen. Nur dann ist die Datei wirklich echt. Ein einziger Fehler bricht die ganze Kette ab. Dann kann das Programm die nächsten Schritte nicht mehr prüfen:

Gültige C2PA-Kette

1Zertifikat ist bestätigt
2Signatur ist gültig
3Behauptungen sind unverändert
4Bild-Wert stimmt genau
Kette ist bestätigt

Manipulierte Kette

1Zertifikat ist bestätigt
2Signatur ist ungültig
3Behauptungen sind nicht prüfbar
4Bild-Wert ist nicht prüfbar
Manipulation wurde erkannt

C2PA-Prüfung: Jede Schicht muss komplett fehlerfrei sein. Ein einziger Fehler bricht die ganze Kette ab.

Lizenz & Quelle

Alle Testdateien haben eine freie CC BY-SA 4.0 Lizenz. Quelle: c2pa-org/public-testfiles


Fazit  

Deepfakes sind nicht nur Zukunft. Sie sind schon heute da. Die Technik entwickelt sich schneller als unsere Prüfprogramme.

Hinweise sind wie Fingerabdrücke. Sie sind nicht sicher. C2PA ist wie ein DNA-Test. C2PA ist ganz sicher.

Konkret bedeutet das für Sie:

  • Heute: Suchen Sie nach Fehlern und Metadaten im Bild. Aber vertrauen Sie diesen Hinweisen nicht blind.
  • Morgen: Fordern Sie sichere C2PA-Medien von Kameras und von Programmen.
  • Immer: Denken Sie kritisch mit. Das hilft immer besser als jeder Computer-Algorithmus.
Für technisch Interessierte

Deepfake-Detection Skill

Unsere Anleitung erklärt die Prüfung von Bildern ganz genau. Wir erklären verschiedene Fehler im Bild. Die Anleitung ist ideal für Programmierer. Sie hilft beim Bauen von neuen Erkennungs-Programmen.

Auf GitHub öffnen

Hinweis

Dieser Artikel hilft bei der Bildung für Medien. Fragen Sie bei rechtlichen Problemen immer richtige Experten.

Was ist Leichter Lesen?

A2

Diese Seite ist in Leichter Sprache geschrieben. Leichte Sprache hilft vielen Menschen, Texte besser zu verstehen. Die Sätze sind kurz. Schwierige Wörter werden erklärt.

Dieser Text wurde nach den Regeln der Leichten Sprache erstellt. Textniveau: A2 (Gemeinsamer Europäischer Referenzrahmen).

Lassen Sie uns ueber Ihr Projekt sprechen

Standorte

  • Mattersburg
    Johann Nepomuk Bergerstraße 7/2/14
    7210 Mattersburg, Austria
  • Wien
    Ungargasse 64-66/3/404
    1030 Wien, Austria

Dieser Inhalt wurde teilweise mithilfe von KI erstellt.