26 Jan
26Jan

Bereits im 19. Jahrhundert gab es erste Versuche, Fotos zu verändern.
Doch aufgrund von Bildbearbeitungssoftware und künstliche Intelligenz muss man jetzt kein professioneller Fälscher mehr sein, um ein Bild zu manipulieren.


Ein Beispiel ist das sogenannte "Face Swapping", bei dem in einem Foto oder Video das Gesicht einer anderen Person eingesetzt wird, um diese in einem anderen Zusammenhang darzustellen und schlecht oder lächerlich zu machen. Etwa in einem Porno- oder Gewaltvideo. Diese Form der Fälschung wird auch als Deepfake bezeichnet.

Bei Deepfakes handelt es sich um täuschend echt wirkende, manipulierte Bild-, Video oder Audioaufnahmen, die oft mittels künstlicher Intelligenz (KI) generiert werden.

 Bildmanipulationen verraten sich zum Beispiel oft durch Fehler in der Perspektive oder unstimmige Licht- und Schattenverhältnisse. Bei gestohlenen Bildern, die in einem anderen Kontext veröffentlicht werden, kann es dagegen sein, dass die Bilddetails nicht zur erzählten Geschichte passen. Auch Fakes, die von KI-Tools erschaffen wurden, lassen sich oft anhand von Kleinigkeiten enttarnen. Nach wie vor haben sie zum Beispiel Probleme damit, Hände, Spiegelungen oder Buchstaben korrekt darzustellen. Wird ein Mensch gezeigt, verrät außerdem oft die auffallend glatt gebügelte Haut, dass es sich um ein KI-generiertes Bild handelt.

In vielen Fällen hilft die Rückwärtssuche. Dabei nimmt die jeweilige Suchmaschine das Bild und durchforstet das Netz nach identischen Bildern. Sie zeigt Ihnen an, wann und wo diese Bilder veröffentlicht worden sind. Beispiele für umgekehrte Bildsuchen sind Tineye, Google Images oder Image Raider.


Die Rückwärtssuchen funktionieren alle nach einem ähnlichen Prinzip: Anstelle des Suchbegriffs fügen Sie das Bild in die Bildersuche ein. Wenn Sie das Bild auf Ihrem PC abgespeichert haben, laden Sie es hoch. Geht es um ein Bild im Internet, genügt es, den Link zum Bild in die Suchleiste einzufügen. Die Rückwärtssuche findet auch Bilder, die Ihrem Ausgangsbild ähneln. So kommen Sie einfachen Bildmanipulationen und zugeschnittenen Bildern schneller auf die Schliche. Sobald KI ins Spiel kommt, stößt die Rückwärtssuche schnell an ihre Grenzen. Das liegt daran, dass Künstliche Intelligenzen wie z. B. Midjourney die Bilder auf Basis von Beschreibungen neu erschaffen. Ein KI-generiertes Fake-Bild hat damit keine Internethistorie. Es sieht daher in der Rückwärtssuche unauffällig aus.


Mit KI-Erkennungssoftware (mvtech.com) lassen sich jedoch auch diese Bilder enttarnen. Sie müssen die vermeintlichen Fakes lediglich hochladen. Die Erkennungssoftware berechnet dann in wenigen Sekunden, wie groß die Wahrscheinlichkeit ist, dass das Bild von KI erschaffen worden ist. Äpfel, die innen wie Melonen aussehen? - Nutzen Sie stets Ihren gesunden Menschenverstand und hinterfragen Sie, was Sie sehen. Verlassen Sie sich daher nicht auf Technik. Hinterfragen Sie, was sie sehen. So schützen Sie sich am besten vor gefakten Bildern – und damit vor Desinformation und Betrugsversuchen. Faustregel: Je unglaublicher und reißerischer die Darstellung, desto eher können Sie davon ausgehen, dass es sich um ein manipuliertes Bild handelt.

Kommentare
* Die E-Mail-Adresse wird nicht auf der Website veröffentlicht.