Foto oder Fake - Künstliche Intelligenz vs. echte Bilder
Foto oder Fake - Künstliche Intelligenz vs. echte Bilder
Foto oder Fake - Künstliche Intelligenz vs. echte Bilder
Foto oder Fake - Künstliche Intelligenz vs. echte Bilder
Foto oder Fake - Künstliche Intelligenz vs. echte Bilder
Foto oder Fake - Künstliche Intelligenz vs. echte Bilder
Foto oder Fake - Künstliche Intelligenz vs. echte Bilder
Foto oder Fake - Künstliche Intelligenz vs. echte Bilder
Foto oder Fake - Künstliche Intelligenz vs. echte Bilder
Foto oder Fake - Künstliche Intelligenz vs. echte Bilder

Foto oder Fake - Künstliche Intelligenz vs. echte Bilder

Bis vor kurzem war es relativ einfach, Bilder, die von künstlicher Intelligenz, kurz KI, erstellt wurden, zu erkennen. Sechs Finger an den Händen, seltsam geformte Füße oder übertrieben viele Zähne beim Lächeln galten als deutliche Anzeichen dafür, dass es sich um eine von KI erzeugte Darstellung handelte und nicht um ein Bild einer Fotokamera. Doch die künstliche Intelligenz erzielt rasante Fortschritte, was es schwieriger macht, sie als Urheberin von Bildern zu identifizieren. Trotzdem gibt es noch immer Details, die helfen können, zwischen Wahrheit und Fälschung zu unterscheiden. In unserem heutigen Artikel präsentieren wir hilfreiche Tipps und Merkmale, mit denen wir besser erkennen können, wenn wir hinters Licht geführt werden sollen.

 

 

Früher war alles leichter

Realistische Fälschungen in Form von Bildern oder Videos, bekannt als "Deepfakes", werden zunehmend häufiger. Früher erforderten überzeugende Ergebnisse enormen Aufwand und Anstrengungen. Doch heutzutage ermöglichen Programme wie Dall-E oder Midjourney die Erzeugung eines Deepfakes in nur wenigen Sekunden: Durch die Eingabe einer kurzen Beschreibung der gewünschten Szene und nach einer kurzer Rechenzeit - sofern die Beschreibung passend formuliert ist - erhält man eine fotorealistische Ausgabe.

 

Die Technologie dahinter

Die Wahrnehmung eines Bildes durch einen Computer unterscheidet sich grundlegend von der menschlichen Betrachtung: Ein Bild ist für den PC keine zweidimensionale visuelle Darstellung mit Konturen und Farben, sondern eher eine umfangreiche Liste von Zahlen. Diese können als Koordinaten in einem hochdimensionalen Raum betrachtet werden, wobei jeder Eintrag in der Liste eine dieser Koordinaten darstellt. Auf umgekehrtem Wege kann jeder Punkt in diesem Raum in ein Bild umgewandelt werden.

Damit ein Algorithmus in der Lage ist, ein neues Bild zu erzeugen, muss er zunächst lernen, was als realistisches Ergebnis anzusehen ist. Das geschieht durch die Zufuhr enormer Mengen an Beispielbildern. Der Algorithmus verarbeitet diese Informationen und schafft Datenpunkte in einem hochdimensionalen Raum. Interessanterweise lassen sich auf diese Weise bereits Gemeinsamkeiten zwischen realistischen Bildern erkennen: Die Datenpunkte bilden Cluster in bestimmten Bereichen, wodurch Punkte in dieser Umgebung mit hoher Wahrscheinlichkeit einem realistischen Motiv entsprechen. Doch dieser Lernprozess ist aber nicht so unkompliziert, wie es im ersten Moment erscheinen mag.

In den falschen Händen

Einige Firmen wie OpenAI haben Filter in ihre Software eingebaut, damit sie beispielsweise keine Bilder von berühmten Persönlichkeiten oder pornografische Motive erzeugen. Mit solchen Vorsichtsmaßnahmen wollen die Unternehmen der Erzeugung von Fake News zuvorkommen. Allerdings setzen das nicht alle Unternehmen um, so kann man etwa mit "Midjourney" durchaus Motive mit bekannten Personen erzeugen. Zudem sind einige der generativen Algorithmen quelloffen, also für jedermann frei zugänglich. Damit kann jede Person auf den zu Grunde liegenden Quellcode zugreifen und theoretisch ein eigenes Diffusionsmodell ohne jegliche Filter erzeugen – sofern sie über genug Rechenleistung und Trainingsdaten verfügt.

 

KI gegen KI

Einige Unternehmen wie OpenAI integrieren Filter in ihre Software, um beispielsweise die Erzeugung von Bildern berühmter Persönlichkeiten oder pornografischen Inhalten zu verhindern. Diese Vorkehrungen dienen dazu, der Verbreitung von gefälschten Informationen vorzubeugen. Doch leider nicht alle Unternehmen implementieren solche Maßnahmen. So ermöglicht beispielsweise "Midjourney" die Erstellung von Motiven mit bekannten Persönlichkeiten. Zusätzlich sind einige der generativen Algorithmen öffentlich zugänglich, was bedeutet, dass jeder Zugriff auf den zugrunde liegenden Quellcode hat. Damit besteht theoretisch die Möglichkeit für jede Person, ein eigenes Diffusionsmodell ohne jegliche Filter zu entwickeln – sofern sie über ausreichende Rechenleistung und Trainingsdaten verfügt.

Allerdings lassen sich Informatiker:innen davon nicht entmutigen. Vielmehr arbeiten sie daran, immer ausgefeiltere Methoden zu entwickeln, um KI-generierte Bilder aufzudecken. Einige Ansätze beinhalten die Analyse von biomedizinischen Informationen wie Blutströmen in Gesichtern oder das Vermitteln von Fähigkeiten an KI-Programme, um Fälschungen zu identifizieren. Trotz dieser Bemühungen scheint es jedoch eine Herausforderung zu sein: Jeder Algorithmus, der erfolgreich ist, Deepfakes aufzuspüren, könnte auch wiederum dazu verwendet werden, die generativen KIs zu trainieren, um noch überzeugendere Ergebnisse zu erzielen.

 

Deepfakes erkennen

Vor allem in sozialen Netzwerken stoßen Internetnutzer:innen oft auf Bilder, die mittels KI erstellt wurden, aber keine entsprechende Kennzeichnung aufweisen. Daher ist es besonders wichtig, Wege zu finden, um Deepfakes zu identifizieren. Zurzeit gibt es noch Merkmale in KI-generierten Bildern, die auf potenzielle Fälschungen hinweisen können. Insbesondere bei schnell erstellten Fake-Fotos können ungewöhnliche Formen im Hintergrund oder unnatürlich aussehende Schattenwürfe auf die Manipulation hinweisen. Selbst hochwertige Deepfakes lassen sich häufig entlarven, vor allem bei Videos. Das Massachusetts Institute of Technology, kurz MIT, hat verschiedene Tipps veröffentlicht, um KI-generierte Bilder zu erkennen:

  • Künstliche Intelligenzen haben Schwierigkeiten mit der Darstellung von Händen.
  • Gesichtsveränderungen stehen oft im Fokus dieser Manipulationen.
  • Achte auf eine glatte oder übermäßig faltige Haut.
  • Prüfe, ob das Alter des Gesichts mit dem restlichen Körper übereinstimmt.
  • Beachte die Schatten um die Augen und Augenbrauen, sie könnten der realen Lichtführung nicht entsprechen.
  • Überprüfe die Authentizität von Spiegelungen in Brillengläsern.
  • Beachte die Natürlichkeit der Gesichtsbehaarung.
  • Grübchen und das Zwinkern in Videos können Hinweise auf mögliche Manipulationen sein.
  • Achte auf Unstimmigkeiten in den Lippenbewegungen und der Darstellung der Zähne, da sie auf Fälschungen hinweisen könnten.
Videos vs Fotos

Die DetectFakes-Plattform ermöglichte es Forscher:innen des MIT zu untersuchen, ob Menschen gefälschte Videos erkennen können. Gemäß einer Studie aus dem Jahr 2021 haben mehr als 15.000 Teilnehmer:innen in 69 bis 72 Prozent der Fälle richtig erkannt, ob die Videos echt oder von KI erstellt wurden. Interessanterweise schnitten Menschen hierbei besser ab als Algorithmen: Im Vergleich dazu rief Meta 2019 zur "Deepfake Detection Challenge" auf. Die Software konnte die Videos lediglich in etwa 65 Prozent der Fälle korrekt zuordnen.

Obwohl Menschen gefälschte Videos recht gut erkennen können, haben sie deutlich mehr Schwierigkeiten mit Bildern. Eine 2021 veröffentlichte Studie ergab, dass menschliche Probanden:innen nicht zwischen echten Porträtbildern und solchen, die von KI erstellt wurden, unterscheiden konnten. Das stellt ein Problem dar, wie der Informatiker Philipp Slusallek vom Deutschen Forschungszentrum für Künstliche Intelligenz erklärt: "Für uns repräsentieren Bilder meist die Realität. Selbst wenn sich später herausstellt, dass ein Bild gefälscht war, bleibt immer ein Eindruck im Gedächtnis haften.

 

Fake - Fazit

In der sich rasch entwickelnden Welt der künstlichen Intelligenz werden echte Fotos und Videos vermehrt von überzeugend realistischen KI-generierten Darstellungen, den Deepfakes, herausgefordert. Früher eindeutige Anzeichen wie ungewöhnliche Hand- oder Fußdarstellungen sind durch den technologischen Fortschritt nahezu verwischt worden. Programme wie Dall-E oder Midjourney ermöglichen heute innerhalb weniger Sekunden die Erzeugung fotorealistischer Deepfakes basierend auf knappen Textbeschreibungen.

Angesichts dieser Entwicklung ist es umso bedeutender, Bilder und Videos zu hinterfragen und nicht alles für bare Münze zu nehmen, da die Verbreitung von Fake-News dadurch begünstigt wird. Es bleibt wichtig, trotz dieser Fortschritte subtile Merkmale zu beachten und kritisch zu prüfen, um zwischen authentischen Aufnahmen und KI-generierten Bildern unterscheiden zu können.