Vom Verrauschen und zurück: So verraten sich künstlich erzeugte Bilder

Verantwortlicher Redakteur:in: Rainer Trummer 2 min Lesedauer

Anbieter zum Thema

Jonas Ricker sucht in seiner Doktorarbeit an der Fakultät für Informatik der Ruhr-Universität Bochum nach Möglichkeiten, künstlich erzeugte Bilder von echten Fotos und Videos zu unterscheiden.

(Quelle: Michael Schwettmann)
  • Künstliche Intelligenzen können auf Basis einer Texteingabe in kürzester Zeit ein Bild erzeugen, das wie ein Foto aussieht und für menschliche Augen davon nicht zu unterscheiden ist.

  • Das ist zwar faszinierend – zieht aber prinzipiell jedes Bild in Zweifel.

  • Jonas Ricker hat sich in seiner Doktorarbeit an der Fakultät für Informatik der Ruhr-Universität Bochum darauf spezialisiert, künstlich erzeugte Bilder technisch zu erkennen.

Jonas Ricker sucht Möglichkeiten, künstlich erzeugte Bilder von echten Fotos und Videos zu unterscheiden. Über seine Arbeit berichtet er in Rubin, dem Wissenschaftsmagazin der Ruhr-Universität Bochum.

Schritt für Schritt zum Rauschen und zurück

Das sogenannte Diffusion Model zur Bilderzeugung ist durch die Anwendung „Stable diffusion“ zurzeit sehr populär. „Das grundlegende Prinzip klingt zunächst verwunderlich“, so Ricker: „Ein echtes Bild wird Schritt für Schritt zerstört, indem zufälliges Rauschen hinzugefügt wird – daher der Name. Nach einigen hundert Schritten sind keine Bildinformationen mehr vorhanden, das Bild ist vollständig verrauscht. Das Ziel des Modells ist nun, diesen Prozess umzukehren, um das ursprüngliche Bild zu rekonstruieren – was ein schwieriges Problem darstellt.“

Der Schlüssel liegt darin, das Bild nicht direkt vorherzusagen, sondern wie beim Verrauschen Schritt für Schritt vorzugehen. Mit Trainingsdaten kann das Modell lernen, ein verrauschtes Bild ein kleines bisschen weniger verrauscht zu machen. Durch die wiederholte Anwendung lassen sich dann aus zufälligem Rauschen komplett neue Bilder erzeugen.

Künstlich erzeugte Bilder: Fake-Profile in Social Media enttarnen

„Das Diffusion Model ist schon jetzt sehr gut in der Erzeugung täuschend echter Bilder und wird sich künftig noch verbessern“, ist sich Jonas Ricker sicher. Das macht es noch schwieriger, echte Bilder von so erzeugten zu unterscheiden. Er testet aktuell verschiedene Ansätze, die es erlauben, durch das Modell erzeugte Bilder von echten Fotos zu unterscheiden.

Wichtig ist es, echte und künstlich erzeugte Bilder zu unterscheiden, nicht nur, um Fake News zu enttarnen, die zum Beispiel als Video daherkommen. Es lassen sich vielmehr auch Fake-Profile in Social Media dingfest machen. Ihr Einsatz erfolgt in großem Stil, um zum Beispiel die öffentliche Meinung politisch zu beeinflussen. „Im Exzellenzcluster CASA geht es genau darum: großskalige Angreifer wie Staaten oder Geheimdienste zu enttarnen, die über die Mittel verfügen, mittels Deep Fakes Propaganda zu machen“, so Jonas Ricker.

Ausführlicher Beitrag im Wissenschaftsmagazin Rubin: https://news.rub.de/wissenschaft/2023-06-23-deepfake-wie-sich-kuenstlich-erzeugte-bilder-verraten

Bild oben: Künstliche Intelligenzen sind in der Lage, Bilder zu erzeugen, die sich nicht von Fotografien unterscheiden lassen. Bild: © Michael Schwettmann

Erfahren Sie hier mehr darüber, wie sich die digitale Bildbearbeitung durch eine KI-Methode verändern könnte.

Lesen Sie auch: "Produktionsprozesse: Augmented Reality im Nutz- und Sonderfahrzeugbau"

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung