KI von NVIDIA erstellt Portraits von Gesichtern, die es nicht gibt

„This person does not exist“ oder zu Deutsch: „Diese Person existiert nicht“ – mit diesem Claim betreibt NVIDIA eine gleichnamige Webseite, auf der es Gesichter zu sehen gibt. Die Besonderheit der Portraits ist, dass es die gezeigten Personen schlicht nicht gibt. Es sind Bilder, die eine künstliche Intelligenz (KI) bzw. zwei davon erstellen. Dabei kommen Fotos von echten Menschen zum Einsatz, deren einzelne Merkmale (Haut- und Haarfarbe, Haarform, Gesichtsform, Nase, Augen, etc.) kombiniert werden, um etwas Neues zu erschaffen. Wie die KI dabei arbeitet, welche Chancen und Gefahren sich aus dem Ganzen ergeben und wie man die unechten Bilder erkennt, das habe ich euch hier zusammengefasst.

Diese Menschen gibt es nicht. Die Portraits wurden künstlich von einem neuronalen Netzwerk erstellt, das zwei KIs von NVIDIA gegeneinander arbeiten lässt.

Diese Menschen gibt es nicht. Die Portraits wurden künstlich von einem neuronalen Netzwerk erstellt, das zwei KIs von NVIDIA gegeneinander arbeiten lässt.

Neue Gesichter: So arbeiten zwei KIs gegeneinander

Wie bspw. Motherboard in einem Bericht aufzeigt, entstehen die neuen Gesichter durch ein Gegenspiel zweier von NVIDIA entwickelter KIs. Die eine verwendet echte Fotos, um neue, nicht existente Menschenportraits zu erstellen. Die andere bewertet diese Bilder und weist jene zurück, die ihrer Meinung nach nicht echt genug aussehen. Damit lernen beide, immer besser zu werden. Somit werden auch die Ergebnisse des ganzen Prozesses, die man sich auf https://thispersondoesnotexist.com anschauen kann (neues Bild erscheint, wenn man die Seite neu lädt), immer besser. Auf den ersten Blick wirkt dabei jedes Bild täuschend echt. Aber weitere Blicke lohnen sich!

So kann man den Fake enttarnen

Viele der Bilder, aber mittlerweile nicht mehr alle, haben kleine Fehler und Macken, an denen man den KI-Ursprung ausmachen kann. Mal sind die Stirnfalten zu ausgeprägt oder wellig, mal der Hintergrund zu unförmig. Auch Brillen und deren optische Effekte sind noch nicht wirklich ausgereift, wie das oben aufgezeigte Beispiel darlegt. Hin und wieder ist auch der Haaransatz viel zu weit in die Stirn gezogen oder die Ohren sehen extrem komisch aus. Außerdem scheint die KI Probleme beim Übergang von Haaren und Hintergrund zu haben. Details wie zu retuschierende Ohrringe kommen ihr ebenfalls in den Weg. Der Teufel steckt hier also im Detail.

Das Ohr hat digitale Fraktale, die

Das Ohr hat digitale Fraktale, die „Narbe“ über der Nase wirkt auch wie ein Fehler, und der Übergang im Augenbereich ist kantig.

Die Mundwinkel-Falte, der noch zu erkennende Ohrring und die verschwommenen / verwischten Haare zeigen, das etwas mit dem Bild nicht stimmt.

Die Mundwinkel-Falte, der noch zu erkennende Ohrring und die verschwommenen / verwischten Haare zeigen, das etwas mit dem Bild nicht stimmt.

Chancen der neuen Technologie

Die neue Technologie, die auf den Namen „StyleGAN“ hört, verwendet Methoden eines Style-Based Generators für den sogenannten Style Transfer. Die Abkürzung GAN steht dabei für Generative Adversarial Networks, was die oben beschriebenen, kontradiktorischen KIs zusammenfasst. Verwendet werden kann die Technologie beispielsweise beim Erstellen von Videospielen und deren Charakteren. Auch bei der Erstellung von Animationsfilmen ist der Einsatz möglich, um computergenerierte Menschen schneller zu designen. Auch für visuell dargestellte, digitale Assistenten und weitere Zukunftstechnologien ist die Technik des Grafikkarten-Herstellers denkbar.

Selber nutzen und neben Menschengesichter zum Beispiel Comicfiguren, Manga-Charaktere und sogar Katzen erstellen, das könnt ihr übrigens auch. Der StyleGAN-Code der KI ist bei GitHub verfügbar: Hier klicken.

Gefahren der KI von NVIDIA

Wo neue Technologien und neue Software Chancen entstehen lassen, da ergeben sich auch immer Gefahren. Wer zum Beispiel auf Facebook, Twitter, Instagram, Snapchat, Tinder und Co. einen Fake-Account vermutet, kann aufgrund des möglicherweise KI-basierten Profilbilds nicht mehr einfach eine Google Bilder-Rückwärtssuche anstrengen, um herauszufinden, ob das Bild von irgendeiner Web-Quelle geklaut wurde. Man muss also annehmen, dass es ein reales Foto ist, das vom Profilbetreiber stammt. Auch andere Betrugsfälle, selbst im wirtschaftlichen, industriellen und politischen Bereich sind möglich – vor allem in Kombination mit Deep Fake (Erklärung hier).

Tipp: Falls ihr beim Online-Gesprächspartner einen Fake vermutet, fragt nach einem Foto, das die Person als solche bestätigt. Ein Trend diesbezüglich ist die Frage nach einem Bild mit einem Haushaltsgegenstand in der Hand – von der Gabel bis zum Mop ist alles möglich 😀 

Künstliche Gesichter – Fazit zum Thema

Wo Licht ist, da gibt es auch Schatten – das gilt für jede Technologie und jeden Fortschritt. Deshalb sollte man Neues aber nicht direkt verteufeln. Vielleicht bleibt es bei dem neuen neuronalen Netzwerk von NVIDIA, das zwei KIs gegeneinander arbeiten lässt, um Portraits von nicht real existierenden Gesichtern zu erstellen, bei einer Spielerei. Eventuell ergeben sich in der Unterhaltungsindustrie auch zahlreiche Absatzmärkte. Und es kann auch sein, dass sich vor allem Betrüger daran bedienen. Wer aber mit offenen Augen und ein paar smarten Tricks durch die Welt geht, sollte sich auch weiterhin sicher fühlen können 😉

Sir Apfelot auf SteadyHQ unterstützen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.