Künstliche Intelligenz: Armageddon (nicht nur) für Künstler?

Künstliche Intelligenz: Armageddon (nicht nur) für Künstler?

1.10.2022 in Media & More

AI-Anwendungen, die Bilder malen

Seit einigen Jahren schießen Anwendungen, die nach Textanweisungen mittels künstlicher Intelligenz Bilder „malen“, wie Pilze aus dem Boden. Halt! Stop! Anwendungen, die Bilder malen? Echt jetzt? Wie soll das gehen?

Bevor wir zu der technischen Antwort auf diese Frage kommen, hier zunächst mein Selbstversuch…

Frisch zurück von einem Urlaub in Pula (Kroatien) habe ich mich bei DreamStudio angemeldet und sogleich losgelegt. Das Testmotiv für den künstlichen Maler: das imposante Colosseum von Pula, in dessen Nachbarschaft wir residierten.

Folgende Anweisungen habe ich jeweils in die Dream-App eingetippt:

  1. „Pula Collosseum by Leonardo da Vinci oil painting“
  2. „Pula Collosseum by Vincent von Gogh oil painting“
  3. „Pula Collosseum by Pablo Picasso oil painting“
  4. „Pula Collosseum by August Macke oil painting“

Diese Bilder sind dabei von der Software – jeweils in rund ein bis zwei Minuten Renderzeit – „gemalt“ worden:

Das Collosseum von Pula, malerisch interpretiert von einer KI-Software im Stile der Alten Meister

Nur zur Klarstellung: Diese Bilder von Da Vinci, Van Gogh, Picasso und Macke gibt es nicht. Sie sind nach meinen jeweiligen Vorgaben von einer Software neu geschaffen worden.

Dazu wurde die Software eigens „ausgebildet“, d.h. mit Millionen getaggten (mit Stichworten versehenen) Fotos gefüttert und darauf trainiert, nach passenden Mustern und suchen, diese anweisungskonform kreativ zu verfremden und die resultierenden Artefakte neu zu kombinieren. Ein komplexer Vorgang, der selbst einen professionellen Photoshop-Künstler viele Stunden Arbeit kosten würde. Text-zu-Bild-Generatoren basieren auf einer KI-Trainingsmethode namens Deep Learning, die sich auf künstliche neuronale Netze stützt, welche die Neuronen des menschlichen Gehirns nachahmen. Diese neueren Bildgeneratoren, die es dem Benutzer ermöglichen, Bilder zu erstellen, die man (auf Englisch) beschreiben kann, oder hochgeladene Bilder zu bearbeiten, bauen auf großen Fortschritten in der Fähigkeit der KI auf, die Art und Weise zu verarbeiten, wie Menschen sprechen und kommunizieren.

Soweit die zusammenfassende Antwort auf die technische Frage nach dem „Wie geht das?“

Das Titelbild dieses Artikels ist übrigens das Ergebnis folgender Texteingabe: „Pula Collosseum by Andy Warhol Pop Art“.

Neben „DreamStudio“ gibt es noch eine ganze Reihe weiterer Apps für „AI generated Images“:

Und monatlich kommen neue hinzu. Die meisten sind in einer Grundversion kostenlos; will man fortgeschrittene Funktionen und bessere Performance nutzen, wird man zur Kasse gebeten.

Bei aller Faszination für diese Apps… Wo führt uns das hin? Was bleibt für die Künstler? Können wir Bildern noch vertrauen?

Jede Weiterentwicklung der Bildtechnologie hat neben der gesteigerten Effizienz auch potenzielle Schäden mit sich gebracht. Bereits Photoshop ermöglichte täuschend echte Präzisionsbearbeitung und -veränderung von Fotos. In Zeiten von Fake News und Hate Speech in den sozialen Medien kann nun auch bildgenerierende AI-Technologie eine gefährliche Waffe sein, wie Nitasha Tiku in ihrem Artikel vom 28.09.2002 in der Washington Post ausführt.

Sturm auf das Capitol in Washington: Alle „Fotos“ wurden von DALL-E generiert.

Doch in jüngster Zeit haben die Fortschritte in der KI zu Deepfakes geführt, einem weit gefassten Begriff, der alle von der KI synthetisierten Medien umfasst – von manipulierten Videos, in denen der Kopf einer Person auf den Körper einer anderen Person gesetzt wurde, bis hin zu überraschend lebensechten „Fotos“ von Menschen, die nicht existieren. Als Deepfakes zum ersten Mal auftauchten, warnten Experten, dass sie eingesetzt werden könnten, um die Politik zu untergraben. Doch in den letzten fünf Jahren wurde die Technologie vor allem dazu genutzt, Frauen zu schikanieren, indem ohne ihre Zustimmung Deepfake-Pornografie erstellt wurde, so Danielle Citron, Juraprofessorin an der University of Virginia und Autorin des demnächst erscheinenden Buches „The Fight for Privacy“.

„Diejenigen, die Technologien von Stable Diffusion bis Photoshop für unethische Zwecke nutzen, sollten sich schämen und die entsprechende persönliche Verantwortung übernehmen“, sagte Mostaque, CEO von Stability.ai. Das Unternehmen hat vor kurzem eine KI-Technologie zur Blockierung unsicherer Bilderstellung veröffentlicht.

Unterdessen hat DALL-E letzte Woche einen weiteren Schritt hin zu immer realistischeren Bildern gemacht, indem es Nutzern erlaubt, Fotos mit realistischen Gesichtern hochzuladen und zu bearbeiten.

„Mit der Verbesserung unseres Sicherheitssystems ist DALL-E nun in der Lage, diese reizvollen und wichtigen Anwendungsfälle zu unterstützen – und gleichzeitig den potenziellen Schaden durch Deepfakes zu minimieren“, schrieb OpenAI an die Nutzer.

Wie auch immer: In diesen Zeiten bekommt eine alte deutsche Redewendung eine neue Relevanz, nämlich der Ausruf: „Ich trau‘ wohl meinen Augen nicht!“

Tags: , , , , , , ,

  1. Andreas Dormann - 2.10.2022

    Eine der beeindruckendsten Demonstrationen von AI Art, die ich bisher gesehen habe:
    [youtube https://www.youtube.com/watch?v=W4Mcuh38wyM&w=300&h=200%5D

Copyright © 2009-2024 by multimedia and more - - Impressum - powered by WordPress - Portfolio Theme deGusto by ThemeShift.com.