Die Möglichkeiten, Bilder mit Bildgeneratoren zu erzeugen, sind unbegrenzt. KI-gestützte Bildgeneratoren stehen in der direkten Nachfolge der Fotografie, sie arbeiten nicht mit Licht wie die Fotografie, sondern mit Text und Modellen, aus deren Datenmaterial gewichtete Fragmente komponiert werden. In einem ersten Schritt werden die Texteingaben in Zahlenkolonnen übersetzt, diese dann mit Bildelementen assoziiert und entsprechend den Anweisungen präsentiert.
Wichtige technische Elemente sind in diesem Prozess ein verlustfreies Komprimierungsverfahren sowie ein Verrauschen bzw. Entrauschen von Bildinhalten.
Neben der Möglichkeit, Bilder aufgrund von Texteingaben zu erzeugen, bieten sich weitere technische Verfahren der Bildmanipulation, wie etwa ‘Inpainting’, ‘Outpainting’ sowie ‘Image to Image’, wobei ‘Image to Image’ durch eine Texteingabe erweitert werden kann.
Bei all diesen Verfahren gilt es zu bedenken, dass die Verfahren der Künstlichen Intelligenz zur Zeit mit einer Zufallsvariablen arbeiten, die im zehnstelligen Bereich angesiedelt ist und jeweils unterschiedliche Ergebnisse produziert.
Im Folgenden beschäftigen wir uns mit der Image+Text=>Image Version des KI gestützten Bild Generators von Stable Diffusion.
Die Leistung der KI sollte immer in Bereiche vorstoßen, die nicht bekannt sind. Eine erste Untersuchung hierzu haben wir mit der erzwungenen Zwillings- Darstellung erhoben. Die aktuelle Studie untersucht Phänomene der Gewichtung der Texteingabe bezüglich eines Ausgangbildes.
Zufällige freie Auswahl an Bildern zu: Portrait aus dem Jahre 2090 unter Gewichtung des Ausgangsbildes 'Banana taped to the wall'
Kataloge/Medien zum Thema:
Bildgenese
Kommunale Galerie Berlin
a.i.p. project - artists in progress
Freundeskreis Willy-Brandt-Haus e.V.
Schloss Biesdorf
Kunsthochschule Berlin-Weißensee