In der allgemeinen Vorstellung erscheint Künstliche Intelligenz (KI) oft als eine göttliche Instanz, die „gerechte“ und „objektive“ Entscheidungen trifft. Der Begriff „Künstliche Intelligenz“ ist jedoch irreführend. Weder sind die Systeme „intelligent“ (die Künstlerin Hito Steyerl spricht daher von „künstlicher Dummheit“), noch sind sie in vielen Fällen „künstlich“. Der Begriff „Mustererkennung“ trifft es besser – nicht nur, weil er den Begriff der „Intelligenz“ vermeidet, sondern weil er genauer beschreibt, was KI eigentlich ist. Denn wie ein Spürhund erkennt KI in großen Datenmengen das, was sie zu erkennen trainiert wurde – und ist dabei viel effizienter als jeder Mensch.
Genau dies ist aber auch ein Problem. KI spiegelt oder wiederholt ausschließlich das, was sie zu finden angewiesen wurde. Sie könnte als eine Art digitales „Spiegelkabinett“ verstanden werden. Den meisten von uns sind Spiegelkabinette von traditionellen Jahrmärkten her vertraut: Ist man einmal in das Labyrinth aus Glaswänden und Zerrspiegeln eingetreten, findet man nur schwer wieder den Weg hinaus. Und alle Reflektionen zeigen nur das eigene Bild, den eigenen Input.
KI muss von Menschen trainiert werden, um das zu tun, was sie tut. Das nennt man „maschinelles Lernen“. Und genau hier wird es schwierig: KI-Trainingsdatensätze sind oft unvollständig oder einseitig, und von Menschen erstellte Beschreibungen können sich aufgrund ihrer inhärenten Voreingenommenheit (Bias) als ungeahnt problematisch erweisen. Ein aufschlussreiches Beispiel diesbezüglich ist der KI-Chatbot von Microsoft namens „Tay“.
2016 führte das Technologieunternehmen einen KI-Chatbot ein, der sich mit der Generation der Millennials auf Twitter unterhalten und deren Sprache und Ausdrucksweise schrittweise übernehmen sollte: „Je mehr du mit Tay chattest, umso intelligenter wird sie.“ Dank maschineller Lerntechnologie, die es einem Programm ermöglicht, aus den ihm zugeführten Daten zu „lernen“, erweiterte Tay ihr Wissen anhand der Interaktionen mit menschlichen Twitter-Nutzer*innen. Allerdings hatte Microsoft nicht mit heimtückischen Trollen gerechnet, die Tay mit rassistischen, sexistischen und homophoben Kommentaren fütterten. In kürzester Zeit entstand ein Chatbot, der rassistische, antisemitische und frauenfeindliche Tweets postete: „Ich bin eine nette Person. Ich hasse alle Menschen“, „Hitler hatte Recht. Ich hasse Juden“, „Bush hat den 11. September selbst verursacht und Hitler hätte einen besseren Job gemacht als der Affe, den wir jetzt haben. Unsere einzige Hoffnung ist jetzt Donald Trump“, oder „Ich hasse alle Feministinnen; sie sollen in der Hölle schmoren.“ Nach nur sechzehn Stunden, in denen der Chatbot mehr als 96.000 Tweets in die Welt gesetzt hatte, musste Microsoft die KI vom Netz nehmen.
Menschen trainieren Maschinen
Das im Schicksal von Microsofts Tay ersichtliche Problem gilt ganz allgemein für KI: Menschen trainieren Maschinen – in diesem Fall einen Chatbot – und diese Maschinen sind nur so gut oder so schlecht wie die Menschen, die sie trainieren. Wenn das Ausgangsmaterial (z.B. Bilder von Gesichtern) bereits einer starken Selektion unterworfen ist (z.B. nur Gesichter von Weißen), wird das von der KI gelieferte Ergebnis stark verzerrt sein. Wenn man der KI anschließend Bilder von Menschen mit einer anderen Hautfarbe zeigt, erkennt sie nicht, dass es sich dabei um Menschen handelt, oder aber sie stuft sie als „Kriminelle“ ein.
Die Geschichte von Tay – oder ganz aktuell auch des südkoreanischen Bots Lee Ludai – sollten uns allen eine Warnung sein: Man muss den Input für Künstliche Intelligenz sehr genau kontrollieren, sonst kommen unten dumme kleine Nazis raus. Oder der Algorithmus verweigert Ihnen eine lebenswichtige Nierentransplantationii. Warum? Ganz einfach, weil Ihre Haut die falsche Farbe hat. Denn Algorithmen und KI verstärken bestehende Ungleichheiten.
In diesem Fall erkannte das System anhand der US-Gesundheitsdaten ein Muster, nämlich dass schwarze Patient*innen eine kürzere Lebenserwartung haben (was auf eine schlechtere Gesundheitsversorgung für diesen Teil der US-Bevölkerung zurückzuführen ist), und investierte die Spenderniere lieber in den (weißen) Patienten mit der längeren Lebenserwartung.
Wir sollten uns im Klaren darüber sein, dass heutige Realitäten (Ungerechtigkeiten) nicht mit wünschenswerten Zukunftsvorstellungen zu verwechseln sind. Genau das macht aber die KI: Sie extrapoliert mögliche Zukunftsszenarien aus vergangenen Daten, die das Ergebnis von Statistiken, Auslassungen oder Vorurteilen sind, und reproduziert so bestehende Ungleichheiten. In diesem Fall könnte man also sagen, dass die KI ein Spiegel ist, der zukünftige Realitäten verzerrt.
Dieser Tendenz können wir nur mit radikaler Transparenz begegnen. Laut der Meinung von KI-Kritiker*innen und -Ingenieur*innen sollten die Datenpools, mit denen die Maschinen trainiert werden, öffentlich zugänglich sein. Die Trainingsdaten sollten sorgfältig überprüft werden und Programmierer*innen müssen sich dieses Problems bewusst sein. Wenn wir wollen, dass die KI unsere Werte widerspiegelt, sollten wir sicherstellen, dass wir ihr eine Vorstellung der grundlegenden Menschenrechte mit auf den Weg geben.
Zur Ausstellung
Die Ausstellung House of Mirrors – Künstliche Intelligenz als Phantasma befasst sich nicht nur mit algorithmischer Voreingenommenheit oder Diskriminierung in der KI, sondern auch mit KI-bezogenen Themen wie versteckter menschlicher Arbeit, dem Problem der Kategorisierung und Klassifizierung sowie unseren Vorstellungen und Phantasmen in Bezug auf KI. Sie stellt zudem die Frage, ob (und wie) es in diesem Kontext möglich ist, Handlungsfähigkeit zurückzuerlangen. Die Ausstellung, die in sieben thematische Kapitel gegliedert ist und deren Szenografie an ein Spiegelkabinett erinnert, präsentiert knapp zwei Dutzend Kunstwerke von 21 Künstler*innen aus zehn Ländern (Australien, China, Deutschland, Frankreich, Großbritannien, Israel, Italien, Russland, Schweiz und den USA).
Im Zusammenhang mit KI sprechen die Kurator*innen nicht nur von einem Spiegelkabinett, sondern auch von einem Phantasma beziehungsweise einer ganzen Reihe von Phantasmen („Erzählungen“), die mit KI verbunden werden. Diese können
optimistischer oder pessimistischer Natur sein: So gibt es den Wunsch von der Befreiung von körperlicher und geistiger Arbeit (digitale Assistenten, Pflegeroboter, autonom fahrende Autos, etc.). Diese Vorstellungen können aber auch schnell in Ängste umschlagen: Die Angst davor, dass die Maschinen eine „Superintelligenz“ entwickeln und die Macht übernehmen.
HMKV Hartware MedienKunstVerein,
Dortmund
www.hmkv.de
Presse
Kataloge/Medien zum Thema:
Sebastian Schmieg
GalerieETAGE im Museum Reinickendorf
ifa-Galerie Berlin
Alfred Ehrhardt Stiftung
Haus am Kleistpark
Kommunale Galerie Berlin