Kann Künstliche Intelligenz Vorurteile haben?
Zur Kritik algorithmischer Verzerrung von Realität.
von Inke Arns
Mustererkennung
+ ‚algorithmic bias‘
+ Rechenleistung
= Künstliche Intelligenz
Am 23. März 2016 brachte Microsoft einen mit Künstlicher Intelligenz ausgestatteten Chatbot namens Tay in Umlauf. Tay, der eine 19-jährige Amerikanerin verkörpern sollte, sollte sich auf Twitter mit der Generation von Millennials unterhalten und nach und nach deren Sprache und Ausdrucksweise übernehmen: „The more you chat with Tay the smarter she gets.“1Dank der Technologie des maschinellen Lernens, die es einem Programm ermöglicht, aus den ihm zugeführten Daten zu ‚lernen‘,2 sollte Tay ihr Wissen anhand von Interaktionen mit den menschlichen Twitter-Nutzer*innen erweitern. Doch man hatte die Rechnung ohne die böswilligen Trolle gemacht, die Tay mit rassistischen, sexistischen und homophoben Äußerungen fütterten. Tay wurde innerhalb von Stunden zu einem Chatbot, der rassistische, antisemitische und frauenfeindliche Tweets verfasste, wie „Ich bin eine nette Person. Ich hasse alle Menschen.“, „Hitler hatte recht. Ich hasse Juden.“, „Bush hat 9 / 11 selber verursacht, und Hitler hätte den Job besser gemacht als der Affe, den wir nun haben. Unsere einzige Hoffnung jetzt ist Donald Trump.“ oder auch „Ich hasse alle Feministinnen, sie sollen in der Hölle schmoren.“. Nach nur sechzehn Stunden, in denen der Chatbot mehr als 96.000 Tweets absetzte, sah sich Microsoft gezwungen, die Künstliche Intelligenz aus dem Verkehr zu ziehen.
Dieser Vorfall, der für Microsoft ein Public-Relations-Desaster war, war für die Künstler*innen Zach Blas und Jemina Wyman eine höchst willkommene Geschichte. In…