Taylor Swift wollte Microsoft wegen Chatbot verklagen

Microsoft Tay war ein missratenes Experiment. (Bildquelle: Microsoft)
Microsoft hatte im März 2016 eine neue Künstliche Intelligenz vorgestellt, die den Namen Tay trägt und bei Twitter wie ein weiblicher Teenager aus den USA reagiert. Tay war lernfähig und sollte umso klüger werden, je mehr sich menschliche Nutzer mit ihr über Twitter, Snapchat, Kik oder Groupme unterhalten. Dazu kannte Tay viele Memes und Zitate aus Filmen, Büchern oder Musikstücken.

Doch dann wurde das Experiment der Microsoft-Forscher mit der von Menschen lernenden KI Tay sehr schnell abgebrochen. Aus der netten Teenager-KI war dank der Nachrichten von menschlichen Nutzern schnell ein rassistischer, sexistischer Hitler-Fan geworden. Viele Nutzer aus den berüchtigten Foren 4Chan und 8Chan hatten sich abgesprochen, eine gewaltige Troll-Attacke auf die Künstliche Intelligenz auszuführen und sie mit Rassismus, Sexismus, Holocaustleugnung und Hass auf Feministinnen so lange zu füttern, bis Tay den Eindruck haben musste, dass Aussagen dieser Art im Internet vollkommen normal und üblich sind.
Tay und Taylor Swift laut Anwälten zu ähnlich
Während Microsoft also schon genug Probleme mit Tay hatte, bereiteten die Anwälte von Taylor Swift eine Klage gegen Microsoft vor, weil der Name der KI zu eng verbunden mit dem der Sängerin sei. Wie Microsoft-Präsident Brad Smith laut Guardian in seinem neuen Buch schreibt, war die Beschwerde von Taylor Swift sogar schon bei Microsoft eingegangen, bevor sich die KI durch die Troll-Attacken stark veränderte.
Da Microsoft Tay dann sehr schnell offline nahm, hatte sich natürlich auch die Klage erledigt. In China ist die gleiche KI übrigens als XiaoIce sehr beliebt und läuft problemlos als Chatbot. Vermutlich sprechen die Nutzer von 8Chan und 4Chan kein Kantonesisch oder Mandarin.

Quelle