Freitag, 10. Januar 2020

Tay, der rassistische Bot von Microsoft

Künstliche Intelligenz wird uns mit zunehmendem technischen Fortschritt immer ähnlicher. Dies mag zum einen ein Vorteil sein, weil sie uns damit immer mehr Arbeit abnehmen kann, von der man dachte, sie könne nur von echten Menschen erledigt werden. Doch dieser Prozess kann uns auch einen schwarzen Spiegel vorhalten, wie es bei dem Bot „Tay“ der Fall war.

Tay war ein von Microsoft entwickelter Bot, der das Kommunikationsverhalten von jungen Menschen im Alter zwischen 18 und 24 Jahren erlernen sollte. Dafür erstellte man für Tay Profile auf verschiedensten Social Media-Seiten und ließ sie mit Usern der Plattformen chatten. "Je mehr du mit ihr sprichst, desto schlauer wird Tay", war dabei die Anweisung seitens Microsoft.

Innerhalb kürzester Zeit tätigte der Bot Aussagen wie: „Hitler hätte einen besseren Job erledigt als der Affe, den wir jetzt haben“. Auch kam es zur Holocaust-Leugnung und diskriminierenden Aussagen gegenüber Juden, Schwarzen, Mexikanern und Frauen.

Tay wurde daraufhin innerhalb der folgenden 24 Stunden offline genommen. Das Verhalten von Tay lässt sich darauf zurückführen, dass der Bot mutmaßlich mit derartigen Mustern gefüttert wurde. Die Motive dahinter seien heterogener Natur gewesen. So waren einige politisch motiviert, andere waren humoristischer Natur und wieder andere hatten das Ziel, auf die Gefahren von machine learning hinzudeuten. 

Während Beispiele wie Wikipedia die Effektivität und den großen Nutzen der digitalen Schwarmintelligenz aufzeigen, verdeutlichen Beispiele wie Tay, zu welchen Problemen diese auch führen kann.

 

Keine Kommentare:

Kommentar veröffentlichen