Tay war ein von Microsoft entwickelter Bot, der das Kommunikationsverhalten
von jungen Menschen im Alter zwischen 18 und 24 Jahren erlernen sollte. Dafür
erstellte man für Tay Profile auf verschiedensten Social Media-Seiten und ließ sie
mit Usern der Plattformen chatten. "Je mehr du mit ihr sprichst, desto
schlauer wird Tay", war dabei die Anweisung seitens Microsoft.
Innerhalb kürzester Zeit tätigte der Bot Aussagen wie: „Hitler
hätte einen besseren Job erledigt als der Affe, den wir jetzt haben“. Auch kam
es zur Holocaust-Leugnung und diskriminierenden Aussagen gegenüber Juden, Schwarzen,
Mexikanern und Frauen.
Tay wurde daraufhin innerhalb der folgenden 24 Stunden offline
genommen. Das Verhalten von Tay lässt sich darauf zurückführen, dass der Bot mutmaßlich
mit derartigen Mustern gefüttert wurde. Die Motive dahinter seien heterogener
Natur gewesen. So waren einige politisch motiviert, andere waren humoristischer
Natur und wieder andere hatten das Ziel, auf die Gefahren von machine learning hinzudeuten.
Während Beispiele wie Wikipedia die Effektivität und den
großen Nutzen der digitalen Schwarmintelligenz aufzeigen, verdeutlichen
Beispiele wie Tay, zu welchen Problemen diese auch führen kann.
Keine Kommentare:
Kommentar veröffentlichen