Nick Bostrom redet in seinem TED Talk darüber „Was passiert, wenn unsere Computer schlauer werden als wir?“ Eine lange Zeit hieß Programmieren, Befehle in eine Box zu stecken und das herauszubekommen, was man hineingesteckt hat. Dies hat sich jedoch mit maschinellem Lernen gewandelt. Es geht nicht mehr um Wissensrepräsentationen, sondern um Algorithmen, welche aus rohen sensorischen Daten lernen.
Bei Befragungen, wann maschinelle Intelligenz die menschliche Ebene erreicht, sind sich Experten unschlüssig, einige gehen von den Jahren 2040 bis 2050 aus, genau sagen lässt sich dies aber nicht. Die menschliche Ebene wird als Fähigkeit definiert, fast jeden Job zumindest so gut wie ein erwachsener Mensch verrichten zu können, nicht nur für einen Spezialbereich. Im Gegensatz zu unserem Gehirn haben Computer den Vorteil, keine räumliche Begrenzung zu haben, weshalb das Potential der Superintelligenz möglich ist.
Als Beispiel wird das Ziel genannt, einen Menschen zum Lächeln zu bringen. Während künstliche Intelligenz anhand von amüsanten Handlungen versucht, ein Lächeln hervorzurufen, sieht die superintelligente künstliche Intelligenz, den Weg zum Lächeln darin, die Kontrolle über den Menschen zu bekommen und dessen Gesichtsmuskeln zu manipulieren.
Um solche Übergriffe zu vermeiden, ist eine klar definierte Zielsetzung von Bedeutung, welche alles enthält, was wichtig ist, denn ein Ausschalten dieses Computer wird immer unmöglicher sein, je intelligenter dieser wird. Eine Möglichkeit wäre, es in Boxen zu sperren, jedoch werden auch hier Probleme genannt wie etwa Hackerangriffe oder die Ungewissheit, dass es nicht selber einen Weg heraus findet.
Nick Bostrom betont, dass wir diese superintelligenten künstlichen Intelligenzen nicht für immer eingesperrt lassen können und nicht auf unsere Fähigkeit vertrauen sollten, ihnen überlegen zu sein. Das wichtigste Ziel ist, zu wissen, dass wir sicher vor ihnen sind, weil sie unsere Werte teilen und auf unserer Seite stehen, es kein Gegeneinander geben wird. Auch wenn es eine schwierige Sache ist, müssen die künstlichen Intelligenzen so gebaut werden, dass sie unsere Werte lernen, unsere Ziele anstreben und nur die Dinge tun, von denen sie wissen, dass wir sie tolerieren.
Keine Kommentare:
Kommentar veröffentlichen