Seiten

Mittwoch, 15. Januar 2020

Heinz Nixdorf Museumsforum

Das Heinz Nixdorf Museumsforum in Paderborn gilt als weltgrößtes Computermuseum. Als Besucher kann man auf ca. 6000 Quadratmetern Ausstellungsfläche Geschichte, Gegenwart und Zukunft der Informationstechnik bestaunen.

Ziel des Heinz Nixdorf Museumsforums ist es, durch seine Ausstellungen (sowohl Dauerausstellungen als auch wechselnde Themenausstellungen) die Orientierung und Bildung der Menschen innerhalb der modernen Informationsgesellschaft zu fördern. Im Mittelpunkt steht hierbei der Mensch in seiner Beziehung zu Gesellschaft und Technik. Das Museum kann sowohl auf eigene Faust als auch innerhalb verschiedener Themenführungen erkundet werden. Hier lohnt sich durchaus auch ein Ausflug mit einer Schulklasse. Innerhalb des Museums sind bereits verschiedene Arten von Robotern unterwegs, die den Besucher auf seiner Erkundung begleiten und spannende Informationen übermitteln.



Mehr Informationen gibt es unter: https://www.hnf.de/start.html

Starke und schwache künstliche Intelligenz

Künstliche Intelligenz ist Technik, für die sich viele Menschen begeistern und die sie gleichermaßen besorgt (Energieverbrauch). Künstliche Intelligenz besteht aus Computercodes und die werden eingesetzt, um Daten automatisiert auszuwerten. Wissenschaftler unterscheiden zwischen starker und schwacher KI. Schwache KI unterteilt sich laut dem DFKI in zwei große Ansätze:
  • KI maschinelles Lernen (wobei das überwacht oder unüberwacht passieren kann)
    KI regelbasierte Problemlösung
Schwache KI: hier geht es um spezialisierte digitale Assistenz, die den Menschen dabei unterstützen, seine Ziele schneller zu erreichen. Wie Google zum Beispiel einen Suchbegriff vorschlägt: Die KI greift auf die vorherigen Suchanfragen zurück und macht dann Vorschläge, die unseren Wünsche mit hoher Wahrscheinlichkeit entsprechen. Der Türroboter hat sich selbst beigebracht, wie er eine Türe am besten öffnet, indem er es immer wieder auf verschiedene Arten versucht hat.

Starke KI könnte ihr erlerntes Wissen intelligent auf alle Bereichen übertragen. Und die starke KI bedroht oft die Intelligenz der Menschen. Die künstliche Intelligenz wird möglicherweise in diesem Jahrhundert die Intelligenz des Menschen übersteigen, da die KI versuchen wird, das menschliche Gehirn nachzuahmen. Womit Maschinen momentan noch Probleme haben: Gefühle. Menschliche Gefühle können sie erkennen, aber nicht nachahmen. Was ihnen fehlt? Emotionale Intelligenz.
https://www.youtube.com/watch?v=i5D1jHQ-vNk

Sonntag, 12. Januar 2020

Google Maps - navigiert nicht nur im Auto

Ich nutze seit Jahren Google Maps als Navigationssystem, wenn ich unterwegs bin. Dabei ist es egal, ob ich mit dem Auto unterwegs bin, zu Fuß oder mit öffentlichen Verkehrsmitteln. Google Maps hat immer eine Route parat. Ich bezahle dafür mit meinen Daten, die wiederum anderen Nutzern ein besseres Suchergebnis bescheren. Google Maps nutzt eine Vielzahl von Algorithmen. Einige Funktionen möchte ich kurz vorstellen:

Um Baustellen, neue Straßen und vieles mehr zu erfassen, nutzt Google Maps u.a. eigene Satellitenbilder. Hier werden Straßenschilder erfasst und Daten von Nutzern, die die Strecke benutzen, um zu erfahren, um welche Art von Strecke es sich handelt und ob eine Beeinträchtigung vorliegt (Bahnstrecke, Straßensperre, Baustelle).

Die Daten von Nutzern helfen dabei, die Effizienz von Wegen mit Google Maps zu steigern. Jede Strecke, die man mithilfe von Google Maps zurückgelegt hat, wird gespeichert und somit eine Durchschnittszeit für gewisse Abschnitte erstellt. So kann Google Maps auch bei langen Strecken immer die (fast) exakte Zeit anzeigen, die man benötigt. Hierbei ist nicht nur die Fahrt mit dem Auto zu betrachten. Auch Fußwege werden so von Google Maps optimiert. Natürlich werden noch Echtzeit-Daten eingespeist (Staus, Verspätungen der Bahn).

Google Maps ist dabei aber schon längst über die reine Navigation im Verkehr hinaus. So analysiert Google, wo du dich länger aufhältst, und fragt dich nach Restaurant-Besuchen oder ähnlichem nach deiner Bewertung. Durch das Feedback von Nutzern wird so auch diese Navigation verbessert. Sucht man in Städten nach einem Ort zum Essen, werden einem eine Vielzahl von Möglichkeiten angezeigt. Diese werden, je nach Datenlage, weiter klassifiziert. Sind die Gerichte in dem Restaurant typisch deutsch zum Beispiel. Für manche Restaurants werden sogar die beliebtesten Gerichte mit angezeigt und direkt bewertet bzw. empfohlen. Dies gilt auch für alle Arten von öffentlichen Gebäuden (Zoo, Spielplätze, Clubs, etc.).



Nachweise/Anregungen:

Samstag, 11. Januar 2020

Bundeswettbewerb künstliche Intelligenz

Künstliche Intelligenz begegnet uns schon jetzt in vielen Bereichen unseres Lebens, manchmal bewusst, manchmal so versteckt, dass wir es kaum wahrnehmen können. Auch in der Zukunft wird KI eine wichtige Rolle einnehmen und könnte dabei Schlüssel zur Lösung einiger wichtiger Probleme sein.

Beim Bundeswettbewerb künstliche Intelligenz bekommen Schüler und Schülerinnen die Möglichkeit, sich selbst einmal in diesem zukunftsträchtigen Informatikfeld auszuprobieren. Die Experten von morgen können Algorithmen zur Identifizierung von Malaria-infizierten Zellen, zur Lokalisierung von Proteinen oder zur Voraussage von Zugverspätungen entwickeln und so ihre eigene Zukunft mitgestalten.

Der Bundeswettbewerb Künstliche Intelligenz startete am 28. Februar 2019 erstmalig. Teilnehmen konnten deutschlandweit alle Schüler und Schülerinnen zwischen 14 und 19 Jahren. Starten konnten die Teilnehmer entweder einzeln oder in Teams mit mindestens drei Personen. Über die Website haben sich die interessierten Schüler und Schülerinnen online angemeldet. Um an diesem Wettbewerb teilzunehmen, bedarf es keines Vorwissens im Bereich der künstlichen Intelligenz.

Der Ablauf des Wettbewerbs erfolgt in drei Runden. In der ersten Runde lernen die Teilnehmer und Teilnehmerinnen die Grundlagen der künstlichen Intelligenz kennen. Für diese Phase haben alle Beteiligten zwei Monate Zeit. Zum Ende der ersten Runde sind schon eigene Ideen und Kreativität gefragt. Hauptsächlich soll es bei den eigenen Ideen um Alltagsprobleme gehen, die mithilfe von KI gelöst werden können.

Die Gewinner aus der ersten Runde, also die mit den meisten Punkten aus dem gestellten Beispiel und der besten eigenen Idee, kommen in die zweite Runde und dürfen dort ihr Projekt in der Realität umsetzen. Sie bekommen dabei die Möglichkeit, ein Team um sich zu bilden und mit dieser Unterstützung ihr Projekt umzusetzen. Dazu gehört auch ein Bewerbungsvideo für die dritte Runde, in dem das Projekt ausführlich vorgestellt wird.

Mit einer Abschlussfeier am Max-Planck-Institut in Tübingen endet der Wettbewerb. Dort werden die Ideen präsentiert und von einer Jury aus Experten bewertet. Die besten Projekte werden mit Preisen geehrt und erhalten über den Wettbewerb hinaus Unterstützung. Auch dieses Jahr soll der Bundeswettbewerb für KI mit einem neuen Sponsor abgehalten werden.

Hier geht es zur offiziellen Seite des Wettbewerbs und hier findet ihr den Abschlussartikel der Cyber Valley Initiative.

Freitag, 10. Januar 2020

Tay, der rassistische Bot von Microsoft

Künstliche Intelligenz wird uns mit zunehmendem technischen Fortschritt immer ähnlicher. Dies mag zum einen ein Vorteil sein, weil sie uns damit immer mehr Arbeit abnehmen kann, von der man dachte, sie könne nur von echten Menschen erledigt werden. Doch dieser Prozess kann uns auch einen schwarzen Spiegel vorhalten, wie es bei dem Bot „Tay“ der Fall war.

Tay war ein von Microsoft entwickelter Bot, der das Kommunikationsverhalten von jungen Menschen im Alter zwischen 18 und 24 Jahren erlernen sollte. Dafür erstellte man für Tay Profile auf verschiedensten Social Media-Seiten und ließ sie mit Usern der Plattformen chatten. "Je mehr du mit ihr sprichst, desto schlauer wird Tay", war dabei die Anweisung seitens Microsoft.

Innerhalb kürzester Zeit tätigte der Bot Aussagen wie: „Hitler hätte einen besseren Job erledigt als der Affe, den wir jetzt haben“. Auch kam es zur Holocaust-Leugnung und diskriminierenden Aussagen gegenüber Juden, Schwarzen, Mexikanern und Frauen.

Tay wurde daraufhin innerhalb der folgenden 24 Stunden offline genommen. Das Verhalten von Tay lässt sich darauf zurückführen, dass der Bot mutmaßlich mit derartigen Mustern gefüttert wurde. Die Motive dahinter seien heterogener Natur gewesen. So waren einige politisch motiviert, andere waren humoristischer Natur und wieder andere hatten das Ziel, auf die Gefahren von machine learning hinzudeuten. 

Während Beispiele wie Wikipedia die Effektivität und den großen Nutzen der digitalen Schwarmintelligenz aufzeigen, verdeutlichen Beispiele wie Tay, zu welchen Problemen diese auch führen kann.

 

Mittwoch, 8. Januar 2020

Ada, die Ablöse von Dr. Google

„Ada-Gesundheitshelfer“ ist eine Diagnosemaschine für Krankheiten, die als App kostenlos für iOS und Android angeboten wird. Durch einfachste Multiple-Choice-Fragen sollen User nicht nur eine ausführliche Krankheitsdiagnose erhalten, sondern zusätzlich Zugang zu Behandlungsvorschlägen, persönlichem Symptomverlauf und Krankheitsverzeichnis erhalten.

Ada-User geben in der kostenlosen App ihr Alter und Geschlecht ein sowie ein beliebiges Symptom wie z.B Kopfschmerzen oder Husten. Mittels künstlicher Intelligenz werden einige grundlegende Fragen zu möglichen Krankheitsbildern gestellt. Die Enddiagnose richtet sich an Krankheiten, die bei anderen Usern mit derselben oder ähnlicher Symptomatik festgestellt wurden.

Bis Ende 2019 war es für Kunden der Techniker Krankenkasse möglich, nach einer Erst-Diagnosik der App die Ergebnisse der Krankenkasse direkt weiterzuleiten und unmittelbar über die Ada Kontakt zu Medizinern des TK-Ärzte-Zentrums aufzunehmen. Die Techniker Krankenkasse beendete die Zusammenarbeit mit der Firma Ada Health aufgrund von Datenschutz-Verstößen.

Die Ada-App biete eine gute Alternative für Menschen, denen der Gang zum Hausarzt zu aufwendig ist, da sie bessere Informationen zu liefern scheint als Google. Dennoch sollte beachtet werden, dass es sich bei den App-Diagnosen nicht um tatsächliche medizinische Diagnosen handelt und im Zweifelsfall immer die Meinung eines Arztes eingeholt werden sollte.

https://www.youtube.com/watch?v=yaEhA5nD5vo

Quellen:

Facebook und das "Institute for Ethics in Artificial Intelligence" an der TU München

Das US-amerikanische Unternehmen Facebook, das 2018 den wohl größten Shitstorm der jüngsten Wirtschaftsgeschichte durchlebte, finanziert - besser gesagt: unterstützt - nun, angeblich ohne weitere Vorgaben, die Technische Universität München in Millionenhöhe. Es handelt sich hierbei um ein im Oktober 2019 neu gegründetes Ethik-Institut, an dem erforscht werden soll, welche ethischen Grundsätze bei der Entwicklung und beim Einsatz von künstlicher Intelligenz gelten sollen und wie sie umgesetzt werden können. Angestoßen wurde das Projekt durch bislang fehlende Forschung zu ethischen Fragen bei Künstlicher Intelligenz und der Fairness von Algorithmen und maschinellem Lernen. Ziele des neuen Instituts:
  • Leitlinien für die Identifikation und Beantwortung ethischer Fragen der Künstlichen Intelligenz für Gesellschaft, Industrie und Gesetzgeber.
  • Ethische, rechtliche und politische Gesamtbetrachtung gesellschaftsrelevanter Innovationskreisläufe.
  • "Human Centered Engineering" soll eine maßgebende Rolle spielen, um die kulturelle und gesellschaftliche Rückverankerung der fortschreitenden Entwicklungen in Hinblick auf die Künstliche Intelligenz sicherzustellen.
  • Konkret soll das neue Institut den Fragen nachgehen, wie man Voreingenommenheit in der künstlichen Intelligenz vermindern kann, wie diese Technologie die Gesellschaft beeinflusst, dabei fair ausgestaltet ist und die Grundrechte der Menschen bewahrt.
Koordinator des neuen Projekts ist Professor Christoph Lütge. Lütge wurde kürzlich in die Ethikkommission der Bundesregierung zum Autonomen Fahren und in die europäische Expertenkommission "AI 4 People" berufen, und er sagt über sich selbst, dass seine Themen an den Schnittstellen zwischen Technologie und menschlichen Werten liegen. Es scheint ganz so, als soll das sensible Deutschland und Europa (in Bezug auf Daten(-schutz)) beim Stichwort "responsible AI", also "verantwortliche KI", noch ein Wörtchen mitzureden haben.

Der oben erwähnte Shitstorm, der Facebook in Verbindung mit der Analysefirma Cambridge Analytica und dem Präsidentschaftswahlkampf von Donald Trump bringt, machte Facebook zum umstrittensten Digitalkonzern der Welt. Über Facebook soll der Ausgang von Wahlen beeinflusst worden sein. Hierzu lassen sich weitere Informationen in den folgenden Blog-Beiträgen finden:

Quellen:

Deep Fake

Unter Deep Fake versteht man die Möglichkeit, mit Hilfe künstlicher Intelligenz authentisch wirkende Bilder zu erstellen, die es aber nicht sind. Dabei werden Gesichter von Personen durch andere Gesichter ersetzt. Diese Technik wurde auch schon in Hollywood-Filmen genutzt und ist an sich nichts Ungewöhnliches. Normalerweise wurden für die Face Swaps aber Experten in den Bereichen Schnitttechnik und CGI benötigt. Deep Fakes erstellt der Computer aber nun selbst.

Der Name Deep Fake entstand erstmals durch die Plattform Reddit, auf der ein Nutzer Videos postete, in denen die Gesichter von berühmten Frauen auf die Körper von Pornodarstellerinnen hineingerechnet wurden. Das Video wurde nach kurzer Zeit von der Plattform verbannt, doch bis dahin existierte schon die neue Software, FakeApp, die es NutzerInnen bereits ermöglichte, Gesichter von Personen durch andere auszutauschen.

Deep Fakes basieren auf dem sogenannten Deep Learning, dies ist eine Form des Machine Learning. Der Gesichtertausch bei Deep Fakes erfolgt über Algorithmen, diese werden mit sehr vielen Bild- oder Videodateien gefüllt. Umso mehr Bildmaterial und Blickwinkel der Algorithmus erhält, desto realistischer wird das Ergebnis.






Literatur:

Ballie, Wall-E der Zukunft

Am 07.01.2020 wurde (mal wieder) ein neuer Hilfsroboter für den Haushalt vorgestellt. Jedoch nicht sowas wie ein Saugroboter oder "Alexa". Samsung orientierte sich eher an dem allseits bekannten Roboter Wall-E. Klein und rund soll er selbstständig im Leben mithelfen. Dazu ist er mit einer KI ausgestattet, die es ihm erlaubt, selbstständige Entscheidungen zu treffen. Ballie soll das "Smart Home" auf eine neue Stufe heben. Was uns genau erwartet und wie viel das Kügelchen kosten soll, ist noch nicht bekannt.

Cambridge Analytica

Personenbezogene Daten haben Öl als wertvollste Ressource der Welt eingeholt. Wieso, das zeigen die Erfolge der Firmen SCL bzw. Cambridge Analytica. Diese Datenanalyse-Unternehmen benutzen sogenanntes "microtargeting", um Einfluss auf politische Prozesse, Wahlen und die internationalen Beziehungen zu nehmen. Cambridge Analytica mischte in der USA-Wahl 2016 als Unterstützer der Trump-Kampagne mit. Ziel war es, die unentschlossenen Wähler und "Swing States", Staaten die demokratisch oder republikanisch wählen könnten, auf die Seite der Republikaner zu ziehen.

Um dies zu schaffen, wurden Unmengen an Daten gesammelt und analysiert. Die Firma behauptete, ein umfassendes Persönlichkeitsprofil über jeden US-amerikanischen Erwachsenen zu besitzen. Dieses Profil wurde benutzt, um die Personen mit personalisierten Videos, Artikeln usw. online zu bombardieren, um ein Narrativ zu erschaffen, in dem Trump zu wählen am sinnvollsten erscheint.

Allein dafür wurden zu den Hochzeiten eine Million Dollar für Placements auf Facebook pro Tag gezahlt. Die Rolle Facebooks in dem Datenskandal um Cambridge Analytica führte unter anderem zu der Befragung von Mark Zuckerberg. Cambridge Analytica trug auch zum Erfolg der Leave.eu Kampagne für den Brexit bei.

Wie ausschlaggebend und erfolgreich die Auswirkungen dieser Firma auf die jeweiligen Ereignisse wirklichen waren, ist schwer zu sagen. Der Whistleblower und ehemalige Mitarbeiter von Cambridge Analytica, Christopher Wylie, meinte dazu, es sei egal, wie groß die Auswirkungen seien, sobald wir Betrug in unseren demokratischen Wahlen zulassen, sei die Demokratie gefährdet. Die Firma sei eine Propagandamaschine (Interview mit Christopher Wylie).

Über Cambridge Analytica wurden mehrere Dokumentationen veröffentlicht. Die meiner Meinung nach interessantesten sind die Arte-Doku Fake America Great Again, sowie die Netflix-Doku "The Great Hack".

Autonomes fahren - Machine learning "on the Edge"

Wenn Computer mittels Künstlicher Intelligenz (KI) selbst gute Spieler in Schach und Go sowie in Video-Strategiespielen schlagen, dann kann es doch nicht so schwer sein, ihnen das Autofahren beizubringen, oder? Dies haben sich mehrere Unternehmen, u.a Tesla, zur Aufgabe gemacht, indem sie mittlerweile eine KI für autonomes Fahren entwickelt haben. Dies wird mithilfe ihres FSD-Chips gewährleistet.

Folgende Methoden kommen hierbei zum Einsatz. Zum einen das supervised imitation learning. Hier untersucht die KI eine Vielzahl von richtig gelösten Aufgaben und lernt daraus, wie sie selbst diese Aufgaben hätte lösen können. Präsentiert man z.B einer KI 1000 Fotos von Hunden, analysiert & lernt die KI, woran man einen Hund erkennt.

Die zweite Technik nennt man reinforcement learning, ein "Versuch-und-Irrtum" Verfahren. D.h die KI führt eine zufällig gewählte Aktion aus, beobachtet deren Wirkung und lernt daraus, zu welchen Folgen das führt. Bezogen auf den Straßenverkehr, würde diese Methode jedoch schnell zu Unfällen führen, falls man jedoch beide Methoden kombiniert, d.h zuerst das Imitationslernen und dann das bestärkende lernen einsetzt, könnte sich daraus eine erfolgsversprechende Methode ergeben.

Aktuell ist es so, dass alle Tesla-Modelle ab 2016 eine Autopilot Software besitzen, bis 2020 sollen dann alle Autos autonom fahren können. Bislang wurden dafür etliche Daten gespeichert und ausgewertet, die Entscheidungen des Menschlichen Fahrers wurden dabei als richtige Problemlösung angesehen und anhand derer ergeben sich die Daten (Imitationslernen).

Doch nicht nur das Imitationslernen, sondern auch das bestärkende wurde bereits eingesetzt. In Israel ließ das Mobileye Unternehmen ein solches Auto autonom durch den chaotischen Verkehr von Jerusalem fahren. Darüber hinaus konnte OpenAl (Musk´s KI Unternehmen), dank diesem in einem Videospiel names Dota 2, ein Team menschlicher Spieler schlagen.

Offiziell bestätigt hat Tesla bisher nur den Einsatz des Imitationslernens, nicht die Verwendung des bestärkenden Lernens. Angesichts der großen Datenmengen, die Tesla zur Verfügung stehen, und wegen der Erfolge, die mit bestärkenden Lernen erzielt wurden, ist es jedoch wahrscheinlich, dass Tesla beide Techniken in naher Zukunft kombinieren könnte.

Ein aufregende Zukunft steht uns da bevor, jedoch hört man immer wieder: Ist autonomes Fahren überhaupt ethisch vertretbar? Und wie genau entscheidet der Computer in einer gefahren Situation, bzw. mit welchem Recht? Dies und vieles mehr, wird sich in naher Zukunft zeigen, man kann nur gespannt sein!

Den ganzen Artikel und mehr, gibt es hier zu lesen: https://towardsdatascience.com/teslas-deep-learning-at-scale-7eed85b235d3

Dienstag, 7. Januar 2020

Der Film "Her" von Spike Jones

Theodore verdient sein Geld im durstig, futuristisch, pastellfarbenen Los Angeles. Er schreibt Liebenden, Ehepaaren und Kindern Briefe für Jahrestage oder andere Anlässe. Eine Software überträgt diese in handschriftliche Briefe. Durch diese Szenen wird zu Beginn schon deutlich, dass selbst bei privaten und intimen Situationen die Arbeit durch Maschinen vereinfacht wird. Noch viel mehr als heute werden Menschen durch Maschinen unterstützt. Somit wird eine Zukunftswelt erschaffen, die zum einen Vertrauen weckt, doch genauso revolutionär wirkt.

Die Menschen wirken unnahbar, verloren in sich selbst und verloren in der Welt zwischen den Maschinen und sich selbst. Es scheint, als ob Gefühle und Nähe zwischen den Menschen nicht existiert und sie untereinander nicht mehr kompatibel sind. Der Film "Her" zeigt meiner Meinung nach ein Grundproblem unserer Gesellschaft auf. Der Film äußert mehr Kritik an der Gesellschaft als an den Maschinen.

Deutlich wird dies zum Beispiel in einer Szene, in der Theodore ein Date hat und ihr nicht die passende Antwort darauf geben konnte, ob er sich eine feste Beziehung mit ihm vorstellen kann. Durch die Verzweiflung vom Date wird aufgezeigt, dass die Menschen in unserer heutigen Gesellschaft Bindungsängste haben und keiner seine Gefühle zur jeweils anderen Person gestehen möchte. Im Film wird dies konkretisiert, da immer mehr Menschen eine Beziehung mit einer künstlichen Intelligenz führen.

Durch den Film wird die sonst sehr starre Maschinenlogik auf einmal einfühlsam und auf eine bestimmte Weise nahbar dargestellt. Dank Samanthas verständnisvoller, humorvoller und menschlicher Art und Weise kommt sie einem eher vor wie eine gute Freundin und nicht wie eine Maschine. Auf der anderen Seite ist es jedoch auch befremdlich, wenn ich mir vorstelle, dass sie eine Maschine ist und somit auch kein reales Lebewesen.

Die Beziehung von Samantha und Theodore wirkt für den einen oder anderen befremdlich. Doch lieben Menschen nicht andere Gegenstände und Lebewesen, wie Handys und Katzen? Warum wirkt dann die Beziehung der zwei auf uns so befremdlich. Ist dies nicht vielleicht die Zukunft unserer Gesellschaft, Liebe mit Maschinen. Ist es nicht eigentlich egal, wen wir lieben, solange wir glücklich dabei sind.

Im Gegensatz zu anderen Filmen wird die künstliche Intelligenz in diesem nicht als etwas Böses oder Negatives dargestellt. Ganz im Gegenteil wird dem Zuschauer eher aufgezeigt, wie unsere Zukunft mit Maschinen und künstlicher Intelligenz ausschauen kann. Trotzdem wird die heutige Gesellschaft auf eine satirische Art und Weise darauf aufmerksam gemacht, dass das Vergnügen mit Maschinen mit Vorsicht zu betrachten ist. Dass wir aber nie eine Garantie für die Liebe - ob mit Menschen oder Maschinen - haben werden, steht für mich außer Frage. Denn die Liebe ist unberechenbar.

Ki macht Schule - Sieger des Hochschulwettbewerbs 2019 zum Thema Künstliche Intelligenz

Die Künstliche Intelligenz war Thema des Wissenschaftsjahres 2019. Am Wissenschaftsjahr 2019 beteiligen sich Institutionen, Bildungseinrichtungen, Hochschulen und Unternehmen mit ihrer Forschungskompetenz. In Filmvorführungen, Diskussionsrunden, Mitmach-Aktionen und vielen weiteren Veranstaltungen stehen Themen im Fokus, die uns alle angehen: Wie funktioniert Künstliche Intelligenz? Wie gestalten wir in Zukunft die Zusammenarbeit von Mensch und Maschine? Welche ethischen Fragen ergeben sich? Welche Auswirkungen hat Künstliche Intelligenz auf unser Zusammenleben als Gesellschaft? Auf welche Weise bilde ich mich für den digitalisierten Arbeitsmarkt von morgen weiter?

Dazu gibt es in jedem Jahr einen Hochschulwettbewerb, so auch passend zum Wissenschaftsjahr 2019. Hierzu waren Studierende, Promovierende und junge Forschende aller Fachbereiche aufgerufen, Projekte zum Thema des Wissenschaftsjahres – Künstliche Intelligenz – zu entwickeln. Mit ihren Wettbewerbsbeiträgen sollten sie ihre Forschung auf interaktive Art und Weise verständlich machen. Die 15 besten Projekte wurden mit je 10.000 Euro ausgezeichnet und haben nun ein Jahr Zeit, ihre Ideen in die Tat umzusetzen.

Eines der Gewinner-Teams stammt von der Rheinischen Friedrich-Wilhelms-Universität Bonn. Mit ihrem Projekt „KI macht Schule“ haben sie sich zum Ziel gesetzt, die Aufklärung über KI durch interaktive Tagesworkshops für Schülerinnen und Schüler der Klassenstufen 9-12 zu fördern. Dabei geht es ihnen vor allem um Aufklärung über Fakten, Chancen und Risiken von künstlicher Intelligenz, welche sowohl technisch-wissenschaftliche als auch ethische und soziale Aspekte einschließen.

"KI macht Schule" wurde von Stipendiaten und Stipendiatinnen der Studienstiftung des deutschen Volkes gegründet, die im MINT-Bereich studieren oder promovieren. Sie bieten Workshops zu aktuellen Themen aus der KI und Maschinellem Lernen. In vier Doppelstunden liefern die Kurse einen umfassenden Überblick über aktuelle Themen und schaffen faktenbasiertes Wissen für ein wichtiges Zukunftsthema. Das Projekt basiert auf einem Lehrkonzept mit aktuellen Themen aus Forschung und Industrie. Neben technischen Aspekten liegt der Fokus auch auf sozialen und ethischen Aspekten.

Weitere Informationen über das Projekt findet ihr hier: https://ki-macht-schule.de/#. Zum Hochschulwettbewerb gelangt ihr hier: https://www.hochschulwettbewerb.net/2019/

HyperMind

Was ist das?

HyperMind ist ein intelligentes Schulbuch, das im Moment am Deutschen Forschungsinstitut für künstliche Intelligenz (DFKI) und der Technischen Universität (TU) Kaiserslautern entwickelt wird. Es wurde erstmals 2017 auf der Computermesse CeBIT in Hannover vorgestellt und soll auf Tablets angeboten werden. 

Wie funktioniert es?

Mithilfe von Eyetracking-Technik werden Blickbewegungen von Schüler*innen erkannt und im nächsten Schritt analysiert. Das soll Lernschwierigkeiten aufzeigen und dabei helfen, Schüler*innen individuell zu fördern. Die individuellen Blickdaten, die mithilfe des Eyetrackings analysiert werden, werden gesammelt, um daraus das Leseverhalten der Kinder zu analysieren. Um dies zu ermöglichen, muss der Eyetracker zunächst kalibriert werden. Dazu wird er an den Desktop oder den Rand des Tablets befestigt, um Bilder vom Auge zu machen.

Da der Eyetracker lediglich Aufmerksamkeitsdaten repräsentieren kann, steht nun die Idee im Raum, zusätzlich eine Wärmebildkamera einzusetzen. Diese könnte die kognitive Belastung des Lesers erfassen und erkennen, ob ein Kind unter- oder überfordert ist. HyperMind kann dann im nächsten Schritt darüber entscheiden, ob Materialien zum Fordern bereitgestellt werden und wie diese aussehen müssen. 

Gibt es eine Möglichkeit, um Lernprozesse noch genauer zu ermitteln?

Derzeit überlegen die Professoren, die Technik mit Pulssensoren (ähnlich wie bei Fitnessarmbändern) zu erweitern, um zusätzliche Stressfaktoren zu messen und das Ergebnis noch besser zu bestimmen. 

Was sind die Schwächen des intelligenten Schulbuchs?

Im Moment ist die Robustheit des Eyetrackers und dessen Praktikabilität für den Unterrichtseinsatz noch sehr eingeschränkt. Schüler*innen dürfen sich nur wenig bewegen, was besonders für Kinder sehr schwierig ist.

Was ist der aktuelle Stand des Projekts?

Vor einiger Zeit wurde der „HyperMind Builder“ entwickelt. Dieser ermöglicht es Lehrkräften, eigene Materialien in einem System hochzuladen (ein Arbeitsblatt, in dem Bereiche definiert werden können, um Zusatzinformationen wie Videos oder Grafiken einzublenden).

Montag, 6. Januar 2020

„Predictive Policing“ – Verbrechen vorhersagen, geht das?

Wenn man den Begriff „Predictive Policing“, oder übersetzt „Vorhersagende Polizeiarbeit“ hört, denkt man vermutlich erstmal an die Kurzgeschichte „The Minority Report“ von Philip K. Dick aus dem Jahr 1956 oder eben an den darauf basierenden Blockbuster „Minority Report“ von Steven Spielberg aus dem Jahr 2002. Und so ganz falsch liegt man damit auch nicht, so findet man doch einige Parallelen. Doch die Panik und Kritik, die „Minority Report“ übt, wäre bei „Predictive Policing“ fehl am Platz.

Was genau ist also „Predictive Policing”? Einfach gesagt geht es darum, durch Analyse von Falldaten die Wahrscheinlichkeit für zukünftige Straftaten zu errechnen. Ein Arbeitsaufwand, den man aufgrund der Datenmenge bzw. der „Big Data“ manuell mit menschlichem Personal nicht bewältigen könnte. Deshalb wird diese Aufgabe von Computern und entsprechender Software übernommen. Zwar gibt es einige Programme dafür, die man erwerben kann (in Kostenhöhe von ca. 1 Millionen € für die derzeit „beste“ Software), doch gerade aufgrund des Preises ziehen es viele Landeskriminalämter (LKA) vor, eigene Software dafür zu entwickeln. Dies hat auch den Vorteil, dass man sie nach eigenen Wünschen und Präferenzen gestalten kann, anstatt auf vorgegebene Funktionen angewiesen zu sein.

In Deutschland wurde die „vorhersagende Polizeiarbeit“ im Zeitraum 2016/2017 in diversen Städten wie Stuttgart, Hamburg, München, Berlin aber auch ganzen Bundesländern wie Hessen und Niedersachsen in verschiedenen Projekten mit verschiedener Software getestet und ist heute schon in einigen Orten im Polizeialltag integriert. Den Vorreiter spielt hierbei Bayern: die Methode wurde hier schon 2014/2015 getestet und wird seit 2016 vollwertig genutzt.

Die „vorhersagende Polizeiarbeit“ ist allerdings noch recht neu und wird bisher auch nur für eine Art der Straftat genutzt, für die sie sich hervorragend eignet: Wohnungseinbruchdiebstähle. Der Polizei ist schon seit langem bekannt, dass Wohnungseinbruchdiebstähle oft von Serientätern begangen werden. Aufgrund der Tatmuster, die auch wissenschaftlich belegt sind, begehen diese oft innerhalb eines kurzen Zeitraums nach einem Einbruch wieder einen Einbruch in der Nähe des ersten.

Bisher fehlte aber die Möglichkeit sowie die Mittel und das Personal, diese Daten so auszuwerten, dass man tatsächlich präventiv vorgehen kann. Dank Computer und Software ist dies aber nun möglich, und hierbei kann man auch gleich mit „Schreckensszenarien“ à la „Minority Report“ aufräumen: die Software kann keine Straftaten vorhersagen. Einzeltäter können mit dieser Software nicht erfasst werden, hier muss die Polizei weiterhin aktiv werden, nachdem der Einbruch begangen wurde, denn alles, was die Software macht, ist die Wahrscheinlichkeit zu errechnen, in welchem Zeitraum und in welcher Region ein Serientäter wohl erneut zuschlagen wird.

Leider (zumindest für uns) werden von den Tests und von der Anwendung keine Berichte und Bewertungen oder Zahlen veröffentlicht, die die Effektivität der Software zeigen können, dafür gibt es aber natürlich gute Gründe, schließlich will man dem Einbrecher nicht die Einsicht in die „Bekämpfungssoftware“ geben. Dass aber diverse Städte und Bundesländer diese Methode nutzen, spricht wohl auch für sich.

Weitere Gründe dafür, dass die Methode für Einbruchsdiebstähle verwendet wird, ist die „Wichtigkeit“ bzw. die politische Tragweite. Einbruchsdiebstähle gibt es laut Polizei sehr häufig und die Zahl steigt stetig an. Außerdem werden mit etwa 85% ein hoher Anteil der Wohnungseinbrüche zur Anzeige gebracht (zum Vergleich: bei Raubüberfällen seien es nur etwa 25-35%). Gleichzeitig bleiben Einbruchsdiebstähle aber auch in den meisten Fällen ungeklärt und es kann kein Täter ermittelt werden.

Gerade für die „Opfer“ hängen Einbrüche oft auch mit enormem psychischem Stress zusammen, so wollen wohl etwa 30% der betroffenen nach einem Einbruch umziehen, weil sie sich nicht mehr wohl und sicher fühlen können, laut Alexander Gluba vom Landeskriminalamt Niedersachsen. Die Aufklärungsquote der Wohnungseinbrüche liegt bei etwas mehr als 15%, ein weiterer Faktor, weshalb man neue wirkungsvolle Methoden hier sehr begrüßt.

Zu den größten Kritikpunkten zählt die sehr schwierige Nachweisbarkeit der Wirksamkeit. Es sammeln sich einige mögliche Zufälle, die man nicht als eindeutige Belege für die Wirksamkeit nutzen kann. Schickt beispielsweise die Polizei aufgrund der Berechnungen einen Wagen an den Ort, an dem wahrscheinlich ein Einbruch stattfindet, so kann man schwer deuten, was eben kein Einbruch hier bedeutet. War die Prognose falsch? Hat die Polizei den Einbrecher abgeschreckt?

Außerdem spielt hierbei natürlich trotzdem noch der Mensch eine große Rolle. Mit welchen Daten wird die Software „gefüttert“? Es bleibt weiterhin Aufgabe der Menschen bei der Polizei, zu bewerten, ob ein Serientäter am Werk war oder nicht. Wird der Einbruch richtig eingeschätzt? Die Maschine bzw. der Computer kann natürlich nur mit dem arbeiten, was die Polizeibeamten ihm geben.

Hat man beispielsweise zufällig zwei Einbrüche in einer Woche in einer Straße, in der sonst kaum Einbrüche stattfinden, wird die Software wohl auch zukünftig Einbrüche berechnen, falls die Beamten diese Daten unreflektiert in die Software eingeben. Auch hier kann also „menschliches Versagen“ bzw. von Menschen begangene Fehler die Wirksamkeit der Software beeinflussen.

Präventiv wirkende Systeme auf ihre Wirksamkeit zu überprüfen ist also kaum eindeutig möglich. Auch die wissenschaftlichen Untersuchungen dazu sind aufgrund der geringen Zahl wenig aufschlussreich. Bisher gibt es nur zwei wissenschaftliche Untersuchungen, und diese wurden in den USA und in Großbritannien durchgeführt, lassen sich also auch nicht einfach auf Deutschland übertragen.

Trotzdem haben beide Untersuchungen ein recht positives Ergebnis für die „vorhersagende Polizeiarbeit“ ergeben. Verglichen wurden hierbei die Prognosen der Software mit konventionellen Methoden. Dabei hat die Software wohl in den betreffenden Gebieten bei beiden Untersuchungen einen Kriminalitätsrückgang erwirkt. Aktuell forschen aber auch Sozialwissenschaftler aus verschiedenen EU-Mitgliedsländern an der Methode.

Wichtig zu erwähnen ist allerdings auch, dass die Anwendung dieser Methode eigentlich keine Nachteile mit sich bringt. Die Zahlen sprechen für sich: bei Wohnungseinbruch haben wir derzeit keine effektiven Methoden, um diese aufzuklären oder zu verhindern, wieso also nicht Neues wagen? In den Polizeipräsidien, die diese Möglichkeit nutzen, wird sie stets positiv aufgefasst, immerhin nimmt es den Beamten vor Ort, deren Kapazitäten oft aufgrund von Personalmangel oder Kürzungen voll ausgeschöpft sind, viel Arbeit ab und unterstützt sie in ihrer Arbeit.

Wie sich die „vorhersagende Polizeiarbeit“ noch entwickeln wird, für welche Felder sie sich noch eignet und wie effektiv sie in verschiedenen Delikten arbeiten kann, wird sich in der Zukunft zeigen, aktuell, denke ich, können wir diese Möglichkeit der Verarbeitung dieser Datenmassen aber durchaus begrüßen, immerhin ist es doch im Interesse aller, die Zahl der Einbrüche zu verringern.

Mit stärkerem Einsatz der Software werden vermutlich auch viele neue moralische und rechtliche Fragen aufkommen, eine Herausforderung, der wir Menschen uns dann stellen müssen, aber das ist der Lauf der Dinge, der schon immer so war und wohl auch immer so sein wird. Mich persönlich hat das Konzept aber voll überzeugt und ich freue mich auf weitere Fortschritte in diesem Bereich!

In folgendem Video wird auf Englisch noch einmal innerhalb von 2 Minuten mit zusätzlicher visueller Ebene erklärt, wie „predictive policing“ funktioniert:

Freitag, 3. Januar 2020

KI Sophia - die perfekte Partnerin?

Sophia hat die saudi-arabische Staatsbürgerschaft. Sie hat rote volle Lippen und eine helle Haut. Insgesamt eine wirklich hübsche Frau. Dazu ist Sophia durchaus gefühlvoll. Sie erkennt, ob ihre Mitmenschen gerade fröhlich, traurig oder wütend sind. Sie kann diese Emotionen interpretieren und selbst ausdrücken. Auf einem Dating-Portal wäre Sophia wohl die perfekte Partnerin, doch noch fehlt ihr ein entscheidendes Detail, und zwar die Fähigkeit zu lieben.

Doch das soll sich nach dem Hongkonger Unternehmen Hanson Robotics ändern. Viel mehr noch: Sophia soll die bedingungslose Liebe lernen und lehren können. Sophia besitzt zwar eine künstliche Intelligenz und kann sich auf einfachem Niveau mit ihren Mitmenschen unterhalten, doch ihr fehlt das Bewusstsein über ihre eigene Existenz. Doch ist das von Bedeutung, wenn Sophia eines Tages Liebe perfekt imitieren kann?

Es gibt viele kontroverse Fragen, die man sich bezüglich Sophia stellen kann. Kann man Liebe überhaupt programmieren oder ist Liebe etwas, das nur echten Lebewesen bleibt und niemals durch eine künstliche Intelligenz ersetzt werden kann?

Darüber hinaus ist Sophia auch politisch sehr kritisch zu bewerten. Als Roboter-Frau besitzt Sophia in Saudi-Arabien mehr Rechte als Menschen, die dort seit Jahren leben. Sie besitzt die saudi-arabische Staatsbürgerschaft, während es für zahlreiche Einwanderer fast unmöglich ist, diese zu erlangen. Außerdem darf Sophia sich ohne männlichen Vormund und Verschleierung bewegen, während es für menschliche Frauen in Saudi-Arabien hier strenge Regeln gibt.

Neben der Fähigkeit, die bedingungslose Liebe zu erlenen, soll Sophia die Menschen vor allem im Alltag unterstützen. So wäre z.B. ein mögliches Einsatzfeld die Altenpflege.
Quelle: The Red Bulletin Innovator. Liebevolle künstliche Intelligenz: Dieser Robotor wurde programmiert, um Liebe zu lehren. Internet: https://www.business-punk.com/2018/08/sophia-roboter/ (gesehen am 03.01.2020)

Donnerstag, 2. Januar 2020

Big Data im Studium

Dass Self-Tracking-Geräte als verpflichtender Teil des Studiums eingesetzt werden, ist an der Oral Roberts University (ORU) im US-Bundesstaat Oklahoma bereits Realität. Die Universität verfolgt ein ganzheitliches Bildungskonzept. Teil dieser Ausbildungsphilosophie ist ein Fitnessprogramm, welches die Studierenden als Teil ihres Studiums absolvieren müssen.

Dabei sind sie angehalten, Fitnessarmbänder von Fitbit zu tragen, um damit ihre körperliche Aktivität zu tracken. Von den Studierenden werden 10.000 Schritte täglich und zweieinhalb Stunden Sport pro Woche erwartet. Die dabei gesammelten Daten machen letztendlich 20% ihrer Endnote aus (vgl. Mau 2017: S. 181).

Die ermittelten Daten werden in einem digitalen Profil der einzelnen Studierenden gespeichert. Zusätzlich werden sie in ein Learning Management System namens Brightspace eingespeist, welches auf personalisiertes Lernen abzielt und dafür entsprechend Daten benötigt.

Quelle: Steffen Mau: Das metrische Wir: Über die Quantifizierung des Sozialen. 2. Auflage, Berlin 2017

Ein Buch und eine Serie, die uns in die Welt der künstlichen Intelligenz eintauchen lassen

Themen wie Big Data und Künstliche Intelligenz sind mittlerweile ein großer Bestandteil der gesellschaftlichen Diskussion. Sie schaffen es nicht nur immer öfter als Headliner in Zeitungen, sondern sind auch in der Bücherwelt sowie in der Welt der Serien beliebte Themen. Leser*innen und Zuschauer*innen werden hierbei in eine Zukunft, die gar nicht so weit entfernt ist, entführt.

Aufgrund dessen möchte ich euch ein Buch sowie eine Serie vorstellen, die diese beiden Themen mit Humor, Ironie und Satire in unsere Welt holen. Dabei darf man aber nicht vergessen, wie sehr sie zum Nachdenken anregen.
Willkommen in Quality Land, in einer nicht allzu fernen Zukunft: Alles läuft rund - Arbeit, Freizeit und Beziehungen sind von Algorithmen optimiert. Trotzdem beschleicht den Maschinenverschrotter Peter Arbeitsloser immer mehr das Gefühl, dass mit seinem Leben etwas nicht stimmt. Wenn das System wirklich so perfekt ist, warum gibt es dann Drohnen, die an Flugangst leiden, oder Kampfroboter mit posttraumatischer Belastungsstörung? Warum werden die Maschinen immer menschlicher, aber die Menschen immer maschineller?
So lautet der Klappentext des Romans Quality Land von Marc-Uwe Kling. Die Geschichte von Peter Arbeitsloser wird eingebettet in die Diskussion ethischer Fragestellungen, die mit den Themen Big Data und künstliche Intelligenz einhergehen. Der Perfektionismus, das Immer-besser-werden, der Optimierungswahn stehen dabei im Vordergrund. Welche Dilemmasituationen dabei entstehen und wie Peter Arbeitsloser mit dem perfekten System zurechtkommt wird auf eine lustige, durchaus ironische und satirische Weise dargelegt.


Black Mirrorso lautet der Titel der Serie, die ich euch vorstellen möchte, ist eine britische Anthologieserie von Serienschöpfer Charlie Booker und Produzentin Annabel Jones. Pro Episode wird anhand verschiedener Charaktere in jeweils neuen Settings ein mögliches Szenario mit unterschiedlicher fortschrittlicher Technologie unter die Lupe genommen, Wie sich diese auf die Menschen auswirken, wird dabei teils erschreckend, teils belustigend, aber meist fatalistisch dargestellt und lässt Schlüsse bezüglich unserer gegenwärtigen Welt ziehen.

Die Themen Big Data und Künstliche Intelligenz sind in diversen Folgen wichtige Bestandteile. Zwei dieser Folgen möchte ich euch kurz vorstellen.

Zum einen Folge 1 der 2. Staffel. Der Titel dieser Episode lautet Be right back. Martha und Ash sind ein glückliches Paar, bis Ash eines Tages tödlich verunglückt. Voller Trauer meldet sich Martha für einen besonderen Service an, der Ash anhand von seiner Social-Media-Daten wiederauferstehen lässt - als originalgetreuen Roboter.

Des Weiteren Folge 5 von Staffel 4. Sie trägt den Namen Metalhead. Im Gegensatz zu anderen Black Mirror-Folgen wird in Metalhead die Ausgangssituation kaum erklärt. Wir wissen lediglich, dass sämtliches Leben von der Erde getilgt wurde. Es liegt nahe, dass die Killer-Roboter etwas damit zu tun haben könnten. Doch was hält das Militär zukünftig davon ab, diese Roboter mit Waffen zu versehen? Und was passiert, wenn ein Systemfehler dazu führt, dass die künstliche Intelligenz von ihren "moralischen Ketten" befreit wird?

Die Netflix Original Serie thematisiert neben den gerade genannten Themen aber auch wichtige politische bzw. gesellschaftliche Themen wie Demokratie, Populismus, Kapitalismus, Privatheit, Gerechtigkeit, Meinungsfreiheit  und Sklaverei. Auf technologischer Seite stehen Themen wie Social Media, Digitalisierung, Videoüberwachung, Microchips, Cyberkriminalität und Hacking im Vordergrund.