Donnerstag, 24. Januar 2019

Intelligentes medizinisches Ökosystem

Der Dax-Konzern Merck will gemeinsam mit dem chinesischen Internet-Unternehmen Tencet digitale Gesundheitsdienste für den chinesischen Markt entwickeln. Dabei nutzt er die Möglichkeiten der künstlichen Intelligenz und big data. Gemeinsam wollen Merck und Tencet eine Plattform zur Gesundheitsversorgung einrichten. Im Fokus stünden unter anderem Herz-Kreislauf-Erkrankungen, Allergien, Diabetes und Schilddrüsenfunktionen. Patienten hätten den Vorteil, dass sie online aufgeklärt werden können. Ziel ist es also, ein sogenanntes „intelligentes medizinisches Ökosystem“ aufzubauen, durch welches man die Gesundheit der Bevölkerung verbessern könnte.
Quelle: https://www.echo-online.de/wirtschaft/wirtschaft-regional/big-data-fur-die-gesundheit-merck-schliesst-allianz-in-china_19917844

Mittwoch, 23. Januar 2019

Machine Learning - Funktionsweise, Potenzial, Risiken

Maschinen, die eigenständig lernen und handeln. Maschinen, die Muster erkennen, die wir gar nicht sehen und so helfen, die Welt zu verbessern. Maschinen, die besser sind als wir. Im Silicon Valley arbeitete ein Forscherteam um den Deutschen Sebastian Thrun daran, eine künstliche Intelligenz zu kreieren, die Hautkrebs erkennt. Sie gaben dem System über hunderttausend Beispiele für Hautveränderungen, bis es gutartige von bösartigen Veränderungen unterscheiden konnte.

Machine Learning ist auf dem Vormarsch, das eigenständige Handeln von Computern, ohne dass er speziell darauf programmiert wurde. Das ist nur mittels Deep Learning möglich. Dabei werden dem Algorithmus Bilder und Informationen gegeben. Unterschiede werden von diesem verglichen, bis er sie selbst erkennt. Mit jedem Mal wird das System ein Stück schlauer. Der Hintergrundgedanke ist, dem menschlichen Gehirn nachzueifern.

Im Gehirn werden Synapsen gestärkt, indem sie immer wieder genutzt werden. Durch Wiederholung lernt das Gehirn. Inzwischen können Systeme mit bis zu 100.000 Neuronen versehen werden, bald sollen es schon 10 Millionen sein. An das menschliche Gehirn mit 85 Milliarden Neuronen reichen diese aber noch nicht heran.

Für Thrun und die anderen Informatiker sind KIs ein Durchbruch, eine technische Umwälzung wie die Dampfmaschine. Die Systeme sind in der Lage, den Menschen ihre Routineaufgaben abzunehmen und machen das Leben komfortabler. Ein Algorithmus kann Autos selbst steuern, Krankheiten diagnostizieren oder Vertriebswege kontrollieren. Dabei fehlen den Maschinen aber echtes Weltverständnis und abstraktes Denken ebenso wie Kreativität. Deshalb glauben manche Kritiker, dass Maschinen nie über die Mustererkennung hinauskommen werden. Potenzial ist also da. Jedoch ist immer auch zu hinterfragen, wofür das Machine Learning genutzt wird.

Ermöglicht wird das alles übrigens nur durch Big Data, den riesigen Datenmengen, die jeder von uns im Zeitalter des Internets produziert. Aber zurück zum Hinterfragen. In China, wo 780 Millionen Menschen online sind und damit eine entsprechend hohe Menge an Daten produzieren, werden KIs schon in vielen Bereichen eingesetzt. Shanghaier Richter werden beraten, wie sie urteilen sollen, Bürger können per Gesichtserkennung bezahlen, und in sechs Städten wird der Verkehr von Algorithmen gelenkt.

Ob ein autoritär regiertes Land wie China Machine Learning nur nutzt, um seinen Bürgern ein sicheres und einfacheres Leben zu ermöglichen, darf bezweifelt werden. Und China will nicht nur einfach mitmischen, bis 2030 will es zum weltweit wichtigsten Innovationszentrum für künstliche Intelligenz werden. Problematisch ist auch, dass die Maschine ihre Erkenntnisse aufgrund von mathematischen Gewichtungen erzielt, die für uns nicht nachvollziehbar sind.

Eine Umwälzung wird die Künstliche Intelligenz für die Menschheit sein, nicht nur in der Technologie und in der Gesellschaft. Auch in der Wirtschaft und in der Ethik. Wenn Maschinen Daten brauchen, um selbstständig denken zu können, wie wirkt sich das dann z.B. auf die Medizin aus? Welche Daten werden preisgegeben, um eine Krankheit zu heilen?

Literatur: http://www.spiegel.de/plus/kuenstliche-intelligenz-maschine-schlaegt-mensch-a-00000000-0002-0001-0000-000160707709

Autonomes Fahren - Ein Mobilitätsmodell der Zukunft?

Das Thema "machine learning" bewegt bereits seit vielen Jahren auch die aktuell noch wichtigste Industriebranche in Deutschland - die Automobilindustrie. Viele sehen in autonomen Fahrzeugen, sowohl im individuellen als auch kollektiven Personentransport, die Zukunft. Schon heute können Autos einzelne Schritte eigenständig übernehmen. Beim Einparken und in nervigen Staus erleichtern uns die jeweiligen Assistenzsysteme das Handling und erhöhen somit den Fahrkomfort. Der ADAC beschreibt die Vorteile autonomer Fahrzeuge auf seiner Homepage wie folgt:

Für die Gesellschaft liegt die Chance darin, ältere oder leistungseingeschränkte Menschen besser einzubinden – und jeder Einzelne kann seine Zeit produktiv oder zur Erholung nutzen. Automatisierte Taxis oder Busse fahren vielleicht so günstig, dass sich auch der ländliche Raum besser erschließen lässt. Motoren laufen immer im effektivsten Betriebsmodus, und der Güterverkehr kann rationalisierter und umweltschonender organisiert sein.
Je nach Grad der Automatisierung werden sich auch die Unfallzahlen weiter reduzieren, denn für immerhin 90 Prozent aller Crashs ist menschliches Versagen die Ursache. Allerdings wird dieser Prozess langwierig sein, weil konventionelle und automatisierte Fahrzeuge noch sehr viele Jahre im Mischverkehr fahren werden. Und natürlich können auch die technischen Systeme versagen oder Verkehrssituationen einfach falsch einschätzen.
Die Entwicklung der besten Technologie fürs autonome Fahren hat also eine große Bedeutung. Und hier spielt im globalen Vergleich die europäische Industrie eine zentrale Rolle. Immerhin 52 Prozent aller weltweiten Patente zum automatisierten Fahren kommen aus Deutschland – angeführt von Bosch, Audi und Continental.

Neben den naheliegenden Sicherheitsrisiken sowie möglichen ethischen Konflikten und aufwendigen Gesetzesänderungen geben vor allem auch potentielle Hacker-Angriffe Anlass zum Nachdenken. Stand heute lassen sich noch keine verlässlichen Prognosen über Geschwindigkeit und Bedeutung dieser technischen Revolution treffen. Es bleibt jedoch eine der, wenn nicht sogar die spannendste Debatte der Zukunftsmobilität.

Sonntag, 20. Januar 2019

Was ist Big Data?

Was genau ist Big Data? Zwar gibt es diverse Definitionen zum Begriff Big Data, dennoch besteht die Schwierigkeit, klar zu verstehen, was genau damit gemeint ist. Ein Video auf YouTube kann aber dazu beitragen, dass man Big Data besser versteht und zudem können auch in diversen Definitionen beschriebene Zusammenhänge genauer nachvollzogen werden. Der folgende Link führt zu einem drei Minuten langen Video, das den Begriff Big Data erläutert. Im zweiten Video wird der Zusammenhang zwischen Machine Learning and Big Data klar:

Donnerstag, 17. Januar 2019

Big Data und PISA-Studie

Big Data als Instrument zur Reflexion und Kritik an der OECD-Studie PISA - Bei meiner Recherche nach Literatur bzw. Forschungspapieren zum Thema Big Data bin ich auf einen Aufsatz in einem Sammelband gestoßen, welcher verschiedene Forschungen zu Machine Learning und Data Analysis enthält. Dieser Sammelband ist anlässlich einer im Jahr 2012 durchgeführten Konferenz der Deutschen Gesellschaft für Klassifikation (GfKI) entstanden. Somit ist er eine Zusammenfassung verschiedener Konferenzpapiere, die auf dieser Tagung entstanden sind. Die Konferenz hatte die Zielsetzung, Fortschritte in der Datenanalyse, in Statistik, in der Wissensfindung und in Machine Learning zu diskutieren. Der Buchtitel der gleichnamigen Konferenz lautet "Data Analysis, Machine Learning and Knowledge Discovery", hg. von Deutsche Gesellschaft für Klassifikation (GfKI, 2012).

Der vorliegende Aufsatz, den ich mir aus dieser Sammlung an Konferenzpapieren herausgezogen habe, beschäftigt sich mit der Data Analysis in der Domäne der Bildung. Der Titel des Aufsatzes lautet "The OECD's Programme for International Student Assesment (PISA) Study: A Review of Its Basic Psychometric Concepts" von Ünlü, Kasper und Soo (2014) (dt. Übersetzung: "Das OECD-Programm für die Internationale Schüler-Bewertungsstudie (PISA): Eine Kritik ihrer grundlegenden psychometrischen Konzepte"). Dieser Sammelband wurde in englischer Sprache verfasst, da die Konferenz international war.

Die Schulleistungsstudie PISA war vor allem zu Beginn des 21. Jahrhunderts eine von Bildungsexperten und Laien vieldiskutierte Methode, um die Leistungen von Schülerinnen und Schülern international zu erheben und miteinander zu vergleichen. PISA ist eine internationale, groß angelegte Prüfungsstudie, die von den OECD-Ländern erhoben wurde und testet, inwieweit 15-jährige Schülerinnen und Schüler imstande sind, die Herausforderungen heutiger Wissensgesellschaften zu meistern (Ünlü, Kasper und Soo, 2014, S. 418).

Die Wissenschaftler um Ali Ünlü interessierten sich im Rahmen ihrer Data Analysis dafür, wie man mit einem Item-Raster, welches auf einem mathematischen Koeffizientenmodell basiert, das MCMLM (Mixed- Coefficients Multinomial Logit Model), die Ergebnisse der PISA-Studie auswerten und einordnen kann. Dieses Modell lehnt sich an das Rasch-Modell an (siehe https://www.spektrum.de/lexikon/psychologie/rasch-modell/12443). Mit diesem Modell konnte klassifiziert werden, dass im PISA-Skalierungs-Vorgang die Schülerinnen und Schüler vereinzelt herausgegriffen wurden und ihre Leistungen dabei mit Hilfe von Zufallsvariablen untereinander abgeglichen worden sind.

Diese Abgleiche sind laut den Forschern fraglich, da die Einstufung der PISA-Ergebnisse im Rahmen eines Versuchs noch viele Fragen offen lässt. Beispielsweise seien für die Schüler-Treffer-Generation nur internationale Itemparameter verwendet worden. Es hat wohl ein Subsample dieser internationalen Parameter gegeben. Obwohl alle internationalen Datensets frei einsehbar sind (www.oecd.org/pisa/pisaproducts), ist es nicht klar, welche Schülerinnen und Schüler in einem Subsample kategorisiert wurden (Ünlü, Kasper und Soo, 2014, S. 423).

Ünlü und seine Kollegen stellten abschließend fest, dass Klassifikationsmethoden, die auf psychometrischen Modellen basieren, viel aussagekräftiger sind als das bisherige reine Vergleichen von Samples (Ünlü, Kasper und Soo, 2014, S. 423).

Der Aufsatz über die Datenanalyse zur PISA-Studie ist für den schulischen Gebrauch selbst zunächst wohl eher uninteressant. Für die pädagogische und psychologische Forschung über Schulleistungsstudien kann eine datengestützte Reflexion über die PISA-Studie dennoch sehr sinnvoll sein. Darüberhinaus stellt diese Kritik das Postulat, dass die psychometrische Datenanalyse das Berichterstatten über die PISA-Ergebnisse automatisiert und somit vereinfacht (Ünlü, Kasper und Soo, 2014, S. 424). 

Literatur

Ünlü, A. (2014). The OECD's Programme for International Student Assessment (PISA) Study: A Review of Its Bacic Pychometric Concepts. In: M. Spiliopoulou (Hrsg.), Data Analysis, Machine Learning and Knowledge Discovery (S. 417-425). Cham, Heidelberg, New York, Dordrecht, London: Springer-Verlag.

Adams, R. J. , Wu, M. L. (2007). The Mixed- Coefficients Multinomial Logit Model : A Generalized Form of the Rasch Model. In: Multivariate and Mixture Distribution Rasch Models. Statistics for Social and Behavioral Sciences. New York: Springer-Verlag.

Spektrum.de (2000). Rasch-Modell. Abgerufen von https://www.spektrum.de/lexikon/psychologie/rasch-modell/12443

OECD (2018). PISA. Programme for International Student Assessment. Abgerufen von www.oecd.org/pisa/pisaproducts


Gefährdet Big Data unsere Demokratie?

„Die Datenökonomie lebt davon, alle möglichen Informationen einzusammeln – immer und überall, manchmal sogar ohne dass wir etwas tun. Das ist gefährlich: Unsere Demokratie, wie wir sie kennen, wird die Digitalisierung nicht überleben.“
Der folgende Artikel von Volker Boehme-Neßler beschreibt deutlich, dass Big Data unsere Demokratie gefährdet. Durch die ständige Überwachung unserer Daten wird unsere Freiheit eingeschränkt. Menschen können sich dadurch nicht zum mündigen Bürger entwickeln. Politische Diskussionen finden nur noch auf Twitter statt und sind alles andere als sachlich und argumentativ. Geleitet von Emotionen, setzt sich nicht mehr das beste Argument durch, sondern nur noch die Meinung mit dem höchsten Hysteriepotenzial.

Jeder muss mit jedem reden können. Das ist das Grundgesetz der Demokratie. Aber WIE, wenn die digitale Welt das Leben in der Filterblase fördert?

Ein Artikel, der die Gefahren von Big Data für unsere Demokratie deutlich macht: https://www.welt.de/debatte/kommentare/article186843448/Big-Data-Die-Digitalisierung-hoehlt-unsere-Demokratie-aus.html

Mittwoch, 16. Januar 2019

BigData als Manipulationsmittel für freie Bildung

Die Schattenseiten von BigData: BigData kann zur Optimierung von Lern- und Bildungsprogrammen beitragen, diese aber auch für Manipulationen nutzen.

Suchbegriffe:
  • 1989 Tiananmen Square protests
  • Tiananmen Square
  • 六四事件

Kopiert diese Suchbegriffe und fügt sie jeweils in führende Suchmaschinen ein. Nutzt dazu Google und Baidu (www.baidu.com). Wechselt anschließend in der Baidu-Suchmaschine im Reiter unterhalb des Eingabefeldes von 网页 (Webseiten) zu 图片 (Bilder, 4. Reiter von rechts).

Atolla

Atolla ist ein Start-Up-Unternehmen, welches mit Hilfe von Tests feststellt, welche Pflegeprodukte die Haut benötigt. Die Tests werden monatlich zu Hause durchgeführt, und innerhalb von 10 Minuten werden Öl- und Feuchtigkeitsgehalt, Unreinheiten und ph-Wert gemessen. Anschließend zeigt die App an, welche Pflegeprodukte die richtigen sind und erstellt Prognosen für die nächste Zeit. So wird beispielsweise trockener Haut im Winter vorgebeugt. Außerdem kann man seit diesem Jahr mit der App Produkte einscannen und erfährt direkt, ob dieses für die eigene Haut geeignet sind.
Die Tests kosten 80$ für drei Monate, sind zur Zeit allerdings nur in den USA erhältlich.

AlphaGo Zero

Das Spiel Go ist ein asiatisches Brettspiel für 2 Personen. Das Spielbrett hat 19 x 19 Linien, und es geht darum, durch das Setzen der Steine auf den Schnittpunkten der Linien bestimmte Bereiche abzugrenzen. Verglichen mit Schach, welches die KI schon deutlich besser beherrschen, gibt es bei GO insgesamt sehr viel mehr Möglichkeiten, die Steine zu setzen, und auch die Anzahl der Züge bei einem Spiel übersteigen die eines Schachspiels deutlich.

2016 wurde dann bekannt, dass die KI AlphaGo erstmals einen Profispieler besiegt hatte. AlphaGo stammt von der Entwicklerfima deepmind, einer Tochterfirma von Google. Übertroffen wurde AlphaGo dann von AlphaGo Zero, eine KI, die AlphaGo in 100 Spielen 100 mal besiegte.

AlphaGo wurde mithilfe von vergangenen Spielen auf Profiebene trainiert. Dabei wurden über Monate hinweg die Daten aus diesen Spielen verwendet und in das System eingespeist. AlphaGo Zero hingegen kommt ohne diese Daten aus vergangenen Spielen aus. Das System kannte die Spielregeln und wurde mit einem Belohnungssystem dazu gebracht zu gewinnen. Es wurden keinerlei Strategien vorgegeben, und das System erlangte das Wissen über diese nur durch das Spielen gegen sich selbst. Verglichen mit AlphaGo war auch die Zeitspanne, bis das System fähig war, alle möglichen Gegenspieler zu schlagen, deutlich kürzer: Nach gerade einmal 3 Tagen schlug es AlphaGo.

Mittlerweile ist sogar ein weiteres System entwickelt worden, das neben Go auch noch Schach und Shogi (japanisches Schachspiel) beherrscht und innerhalb von wenigen Stunden zumindest mit den bisherigen KIs in diesem Gebiet mithalten oder diese sogar besiegen kann. Wer sich hierzu weiter informieren möchte, findet hier eine erste Auswahl an Artikeln, die ein paar grundlegende Informationen enthalten: 

Dienstag, 15. Januar 2019

Der Cleverbot - Die Zukunft von machine learning oder nur eine Spielerei?

Cleverbot (www.cleverbot.com) ist ein webbasierter Chatbot, der durch Kommunikation mit Menschen erlernt, menschliche Unterhaltungen nachzuahmen. Das Programm wurde vom britischen Informatiker Rollo Carpenter entwickelt. Nach seiner Erfindung im Jahr 1988 hielt Cleverbot im ersten Jahrzehnt tausende Unterhaltungen mit Carpenter und seinen Kollegen. Seit der Veröffentlichung im Web am 30. November 1997 wurden mehr als 65 Millionen Unterhaltungen mit Cleverbot geführt.

In der Theorie verfügt der Cleverbot über einen gigantischen Pool an Gesprächen, auf die er zurückgreifen kann. Und er soll auch selbständig dazu lernen können (Stichwort: Big Data und machine learning). Auf der Seite wird man auch ausdrücklich darum gebeten, den Cleverbot nur mit anständigen Phrasen und Antworten zu füttern, damit die Unterhaltungen mit ihm nicht plötzlich eine seltsame Richtung einschlagen. Doch wir wissen wohl alle, dass es im Internet genug Leute gibt, die davon recht wenig halten...