Montag, 21. September 2020

Tablet statt Tafel – Lernen am Tablet in allen Klassenstufen

Smartphones, Tablets, Laptops und andere digitale Geräte verändern die Art und Weise, wie wir mit anderen umgehen und kommunizieren. Sie prägen, wie wir miteinander kooperieren, wie wir uns informieren und wie wir an der Gesellschaft teilhaben. Mittlerweile spricht man sogar schon von „digitalen Gesellschaften“. Eine Welt ohne digitale Medien ist für uns kaum mehr vorstellbar.

Auch das Bildungssystem ist davon nicht ausgenommen. Es ist wichtig, mit der Zeit zu gehen, die Veränderungen anzunehmen und die Schüler auf das berufliche Leben vorzubereiten. Kinder, die im digitalen Zeitalter geboren worden sind, verfügen nicht automatisch über Kompetenzen, die für die digitale Welt notwendig sind. Das Bildungssystem versucht, mit digitaler Bildung darauf zu reagieren. Dafür müssen Chancen der digitalen Bildung genutzt und ausgeweitet und auf Risiken und Gefahrenzonen aufmerksam gemacht werden. Eine medienpädagogische Begleitung von SuS ist notwendig.

Im ersten Teil dieses Beitrags gebe ich einen Überblick über die digitale Schule im Allgemeinen. Dabei beziehe ich mich auf das Medium des Tablets. Hierbei sollen dann Vorteile und in einem nächsten Teil Nachteile des Lernens mit Tablets aufgezeigt werden. Im darauffolgenden Schritt geht es dann um staatliche oder auch private Förderung von digitalen Medien in der Schule. Bevor ich am Ende ein pädagogisches Konzept und eine Beispielschule vorstelle, möchte ich noch einen Blick auf andere europäische Länder und deren Haltung zur digitalen Schule werfen.

Donnerstag, 10. September 2020

TED Talk: Komponieren mit künstlicher Intelligenz



Ich bin durch Zufall auf diesen spannenden TED Talk über „AIVA“ gestoßen. Bei „AIVA“ (Artificial Intelligence Virtual Artist) handelt es sich um eine KI, welche durch die Analyse von 30.000 Partituren von einigen der größten Komponisten der Musikgeschichte dazu fähig ist, Musik zu komponieren.

AIVA basiert auf „deep learning“. So lernte die KI durch die Partituren die Musiktheorie und Muster der Partituren zu erkennen und entwickelte ein Gespür, um nach ein paar Takten einer Partitur die nächsten Noten vorraussagen oder weiterentwickeln zu können.

Um sicherzustellen, dass die KI für das richtige Projekt und die richtige Person die geeignete Musik erschafft, wurde sie von Algorithmen trainiert, jede Partitur emotional einzigartig zu machen. Dabei wurden 30 verschiedene Kategorien zu der Datenbank hinzugefügt, welche die Dichte der Noten, die Stimmung, die Besetzung und den Komponistenstil beinhalten.

Im Mai 2016 wurde AIVA als erste virtuelle Künstlerin bei einer Urheberrechtsgesellschaft registriert. Anwendungsbeispiele:
  • Vor allem bei Videospielen ermöglicht AIVA große Fortschritte. Oftmals dauert die Story bis zu 100 Stunden an. Wo bei bisherigen Videospielen die Musik nach 2 Stunden wieder von vorne begann, kann AIVA hunderte Stunden lang individuell angepasste Musik komponieren. (kurzes Beispiel: https://soundcloud.com/user-95265362/among-the-stars-op-31) Mittlerweile hat AIVA aber auch außerhalb von Videospielen komponiert.
  • Im Jahre 2017 schrieb AIVA ein Eröffnungsstück zum Nationalfeiertag in Luxemburg, welches dann auch uraufgeführt wurde: https://www.youtube.com/watch?v=H6Z2n7BhMPY 
  • Im Jahre 2018 hat AIVA mit der Popsängerin Taryn Southern die Single „Lovesick“ herausgebracht: https://www.youtube.com/watch?v=gQSPjAYTlx8 
  • Weitere Beispiele, wie die „Ode to Dubai“ oder Keynotes für Nvidia, findet ihr auf der Homepage: https://www.aiva.ai/creations 
Zum Weiterlesen: https://www.pcwelt.de/a/aiva-die-kuenstliche-intelligenz-komponiert-die-musik-der-zukunft,3450745

TED Talk: Art in the age of machine intelligence



Refik Anadol ist ein Medienkünstler, welcher Kunstwerke mithilfe von einem Denkpinsel und Daten als Pigmente erschafft. Unterstützt wird er durch künstliche Intelligenz. Dabei benutzt er architektonische Räume und Maschinen als Leinwände, um diese zum "Träumen" und "Halluzinieren" zu bringen.

Inspiriert wurde er im Kindesalter durch den Film „Blade Runner“. Wo er zum einen durch die, für ihn atemberaubende Zukunftsvision von Los Angelos, als auch durch die Filmszene, wo der Android Rachael erkennt, dass ihre Erinnerungen nicht ihre sind, sondern einem anderen gehörte, zu dieser Vision kam.

Im Jahre 2014 gründete Refik Anadol ein Studio, wo er Architekten, Computer- und Datenwissenschaftler, Neurowissenschaftler, Musiker und Geschichtenerzähler einlud, um seine Vision zu verwirklichen.

Projekt: „Virtual Despictions“:
Sein erstes Projekt war „Virtual Despictions“ eine öffentliche Datenskulptur in San Francisco. Diese soll eine ästhetische Erfahrung in einem lebendigen städtischen Raum darstellt, in dem sie ein fließendes Netzwerk von Verbindungen der Stadt visualisiert.

Projekt: „Wind-Data-Painting“:
Ein weiteres Projekt waren Winddatengemälde, bei dem eine Verknüpfung von menschlichen Sinnen und die Fähigkeit von Maschinen bei Natursimulationen. Dabei nahmen diese die Form visualisierter Gedichte auf, welche auf versteckte Datensätze von Windsensoren basierten. Zusätzlich wurden die Windgeschwindigkeiten, Böen und Richtungen in einem ätherischen Datenpigment umgewandelt.

Projekt: „Archive Dreaming“:
Im Jahre 2017 entdeckte Refik Anadol eine Open-Source-Bibliothek mit Kulturdokumenten durch welche sie ein sogenannte „Archive Dreaming“ entwickelten. Inspiriert durch die Kurzgeschichte "The Library of Babel" des argentinischen Schriftstellers Jorge Luis Borges.
Bei „Archive Dreaming“ handelt es sich um einen benutzergesteuerten immersiven Raum, bei welchem man riesigen Wissensarchive physisch erkunden kann. Entstanden ist dies durch eine KI, welche 1,7 Millionen Dokumente aus 270 Jahren untersuchte.

Projekt: „Machine Hallucination“:
Bei „Machine Hallucination“ handelt es sich um ein Projekt zur Erkundung von Zeit und Raum. Dabei wurden 100 Millionen Fotografieren der Stadt New York verarbeitet, wodurch es durch die KI möglich ist neue Bilder vorauszusagen, sowie Vergangenheit und Zukunft miteinander für den Betrachter verschmelzen zu lassen.

Projekt: „Melting Memories“:
Die Erinnerungen eines Menschen sind keine statische Erinnerung, sondern eine dauerhaft ändernde Interpretation der erlebten Ereignisse. So war die Idee, dass eine KI die unbewussten und unterbewussten Träume und Erinnerungen visualisieren soll. So konnte mithilfe von KI und dem „Neuroscape Laboratory der University of California“, ein, durch EEG-Daten des Alzheimererkrankten Onkels von Refik Anadol, erzeugte Kunstwerk entstehen, welche die Materialität des Erinnerns darstellte.

Projekt: „Walt Disney Concert Hall Anniversary“:
Dieses Projekt kommt wohl am nächsten an die Anfangsfrage: „Kann ein Gebäude träumen?“
Bei dem Projekt des 100- jährigen Jubiläum der „Walt Disney Concert Hall“ wurden 77 Terabyte Speicher von Archiven der LA Phil und WDCH, welche 100 Jahre zurückgehen gesammelt und mithilfe einer KI und 42 Projektoren an die Fassade des Gebäudes visualisiert, so dass dieses Gebäude „träumen“ konnte.

Auch wenn schon spannende Projekte im Rahmen der Kunst im Zeitalter der KI entstanden sind, denke ich jedoch, dass wir mit dieser Art noch ganz am Anfang der Möglichkeiten stehen.