[Home]
Hans Gert Graebe / Seminar Wissen /
2017-05-23


Home
Neues
TestSeite
DorfTratsch

Suchen
Teilnehmer
Projekte

GartenPlan
DorfWiki
Bildung+Begegnung
DorfErneuerung
Dörfer
NeueArbeit
VideoBridge
VillageInnovationTalk


AlleOrdner
AlleSeiten
Hilfe

Einstellungen

SeiteÄndern







Prognostik und Big Data

Termin: 23. Mai 2017, 15.15 Uhr

Ort: Seminargebäude, SG 3-10

Prognostik und maschinelles Lernen. Vortrag und Diskussion mit Tobias Zschietzschmann und Eric Füg.

  • Folien zum Vortrag
  • Seminararbeit "Von Chatbots zu digitalen Assistenten" von Eric Füg
  • Seminararbeit "Maschinelles Lernen als Software-Ökosystem im Spannungsfeld zwischen Entwickler und Anwender" von Tobias Zschietzschmann
Ankündigung

Was sind Prognosen und was hat Data Mining und Big Data damit zu tun? Wie lernen denn nun Maschinen? Was steckt dahinter und welche Anwendungen und Anwendungsgebiete gibt es bereits? Wie kann es sein, dass die Freundesvorschläge von Facebook so genau sind? Unter anderem wollen wir in unserem Vortrag auf diese Fragen eingehen und einen kleinen Einblick zum aktuellen Geschehen in diesem Bereich bieten.

Wir erläutern kurz, wie aus einem riesigen Meer von Daten Prognosen entstehen, wofür diese Prognosen verwendbar sind und wieso Maschinelles Lernen in diesem Bereich relevant sein kann. Danach geben wir kurz verschiedene Sichtweisen auf Begriffe wie Lernen und Maschinelles Lernen an und versuchen, die oft synonyme Verwendung der Begriffe Maschinelles Lernen und Künstliche Intelligenz etwas transparenter zu machen. Darauf folgt ein kurzer Überblick über die Geschichte des Maschinellen Lernens. Wir gehen auf neuronale Netze ein, klären über lernende Agenten auf, stellen Unterschiede von überwachtem und unüberwachtem Lernen heraus und erläutern die Funktionsweise von Deep Learning genauer.

Wir beenden den Vortrag schließlich mit Aussagen und Meinungen verschiedener Persönlichkeiten zum Thema und geben dabei einen Überblick über Streitpunkte und aktuelle Entwicklungen des Forschungsbereichs.

Tobias Zschietzschmann und Eric Füg, 16.05.2017

Anmerkungen

Maschinelles Lernen ist der Kern der meisten BigData-Technologien, wenn es darum geht, Muster in unstrukturierten oder semistrukturierten Daten zu erkennen. Im einfachsten Fall werden dabei Parameter eines gegebenen Modells so bestimmt, dass dieses optimal auf die gegebenen Daten passt. Damit werden die Eingangsdaten unter einer speziellen Sicht im Zusammenspiel betrachtet und um entsprechende relationale Informationen ergänzt. Hier bestehen Ähnlichkeiten zu agilen Ansätzen in der RDF-Modellierung, in denen die Konsolidierung von Prädikaten eine besondere Rolle spielt. Maschinelles Lernen greift auf Methoden der Optimierung und Stochastik zurück, womit in diesem Bereich Mathematik und Informatik besonders eng zusammenspielen.

Für Ansätze des Deep Learning werden heute neuronale Netze mit mehreren Schichten verwendet. In der aktuellen Schicht berechnete Relationen dienen dabei als Ausgangsdaten für die nächste Schicht, womit sich auch Beziehungen auf Relationen und noch komplexere Abstraktionen modellieren lassen. Auch hier bestehen Ähnlichkeiten zu Abstraktionsprozessen in anderen Schichtenmodellen wie etwa dem in der Vorlesung besprochenen OSI-7-Schichtenmodell. Technische Details dieser spannenden Entwicklungen können im Kontext unseres Seminars nur ansatzweise thematisiert werden und sollen im Weiteren hier außer Betracht bleiben. Allein festzuhalten ist, dass sich die Technologien des maschinellen Lernens in den letzten Jahren stürmisch weiterentwickelt haben und für viele verschiedene Aufgaben eingesetzt werden.

Als wichtige Anwender dieser Technologien auf große Datenbestände sind vor allem Google, Facebook und Amazon zu nennen, auch wenn sich deren Praxiskontexte deutlich unterscheiden. Als Gemeinsamkeit lässt sich zunächst festhalten, dass dabei Kreativität bei der Entwicklung und Weiterentwicklung dieser Technologien nicht als Einzelphänomen auftritt, sondern als kooperatives Phänomen der inter- und infradisziplinären Zusammenarbeit und viele Entwicklungen nicht mehr auf einzelne Firmen oder gar einzelne "Erfinder" herunter gebrochen werden können, auch wenn es in diesem Bereich eine ganze Reihe von Patentanmeldungen gibt. Darauf soll hier nicht näher eingegangen werden.

Google gewinnt seine Datenbasis durch aktives Crawling im Internet und untersucht dabei die Verlinkungsstrukturen ( PageRank-Verfahren). Facebook gewinnt seine Datenbasis aus den sozialen Aktionen und Interaktionen seiner Nutzer innerhalb vorgegebener Strukturen (Freunde, Likes, Posts) und Amazon aus den Kauf- und Bewertungsstrukturen (Rezensionen, Transaktionsbewertungen) seiner Plattform, die sich eng an den Erfordernissen des Kaufens und Verkaufens als einer wichtigen spezifischen Praxis einer bürgerlichen Gesellschaft orientiert.

In den letzten beiden Beispielen ist klar zu sehen, dass die Betreiber der jeweiligen Plattform nicht ohne das eigenständige Erstellen von Benutzerprofilen auskommen, wenn sie die Nutzer "verstehen" wollen, um ihnen angemessene und praxistaugliche Vorschläge unterbreiten zu können. Maschinelles Lernen wird hier eingesetzt, um interne Bilder der mit der Plattform interagierenden Subjekte zu erstellen und fortzuschreiben. Die "Maschine" agiert dabei (anscheinend) ähnlich wie Menschen in vergleichbaren Situationen. Mit dem Begriff "maschinelles Lernen" wird diese Projektion anthropozentrischer Erfahrungen auf Computerprozesse noch verstärkt. Dabei unterscheidet sich maschinelles Lernen in den genannten Beispielen (Facebook und Amazon) in zwei Dimensionen wesentlich vom menschlichen Lernen, letzteres wenigstens in einem kreativen Verständnis:

  1. Es wird zielgerichtet gelernt – Lernziele und Lernmethodiken sind durch die Konstruktion der verwendeten neuronalen Netze weitgehend vorgegeben.
  2. Die Lernmethoden sind von einem "äußeren Standpunkt" her entwickelt, von dem aus die Interaktion der (internen) Lernsubjekte immer schon mit konzipiert werden kann.
Gerade der zweite Punkt, der in menschlichen Lernsituationen ein hohes Maß an Selbstreflexivität oder eine Steuerung durch Lehrende oder Supervision erfordert, kommt hier faktisch zum Nulltarif und führt zu oft verblüffenden Ergebnissen. Dieser externe Standpunkt der Beobachtung von Interaktionen verleiht den Ergebnissen zugleich eine Aura von Objektivität, die ihre tiefen Wurzeln in einem rationalen naturwissenschaftlichen Denken in Kategorien objektiver Ursache-Wirkungs-Zusammenhänge hat. Da diese Plattformen inzwischen kein Wunschdenken mehr sind, sondern Realität, wird eine solche gesellschaftlich geteilte Aura von Objektivität zur Bedingtheit von Handeln und damit zu einem Teil der Wirklichkeit. Wir reflektieren die Empfehlungen, folgen ihnen (gelegentlich) und schreiben ihnen auch eine gewissen Autorität zu.

Google verfolgt mit seinen Suchalgorithmen zwar scheinbar einen weniger individualisierten Zugang, ist aber ebenfalls am Ausbau personalisierter Suchverfahren interessiert. Mit Google-Accounts, die für eine Vielzahl von Google-Diensten (Gmail, Google Docs, Google Playstore usw.) erforderlich sind, existiert dafür eine mit Facebook oder Amazon vergleichbare Infrastruktur. Darüber hinaus hat Google eine Reihe von Technologien entwickelt, um mit maschinellem Lernen Informationen aus dem "anonymen" Internet herauszufiltern und digitalen Subjekten zuzuordnen. Besonders beeindruckend sind hierbei die Ergebnisse der Personenerkennung auf Bildern, die allerdings in Deutschland nur über Umwege freigeschaltet werden kann. Mit dem Microdata-Mechanismus und der unter Schema.org öffentlich verfügbaren Taxonomie können Webseiten aktiv für eine bessere semantische Suche durch Google aufbereitet werden. Maschinelles Lernen spielt auch eine zentrale Rolle bei Google Translate und den Spracherkennungssystemen, die von mehreren großen Firmen (Apple, Google, Amazon, IBM, Microsoft) gerade entwickelt werden. Data Mining auf dieser Basis wird auch zunehmend firmenintern für Business Intelligence Prozesse eingesetzt.

Interessant sind diese Techniken schließlich auch für die "dezentrale Intelligenz" von Agentennetzen mit cyberphysikalischen Komponenten und hohem Autonomiegrad als Basis von Industrie 4.0. In solchen Systemen werden über Sensoren und aus anderen Quellen heterogene Daten gewonnen, mit den genannten Technologien zu einem internen situativen Bild verdichtet und damit ein interner Zustand bestimmt, auf dessen Basis der jeweilige Agent seine Aktionen und Reaktionen ausführt. Die Fortschritte auf diesem Gebiet sind so bemerkenswert, dass sich führende KI-Wissenschaftler zusammengetan haben, um vor den Konsequenzen des Einsatzes solcher Technologien für militärische Zwecke zu warnen und vorschlagen ein entsprechendes Moratorium zu vereinbaren, wie dies bereits für ABC-Waffen gilt.

Damit wird die von uns geschaffene und uns umgebende technische Infrastruktur um eine Komponente erweitert, mit der die im digitalen Universum zusammengetragenen Informationen über unser Handeln und dessen Folgen auf einer überindividuellen Ebene analysiert, ausgewertet und über algorithmisch getriggerte Aktoren auf reales Handeln zurück gespiegelt werden können.

Im Vortrag wurde Li Yanhong, Vorsitzender von Baidu, zitiert:

„Das Internet ist nur eine Vorspeise, das Hauptgericht wird KI sein. In Zukunft werden Maschinen sich zu einem Punkt entwickeln, wo sie Menschen und ihre Absichten verstehen können.“

Diese "künstliche Intelligenz" ist ein Reflex der menschlichen Intelligenz, allerdings nicht verstanden als Intelligenz von Individualsubjekten, sondern als vernetzte Intelligenz der gesamten Menschheit samt der von ihr geschaffenen sozialen, institutionellen und technischen Infrastrukturen. In diesem Sinne ermöglicht "künstliche Intelligenz" im hier als "maschinelles Lernen" genauer spezifizierten Verständnis, die reale Vernetzung der Intelligenz der gesamten Menschheit voranzubringen und damit auch die Fähigkeit zu gemeinschaftlicher Reflexion der Folgen unseres Handelns.

Diese vernetzte Intelligenz tritt vereinzelten Individuen im technischen Gewand als schier übermächtiger, auf "objektiver Basis" handelnder Akteur in zunehmend entfremdeter Form gegenüber. Es ist also an der Zeit, diese Vereinzelung als Grundlage eines "teile und herrsche" in neuen kooperativen Strukturen aktiv zu überwinden. In welchem Umfang eine neoliberal geprägte Politik oder gar ein "America first" einen fruchtbaren Resonanzboden für solche Entwicklungen bietet wird die Zukunft zeigen.

Hans-Gert Gräbe, 28.5.2017


OrdnerVeranstaltungen