![]() |
![]() |
![]() |
![]() |
Hans Gert Graebe / Seminar Wissen / 2017-05-23 |
||||||
Home Neues TestSeite DorfTratsch Suchen Teilnehmer Projekte GartenPlan DorfWiki Bildung+Begegnung DorfErneuerung Dörfer NeueArbeit VideoBridge VillageInnovationTalk AlleOrdner AlleSeiten Hilfe Einstellungen SeiteÄndern |
![]() |
![]() |
![]() |
Termin: 23. Mai 2017, 15.15 Uhr Ort: Seminargebäude, SG 3-10 Prognostik und maschinelles Lernen. Vortrag und Diskussion mit Tobias Zschietzschmann und Eric Füg.
Was sind Prognosen und was hat Data Mining und Big Data damit zu tun? Wie lernen denn nun Maschinen? Was steckt dahinter und welche Anwendungen und Anwendungsgebiete gibt es bereits? Wie kann es sein, dass die Freundesvorschläge von Facebook so genau sind? Unter anderem wollen wir in unserem Vortrag auf diese Fragen eingehen und einen kleinen Einblick zum aktuellen Geschehen in diesem Bereich bieten. Wir erläutern kurz, wie aus einem riesigen Meer von Daten Prognosen entstehen, wofür diese Prognosen verwendbar sind und wieso Maschinelles Lernen in diesem Bereich relevant sein kann. Danach geben wir kurz verschiedene Sichtweisen auf Begriffe wie Lernen und Maschinelles Lernen an und versuchen, die oft synonyme Verwendung der Begriffe Maschinelles Lernen und Künstliche Intelligenz etwas transparenter zu machen. Darauf folgt ein kurzer Überblick über die Geschichte des Maschinellen Lernens. Wir gehen auf neuronale Netze ein, klären über lernende Agenten auf, stellen Unterschiede von überwachtem und unüberwachtem Lernen heraus und erläutern die Funktionsweise von Deep Learning genauer. Wir beenden den Vortrag schließlich mit Aussagen und Meinungen verschiedener Persönlichkeiten zum Thema und geben dabei einen Überblick über Streitpunkte und aktuelle Entwicklungen des Forschungsbereichs. Tobias Zschietzschmann und Eric Füg, 16.05.2017
Für Ansätze des
Als wichtige Anwender dieser Technologien auf große Datenbestände sind vor allem Google, Facebook und Amazon zu nennen, auch wenn sich deren Praxiskontexte deutlich unterscheiden. Als Gemeinsamkeit lässt sich zunächst festhalten, dass dabei Kreativität bei der Entwicklung und Weiterentwicklung dieser Technologien nicht als Einzelphänomen auftritt, sondern als kooperatives Phänomen der inter- und infradisziplinären Zusammenarbeit und viele Entwicklungen nicht mehr auf einzelne Firmen oder gar einzelne "Erfinder" herunter gebrochen werden können, auch wenn es in diesem Bereich eine ganze Reihe von
Google gewinnt seine Datenbasis durch In den letzten beiden Beispielen ist klar zu sehen, dass die Betreiber der jeweiligen Plattform nicht ohne das eigenständige Erstellen von Benutzerprofilen auskommen, wenn sie die Nutzer "verstehen" wollen, um ihnen angemessene und praxistaugliche Vorschläge unterbreiten zu können. Maschinelles Lernen wird hier eingesetzt, um interne Bilder der mit der Plattform interagierenden Subjekte zu erstellen und fortzuschreiben. Die "Maschine" agiert dabei (anscheinend) ähnlich wie Menschen in vergleichbaren Situationen. Mit dem Begriff "maschinelles Lernen" wird diese Projektion anthropozentrischer Erfahrungen auf Computerprozesse noch verstärkt. Dabei unterscheidet sich maschinelles Lernen in den genannten Beispielen (Facebook und Amazon) in zwei Dimensionen wesentlich vom menschlichen Lernen, letzteres wenigstens in einem kreativen Verständnis:
Google verfolgt mit seinen Suchalgorithmen zwar scheinbar einen weniger individualisierten Zugang, ist aber ebenfalls am Ausbau personalisierter Suchverfahren interessiert. Mit Google-Accounts, die für eine Vielzahl von Google-Diensten (Gmail, Google Docs, Google Playstore usw.) erforderlich sind, existiert dafür eine mit Facebook oder Amazon vergleichbare Infrastruktur. Darüber hinaus hat Google eine Reihe von Technologien entwickelt, um mit maschinellem Lernen Informationen aus dem "anonymen" Internet herauszufiltern und digitalen Subjekten zuzuordnen. Besonders beeindruckend sind hierbei die Ergebnisse der Personenerkennung auf Bildern, die allerdings in Deutschland
Interessant sind diese Techniken schließlich auch für die "dezentrale Intelligenz" von Agentennetzen mit cyberphysikalischen Komponenten und hohem Autonomiegrad als Basis von Industrie 4.0. In solchen Systemen werden über Sensoren und aus anderen Quellen heterogene Daten gewonnen, mit den genannten Technologien zu einem internen situativen Bild verdichtet und damit ein interner Zustand bestimmt, auf dessen Basis der jeweilige Agent seine Aktionen und Reaktionen ausführt. Die Fortschritte auf diesem Gebiet sind so bemerkenswert, dass sich führende KI-Wissenschaftler zusammengetan haben, um vor den Konsequenzen des Einsatzes solcher Technologien für militärische Zwecke zu warnen und vorschlagen ein entsprechendes Damit wird die von uns geschaffene und uns umgebende technische Infrastruktur um eine Komponente erweitert, mit der die im digitalen Universum zusammengetragenen Informationen über unser Handeln und dessen Folgen auf einer überindividuellen Ebene analysiert, ausgewertet und über algorithmisch getriggerte Aktoren auf reales Handeln zurück gespiegelt werden können.
Im Vortrag wurde Li Yanhong, Vorsitzender von Baidu,
Diese vernetzte Intelligenz tritt vereinzelten Individuen im technischen Gewand als schier übermächtiger, auf "objektiver Basis" handelnder Akteur in zunehmend entfremdeter Form gegenüber. Es ist also an der Zeit, diese Vereinzelung als Grundlage eines "teile und herrsche" in neuen kooperativen Strukturen aktiv zu überwinden. In welchem Umfang eine neoliberal geprägte Politik oder gar ein "America first" einen fruchtbaren Resonanzboden für solche Entwicklungen bietet wird die Zukunft zeigen. Hans-Gert Gräbe, 28.5.2017
OrdnerVeranstaltungen ![]()
| ||||||
![]() |
![]() |
![]() |