[Home]
Hans Gert Graebe / Seminar Wissen /
2018-05-03


Home
Neues
TestSeite
DorfTratsch

Suchen
Teilnehmer
Projekte

GartenPlan
DorfWiki
Bildung+Begegnung
DorfErneuerung
Dörfer
NeueArbeit
VideoBridge
VillageInnovationTalk


AlleOrdner
AlleSeiten
Hilfe

Einstellungen

SeiteÄndern







Big Data Praxen

Termin: 03. Mai 2017, 15.15 Uhr

Ort: Seminargebäude, SG 3-13

Thema 1: Johannes Selz: Social Scoring

Thema 2: René Dralle: Entscheidungsunterstützung durch KI Systeme
Ankündigung

Thema 1: Social Scoring

"Networks are changing how information is transmitted, knowledge is redistributed, and expertise shared; it’s rearranging the power structure, giving everyone a voice and the ability to influence" ( IBM Informationsbroschüre, 2015)

Dies ist einer der Produktslogans der Enterprise Social Network Software IBM Connections Cloud des IT- und Beratungsunternehmens IBM. Bestandteil der Software ist das Programm Social Engagement Dashboard, welches für Mitarbeiter des Konzerns individuelle Scores berechnet und dadurch das Engagement und die Zusammenarbeit fördern soll.

Als Einstieg des Vortrags werde ich zuerst einen kurzen Überblick darüber geben, was es mit dem Begriff Social Scoring auf sich hat. Diesbezüglich werde ich auch kurz darauf eingehen, wo, wie und wofür es eingesetzt wird. Anschließend stelle ich das Social Dashboard bei IBM Connections Cloud vor und erläutere dessen Funktionsweise und Aufbau. Wir werden uns damit auseinandersetzen, inwieweit der Ansatz "Privacy by Design" ernst genommen werden kann, und abschließend mit der Aufzählung möglicher Vorteile und Risiken der Software die Möglichkeit zur weiteren Diskussion eröffnen.

Johannes Selz, 25.4.2018

Thema 2: Entscheidungsunterstützung durch KI Systeme

Künstliche Naturbilder begeistern die Menschen bereits seit Jahrhunderten. Golems in den jüdischen Sagen, Automatone aus der griechischen, künstliche Tiere wie der goldene Eber aus der nordischen Mythologie. Heute herrscht ein Begriff in unserem Streben vor, die Natur künstlich abzubilden in Wissenschaft und Gesellschaft – die Künstliche Intelligenz (KI). Ihren Durchbruch im Bereich der Wissenschaft erhielt das Thema Künstliche Intelligenz in den 1950er Jahren durch Alan Turing, der mit seinem Beitrag im „Mind“ 1950 einen Maßstab und Test vorschlug, um das Vorhandensein künstlicher Intelligenz nach damaliger Definition zu belegen.

Nun, im 21. Jahrhundert, hat sich die Definition von KI maßgeblich weiterentwickelt und fungiert nur noch als Oberbegriff für eine Vielzahl unterschiedlicher Ansätze und Forschungsfelder innerhalb der Informatik, aber auch interdisziplinärer Themengebiete wie Biologie, Neurologie, Soziologie usw. Mit der ausgerufenen Digitalisierung und „Industrie 4.0“ (2011) wurde der Begriff der KI so wichtig, dass sogar die Bundesregierung dieses Thema in ihrem Koalitionsvertrag 2018 aufgriff. Insbesondere wollen wir Deutschland zu einem "weltweit führenden Standort bei der Erforschung von künstlicher Intelligenz" machen (Koalitionsvertrag der CDU 2018, Absatz 1492f).

KI Systeme haben schon längst Einzug in unseren Alltag gehalten. Von Navigationsgeräten über Sprachassistenten bis hin zu Smart Home Solutions, finden wir immer mehr KI Ansätze um uns herum. Die Analysefirma Gartner (USA) prognostiziert, dass der Umsatz im Bereich der Künstlichen Intelligenz 2018 global bei etwa 1,2 Billionen US-Dollar liegen wird.

Doch so bequem unser Leben teilweise durch den technologischen Fortschritt auf diesem Gebiet geworden sein mag, stehen wir immer wieder vor einem entscheidenden Problem. Wie viel Kontrolle sind wir bereit, an die Maschine abzugeben? Angefangen beim täglichen Weg zur Arbeit, der uns durch schnelle Analyse der Verkehrsdaten optimiert vorgeschlagen wird, haben sich inzwischen auch ganz andere Systeme wie das seit 2013 in Florida als entscheidungsunterstützendes System genutzte Compass Projekt etabliert, welches anhand zuvor eingegebener Daten Empfehlungen zum Strafmaß lieferte. Neben der Kernfrage, wie verlässlich die Daten sind, auf denen diese Empfehlung beruht, wirft es außerdem das Problem auf, ob dieser Entscheidungs-Findungs-Prozess transparent genug ist, um ihn tatsächlich nachzuvollziehen.

Ziel meines Vortrages ist es, anhand einiger Gedankenspiele und Alltagsbeispiele Probleme der Verantwortungsüberweisung an KI Systeme zu besprechen und eine interdisziplinäre Diskussion anzuregen.

René Dralle, 01.05.2018

Anmerkungen

Im ersten Vortrag standen Fragen des "Social Scoring" im Mittelpunkt, wo personenbezogene Daten, die im digitalen Universum umfassend anfallen, zur Steuerung und Bewertung sozialen Verhaltens herangezogen werden. Am Beispiel der IBM Connections Cloud wurde zunächst deutlich, dass ein solcher Problemzugang selbst problematisch ist, da die große Mehrzahl der Daten relationale Daten über die Zusammenarbeit von Menschen sind. Diese Daten können nicht nur von einer externen bewertenden Autorität im Sinne des Assessments verwendet werden, sondern auch von den handelnden Akteuren selbst, um die eigene Rolle und Stellung im sozialen Netz besser zu verstehen und praktisch zu verbessern. Mehr noch ist die externe Auswertung nicht auf das Assessment von Personen beschränkt, sondern kann auch auf Prozesse und Strukturen gerichtet werden. Mit entsprechenden Richtlinien einer Firmenpolitik, etwa durch angemessene Anonymisierung, kann das Risiko der missbräuchlichen Verwendung von Daten eingeschränkt werden. Eine solche Firmenpolitik ist ihrerseits Gegenstand politisch-demokratischer Aushandlungs- und Überwachungsprozesse und so selbst in die Gestaltung von Gesellschaft eingebunden.

Als übergreifendes Gestaltungsprinzip verwies Herr Selz auf "Privacy by Design" mit folgenden drei Aspekten:

  1. Privacy und persönliche Autonomie (als Grundwerte)
  2. Einfachheit und einfache Nutzbarkeit (als Eintrittsbarriere)
  3. Unterstützung persönlicher Ermächtigung – personal empowerment (als Zielrichtung).
Der Begriff des "Social Scoring" ist unmittelbar verbunden mit Ansätzen der Taylorisierung der Produktion in den 1970er Jahren, greift aber in dem neuen Kontext zu kurz, auch wenn die Gefahren der Überwachung und Arbeitsverdichtung in der Diskussion deutlich angesprochen wurden. Die Möglichkeiten der neuen "sozialen Technologien" sind jedoch vielfältiger und die Wirkungen ambivalenter. Auch wird über diese Möglichkeiten nicht erst mit dem "Social Scoring" gesprochen, und "Scoring" steht möglicherweise nicht einmal im Zentrum der entsprechenden Aktivitäten von IBM. Warum betreibt IBM derartige Versuche und Untersuchungen neuer technologischer Dimensionen der Gestaltung synergetischer Prozesse der innerbetrieblichen Arbeitsorganisation? Sicher auch dafür, diese neuen Technologien unternehmerischer Organisationsgestaltung als kompetenter Partner der Unternehmensberatung gesellschaftsmächtig auszurollen. Wir sind damit Zeuge der Wandlung kapitalistischer Gesellschaftsstrukturen durch die Unternehmerklasse selbst und bewegen uns dabei zugleich im Fahrwasser gesellschaftlicher Diskussionsprozesse um Selbstermächtigung, Selbstentfaltung und Selbstausbeutung, welche die Open Source Szene mit deren stärkerer Ökonomisierung seit Ende der 1990er Jahre bewegt. Es geht letztlich um das mit jeder technologischen Entwicklung von Neuem erforderliche Austarieren zwischen Empowerment und Ordnungsstrukturen im Rahmen der bürgerlichen Rechtsordnung.

Im zweiten Vortrag ging es um Entscheidungsunterstützung durch KI-Systeme. Bereits eingangs thematisierte Herr Dralle ein grundlegendes begriffliches Problem: es gebe keine allgemeingültige Definition von Intelligenz, womit auch der Begriff künstliche Intelligenz samt seiner über 50-jährigen Rezeptionsgeschichte in der Luft hänge. Dralles Versuch, den Begriff als "Fähigkeit, bestimmte Funktionen des menschlichen Gehirns zu simulieren" zu fassen, erwies sich in der Diskussion aber ebenfalls als wenig tragfähig, denn IBM Watson, der Google Knowledge Graph, Amazons Alexa, Microsofts Cortona usw. begründen sich fundamental im kooperativen und kollektiven Sachverstand einer vernetzten Menschheit und nicht in den Fähigkeiten von Einzelindividuen. In der Diskussion wurde weiter deutlich, dass die Fokussierung auf das maschinelle Prozessieren von Daten, die Hypertrophierung des Algorithmen- gegenüber dem Datenbegriff und generell ein von der Architektur des von Neumann Rechners geprägtes Bild von Informatik auf dem Prüfstand stehen.

So blieben als Anknüpfungspunkte für die Diskussion vor allem eine genauere Referenz von praktischen Anwendungsbeispielen wie Robot Process Automation, Cognitive Computing, Recommender Systems, Machine Learning, Information Retrieval, Data Mining, Personal Pricing und Predictive Policing, für die mit dem Begriff "künstliche Intelligenz" eine gemeinsame Klammer gesucht wird. Klaus Mainzer bietet in (Mainzer 2016) eine solche Klammer in der Arbeitsdefinition

Ein System heißt intelligent, wenn es selbstständig und effizient Probleme lösen kann. Der Grad der Intelligenz hängt vom Grad der Selbstständigkeit, dem Grad der Komplexität des Problems und dem Grad der Effizienz des Problemlöseverfahrens ab.

Eine solche Definition ließe sich gut in den Kontext eines Kurses "Kreativität und Technik" einordnen, aber darum ging es Herrn Dralle eigentlich nicht, wenn er diese neuen technologischen Möglichkeiten auf die Frage hin abklopft, was sie für Entscheidungsunterstützungssysteme zu leisten vermögen. Derartige Unterstützungssysteme reichen von persönlichen digitalen Assistenten ("Alexa, sag mir bitte ...") und Social Bots, die Menschen als Subjekte adressieren, bis hin zu komplexen Unterstützungssystemen, die Menschen als Objekte behandeln, etwa, wenn zu wählen und zu entscheiden ist, wer von dem selbstfahrenden Auto überfahren werden soll (dass diese Frage angesichts militärischer Einsatzszenarien für "künstliche Intelligenz" nur ein ganz kleines Spielzeugbeispiel ist, sei in Parenthese bemerkt). Damit nimmt Herr Dralle aber die alte Frage auf, in welchem Maße überhaupt Urteilen auf schieres Berechnen zurückgeführt werden kann. Eine solche Frage – "Computer Power and Human Reason" – hat Weizenbaum in (Weizenbaum 1976) schon vor über 40 Jahren aufgeworfen und damit bereits damals Phantasien über die Wirkmöglichkeiten "künstlicher Intelligenz" grundlegend problematisiert.

Die dazu in der Diskussion aufgeworfenen Fragestellungen – Black Box Problematik, fehlende Sachkunde der Anwender, Fragen des Verhältnisses von ethischer Verantwortung und "kalter logischer Kalküle" – sind allerdings keine Alleinstellungsmerkmale des Einsatzes komplexer technischer Artefakte, sondern prägen die Auseinandersetzungen um die politisch-rechtliche Ausgestaltung der bürgerlichen Gesellschaft als Ganzes seit Jahrzehnten. Zeitkritisches Handeln unter unvollständigen Informationen und die Sicherung angemessener Entscheidungsgrundlagen ist ein Frage, die sich weniger an den individuellen Sachverstand richtet als vielmehr an die Schaffung institutioneller Voraussetzungen, um den kollektiven Sachverstand der Menschheit in konkreten Entscheidungssituationen technisch angemessen zum Einsatz zu bringen. Eine zentrale Frage einer solchen Entscheidungsunterstützung ist der angemessene Umgang mit dabei auftretenden Widersprüchen, die stets die Gefahr in sich tragen, in das technische System selbst hinein projiziert zu werden. Die von uns selbst geschaffene Technik tritt uns dann in entfremdeter Form gegenüber. Dieser Aspekt der Entfremdungsproblematik ist leider noch wenig untersucht.

Literatur:

  • Klaus Mainzer: Künstliche Intelligenz – Wann übernehmen die Maschinen? Springer Berlin Heidelberg, 2016.
  • Joseph Weizenbaum: Macht der Computer und Ohnmacht der Vernunft. Suhrkamp, Frankfurt am Main 1977.
Hans-Gert Gräbe, 14.05.2018


OrdnerVeranstaltungen