![]() |
![]() |
![]() |
![]() |
Hans Gert Graebe / Seminar Wissen / 2017-12-05 |
||||||
Home Neues TestSeite DorfTratsch Suchen Teilnehmer Projekte GartenPlan DorfWiki Bildung+Begegnung DorfErneuerung Dörfer NeueArbeit VideoBridge VillageInnovationTalk AlleOrdner AlleSeiten Hilfe Einstellungen SeiteÄndern |
![]() |
![]() |
![]() |
Termin: 5. Dezember 2017, 15.15 Uhr Ort: Seminargebäude, SG 3-10 Thema 1:
Britta Schrader: Virtuelle Gemeinschaften
Arne Brusis: Versprechen datengetriebener Prognostik
Thema 1:
Im Vortrag soll aufgezeigt werden, was sich hinter dem Begriff der Innovation verbirgt und wie sich dieser vom Begriff der Erfindung abgrenzen lässt. Daraufhin wird der Innovationsprozess dargestellt und weitere theoretische Grundlagen gelegt. Anschließend soll der Begriff virtuelle Gemeinschaft eingeführt und Merkmale dieser Gemeinschaften
Weiterführend wird das Konzept der Open Innovation definiert, wobei zwei widersprüchliche Sichtweisen deutlich werden. Virtuelle Gemeinschaften In der sich an den Vortrag anschließenden Diskussion werden beide Ansätze erneut aufgegriffen, wobei die zentrale Frage thematisiert wird, wie die beiden Ansätze miteinander in Verbindung stehen und ob beziehungsweise wie sie sich vereinen lassen. Britta Schrader, 27.11.2017 Thema 2: In der neuen Ära der digitalen Kommunikation und Verarbeitung werden Daten gespeichert, die sich durch ihren Umfang, ihre Strukturvielfalt und durch die Geschwindigkeit, mit der sie generiert werden, auszeichnen. Sie können nicht mehr durch herkömmliche Datenbanken gespeichert und ausgewertet werden. Diese Datenbestände werden als Big Data bezeichnet. Eine Möglichkeit diese Ressource zu nutzen liegt in der Predictive Analytics. Mit Hilfe der gesammelten Daten werden Prognosemodelle erstellt, die die Wahrscheinlichkeiten für zukünftige Ereignisse voraussagen sollten. Eingesetzt wird diese datengetriebene Prognostik in vielen Forschungsbereichen, wie Sicherheit, Wirtschaft und Marketing. Welche Arten von Versprechungen werden gemacht, können diese erfüllt werden und wer profitiert vom Wissen über die Prognosen? Arne Brusis, 01.12.2017
Im ersten Vortrag Virtuelle Gemeinschaften In der Vorlesung "Kreativität und Technik" im Sommersemester steht der "kreative Funke" und seine Bedingtheiten im Mittelpunkt der Betrachtung. Dabei wird deutlich, dass es problematisch ist, den Innovationsprozess mit der Ideengenerierung zu beginnen, da so leicht Bedingtheiten und Bedingungen einer solchen Ideengenerierung aus dem Blick geraten. Ideen als "graue Kügelchen", so auch in der Diskussion, gehen von einem sehr speziellen Wissensbegriff aus, einer Substantivierung und Produktifizierung des Erfindens als Erfindung und damit der scheinbaren Möglichkeit, Erfindungen in handelbare Einheiten zu verpacken. In der Vorlesung wurde der Technikbegriff in seinem Wechselspiel von Verfahrenswissen und Verfahrenskönnen genauer entwickelt, woraus sich ergibt, dass wirkmächtiges Verfahrenswissen immer an entsprechend fachlich kompetente Personen gebunden ist und sich nicht auf eine "Kompetenz" reduzieren lässt, Neues schnell erlernen zu können. Hoch innovative Firmen müssen also nicht nur entsprechende Innovationsprozesse als Prozesse beherrschen, sondern auch und vor allem langfristig die dafür erforderlichen Personalressourcen entwickeln. Bedingtheit von Kreativität ist dabei vor allem die Möglichkeit des freizügigen Zugriffs auf alle verfügbaren Wissensressourcen, um die Rekombination von Vorhandenem zu Neuem, "das sich für den Fachmann nicht auf naheliegende Weise aus dem Stand der Technik ergibt" (Kriterium "Erfindungshöhe" für eine Patentanmeldung), effektiv zu erreichen. "Open Innovation" kann damit nur in einem speziellen kulturellen Kontext von "Open Culture" gelingen und erfordert eine grundlegend andere Herangehensweise an die Wissensschätze der Menschheit als diese unter "geistige Eigentümer" zu parzellieren.
Dass dies auch unter kapitalistischen Bedingungen möglich ist, zeigen große Hitech-Unternehmen wie IBM, die seit über 20 Jahren Im zweiten Vortrag Versprechen datengetriebener Prognostik ging es um die Frage, wie aus der Analyse größerer Datenmengen auf die Wahrscheinlichkeit künftiger Ereignisse geschlossen werden kann und welche gesellschaftlichen Konsequenzen sich aus derartigen Möglichkeiten ergeben. Im Fokus des Vortrags standen Beispiele aus den Bereichen Kreditvergabe, Versicherungsprämien, Retourquoten im Versandhandel, Strombedarf und Smart Home, Einbruchschutz und Epidemie-Prävention. In der Diskussion wurde zunächst deutlich, dass in einer solchen Datenanalyse zwei Datenmodelle präsent sind – neben dem Datenmodell des Zielsystems, in welches die Eingangsdaten gefittet werden, auch das Datenmodell, welches bei der Erhebung der Eingangsdaten verwendet wurde. Stehen nur "Volume" und "Velocity" im Vordergrund der Datenanalyse, so sind die Daten oft sehr homogen und folgen einem explizit gegebenen kleinen Modell (Umweltdaten, Betriebsdaten von technischen Anlagen, Wetterdaten, Statistikdaten). Kommt noch "Variety" oder gar "Veracity" hinzu, sind deutlich komplexere Vorbearbeitungen der Daten erforderlich. Auch diese Daten – etwa bei der Analyse natürlichsprachlicher textueller Eingaben – sind ohne klare Modellvorstellungen – etwa aus dem Natural Language Processing – nicht zu gebrauchen. In diesem Sinne findet stets ein Wechselspiel zwischen Interpretation und Formalisierung statt, wie dies für Daten und Informationen in der Vorlesung genauer ausgeführt wurde. Siehe hierzu auch (Mainzer 2014) und (Wolfram 2002). Die Diskussion drehte sich aber vor allem um die Frage, ob die neuen technischen Möglichkeiten nicht ein weiteres Mal dafür herhalten müssen, alten Wein in neuen Schläuchen zu verkaufen. Der Versuch einer kleinteiligen Partitionierung von Risikogruppen in Kreditvergabe, Versicherungswirtschaft und ähnlichen Bereichen ist kein Phänomen des digitalen Zeitalters, sondern diente schon immer dazu, den Solidargedanken der entsprechenden Anwendungsdomänen zu unterlaufen, um private Profite zu maximieren. Die Bedeutung und Wirkung computertechnischer Verfahren in derartigen Kontexten hat zuerst (Weizenbaum 1976) thematisiert. Der englische Titel des Buchs "Computer Power and Human Reason: From Judgment To Calculation" gibt den Ansatz deutlicher wieder als der Titel der deutschen Übersetzung – einmal mehr wird durch den Computereinsatz und damit technische Artefakte ein inhärent gesellschaftlicher Prozess der Auseinandersetzung um Praxen substantiviert und in einer "Rechnung" versteckt, der man (scheinbar) nur noch als Artefakt begegnen kann. (Lessig 1999) bringt das mit der Formel "Code is Law" auf den Punkt – die Implementierung und gesellschaftsmächtige Durchsetzung des Gebrauchs gewisser Algorithmen entfaltet eine ähnliche Wirkungskraft wie die normative Gesetzgebung als Bedingtheit von Handeln. Im Gegensatz zu normativer Gesetzgebung ist jener "Code" aber oft eine privatwirtschaftliche Implementation und damit gesellschaftlicher Kritik nur noch mittelbar ausgesetzt (siehe aber den aktuellen Dieselskandal). Im letzten Teil der Diskussion ging es noch um die Frage, wie tief derartige Denk-, Verhaltens- und Institutionalisierungsmuster in die Grundlagen unseres intuitiven Verständnisses des Funktionierens einer bürgerlichen Gesellschaft und damit in die Alltagspraxen eingebrannt sind und in welchem Verhältnis sie zum scheinbaren Positivismus der Wahrnahme von Wissenschaft sowie zur Entfremdungsproblematik stehen. Links:
OrdnerVeranstaltungen ![]() | ||||||
![]() |
![]() |
![]() |