[Home]
Hans Gert Graebe / Seminar Wissen /
2017-12-05


Home
Neues
TestSeite
DorfTratsch

Suchen
Teilnehmer
Projekte

GartenPlan
DorfWiki
Bildung+Begegnung
DorfErneuerung
Dörfer
NeueArbeit
VideoBridge
VillageInnovationTalk


AlleOrdner
AlleSeiten
Hilfe

Einstellungen

SeiteÄndern







Veränderung (letzte Änderung) (keine anderen Diffs, Normalansicht)

Hinzugefügt: 9a10,11
* Folien zum Vortrag


Techniken im digitalen Wandel

Termin: 5. Dezember 2017, 15.15 Uhr

Ort: Seminargebäude, SG 3-10

Thema 1:

Britta Schrader: Virtuelle Gemeinschaften als Möglichkeit für Open Innovation

Thema 2:

Arne Brusis: Versprechen datengetriebener Prognostik

Ankündigung

Thema 1:

Im Vortrag soll aufgezeigt werden, was sich hinter dem Begriff der Innovation verbirgt und wie sich dieser vom Begriff der Erfindung abgrenzen lässt. Daraufhin wird der Innovationsprozess dargestellt und weitere theoretische Grundlagen gelegt. Anschließend soll der Begriff virtuelle Gemeinschaft eingeführt und Merkmale dieser Gemeinschaften dargestellt werden.

Weiterführend wird das Konzept der Open Innovation definiert, wobei zwei widersprüchliche Sichtweisen deutlich werden. Virtuelle Gemeinschaften werden dabei einerseits aus betriebswirtschaftlicher Sicht nach dem Ansatz von Reichwald und Pillar und andererseits aus dem der Betriebswirtschaftslehre entgegenstehenden Ansatz der IuK-Technologie beleuchtet.

In der sich an den Vortrag anschließenden Diskussion werden beide Ansätze erneut aufgegriffen, wobei die zentrale Frage thematisiert wird, wie die beiden Ansätze miteinander in Verbindung stehen und ob beziehungsweise wie sie sich vereinen lassen.

Britta Schrader, 27.11.2017

Thema 2:

In der neuen Ära der digitalen Kommunikation und Verarbeitung werden Daten gespeichert, die sich durch ihren Umfang, ihre Strukturvielfalt und durch die Geschwindigkeit, mit der sie generiert werden, auszeichnen. Sie können nicht mehr durch herkömmliche Datenbanken gespeichert und ausgewertet werden. Diese Datenbestände werden als Big Data bezeichnet.

Eine Möglichkeit diese Ressource zu nutzen liegt in der Predictive Analytics. Mit Hilfe der gesammelten Daten werden Prognosemodelle erstellt, die die Wahrscheinlichkeiten für zukünftige Ereignisse voraussagen sollten. Eingesetzt wird diese datengetriebene Prognostik in vielen Forschungsbereichen, wie Sicherheit, Wirtschaft und Marketing.

Welche Arten von Versprechungen werden gemacht, können diese erfüllt werden und wer profitiert vom Wissen über die Prognosen?

Arne Brusis, 01.12.2017

Anmerkungen

Im ersten Vortrag Virtuelle Gemeinschaften als Möglichkeit für Open Innovation ging es um die Frage, in welchem Umfang moderne Möglichkeiten der digitalen Kollaboration und moderne Beteiligungsformen Einfluss auf die Gestaltung von Erfindungs- und Innovationsprozessen haben. Mit dem durch Henry Chesbrough geprägten Begriff "Open Innovation" haben derartige Überlegungen seit 2003 auch in die Managementliteratur und die BWL Einzug gehalten. Spannend ist uns bleibt dabei zunächst die weitgehende Ignoranz dieser Theorien gegenüber 20 Jahren Erfahrungen in der Open Source Szene, die seit der Veröffentlichung des legendären GNU Manifesto durch Richard Stallman im Jahr 1985 auch praktisch gesammelt wurden. Vorgestellt wurde die Theorie einer "Open Innovation" auf der Basis von (Reichwald/Piller/Ihl 2009), die vom Begriff des Innovationsprozesses in fünf Schritten von der Ideengenerierung bis zur Markteinführung ausgehen, der sich bildlich in Form eines Trichters manifestiert, in dem sich graue Kugeln (die Ideen in verschiedenem Fortschrittsstadium?) im klassischen Fall innerhalb der Unternehmensgrenzen bewegen und diese bei "Open Innovation" auch vorsichtig überschreiten. Das Bild des Trichters jedoch bleibt und suggeriert, dass Innovation als planbarer, zielführender Prozess mit abnehmender Varianzbreite der Ansätze fokussiert werden kann. Das ist sicher nicht falsch, wenn man beachtet, dass zu einem Innovationsprozess, der nicht auf halbem Wege abbrechen soll, 1% Inspiration und 99% Transpiration gehören.

In der Vorlesung "Kreativität und Technik" im Sommersemester steht der "kreative Funke" und seine Bedingtheiten im Mittelpunkt der Betrachtung. Dabei wird deutlich, dass es problematisch ist, den Innovationsprozess mit der Ideengenerierung zu beginnen, da so leicht Bedingtheiten und Bedingungen einer solchen Ideengenerierung aus dem Blick geraten. Ideen als "graue Kügelchen", so auch in der Diskussion, gehen von einem sehr speziellen Wissensbegriff aus, einer Substantivierung und Produktifizierung des Erfindens als Erfindung und damit der scheinbaren Möglichkeit, Erfindungen in handelbare Einheiten zu verpacken. In der Vorlesung wurde der Technikbegriff in seinem Wechselspiel von Verfahrenswissen und Verfahrenskönnen genauer entwickelt, woraus sich ergibt, dass wirkmächtiges Verfahrenswissen immer an entsprechend fachlich kompetente Personen gebunden ist und sich nicht auf eine "Kompetenz" reduzieren lässt, Neues schnell erlernen zu können. Hoch innovative Firmen müssen also nicht nur entsprechende Innovationsprozesse als Prozesse beherrschen, sondern auch und vor allem langfristig die dafür erforderlichen Personalressourcen entwickeln.

Bedingtheit von Kreativität ist dabei vor allem die Möglichkeit des freizügigen Zugriffs auf alle verfügbaren Wissensressourcen, um die Rekombination von Vorhandenem zu Neuem, "das sich für den Fachmann nicht auf naheliegende Weise aus dem Stand der Technik ergibt" (Kriterium "Erfindungshöhe" für eine Patentanmeldung), effektiv zu erreichen. "Open Innovation" kann damit nur in einem speziellen kulturellen Kontext von "Open Culture" gelingen und erfordert eine grundlegend andere Herangehensweise an die Wissensschätze der Menschheit als diese unter "geistige Eigentümer" zu parzellieren.

Dass dies auch unter kapitalistischen Bedingungen möglich ist, zeigen große Hitech-Unternehmen wie IBM, die seit über 20 Jahren Open Source Entwicklungen aktiv unterstützen und auch Geschäftsmodelle entwickelt haben, mit denen sich eine technologische Spitzenstellung sichern lässt, aus der heraus positive Unternehmensbilanzen generiert werden. Noch Ende der 1990er Jahre fiel Microsoft mit einer grundsätzlich anderen Strategie auf. Auch hier hat sich in den letzten 20 Jahren ein kruder Wandel in der Firmenphilosophie vollzogen, wie die Gründung der .NET Foundation und die Öffnung des .NET Core für die Allgemeinheit belegen. Derartige Ansätze gehen aber weit über das hinaus, was in der BWL als "Open Innovation" verkauft wird. Die seit wenigstens 10 Jahren manifeste Dauerkrise bei Siemens zeigt, dass auch große Unternehmen mit ehemals klangvollen Namen nicht vor dem Untergang gefeit sind, wenn sie die Zeichen der Zeit nicht verstehen. Als verbeamteter BWL-Professor hat man glücklicherweise eine etwas komfortablere Position.

Im zweiten Vortrag Versprechen datengetriebener Prognostik ging es um die Frage, wie aus der Analyse größerer Datenmengen auf die Wahrscheinlichkeit künftiger Ereignisse geschlossen werden kann und welche gesellschaftlichen Konsequenzen sich aus derartigen Möglichkeiten ergeben. Im Fokus des Vortrags standen Beispiele aus den Bereichen Kreditvergabe, Versicherungsprämien, Retourquoten im Versandhandel, Strombedarf und Smart Home, Einbruchschutz und Epidemie-Prävention.

In der Diskussion wurde zunächst deutlich, dass in einer solchen Datenanalyse zwei Datenmodelle präsent sind – neben dem Datenmodell des Zielsystems, in welches die Eingangsdaten gefittet werden, auch das Datenmodell, welches bei der Erhebung der Eingangsdaten verwendet wurde. Stehen nur "Volume" und "Velocity" im Vordergrund der Datenanalyse, so sind die Daten oft sehr homogen und folgen einem explizit gegebenen kleinen Modell (Umweltdaten, Betriebsdaten von technischen Anlagen, Wetterdaten, Statistikdaten). Kommt noch "Variety" oder gar "Veracity" hinzu, sind deutlich komplexere Vorbearbeitungen der Daten erforderlich. Auch diese Daten – etwa bei der Analyse natürlichsprachlicher textueller Eingaben – sind ohne klare Modellvorstellungen – etwa aus dem Natural Language Processing – nicht zu gebrauchen. In diesem Sinne findet stets ein Wechselspiel zwischen Interpretation und Formalisierung statt, wie dies für Daten und Informationen in der Vorlesung genauer ausgeführt wurde. Siehe hierzu auch (Mainzer 2014) und (Wolfram 2002).

Die Diskussion drehte sich aber vor allem um die Frage, ob die neuen technischen Möglichkeiten nicht ein weiteres Mal dafür herhalten müssen, alten Wein in neuen Schläuchen zu verkaufen. Der Versuch einer kleinteiligen Partitionierung von Risikogruppen in Kreditvergabe, Versicherungswirtschaft und ähnlichen Bereichen ist kein Phänomen des digitalen Zeitalters, sondern diente schon immer dazu, den Solidargedanken der entsprechenden Anwendungsdomänen zu unterlaufen, um private Profite zu maximieren. Die Bedeutung und Wirkung computertechnischer Verfahren in derartigen Kontexten hat zuerst (Weizenbaum 1976) thematisiert. Der englische Titel des Buchs "Computer Power and Human Reason: From Judgment To Calculation" gibt den Ansatz deutlicher wieder als der Titel der deutschen Übersetzung – einmal mehr wird durch den Computereinsatz und damit technische Artefakte ein inhärent gesellschaftlicher Prozess der Auseinandersetzung um Praxen substantiviert und in einer "Rechnung" versteckt, der man (scheinbar) nur noch als Artefakt begegnen kann. (Lessig 1999) bringt das mit der Formel "Code is Law" auf den Punkt – die Implementierung und gesellschaftsmächtige Durchsetzung des Gebrauchs gewisser Algorithmen entfaltet eine ähnliche Wirkungskraft wie die normative Gesetzgebung als Bedingtheit von Handeln. Im Gegensatz zu normativer Gesetzgebung ist jener "Code" aber oft eine privatwirtschaftliche Implementation und damit gesellschaftlicher Kritik nur noch mittelbar ausgesetzt (siehe aber den aktuellen Dieselskandal).

Im letzten Teil der Diskussion ging es noch um die Frage, wie tief derartige Denk-, Verhaltens- und Institutionalisierungsmuster in die Grundlagen unseres intuitiven Verständnisses des Funktionierens einer bürgerlichen Gesellschaft und damit in die Alltagspraxen eingebrannt sind und in welchem Verhältnis sie zum scheinbaren Positivismus der Wahrnahme von Wissenschaft sowie zur Entfremdungsproblematik stehen.

Links:

  • Film Revolution OS (2001). Revolution OS ist ein Kino-Dokumentarfilm aus dem Jahr 2001, der die Geschichte von GNU/Linux, freier Software und der Open-Source-Bewegung erzählt.
  • Lawrence Lessig (1999): Code and other Laws of Cyberspace. Zweite Auflage als "Codev2" 2006.
  • Klaus Mainzer (2014): Die Berechnung der Welt. Von der Weltformel zu Big Data. München.
  • Joseph Weizenbaum (1976): Macht der Computer und Ohnmacht der Vernunft. Frankfurt am Main.
  • Stephen Wolfram (2002): A New Kind of Science. Wolfram Media.
Hans-Gert Gräbe, 10.12.2017


OrdnerVeranstaltungen