Hans Gert Graebe / Seminar Wissen / 2017-05-30 |
||||||||||
Home Neues TestSeite DorfTratsch Suchen Teilnehmer Projekte GartenPlan DorfWiki Bildung+Begegnung DorfErneuerung Dörfer NeueArbeit VideoBridge VillageInnovationTalk AlleOrdner AlleSeiten Hilfe Einstellungen SeiteÄndern |
Termin: 30. Mai 2017, 15.15 Uhr Ort: Seminargebäude, SG 3-10 Thema 1: Prozesse der Datenkonzentration. Vortrag und Diskussion mit Tom Zimmerling.
Thema 1: Prozesse der Datenkonzentration Auch an den schönsten Orten dieser Welt gibt es einen Zugang in die virtuelle Welt. Das alles ist sehr bequem, deshalb sind die meisten Menschen gutgläubig und ahnen nichts Böses. Auch Facebook ist ein Ort, wo viele oft mit Freude unterwegs sind. Aber wissen wir eigentlich, was wir in den letzten Jahren bei Facebook eingegeben haben und was mit unseren Daten passiert, auch mit den gelöschten? In Deutschland vertrauen über 20 Millionen Menschen diesem Unternehmen ganz private Dinge an. Mein Vortrag befasst sich mit diesen Fragen. Ich werde die Unterschiede der Datenauswertung bei Facebook und Google aufzeigen. Darüber hinaus gehe ich näher auf die Auswertung der Daten bei Facebook und WhatsApp ein und werde die Abläufe der Datengewinnung, Datenspeicherung bis hin zur Auswertung erläutern. Tom Zimmerling, 24.5.2017 Thema 2: Meinungsmanipulation durch zielgerichtete Werbung Unternehmen wie Facebook und Google sammeln riesige Datenmengen über ihre Nutzer, um deren Verhalten und Interessen vorherzusagen. Diese Erkenntnisse werden einerseits genutzt, um den Nutzern zu helfen, Ordnung in die überwältigende Flut von Informationen im Internet zu bringen (z.B. durch personalisierte Suchergebnisse), andererseits, um gezielt Werbung zu schalten, welche den tatsächlichen (oder vermeintlichen) Interessen des Nutzers entspricht. Die Monopolstellung dieser Unternehmen sowie die große Menge an Ressourcen und Daten, die ihnen zur Verfügung stehen, machen sie zu mächtigen Akteuren in der heutigen "Kultur der Digitalität" (Felix Stalder). Im Vortrag sollen ein paar Aspekte dieser Situation und insbesondere der Praxis der Personalisierung von Webinhalten beleuchtet werden, welche für eine freie politische Meinungsbildung in demokratischen Gesellschaften problematisch sein können, jedoch ohne dabei explizite politische Bewertungen vorzunehmen. Tarik Havighorst, 18.5.2017
Im Vortrag von Herrn Havighorst ging es im Kern um Möglichkeiten, Potenziale, Voraussetzungen und Gefahren personalisierter Online-Werbung, worauf ich mich in diesen Anmerkungen beschränken möchte. In den vergangenen Seminaren hatten wir schon gesehen, welche technischen Möglichkeiten maschinelles Lernen für die Mustersuche in großen Datenbeständen eröffnet, was hier unter einer speziellen Zweck-Mittel-Perspektive genauer betrachtet wurde. Zunächst wurde ausgeführt, dass eine genauere Zielgruppenansprache auch in vordigitalen Zeiten ein wichtiger Aspekt der Planung von Werbekampagnen war, um die verfügbaren Ressourcen möglichst effektiv einzusetzen, und dazu ein umfangreiches Repertoire von Targeting-Methoden entwickelt worden ist. Dabei ist eine klare Arbeitsteilung zwischen Unternehmen als Werbekunden, Werbeagenturen und Reichweitenanalysen durch Meinungsforschung zu beobachten, um konkrete Werbung an konkrete potenziell interessierte Konsumenten zu bringen. Jeder Stakeholder in dieser Wertschöpfungskette hat sein eigenes Kerngeschäft mit eigenen speziellen Ressourcen und Kompetenzen. Ein Unternehmen kann die eigenen Werbekampagnen selbst planen, dies aber auch an Profis auslagern. Den höheren Kosten steht in letzterem Fall eine höhere Effizienz der Kampagne gegenüber, was im Einzelfall gegeneinander abzuwägen ist. Auf den ersten Blick scheint es so, als ob die technischen Möglichkeiten des Datensammelns und -auswertens heute dazu führen, dass dieses arbeitsteilige Vorgehen in sich zusammenfällt und – wenigstens im Bereich personalisierter Werbung – jedes Unternehmen personalisierte Profile erfassen und entsprechende Werbung schalten kann. Hierfür sind aber nicht nur umfassende Kompetenzen im Sammeln und Aufbereiten digitaler Daten erforderlich, sondern auch Zugriff auf entsprechende Speicherstrukturen, die kleinere Unternehmen als Werbekunden noch weniger als früher im eigenen Haus vorhalten können. Arbeitsteiliges Vorgehen sollte sich also eher noch vertiefen. Am Beispiel des ''Real time advertising'', der Echtzeit-Onlinewerbung, wurde diese These in der Diskussion genauer auseinandergenommen. Dabei wurde deutlich, dass sich am arbeitsteiligen Vorgehen in diesem Bereich eigentlich wenig geändert hat. Hinzu kommt allerdings ein neuer Intermediär, über dessen Infrastruktur – etwa Google Adwords – Werbeplätze bei Webseitenaufrufen (für Google Adwords etwa Googles Suchseiten und alle Webseiten, die Google Adwords eingebunden haben) vergeben werden. Google hat hierfür eine Infrastruktur aufgebaut, über die solche Werbeplätze online in Echtzeit versteigert werden. Sie können als Werbekunde Ihre Werbung direkt von Google verwalten lassen und dessen Standardmanagement von Anzeigen nutzen, können aber auch über die Google Adwords API eine eigene angepasstere Strategie fahren. Das ist natürlich technisch anspruchsvoller und damit ein Bereich, auf den sich viele moderne digitale Werbefirmen spezialisiert haben. Der Aufbau von Plattformen und Infrastrukturen wie Google Adwords, auf denen andere, spezialisiertere Unternehmen eigene Geschäftsmodelle fahren können, ist eine der grundlegenden Geschäftsstrategien aller großen Internetunternehmen, die sich primär an Technologieführerschaft orientieren. Damit rückt das Sammeln personalisierter Daten zugleich in ein etwas anderes Licht – die aus dem Betrieb der Infrastruktur gesammelten Daten fallen beim Betreiber der Infrastruktur an, Informationen des Werbekunden über konkrete Kunden (auch über andere Kanäle) liegen beim Werbekunden vor. Beides ungefiltert zusammenzuführen ist im Interesse weder der einen noch der anderen Seite. Erforderlich ist allein ein Informationsaustausch, um das Bieterverfahren sinnvoll abwickeln zu können. In welchem Umfang ein solcher Datenaustausch erfolgt, kann im konkreten Beispiel genauer studiert werden, denn der Plattformbetreiber muss seine Schnittstelle – Schnittstelle hier im umfassenden soziotechnischen Verständnis funktionaler und nichtfunktionaler Anforderungen – veröffentlichen, damit sich unabhängige Dritte andocken können. Im Vortrag von Herrn Zimmermann sollte es um Prozesse der Datenkonzentration gehen. Im Seminarkonzept heißt es dazu:
Im Vortrag wurde allerdings vor allem noch einmal das Data Mining auf großen Datenmengen thematisiert, das dabei übliche Pipeline-Modell der Datenanalyse vorgestellt und im Weiteren auch das Thema Text-Mining gestreift. In der Diskussion wurde vor allem auf CRISP-DM als Standard-Prozess-Modell für Data Mining in Unternehmensdaten eingegangen und die Verbindung zwischen der Adjustierung der Geschäftsstrategie, der Datenerhebung, der Geschäftsprozess-Modellierung und schließlich der Aktualisierung der IT-Unternehmensstrukturen genauer beleuchtet. Solche Big Data Anwendungen im Bereich der Business Intelligence, wie sie u.a. auch von der Leipziger Firma eccenca angeboten werden, sind ein Bereich intensiver praxisnaher Forschung, deren Ergebnisse und Entwicklungen auch auf großen internationalen Konferenzen diskutiert werden. Der Ausbau von Datenerhebung und Datenanalyse im Unternehmenskontext auf der Basis der neuen Technologien hat in den letzten Jahren deutlich an Fahrt aufgenommen und zu wachsender Bedeutung kennzahlorientierter Aspekte der Unternehmenssteuerung geführt. Hans-Gert Gräbe, 31.5.2017
OrdnerVeranstaltungen | |||||||||