[Home]
Hans Gert Graebe / Seminar Wissen /
2017-05-30


Home
Neues
TestSeite
DorfTratsch

Suchen
Teilnehmer
Projekte

GartenPlan
DorfWiki
Bildung+Begegnung
DorfErneuerung
Dörfer
NeueArbeit
VideoBridge
VillageInnovationTalk


AlleOrdner
AlleSeiten
Hilfe

Einstellungen

SeiteÄndern







Veränderung (letzte Änderung) (Autor, Normalansicht)

Verändert: 10c10
* Seminararbeit
* Seminararbeit "Die Blockchain-Technologie - von Kryptowährung zu verteilten Notarsystemen"

Prozesse der Datenkonzentration

Termin: 30. Mai 2017, 15.15 Uhr

Ort: Seminargebäude, SG 3-10

Thema 1: Prozesse der Datenkonzentration. Vortrag und Diskussion mit Tom Zimmerling.

  • Folien zum Vortrag
  • Seminararbeit "Die Blockchain-Technologie - von Kryptowährung zu verteilten Notarsystemen"
Thema 2: Meinungsmanipulation durch zielgerichtete Werbung. Vortrag und Diskussion mit Tarik Havighorst.

Ankündigung

Thema 1: Prozesse der Datenkonzentration

Auch an den schönsten Orten dieser Welt gibt es einen Zugang in die virtuelle Welt. Das alles ist sehr bequem, deshalb sind die meisten Menschen gutgläubig und ahnen nichts Böses. Auch Facebook ist ein Ort, wo viele oft mit Freude unterwegs sind. Aber wissen wir eigentlich, was wir in den letzten Jahren bei Facebook eingegeben haben und was mit unseren Daten passiert, auch mit den gelöschten? In Deutschland vertrauen über 20 Millionen Menschen diesem Unternehmen ganz private Dinge an.

Mein Vortrag befasst sich mit diesen Fragen. Ich werde die Unterschiede der Datenauswertung bei Facebook und Google aufzeigen. Darüber hinaus gehe ich näher auf die Auswertung der Daten bei Facebook und WhatsApp ein und werde die Abläufe der Datengewinnung, Datenspeicherung bis hin zur Auswertung erläutern.

Tom Zimmerling, 24.5.2017

Thema 2: Meinungsmanipulation durch zielgerichtete Werbung

Unternehmen wie Facebook und Google sammeln riesige Datenmengen über ihre Nutzer, um deren Verhalten und Interessen vorherzusagen. Diese Erkenntnisse werden einerseits genutzt, um den Nutzern zu helfen, Ordnung in die überwältigende Flut von Informationen im Internet zu bringen (z.B. durch personalisierte Suchergebnisse), andererseits, um gezielt Werbung zu schalten, welche den tatsächlichen (oder vermeintlichen) Interessen des Nutzers entspricht. Die Monopolstellung dieser Unternehmen sowie die große Menge an Ressourcen und Daten, die ihnen zur Verfügung stehen, machen sie zu mächtigen Akteuren in der heutigen "Kultur der Digitalität" (Felix Stalder).

Im Vortrag sollen ein paar Aspekte dieser Situation und insbesondere der Praxis der Personalisierung von Webinhalten beleuchtet werden, welche für eine freie politische Meinungsbildung in demokratischen Gesellschaften problematisch sein können, jedoch ohne dabei explizite politische Bewertungen vorzunehmen.

Tarik Havighorst, 18.5.2017

Anmerkungen

Im Vortrag von Herrn Havighorst ging es im Kern um Möglichkeiten, Potenziale, Voraussetzungen und Gefahren personalisierter Online-Werbung, worauf ich mich in diesen Anmerkungen beschränken möchte. In den vergangenen Seminaren hatten wir schon gesehen, welche technischen Möglichkeiten maschinelles Lernen für die Mustersuche in großen Datenbeständen eröffnet, was hier unter einer speziellen Zweck-Mittel-Perspektive genauer betrachtet wurde.

Zunächst wurde ausgeführt, dass eine genauere Zielgruppenansprache auch in vordigitalen Zeiten ein wichtiger Aspekt der Planung von Werbekampagnen war, um die verfügbaren Ressourcen möglichst effektiv einzusetzen, und dazu ein umfangreiches Repertoire von Targeting-Methoden entwickelt worden ist. Dabei ist eine klare Arbeitsteilung zwischen Unternehmen als Werbekunden, Werbeagenturen und Reichweitenanalysen durch Meinungsforschung zu beobachten, um konkrete Werbung an konkrete potenziell interessierte Konsumenten zu bringen. Jeder Stakeholder in dieser Wertschöpfungskette hat sein eigenes Kerngeschäft mit eigenen speziellen Ressourcen und Kompetenzen. Ein Unternehmen kann die eigenen Werbekampagnen selbst planen, dies aber auch an Profis auslagern. Den höheren Kosten steht in letzterem Fall eine höhere Effizienz der Kampagne gegenüber, was im Einzelfall gegeneinander abzuwägen ist.

Auf den ersten Blick scheint es so, als ob die technischen Möglichkeiten des Datensammelns und -auswertens heute dazu führen, dass dieses arbeitsteilige Vorgehen in sich zusammenfällt und – wenigstens im Bereich personalisierter Werbung – jedes Unternehmen personalisierte Profile erfassen und entsprechende Werbung schalten kann. Hierfür sind aber nicht nur umfassende Kompetenzen im Sammeln und Aufbereiten digitaler Daten erforderlich, sondern auch Zugriff auf entsprechende Speicherstrukturen, die kleinere Unternehmen als Werbekunden noch weniger als früher im eigenen Haus vorhalten können. Arbeitsteiliges Vorgehen sollte sich also eher noch vertiefen.

Am Beispiel des ''Real time advertising'', der Echtzeit-Onlinewerbung, wurde diese These in der Diskussion genauer auseinandergenommen. Dabei wurde deutlich, dass sich am arbeitsteiligen Vorgehen in diesem Bereich eigentlich wenig geändert hat. Hinzu kommt allerdings ein neuer Intermediär, über dessen Infrastruktur – etwa Google Adwords – Werbeplätze bei Webseitenaufrufen (für Google Adwords etwa Googles Suchseiten und alle Webseiten, die Google Adwords eingebunden haben) vergeben werden. Google hat hierfür eine Infrastruktur aufgebaut, über die solche Werbeplätze online in Echtzeit versteigert werden. Sie können als Werbekunde Ihre Werbung direkt von Google verwalten lassen und dessen Standardmanagement von Anzeigen nutzen, können aber auch über die Google Adwords API eine eigene angepasstere Strategie fahren. Das ist natürlich technisch anspruchsvoller und damit ein Bereich, auf den sich viele moderne digitale Werbefirmen spezialisiert haben.

Der Aufbau von Plattformen und Infrastrukturen wie Google Adwords, auf denen andere, spezialisiertere Unternehmen eigene Geschäftsmodelle fahren können, ist eine der grundlegenden Geschäftsstrategien aller großen Internetunternehmen, die sich primär an Technologieführerschaft orientieren. Damit rückt das Sammeln personalisierter Daten zugleich in ein etwas anderes Licht – die aus dem Betrieb der Infrastruktur gesammelten Daten fallen beim Betreiber der Infrastruktur an, Informationen des Werbekunden über konkrete Kunden (auch über andere Kanäle) liegen beim Werbekunden vor. Beides ungefiltert zusammenzuführen ist im Interesse weder der einen noch der anderen Seite. Erforderlich ist allein ein Informationsaustausch, um das Bieterverfahren sinnvoll abwickeln zu können. In welchem Umfang ein solcher Datenaustausch erfolgt, kann im konkreten Beispiel genauer studiert werden, denn der Plattformbetreiber muss seine Schnittstelle – Schnittstelle hier im umfassenden soziotechnischen Verständnis funktionaler und nichtfunktionaler Anforderungen – veröffentlichen, damit sich unabhängige Dritte andocken können.

Im Vortrag von Herrn Zimmermann sollte es um Prozesse der Datenkonzentration gehen. Im Seminarkonzept heißt es dazu:

Die Auswertung großer Datenmengen setzt den Zugang zu diesen voraus. Auf diesem Gebiet gibt es zwei wesentlich verschiedene Herangehensweisen – die umfassende Auswertung öffentlich verfügbarer Daten wie etwa durch Google und das Betreiben performanter Life Streams mit entsprechendem Datendurchsatz wie etwa bei Facebook oder (aktuell) Whatsapp. Allein das Speichern dieser Daten im Petabyte-Bereich stellt eine enorme Herausforderung an die Entwicklung entsprechender Speichersysteme. Mit der „Welt der Apps“ und den großen Playstores gibt es überdies Modelle, mit denen sich auch kleinere Unternehmen mit geringeren Ressourcen in diese Prozesse einklinken können.

Diese Konzentrationsprozesse werden vor allem von Facebook vorangetrieben mit dem Erwerb von Instagram im Jahr 2012 und WhatsApp im Jahr 2014. Auch andere Plattformen wie etwa Snapchat sind heiß umworben.

Im Vortrag wurde allerdings vor allem noch einmal das Data Mining auf großen Datenmengen thematisiert, das dabei übliche Pipeline-Modell der Datenanalyse vorgestellt und im Weiteren auch das Thema Text-Mining gestreift. In der Diskussion wurde vor allem auf CRISP-DM als Standard-Prozess-Modell für Data Mining in Unternehmensdaten eingegangen und die Verbindung zwischen der Adjustierung der Geschäftsstrategie, der Datenerhebung, der Geschäftsprozess-Modellierung und schließlich der Aktualisierung der IT-Unternehmensstrukturen genauer beleuchtet. Solche Big Data Anwendungen im Bereich der Business Intelligence, wie sie u.a. auch von der Leipziger Firma eccenca angeboten werden, sind ein Bereich intensiver praxisnaher Forschung, deren Ergebnisse und Entwicklungen auch auf großen internationalen Konferenzen diskutiert werden. Der Ausbau von Datenerhebung und Datenanalyse im Unternehmenskontext auf der Basis der neuen Technologien hat in den letzten Jahren deutlich an Fahrt aufgenommen und zu wachsender Bedeutung kennzahlorientierter Aspekte der Unternehmenssteuerung geführt.

Hans-Gert Gräbe, 31.5.2017


OrdnerVeranstaltungen