[Home]
Hans Gert Graebe / Seminar Wissen /
2016-04-12


Home
Neues
TestSeite
DorfTratsch

Suchen
Teilnehmer
Projekte

GartenPlan
DorfWiki
Bildung+Begegnung
DorfErneuerung
Dörfer
NeueArbeit
VideoBridge
VillageInnovationTalk


AlleOrdner
AlleSeiten
Hilfe

Einstellungen

SeiteÄndern







Veränderung (letzte Änderung) (Autor, Normalansicht)

Verändert: 101c101
:Es sind technische Systeme, von Menschen (Subjekten) erdacht, produziert, installiert, die auch in ihrer Wechselwirkung untereinander und in der Wechselwirkung mit Menschen/Individuen und Gruppen nichts anderes hervorbringen sollen, als wozu sie erdacht, konzipiert wurden. Behaupte ich, diese Systeme lösen Probleme ..., dann wäre zu zeigen, wie das geht. Oder sind nicht vielmehr die gleichsam als Problemlösungen erscheinenden Operationen solcher Systeme notwendig im durch die Programme umfassten Möglichkeitsfeld von abzuarbeitenden Aufgaben etc. ...
:Es sind technische Systeme, von Menschen (Subjekten) erdacht, produziert, installiert, die auch in ihrer Wechselwirkung untereinander und in der Wechselwirkung mit Menschen/Individuen und Gruppen nichts anderes hervorbringen sollen, als wozu sie erdacht, konzipiert wurden. Behaupte ich, diese Systeme lösen Probleme ..., dann wäre zu zeigen, wie das geht. Oder sind nicht vielmehr die gleichsam als Problemlösungen erscheinenden Operationen solcher Systeme notwendig im durch die Programme umfassten Möglichkeitsfeld von abzuarbeitenden Aufgaben etc. ... eingebunden in das Wechselverhältnis Mensch – technische Systeme ...

Verändert: 103,104c103,104
Hier ist nach meinem Verständnis genauer zu unterscheiden zwischen der Beschreibungsebene und der Ausführungsdynamik. Das ändert zunächst nichts an der prinzipiellen Perspektive, dass auch letztere "nicht für sich, sondern durch Menschen initiiert" ist. In welchem Umfang diese allerdings, "soweit der Wunsch, letztlich auch kontrolliert" werden können, halte ich für fraglich und sehe hier ein prinzipielles Auseinanderfallen von Wunsch und Wirklichkeit. Der Unterschied ist etwa der Folgende: Auch die Ausführungsdynamik ist zwar zweckkonstituiert, führt aber zur Entwicklung eigener Zustandsdynamiken. Der Zustandsraum ist durch die Programmlogik determiniert und damit beschreibungsmäßig zugänglich (und diese Beschreibung kann für das Folgende sogar als deterministisch vorausgesetzt werden), die Befüllung des Zustandsraums als Ergebnis einer konkreten Programmdynamik in entwickelten Fällen (etwa maschinelles Lernen) intentional nicht vorhersehbar, obwohl der Zweck durch das Programm selbst genau beschrieben ist. Das Laufenlassen des Konzipierten bringt strukturell Neues in die Welt. Die Potenzialität wird zur Realität. Siehe hierzu auch das Thema Prozess-Semantiken, das Peter Fargaš am
26.04.2016 im Seminar Wissen angeschnitten hat (...)
Hier ist nach meinem Verständnis genauer zu unterscheiden zwischen der Beschreibungsebene und der Ausführungsdynamik. Das ändert zunächst nichts an der prinzipiellen Perspektive, dass auch letztere "nicht für sich, sondern durch Menschen initiiert" ist. Dass diese allerdings, "soweit der Wunsch, letztlich auch kontrolliert" werden können, halte ich für fraglich und sehe hier ein prinzipielles Auseinanderfallen von Wunsch und Wirklichkeit. Der Unterschied ist etwa der Folgende: Auch die Ausführungsdynamik ist zwar zweckkonstituiert, führt aber zur Entwicklung eigener Zustandsdynamiken. Der Zustandsraum ist durch die Programmlogik determiniert und damit beschreibungsmäßig zugänglich (und diese Beschreibung kann für das Folgende sogar als deterministisch vorausgesetzt werden), die Befüllung des Zustandsraums als Ergebnis einer konkreten Programmdynamik in entwickelten Fällen (etwa maschinelles Lernen) aber intentional nicht vorhersehbar, obwohl der Zweck durch das Programm selbst genau beschrieben ist. Das Laufenlassen des Konzipierten bringt strukturell Neues in die Welt. Die Potenzialität wird zur Realität. Siehe hierzu auch das Thema Prozess-Semantiken, das Peter Fargaš am
26.04.2016 im Seminar Wissen angeschnitten hat. Wobei hier weniger das dort Ausgeführte als vielmehr die Links auf Glabbeek spannend sind. Allerdings hat das alles dieselbe Restriktion von zweckbestimmten Beschreibungsformen – und damit reduzierenden Abstraktionen – der Dynamik selbst.

Hinzugefügt: 105a106,108
:Die Unterscheidung Problem – Aufgabe ist von der Wissenschaftstheorie nicht als Dichotomie vorgenommen ... Sie dient einer qualitativen Unterscheidung von Erkenntnisoperationen; dabei ist evident, dass Probleme in Aufgaben transformiert werden und sich daraus neue Problemsichten ergeben; das ist der Lauf menschlicher Erkenntnis, der mit dem Bild eines Ballons gefasst wurde, der aufgeblasen wird. Anders gesagt: Wissenszuwachs (Problemlösungen) reduziert nicht Fragestellungen, sondern bringt auf einem höheren Niveau neue hervor.

Es ist aber auch umgekehrt – die Erhöhung des Detaillierungsgrads kann aus einer Aufgabe ein Problem machen. Begriffsbildung kommt nach meinem Verständnis grundsätzlich nicht ohne Abstraktion und Abstraktion von Abstraktion aus. Verfahrenswissen als Beschreibendes kann sich nur auf diesen Abstraktionsstufen bewegen und muss sie rückwärts durchlaufen, wenn es gesellschaftlich handlungsrelevanten Einfluss auf die "Prozesse dieser Welt" nehmen soll. Eine Theorie zu einem Kalkül, einen Kalkül zu einem Algorithmus, einen Algorithmus zu einer Implementierung zu verfeinern sind für Neues stets neue Herausforderungen und erreichen das Niveau einer "Aufgabe" im obigen Verständnis erst in dem Maße, in dem gesellschaftliches Verfahrenswissen sich zu gesellschaftlich etablierten Verfahrensweisen verfestigt hat (den "state of the art", an dem sich jeder Techniker und auch jeder Unternehmer ungefragt und jenseits aller privaten Vereinbarung messen lassen muss).

Zum Begriff der Künstlichen Intelligenz

Termin: 12.4.2016, 15.15 Uhr

Ort: Seminargebäude, SG 3-10

Diskussion eines Aufsatzes von Jürgen Stahl.

Ankündigung

Klaus Mainzer hatte in seinem Impulsbeitrag

Natürliche und künstliche Intelligenz. Perspektiven der Technikgestaltung

zu unserem 10. Interdisziplinären Gespräch folgende Definition des Intelligenzbegriffs vorgeschlagen, der auch auf technische Systeme angewendet werden kann:

Ein System heißt intelligent, wenn es selbstständig und effizient Probleme lösen kann.

Gegenüber klassischen anthropozentrischen Intelligenzbegriffen, wie sie etwa dem Turing-Test zu Grunde liegen, verweist die vorgeschlagene Definition auf Systeme und damit auf interpersonale Strukturen als "Träger" von Intelligenz.

Jürgen Stahl (Leipzig) hatte dazu im Nachgang eigene Überlegungen zusammengestellt und am 01.03.2016 vorgetragen. In der Diskussion wurde insbesondere wurde immer wieder als Frage aufgeworfen,

  • in welchen Formen sich der anthropozentrische Intelligenzbegriff immer wieder in aktuelle Debatten einschleicht sowie
  • welche Konsequenzen sich aus einem modernen Wissenschaftsbild im Gegensatz nicht nur zu den Wissenschaftsbildern der Zeit der "Klassischen Philosophen" bis Ende des 19. Jahrhunderts, sondern auch zu den stark sprachlinguistisch aufgeladenen Wissenschaftsbildern des späten 20. Jahrhunderts ergeben.
Das soll auch in der Seminardiskussion vertieft werden.

Hans-Gert Gräbe, 3.4.2016

Weitere Links:

Anmerkungen

In der Frage einer adäquaten Fassung des Begriffs "künstliche Intelligenz" bündeln sich eigentlich alle Fragen, die in den ersten beiden Vorlesungen mit Themen wie "Was ist Technik?", "Technik und Sprache" oder der These "Technik gehorcht aufs Wort" angerissen wurden. Dem Menschen scheinen seine eigenen Schöpfungen, nachdem sie bereits schneller, stärker, genauer usw. sind als der Mensch mit seinen "natürlichen Fähigkeiten", nun auch auf dem Gebiet der "Intelligenz" den Rang abzulaufen.

Selbst eine solche Fragestellung ist eigenartig unter wenigstens zwei Perspektiven:

  1. Wo kommt der unbedingte Gedanke her, den Menschen als Schöpfer und damit als HERR von Prozessen zu betrachten, in denen er sich immer wieder ähnlich blamiert wie Goethes Zauberlehrling? Welchen Meister dürfen wir hoffen zu rufen?
  2. Weshalb der unbedingte Wettbewerbsgedanke, nicht nur der Wettbewerb mit dem (gegen den?) Menschen neben uns, sondern nun auch gegen unsere eigenen technischen Geschöpfe?
Wir hatten bereits in einer Diskussion in einem früheren Semester die Frage aufgeworfen, wo die Bestrebungen herrühren, Roboter auch vom Äußeren her immer menschenähnlicher zu bauen. Dafür gibt es wenig funktionale Gründe und die im praktischen Einsatz stehenden Industrieroboter folgen auch ganz anderen Trends, von modernen Entwicklungen wie Nanotechnologien, "cyber-physical systems" und "smart materials" ganz abgesehen. Diese neuartigen, in praktischen Gebrauch kommenden Formen von "Intelligenz" lassen sich kaum noch mit einem individual-anthropozentrischen Intelligenzbegriff fassen.

Auch die Reduktion auf eine Dichotomie von Problem und Aufgabe – als "Task" verstanden, für die schon eine algorithmische Lösung existiert, die "nur noch" im konkreten Kontext ausgerollt werden muss (Aufgabe), oder für die erst eine algorithmische Lösung gefunden werden muss (Problem) – ist nicht nur unter diesem Blickwinkel moderner Einsatzszenarien, sondern bereits im Kontext grundlegender informatischer Begrifflichkeiten fraglich: Ein Algorithmus ist eine spezifische Beschreibungsform eines Verfahrens, welches überhaupt erst in seinem Ablauf Wirkung entfaltet, und dann auch nur auf konkreten Daten. Die Trennung der Hoheit über die Verfahren (Komponentenentwickler) und der Hoheit über die Daten (Entwickler von komponentenbasierten Anwendungssystemen) prägt das Antlitz einer hochgradig arbeitsteilig organisierten Dienstleistungsgesellschaft schon lange und ist einer der konzeptionellen Eckpfeiler moderner Komponententechnologien in der Softwareentwicklung.

Wir wollten ein Problem lösen – und heraus kam "nur" etwas, das funktioniert. "Ich will gar nicht wissen warum, nur wie's geht". Diese Diskrepanz zwischen Anspruch und Wirklichkeit ist wenig reflektiert, vor allem, wenn es am Schluss wirklich funktioniert und damit das Glas dann doch halbvoll war.

Zum Ende der Seminardiskussion schlug ich einen Kreislauf zu betrachten vor, der in seiner ersten Hälfte von der Realität über Erfahrung als interpersonaler Reflexion von Handeln in Sprachform hin zu einer Verdichtung dieser Beschreibungsformen in Theorien mit einem "Welterklärungsanspruch" führte (Jürgen Stahl: "Der qualitative Sprung, um von der empirisch basierten Anschauung zu einem theoretisch-begrifflichen Modell eines Erkenntnisobjektes zu kommen. Die interne, begriffliche Repräsentation des Erkenntnisobjekts vollzieht sich mittels eines Aktes subjektiven »Konstruierens«, bis hin zum Aufbau von Allgemeinbegriffen.").

Gräbe, Nachtrag 30.06.2016: Die Übertreibung (Welterklärungsanspruch in Quotes!) derartiger, sich in konkreten Domänen bewährter Begriffsbildungsprozesse im Versuch, sie durch reine Analogieschlüsse zu einer "Welterklärung" zu verallgemeinern, scheint eine sehr virulente Begleiterscheinung der Durchsetzung wissenschaftlicher Großtheorien bzw. Paradigmen zu sein. Auf dieses Phänomen, das bei J. Stahl nicht thematisiert ist, beziehen sich die Ausführungen im folgenden Abschnitt.

Vorangegangen war eine Debatte über eine Zeitleiste solcher Theorien-Gebäude mit "Welterklärungsanspruch" im 20. Jahrhundert (axiomatische Methode und deren "Entzauberung" durch Gödel, sprachanalytische Versuche vom Wiener Kreis bis zur Semiotik der 1970er Jahre und das Ende des "linguistic turn" am Anfang des 21. Jahrhunderts) und die Beobachtung, dass nicht nur die Begriffssysteme Einfluss auf die technische Entwicklung genommen haben, sondern sich umgekehrt Begriffssysteme auf dem Hintergrund konkreter praktischer Erfahrungen mit bereits vorhandenen technischen Systemen entwickeln und modifizieren.

Jürgen Stahl übersieht den "missing link", dass sich die Qualität des "theoretisch-begrifflichen Modells eines Erkenntnisobjekts" in vielen Fällen für eine "Welterklärung" oder auch nur für eine strengen wissenschaftlich-rationalen Ansprüchen genügende Erklärung letztlich als untauglich erwies und das Problem nicht "gelöst" war, aber das Ergebnis noch immer als Verfahrenswissen durchging und sehr wohl praktische Konsequenzen hatte. Als Verfahrenswissen, das sich in Verfahrensweisen manifestiert und schließlich in Standards und Regeln so weit befestigt, dass damit nicht nur neue gesellschaftliche Praxen begründet werden, sondern auch der Ausgangspunkt für neue sprachliche Reflexion auf neuer Abstraktionsebene gelegt ist, obwohl das Fundament für jenes neue "Theoretisieren" aus akademischer Sicht brüchig erscheint.

Techniker, Ingenieure und auch Technikwissenschaftler bewegen sich deshalb in anderen kulturellen Traditionen als die Akademiker einer universitas litterarum. Jedoch führt erst ein Weg vom Verfahrenswissen über Werkzeuge und technische Artefakte wieder zurück zur Realität, allerdings zu einer neuen, mit jenen Artefakten angereicherten zunehmend "artifiziellen Welt" (Mittelstrass), aus der heraus neue Erfahrungen in neuen Kontexten gewonnen werden, die dann auch zu neuen und modifizierten alten Theorien Anlass geben.

Einfacher als in einem solchen dialektischen Spannungsverhältnis ist der Begriff "künstliche Intelligenz" nicht zu entfalten – wenn er nicht gänzlich fallen gelassen werden sollte, weil er den Blick auf wichtige Entwicklungsoptionen verstellt.

Hans-Gert Gräbe, 14.4.2016, Ergänzungen im letzten Teil vom 30.06.2016


... in welchen Formen sich der anthropozentrische Intelligenzbegriff immer wieder in aktuelle Debatten einschleicht.

Anthropozentrisch bedeutet: Mensch steht im Mittelpunkt – kann ein Intelligenzbegriff jenseits eines Subjekt-Objekt-Verhältnisses entfaltet werden (Subjekt auch Tier!)? Was wäre die Konsequenz, wenn man eine Intelligenz, sich selbst entfaltend, ohne Subjekt betrachtet? Wer bringt sie hervor? Im Übrigen hatte ich in der Diskussion am 01.03.2016 auf die äußerst einengende Begriffsverwendung von Intelligenz verwiesen, der eine Vielzahl von Erscheinungsformen menschlicher Kreativität nicht abdeckt – so auch Gaston Lubetzki.

Dem Menschen scheinen seine eigenen Schöpfungen, nachdem sie bereits schneller, stärker, genauer usw. sind als der Mensch mit seinen "natürlichen Fähigkeiten", nun auch auf dem Gebiet der "Intelligenz" den Rang abzulaufen.

Tun sie das wirklich? Weil sie bestimmte Aspekte schneller, genauer machen? Was bleibt bei einer solchen Sicht außen vor?

Wo kommt der unbedingte Gedanke her, den Menschen als Schöpfer und damit als HERR von Prozessen zu betrachten, in denen er sich immer wieder ähnlich blamiert wie Goethes Zauberlehrling? Welchen Meister dürfen wir hoffen zu rufen?

Wer ist sonst Schöpfer unserer "Zweiten Natur"? Die Natur ist ein Organismus in sich, in die der Mensch als Moment von dessen Entwicklung inbegriffen ist; er kann nicht gegen sie, sondern nur mit ihr agieren. Technik ist Teil der durch uns hervorgebrachten zweiten, 'künstlichen' Natur, der Kultur im umfassenden Sinne. Soll eine sich selbst kreierende zweite Natur = Technik angenommen werden?

... und die im praktischen Einsatz stehenden Industrieroboter folgen auch ganz anderen Trends, von modernen Entwicklungen wie Nanotechnologien, "cyber-physical systems" und "smart materials" ganz abgesehen. Diese neuartigen, in praktischen Gebrauch kommenden Formen von "Intelligenz" lassen sich kaum noch mit einem individual-anthropozentrischen Intelligenzbegriff fassen.

Cyber-Physical Systems adressieren das Zusammenwachsen softwareintensiver eingebetteter Systeme mit den globalen digitalen Netzen. Sie ermöglichen neuartige industrielle Anwendungen mit hohem wirtschaftlichen Potential. Beispiele sind etwa selbststeuernde Logistiksysteme, integrierte Systeme zur Verkehrssteuerung oder intelligente Stromnetze (Smart Grids).

Die Frage ist, ob hier der Intelligenzbegriff überhaupt trägt. Es sind technische Systeme, von Menschen (Subjekten) erdacht, produziert, installiert, die auch in ihrer Wechselwirkung untereinander und in der Wechselwirkung mit Menschen/Individuen und Gruppen nichts anderes hervorbringen sollen, als wozu sie erdacht, konzipiert wurden. Behaupte ich, diese Systeme lösen Probleme (Hervorbringen von Operationen hinausgehend über den Rahmen der durch die softwareseitige Implementierung erfassten, somit bisher nicht definierter Aufgaben, was nicht gleichzusetzen ist mit dem durch Mainzer angedeuteten Aspekt, wonach es aufgrund der nichtlinearen Dynamik Effekte geben könne, die neuartig wären; du hast auf die Möglichkeit der Ausbildung von 'Schwarmintelligenz' hingewiesen, was aber wohl das gleiche Phänomen meint), dann wäre zu zeigen wie das geht. Oder sind nicht vielmehr die gleichsam als Problemlösungen erscheinenden Operationen solcher Systeme notwendig im durch die Programme umfassten Möglichkeitsfeld von abzuarbeitenden Aufgaben etc. – sie sind eingebunden in das Wechselverhältnis Mensch – technische Systeme, natürlich auch technische Systeme – technische Systeme; nur existieren letztere nicht für sich, sondern sind durch Menschen initiiert und – soweit der Wunsch – letztlich auch kontrolliert; m.E. ist nur in einem solchen Kontext die Rede von künstlicher Intelligenz, als ein "außer-sich-setzen" von formalisierbarer (auch die nichtlinearen dynamische Prozesse sind durch Mathe formalisiert) Kreativität sinnvoll. Der Hinweis von HGG auf das Verständnis von KI als Systeme und damit auf interpersonale Strukturen als "Träger" von Intelligenz scheint mir angebracht: Es geht nicht um eine individual-anthropologische Perspektive (hatte ich nirgends unterstellt), gleichwohl ist Wissenschaft immer auch an einzelne Individuen gebunden; es geht mit der Konstellation Subjekt-Objekt um das Verhältnis Mensch – Technik, das in ganz verschiedener Perspektive entwickelt werden kann; ein Verhältnis, das aber nicht auflösbar ist im Sinne einer Entwicklung der Technik und Kreativitätsentwicklung ohne Subjekt Mensch (wiederum verstanden als soziales Wesen...)

Auch die Reduktion auf eine Dichotomie von Problem und Aufgabe – als "Task" verstanden, für die schon eine algorithmische Lösung existiert, die "nur noch" im konkreten Kontext ausgerollt werden muss (Aufgabe), oder für die erst eine algorithmische Lösung gefunden werden muss (Problem) – ist nicht nur unter diesem Blickwinkel moderner Einsatzszenarien, sondern bereits im Kontext grundlegender informatischer Begrifflichkeiten fraglich: ... Wir wollten ein Problem lösen – und heraus kam "nur" etwas, das funktioniert. "Ich will gar nicht wissen warum, nur wie's geht". Diese Diskrepanz zwischen Anspruch und Wirklichkeit ist wenig reflektiert, vor allem, wenn es am Schluss wirklich funktioniert und damit das Glas dann doch halbvoll war.

Die Unterscheidung Problem – Aufgabe ist von der Wissenschaftstheorie nicht als Dichotomie vorgenommen und von mir auch so nicht verwandt worden. Sie dient einer qualitativen Unterscheidung von Erkenntnisoperationen; dabei ist evident, dass Probleme in Aufgaben transformiert werden und sich daraus neue Problemsichten ergeben; das ist der Lauf menschlicher Erkenntnis, der mit dem Bild eines Ballons gefasst wurde, der aufgeblasen wird. Anders gesagt: Wissenszuwachs (Problemlösungen) reduziert nicht Fragestellungen, sondern bringt auf einem höheren Niveau neue hervor.

Das von HGG eingeführte konkretere Verständnis von Algorithmus und der Beziehung zu Daten sowie der Hinweis auf die arbeitsteilig organisierte Softwareentwicklung hebt die sich aus der Unterscheidung ergebende Perspektive auf das, was Intelligenz sei, doch nicht auf: wenn Mainzer unter KI Systeme versteht, die Probleme lösen, dann muss gezeigt werden, was er unter Probleme versteht; ist es die mehr oder minder schnelle oder andersartige oder gar neue (weil so nicht in der menschlichen Sensorik und Bewusstseinsverarbeitung bisher erfolgende) "Aufgabenausführung" von technisch wie softwareseitig implementierten Möglichkeitsfeldern von Operationen des technischen Systems; oder worin besteht dann dieses "mehr" gegenüber den programmierten Möglichkeiten – aber all das geschieht doch nicht jenseits einer Subjekt-Objekt-Dialektik, denn auch das "Neue durch die Maschinen" – darauf hatte ich den Blick gerichtet – ist von Menschen konzipiert, hervorgebracht; dergestalt werden Aspekte menschlicher Kreativität Maschinen übertragen und damit die Fähigkeit der Menschen erweitert, mit und in der natürlichen und sozial-kulturellen Umwelt zu interagieren.

Einfacher als in einem solchen dialektischen Spannungsverhältnis ist der Begriff "künstliche Intelligenz" nicht zu haben – wenn er nicht gänzlich fallen gelassen werden sollte, weil er den Blick auf wichtige Entwicklungsoptionen verstellt.

Ob der Begriff fallen gelassen werden kann, bezweifle ich, da er sich etabliert hat. Dagegen wäre mehr noch zu verdeutlichen, auf welche Entwicklungsoptionen er den Blick verstellt. Die Frage ist, wie er im Kontext der Entwicklung von Mensch-Technik ausgefüllt wird. Die von HGG im vorletzten Absatz aufgezeigte Dialektik lese ich als nicht mehr und nicht weniger als eine Konkretion der von mir geltend gemachten Subjekt-Objekt-Dialektik, wonach der Mensch diese Entwicklung initiiert, zu seinen Zwecken einsetzt (dies dabei auch nicht gesellschaftsneutral) und wie der Mensch in dieser Entwicklung und Auseinandersetzung mit der Natur und der durch ihn hervorgebrachten technischen Kultur sein Wissen, seine soziale Organisation und sein Handeln verändert. Aber – und das war mein Hauptgesichtspunkt, weswegen ich auf die Unterscheidung Problem – Aufgabe zurückgriff, keine technische Entwicklung und eine sich darin selbst gebärende Intelligenz gleich einem Homunkulus ohne Subjekt.

Jürgen Stahl, 1.5.2016


Es sind technische Systeme, von Menschen (Subjekten) erdacht, produziert, installiert, die auch in ihrer Wechselwirkung untereinander und in der Wechselwirkung mit Menschen/Individuen und Gruppen nichts anderes hervorbringen sollen, als wozu sie erdacht, konzipiert wurden. Behaupte ich, diese Systeme lösen Probleme ..., dann wäre zu zeigen, wie das geht. Oder sind nicht vielmehr die gleichsam als Problemlösungen erscheinenden Operationen solcher Systeme notwendig im durch die Programme umfassten Möglichkeitsfeld von abzuarbeitenden Aufgaben etc. ... eingebunden in das Wechselverhältnis Mensch – technische Systeme ...

Hier ist nach meinem Verständnis genauer zu unterscheiden zwischen der Beschreibungsebene und der Ausführungsdynamik. Das ändert zunächst nichts an der prinzipiellen Perspektive, dass auch letztere "nicht für sich, sondern durch Menschen initiiert" ist. Dass diese allerdings, "soweit der Wunsch, letztlich auch kontrolliert" werden können, halte ich für fraglich und sehe hier ein prinzipielles Auseinanderfallen von Wunsch und Wirklichkeit. Der Unterschied ist etwa der Folgende: Auch die Ausführungsdynamik ist zwar zweckkonstituiert, führt aber zur Entwicklung eigener Zustandsdynamiken. Der Zustandsraum ist durch die Programmlogik determiniert und damit beschreibungsmäßig zugänglich (und diese Beschreibung kann für das Folgende sogar als deterministisch vorausgesetzt werden), die Befüllung des Zustandsraums als Ergebnis einer konkreten Programmdynamik in entwickelten Fällen (etwa maschinelles Lernen) aber intentional nicht vorhersehbar, obwohl der Zweck durch das Programm selbst genau beschrieben ist. Das Laufenlassen des Konzipierten bringt strukturell Neues in die Welt. Die Potenzialität wird zur Realität. Siehe hierzu auch das Thema Prozess-Semantiken, das Peter Fargaš am 26.04.2016 im Seminar Wissen angeschnitten hat. Wobei hier weniger das dort Ausgeführte als vielmehr die Links auf Glabbeek spannend sind. Allerdings hat das alles dieselbe Restriktion von zweckbestimmten Beschreibungsformen – und damit reduzierenden Abstraktionen – der Dynamik selbst.

Die Unterscheidung Problem – Aufgabe ist von der Wissenschaftstheorie nicht als Dichotomie vorgenommen ... Sie dient einer qualitativen Unterscheidung von Erkenntnisoperationen; dabei ist evident, dass Probleme in Aufgaben transformiert werden und sich daraus neue Problemsichten ergeben; das ist der Lauf menschlicher Erkenntnis, der mit dem Bild eines Ballons gefasst wurde, der aufgeblasen wird. Anders gesagt: Wissenszuwachs (Problemlösungen) reduziert nicht Fragestellungen, sondern bringt auf einem höheren Niveau neue hervor.

Es ist aber auch umgekehrt – die Erhöhung des Detaillierungsgrads kann aus einer Aufgabe ein Problem machen. Begriffsbildung kommt nach meinem Verständnis grundsätzlich nicht ohne Abstraktion und Abstraktion von Abstraktion aus. Verfahrenswissen als Beschreibendes kann sich nur auf diesen Abstraktionsstufen bewegen und muss sie rückwärts durchlaufen, wenn es gesellschaftlich handlungsrelevanten Einfluss auf die "Prozesse dieser Welt" nehmen soll. Eine Theorie zu einem Kalkül, einen Kalkül zu einem Algorithmus, einen Algorithmus zu einer Implementierung zu verfeinern sind für Neues stets neue Herausforderungen und erreichen das Niveau einer "Aufgabe" im obigen Verständnis erst in dem Maße, in dem gesellschaftliches Verfahrenswissen sich zu gesellschaftlich etablierten Verfahrensweisen verfestigt hat (den "state of the art", an dem sich jeder Techniker und auch jeder Unternehmer ungefragt und jenseits aller privaten Vereinbarung messen lassen muss).

Hans-Gert Gräbe, 30.06.2016


OrdnerVeranstaltungen