[Home]
Hans Gert Graebe / Philo Debatte /
2018-10-18


Home
Neues
TestSeite
DorfTratsch

Suchen
Teilnehmer
Projekte

GartenPlan
DorfWiki
Bildung+Begegnung
DorfErneuerung
Dörfer
NeueArbeit
VideoBridge
VillageInnovationTalk


AlleOrdner
AlleSeiten
Hilfe

Einstellungen

SeiteÄndern







Künstliche Intelligenz

18.10.2018, 17:00 Uhr, Neuer Senatssaal, Ritterstraße 26

Vortrag und Diskussion im Arnold-Sommerfeld-Seminar

Ankündigung

Der Versuch einer adäquaten Fassung des Begriffs "künstliche Intelligenz" führt schnell auf die Frage "Was ist Technik?" Dem Menschen scheinen seine eigenen Schöpfungen, nachdem sie bereits schneller, stärker, genauer usw. sind als der Mensch mit seinen "natürlichen Fähigkeiten", nun auch auf dem Gebiet der "Intelligenz" den Rang abzulaufen.

Wo kommt der unbedingte Gedanke her, den Menschen als Schöpfer und damit als HERR von Prozessen zu betrachten, in denen er sich immer wieder ähnlich blamiert wie Goethes Zauberlehrling? Welchen Meister dürfen wir hoffen zu rufen?

Weshalb der unbedingte Wettbewerbsgedanke, nicht nur der Wettbewerb mit dem (gegen den?) Menschen neben uns, sondern nun auch gegen unsere eigenen technischen Geschöpfe?

Woher rühren die Bestrebungen, Roboter auch vom Äußeren her immer menschenähnlicher zu bauen? Dafür gibt es wenig funktionale Gründe und die im praktischen Einsatz stehenden Industrieroboter folgen auch ganz anderen Trends, von modernen Entwicklungen wie Nanotechnologien, "cyber-physical systems" und "smart materials" ganz abgesehen. Was haben diese neuartigen, in praktischen Gebrauch kommenden Formen mit "Intelligenz" zu tun?

Fragen über Fragen, es wäre vermessen, gültige Antworten zu versprechen. Eine erste Näherung zu versuchen sollte allerdings nicht schaden.

Hans-Gert Gräbe, 17.09.2018

Vortragsplan

  • Ein studentischer Vortrag zum Thema.
    • These 1: Künstliche Intelligenz heißt nicht mehr künstliche Intelligenz, wenn es praktisch wird.
  • Was ist Intelligenz? Was kam dazu im Kontext des 13. Interdisziplinären Gesprächs auf den Tisch.
    • IA statt AI (dafür plädiert Brödner) - aber damit sind wir mit dem Intelligenzbegriff noch nicht weiter.
  • Und dann noch ein paar eigene Überlegungen und Diskussion.
Anmerkungen

In meinem Vortrag habe ich vor allem den Intelligenzbegriff problematisiert, welcher in der Wortschöpfung "künstliche Intelligenz" referenziert wird. Man kann es sich einfach machen und auf das menschliche Gehirn verweisen wie in dem von mir eingangs vorgestellten studentischen Vortrag: "KI ist die Fähigkeit, bestimmte Funktionen des menschlichen Gehirns zu simulieren". Aber sind die meisten KI-Phänomene wirklich allein funktionaler Natur oder setzen sie nicht vielmehr (auch) Zugang zu "Big Data" voraus? Und ist menschliche Intelligenz auf das Funktionieren des Gehirns zu reduzieren oder nicht doch eine intersubjektive soziale Komponente mitzudenken?

Klaus Mainzer möchte den Intelligenzbegriff aus diesem argumentativ extrem zirkulären Irrgarten anthropozentrischer Bezüglichkeit befreien und auf die Fähigkeit zum Problemlösen beziehen, die sich in Kontexten von "Autonomie", "Selbstständigkeit", "Effizienz" und "Komplexität" bewegt.

Ein System heißt intelligent, wenn es selbstständig und effizient Probleme lösen kann. Der Grad der Intelligenz hängt vom Grad der Selbstständigkeit, dem Grad der Komplexität des Problems und dem Grad der Effizienz des Problemlöseverfahrens ab.

Peter Brödner ist dieser Ansatz zu abstrakt – er möchte näher an die Praxen heran und auch die Orte und Kontexte berücksichtigt wissen, an und in denen sich eine derartige Problemlösefähigkeit praktisch entfaltet: IA statt AI – Intelligence Amplification statt Artificial Intelligence.

Diesen Gedanken hatte ich in meinem Vortrag nicht expliziert. Stattdessen ging ich noch einen Schritt weiter und versuchte, die Kontexte von IA selbst zu clustern und einfache Problemlösungen mit bekannten Standardverfahren von solchen abzuheben, wo eine angemessene Einschränkung des Phasenraums aus einem schwierigeren ein einfacheres Problem macht. Die komplexe Aufgabe zerfällt dann in zwei praktische Herausforderungen, die jede für sich möglicherweise einfacher sind – die Sicherung der Bedingtheiten des Handelns (die Systemdynamik darf den eingeschränkten Phasenraum nicht verlassen) und das unter diesen Bedingungen einfachere problemlösende Handeln selbst. In diesem Sinne ist etwa das Immunabwehrsystem eines der intelligentesten Systeme auf unserem Planeten.

Man kann natürlich auch ganz anders an die Frage "Intelligenz" herangehen und die Problemlösefähigkeit mit der Technikfähigkeit einer Spezies korrelieren, also dem Vermögen, Sprachformen zu entwickeln, in denen gesellschaftliches Verfahrenswissen, institutionalisierte Verfahrensweisen und privates Verfahrenskönnen praktisch zur Wirkung gebracht werden.

In der Diskussion kamen dann viele Stereotype auf den Tisch, welche die öffentliche Diskussion zum Thema KI begleiten, von denen ich einige prägnante kommentiere:

1) Es gibt Menschen, die sind intelligenter, und andere, die sind weniger intelligent.

Dies korrespondiert weder mit meinem Zugang zum Intelligenzbegriff noch mit meinem Menschenbild. Intelligenz hat auch in gängigen Theorien viele verschiedene Dimensionen, die nicht einfach gegeneinander aufgerechnet werden können.

2) Computer denken schneller, können in gleicher Zeit mehr und genauer analysieren. Nur deshalb sind zum Beispiel die Schachcomputer so gut. Wie groß ist die Gefahr, dass die Computer die Macht übernehmen?

Neben der extrem problematischen Verwendung des Begriffs "denken" haben diese Vorstellungen, wie etwa moderne Schach- oder gar Go-Programme funktionieren, nichts mit der Realität zu tun. Wie ein Auto nicht die menschliche Bewegung nachahmt, so folgen auch andere technische Artefakte in ihrer Funktionsweise nicht (unbedingt) anthropomorphen Mustern. So wie die Autos die "Macht" im Straßenverkehr übernommen haben (einschließlich der extra für diese gebauten Straßen), so werden auch Computer "Macht" übernehmen, indem sie von Menschen entsprechend ihrer technischen Möglichkeiten für konkrete Zwecke und Interessen und in einer auf Konkurrenzprinzipien basierenden Gesellschaft auch gegen die Interessen anderer Menschen eingesetzt werden. Computer verstärken wie alle technischen Artefakte die menschlichen Fähigkeiten und sind damit auch Machtverstärker. Hinter jedem Computereinsatz stehen aber Zwecke und Interessen von Menschen, auch wenn das gelegentlich nicht gleich sichtbar ist oder gar bewusst verschleiert wird.

3) Dank Computer und eingebetteter Systeme gibt es phantastische Fortschritte in der Prothetik. Wann wird die KI-Forschung so weit sein, den Menschen komplett "abspeichern" und wieder "hochladen" zu können?

Einer solchen Frage liegt ein Bild vom Menschen zugrunde, das ich nicht teile. Die Individualität jedes Menschen konstituiert sich ganz zentral aus den intersubjektiven Relationen, die zusammen mit dem "Gehirn" abgespeichert werden müssten. Das Abspeichern eines "Webs von Objekten" führt bereits in einfachsten programmiertechnischen Kontexten zu extrem schwierigen Fragestellungen. Im besten Fall müsste man nicht den einzelnen Menschen, sondern die ganze Welt "abspeichern". Aber wohin, in welches Medium, das dann ja außerhalb "der Welt" gelegen sein müsste? Weitere Probleme des Klonens (um nichts anderes würde es sich handeln) sind seit den Experimenten mit dem Schaf Dolly hinreichend bekannt.

4) In unserem Alltag werden zunehmend Entscheidungen von Computern übernommen. Wie ist KI mit Begriffen wie Entscheidung und Verantwortung zu relatieren?

Zum Beispiel entscheiden Computer, wann eine Ampel auf Rot schaltet, mit großen Konsequenzen für Fußgänger und Autofahrer, und an manchen Stellen entscheidet die KI, der Straßenbahn Sonderrechte einzuräumen. Müsste hier entscheiden in Anführungsstriche gesetzt werden? Wie unterscheiden sich derartige Entscheidungen von denen eines Computers, Ihnen bei schlechter Vorgeschichte keine Versicherungspolice auszustellen oder Sie als Terrorverdächtigen der besonderen Aufmerksamkeit unserer "Sicherheitsorgane" anheim zu stellen? Können Computer Verantwortung für ihre Entscheidungen übernehmen? Im bisherigen Rechtssystem nicht. Die bürgerliche Gesellschaft ist in wesentlichen Teilen rechtsförmig verfasst und die private Zuordnung von Verantwortung für die Folgen von Handeln eine ihrer zentralen Säulen. In den Kategorien Eigentum und Besitz wird die Welt in solche privaten Verantwortungsräume parzelliert, die nicht nur Individualsubjekte, sondern auch juristische Subjekte als Rechtssubjekte wahrnehmen können. Allerdings sind Individualsubjekte als "Atome" einer solchen Rechtsordnung in unserer Verfassung durch Persönlichkeitsrechte noch einmal besonders geschützt. Eine mögliche Verantwortungsfähigkeit von Computern kann nur im Kontext dieser umfassenderen rechtstheoretischen Grundlagen diskutiert werden. Bisher ist es noch so, dass Entscheidungen von Computern von Menschen zu verantworten sind, denen im Streitfall in einem – möglicherweise komplizierten und ggf. gerichtlich zu klärenden – Prozess diese Verantwortung zugeordnet wird, einschließlich harter ökonomischer Konsequenzen. Derartige Zuordnungen werden in komplexen technischen Kontexten zunehmend schwierig, derartige Zuordnungen aufzugeben würde aber an den Grundfesten der Verfasstheit einer bürgerlichen Rechtsordnung rütteln. Ich habe also keine Antwort, zeige allein auf, dass eine Antwort billig nicht zu haben ist.

5) Wenn diese Verantwortungsprinzipien durch Technikentwicklung zunehmend ausgehebelt werden, gewinnen dann damit nicht ethisch-moralische Prinzipien an Bedeutung? Und müssten diese ethisch-moralischen Prinzipien den Computern nicht "eingebaut" werden"?

Das ist durchaus denkbar und spielt etwa in einer "Corporate Identity" von Firmen auch schon eine gewisse handlungsleitende Rolle. Allerdings entwickeln derartige ethische Prinzipien des "Sollens" niemals die harte normative Kraft von Schuld eines schuldfähigen Rechtssubjekts und entfalten damit ihre Gesellschaft strukturierende Wirkung auf einem wesentlich indirekteren Weg. Zudem stehen ethische Prinzipien heute unter dem Generalverdacht, dass sie immer dann herhalten müssen, wenn es heißt "wasch mir den Pelz, aber mach ihn nicht nass". In gesellschaftstheoretischen Ansätzen in der Denktradition von Hegel und Marx wird betont, dass ethische Fragen immer auch Klassenfragen sind, also das Potenzial in sich bergen, auf subtile Weise gegen die eigenen Interessen in Stellung gebracht zu werden. Lawrence Lessig betont in seinem Buch "Code is Law", dass die Implementierung derartiger Regeln in Computersystemen diese Phänomene nochmals deutlich verstärkt. Eine Asimovsche Roboterethik ist also ein netter Versuch, verkennt aber, dass das Prozessieren der Widersprüche einer ''Multitude'' von Interessen und Interessengegensätzen in einer sehr heterogen strukturierten Welt nur praktisch erfolgen kann.

6) Können aber Computersysteme nicht wenigstens mit ihren Prognosen weiterhelfen?

Ja, und das passiert schon lange, aber die beteiligten Wissenschaftler sprechen nicht von Prognosen, sondern von Szenarien. Leider kennt die deutsche Wikipedia den letzteren Begriff nicht. Der Unterschied ist aber deutlich – eine Prognose entwickelt einen hohen Wahrheitsanspruch, den sie eigentlich nicht einlösen kann, ein Szenario ist eine Prognose zusammen mit ihrer eigenen Bedingtheit. Beides entwickelt sich aus Sprachformen, in denen wir Wirklichkeit abbilden, im Begriff "Szenario" bleibt aber die Modellhaftigkeit und Bedingtheit derartiger Aussagen sichtbar. Damit werden die prinzipiellen epistemologischen Grenzen deutlicher markiert. Die Möglichkeit zu derartigen Prognosen ist der bisherige Endpunkt einer Entwicklung von Wissenschaftsmethodiken: von den spekulativen Methoden der Scholastik über die experimentelle Methode zunächst der Physik und später auch anderer Wissenschaften, die Ablösung des Experiments durch die Simulation bis hin zur "Simulation" auf realweltlichen Vorgängen selbst, die insbesondere mit neoliberalen Ansätzen deutlich zugenommen haben.

7) Kann man über all diese Fragen anders reflektieren als auf die hier vorgetragene akademische Art? Was ist mit Kunst, Science Fiction und all dem?

Ja, kann man und muss man, war aber nicht mein Thema. In der Diskussion spielte eine solche Komponente der Reflexion eine gewisse Rolle, Stanislaw Lem, Kubricks "Odyssee im Weltraum" oder Spielbergs Film "AI".

Hans-Gert Gräbe, 19.10.2018


OrdnerVeranstaltungen