MMK | Expertinnen und Experten finden in 2-tägigen Arbeitsgruppen innovative Lösungen für aktuelle Probleme.

 
 
 

AG 2: Fiktion und Realität der IT im Laufe der Zeit

ModeratorInnen: Gerd Palmetzhofer, Peter Brödner

PfeilPositionspapiere zur AG 2

Anstößiges zum Thema der AG 2

1.

Um kaum ein anderes technisches Artefakt ranken sich derart viele und abwegige Mythen wie um den Computer. Als den allermeisten Menschen mystisch erscheinender Gegenstand ist er die mythisch umwölkte Maschine schlechthin. Damit lässt er sich auch perfekt für ideologische Zwecke missbrauchen (was wir derzeit gerade wieder in einer neuen Welle »technologischen Überschwangs« um sog. »autonome Systeme« erleben).

2.

Von Beginn an ist der Computer Gegenstand irreführender Metaphorik. So gilt er unter anderem als
  • »Elektronengehirn« und »Denkmaschine« (in den 1940/50er Jahren),
  • befähigt zu künstlicher »Intelligenz« und maschinellem »Lernen« (McCarthy 1957, Steinbuchs »Lernmatrix« 1961, »Expertensysteme« der 1980er, KNN, heutige Rede von der »Singularität« als dem Umschlagpunkt, an dem die künstliche der natürlichen Intelligenz überlegen wird),
  • daher auch als allgemeiner Bösewicht und »Jobkiller« (Wiener 1952, 1970/80er Jahre, heute wieder).
  • 3.

    Auch die sich für zuständig erklärende Wissenschaft der »Informatik« trägt selbst wesentlich zur Mythenbildung bei, wenn sie erklärt:
    »Im Zentrum der Informatik steht die Information. Sie bezieht sich auf Fakten, Wissen, Können, Austausch, Überwachen und Bewirken; sie will erzeugt, dargestellt, abgelegt, aufgespürt, weitergegeben und verwendet werden; sie ist meist komplex und undurchschaubar mit anderen Informationen vernetzt.
    […]
    Die Wissenschaft Informatik befasst sich mit der Darstellung, Speicherung, Übertragung und Verarbeitung von Information.« (So eine Grundsatzerklärung der GI, vgl. www.gi.de/fileadmin/redaktion/Download/was-ist-informatik-lang.pdf). Ebenso behauptet auch die Académie Francaise: »Informatik ist die Wissenschaft von der rationalen, insbesondere maschinellen Verarbeitung von Information.« Das ist in grotesker Weise kontrafaktisch; der Blick auf die Kernbereiche der »Informatik« als wissenschaftlicher Disziplin offenbart: Die theoretische »Informatik« befasst sich mit Fragen der Berechenbarkeit, Entscheidbarkeit und Korrektheit, mit Turingmaschinen, Algorithmen und Datenstrukturen; die technische Informatik behandelt Analyse, Entwurf und Bewertung von Schaltsystemen; die praktische Informatik behandelt Probleme der systematischen Entwicklung und Gebrauchstauglichkeit von Software etc.. Von »Information« ist dort nirgendwo die Rede. Der Computer verarbeitet nicht »Information« (was immer das sei), sondern Zeichen eines endlichen Zeichenvorrats (»Alphabet«) mittels Algorithmen (vgl. Turingmaschine oder auch Shannon). Eine zutreffende Benennung der Disziplin ist daher die angelsächsische »computer science«, oder besser noch: »computing science«.

    4.

    Die sich ebenfalls für zuständig haltende Sozialwissenschaft – jedenfalls soweit es Fragen von Entwicklung und Gebrauch von Computertechnik in sozialer Praxis anbelangt – trägt ihrerseits wenig zur Aufklärung, dafür gelegentlich selbst erheblich zur Mythenbildung bei. So wird beispielsweise in der unsäglichen »Actor Network Theory« Computern eigene »Handlungsträgerschaft «, also die Eigenschaft des eigenständigen, »autonomen« Handelns, zugeschrieben (woraus dann flugs etwa das »autonome« Auto entsteht). Oder es wird wie vom ISF behauptet, »Informatisierung« in Gestalt vernetzter Computersysteme bewirke einen »Produktivkraftsprung« und bilde eine neue »gesellschaftliche Handlungsebene« (vgl. etwa Boes, A. & Kämpf, T. (2011): Global verteilte Kopfarbeit. Offshoring und der Wandel der Arbeitsbeziehungen. Berlin: edition sigma, S.62f.). Wahrlich starker Tobak.

    5.

    Das alles wirft die Fragen auf: Was tun? Wie können wir uns rund um den Computer vor Mystifizierungen und Selbsttäuschungen schützen? Wie häufig in solchen Fällen ist es hilfreich, genauestens hinzuschauen, wie Computer funktionieren, was in ihnen im einzelnen abläuft. Und dazu hat die theoretische »Informatik« in Form der Turingmaschine das Wesentliche zu sagen. Mit ihrer Hilfe gelang es Turing ein- für allemal zu klären, was ein Algorithmus ist: ein terminierendes Verfahren, mittels dessen Computer berechenbare Funktionen auf einem endlichen Zeichenvorrat ausführen – und nichts sonst; darüber hinaus konnte er damit zeigen, dass es auf die Hilbertsche Frage nach einem allgemeinen Verfahren, mit dem von jeder beliebigen Formel in einem formalen System entschieden werden kann, ob sie beweisbar ist oder nicht, keine Antwort geben kann. Genau deswegen heißt der Computer »Computer« und ist die »Informatik« eigentlich »computing science«.

    6.

    Damit entpuppen sich Computer (und mit ihnen durch den Austausch von Signalen (Daten) gebildete Netzwerke) als eine besondere Klasse von Maschinen, die sich von herkömmlichen Maschinen der Energie- und Stoffumwandlung radikal unterscheiden. Während sich letztere Naturkräfte und -effekte zwecks Steigerung von Mengenleistung funktional zunutze machen, manipulieren Computer Zeichen, um entweder Prozesse der Energie- und Stoffumwandlung zu steuern (etwa in sog. »cyber-physischen Systemen«) oder um Zeichenprozesse sozialer Praktiken (etwa in Organisationen) zu reorganisieren. Die oft zu vernehmende Behauptung, Computer steigerten per se die Produktivität von Arbeit, ist mithin ein Märchen: Produktivitätssteigerungen lassen sich mittels Computern allenfalls indirekt erzielen, indem entweder durch bessere Steuerung von energie- und stoffumwandelnden Prozessen neue Natureffekte oder größere Naturkräfte mobilisiert oder indem zeichenbasierte Wissensarbeit (»Kopfarbeit«) und der Umgang mit ihren durch Daten repräsentierten Ergebnissen neu organisiert werden.

    7.

    Auch aus diesem Grund ist in allen hoch entwickelten, immer stärker durch Wissensarbeit geprägten Gesellschaften ein säkularer Niedergang der Produktivitätszuwächse zu verzeichnen. Das bedeutet allerdings nicht, dass im Einzelfall konkreter Reorganisation von Wissensarbeit der Computereinsatz nicht zu erheblichen Veränderungen von Arbeitsaufgaben und Prozessabläufen einschließlich des Wegfalls ganzer Tätigkeiten führt. Andererseits erfordert das beträchtliche Aufwände für die Modellierung und Formalisierung von Zeichenprozessen der Wissensarbeit als notwendiger Voraussetzung für den Computereinsatz sowie für die individuelle und kollektive Aneignung seiner Funktionen zum praktischen Gebrauch in den veränderten Arbeitsprozessen.

    8.

    Die mit dem Computer verbundene Metaphorik ist in mehrfacher Hinsicht irreführend. Sie verführt dazu, die fremdbestimmte algorithmische Funktionsweise von Computern mit autonomem, reflexiv gesteuertem Handeln von Menschen gleichzusetzen mit der Folge, menschliches Verhalten auf maschinelle Funktionen zu reduzieren und zugleich Illusionen über die Leistung von Maschinen hervorzurufen. »Wer denkt, dass eine Maschine denkt, denkt wie eine Maschine« (F. Nake).
    Wie die theoretische Informatik lehrt, ist das Verhalten von Computern strikt gebunden an die durch Algorithmen kausal determinierte Ausführung berechenbarer Funktionen (s.o. 5.); es ähnelt daher weder der Arbeitsweise eines Gehirns als Organ eines lebendigen und bedürftigen, empfindsamen und zu unmittelbarer, vorbegrifflicher Wahrnehmung fähigen Körpers noch ist es mangels Intentionalität in irgendeinem bedeutungsvollen Sinn »wissend« oder »intelligent«. Dem Algorithmus fehlt die zwecksetzende Instanz: Gehirn und Körper sind per Stoffwechsel und Interaktion eingebunden in die umgebende natürliche und soziale Welt, mit der sie von sich aus intentional interagieren und die sie nährt. Dagegen sind Computer Artefakte, die zweckmäßig gestaltete berechenbare Funktionen ausführen; intelligent sind nicht sie selbst, sondern allenfalls die Programmierer, die sie mit diesen Funktionen ausgestattet haben, um sozial bestimmten Zwecken zu dienen.
    Ähnlich beruht auch der Ausdruck »maschinelles Lernen« auf einer fehlgeleiteten Analogiebildung. Das veränderliche Verhalten vermeintlich »autonomer« Software-Agenten wird durch algorithmische Verfahren erreicht, die deren Anpassung an Umweltgegebenheiten steuern (tatsächlich wurden solche Systeme früher auch als adaptive Systeme bezeichnet). Es ist daher fremdbestimmt und gerade nicht autonom (allenfalls automatisch, durch äußeren Anstoß von selbst ablaufend, auto-operativ). Im Gegensatz dazu geschieht menschliches Lernen aus eigenem Antrieb – als Folge des intentionalen Verhältnisses zur Welt – und beruht wesentlich auf reflexiver Handlungssteuerung und Begriffsbildung als Grundlage der Gewinnung expliziten theoretischen Wissens über die eigene Praxis (Nachdenken über das eigene Handeln und das eigene Denken).
     

    Alle TeilnehmerInnen an Arbeitsgruppen sollen im Vorfeld der MMK ein Positionspapier zum gewählten Arbeitsgruppenthema verfassen und




    -- -->