04/23/15

Ex Machina

Filmkritik von Thomas Barth

Aus der modernen Welt der hippen IT-Angestellten entführt uns Alex Garland (Buch und Regie) in einen stylischen Bunker, wo sich ein klaustrophobisches Dreiecksdrama mit Nerd und Cybergirl entfaltet. Der ästhetisch anspruchsvolle, subtile KI-Horror lädt zum Nachdenken ein. Doch die Reflexionen über KI bleiben letztlich eine Eulenspiegelei auf Weizenbaums frühe Kritik an der „künstlichen Intelligenzia“, weit entfernt etwa von Stanislaw Lem und seiner Futurologie der „Künstlichen Nichtintelligenz“.

Der junge Programmierer Caleb (Domhnall Gleeson) gewinnt einen Mitarbeiter-Wettbewerb in seiner hippen IT-Firma. Ein Hubschrauber bringt den Nerd in das einsam hoch im Norden gelegene Anwesen seines Chefs, des Computergenies Nathan (Oscar Isaac). Nathan stemmt Gewichte, besäuft sich abends mit edlen Tropfen und gibt den dominierenden Macho. Man glaubt ihm kaum den brillanten Suchmaschinen-Erfinder, der auf dem Gebiet der künstlichen Intelligenz forscht. Leider erfahren wir nur sehr wenig über seine gigantische Such- bzw. Überwachungsmaschine (Google lässt grüßen), im Film „BlueBook“ genannt –wohl eine Anspielung auf die gleichnamige Ufo-Sichtungsdatei der US-Behörden, die der frühe Computernetz-Kritiker und späteren UFO-Buchautor Jacques Vallee einst mit programmierte. Caleb lernt bald die betörende Gyndroidin Ava (Alicia Vikander) kennen, die er einem weiterentwickelten Turing-Test unterziehen soll. Mit durch eine Trennscheibe gestellten Fragen soll Caleb herausfinden, ob das Cybergirl über echte Gefühle verfügt, doch schnell verwickelt ihn Ava in ein spannungsgeladenes Beziehungsdreieck mit Nathan.

Alex Garland erwies sich schon mit dem Drehbuch zu Alles, was wir geben mussten als Meister des subtilen Horrors, wo er das Thema der Klon-Sklaverei um einiges anspruchsvoller inszenierte als die Popkornkino-Variante Die Insel es vermochte. Sein neuer Film Ex Machina bietet mehr an cineastischem Augenschmaus, der den Intellekt jedoch weniger befriedigt. Die elegante Kameraführung schafft in der minimalistischen Innenkulisse zwar eine kühle Atmosphäre, in der sich die Gyndroidin Ava mit ihrem erotischen, teils transparenten Körper entfalten kann.

Die Technologie interessiert Garland sichtlich weniger als menschliche Probleme und die Psychologie der Thematik, und so hoppelt die Handlung über einige logische Löcher: Man fragt sich, wieso für den Turing-Test von Ava ein Hightech-Gel-Computer in ihrem schönen Gyndroiden-Kopf überhaupt nötig ist. Ihre KI hätte man problemlos extern platzieren können. Fragwürdig sind jedoch  auch Avas so immerhin erst möglich gemachten Fluchtpläne –sie übersehen Avas offenbar anspruchsvolle Energieversorgung. Was die echte Reflektion über Probleme der KI angeht, erreicht Ex Machina kaum das Niveau der skandinavischen SF-Serie „Hubots“, wenn auch auf ästhetisch anspruchsvollere Weise.

Digitale Kontrolle oder Voodoo-KI?

Alex Garlands Film regt zum Nachdenken an, aber leider nur sehr wenig über die Gefahren der gigantischen Überwachungsmaschine Google (bzw. „BlueBook“). Die globale Überwachung wird zwar ansatzweise kritisch erwähnt, aber da sie letztlich zur technologischen Basis von Avas KI erklärt wird, letztlich sogar glorifiziert. Zumindest für alle begeisterten Befürworter der KI-Konstruktion könnte das globale Netz von Google (oder womöglich sogar auch das der NSA) damit eine mystifizierende Rechtfertigung erfahren.

Hier klingen ferne Motive des klassischen Modells einer Noosphäre an, die sich moderner bei Cyber-Optimisten wie Pierre Levy in der „kollektiven Intelligenz“ der Netze finden. Levy gibt sich der Hoffnung hin, dass „die globale Totalität der Menschheit dabei ist, zum erstenmal zu einer einzigen kollektiven Intelligenz zu verschmelzen…“ (Levy S.247). Das „global brain, so to speak –the noosphere“ prägten das Genre des Cyperpunk schon in William Gibsons „Neuromancer“, wo es als mystische Voodoo-KI „Wintermute“ den Deus Ex Machina gab, so Erik Davis in „TechGnosis“ (Davis S.352). Das romantische Schwelgen in Träumereien von einer sich am Ende geheimnisvoll aus unserem technologischen Treiben erhebenden göttlichen KI ist verständlich, lenkt jedoch von konkreteren Problemen ab: Den neuen digitalen Kontrollregimen (Barth 1997) und der wachsenden Macht zur Manipulation von Mensch und Gesellschaft durch globale Medienkonzerne (Barth 2006).

Eulenspiegelei auf Weizenbaum

Und so bleibt auch das Nachdenken über die Künstliche Intelligenz bei Garland auf einem eher bescheidenen Niveau. Sein Film Ex Machina erscheint als Antwort auf die frühe Kritik an der frühen KI-Euphorie, wie sie sich bei Joseph Weizenbaum im „Künstliche Intelligenz“-Kapitel seines bahnbrechenden Klassikers „Die Macht der Computer und die Ohnmacht der Vernunft“ findet. Bestenfalls könnte man Ex Machina als Eulenspiegelei auf Weizenbaum sehen:„Da sich das menschliche Denken beispielsweise mit ästhetischen Problemen in Verbindung mit Fühlen, Schmecken, Sehen und Hören beschäftigt hat, wird AI Maschinen bauen müssen, die fühlen, schmecken, sehen und hören können.“ Weizenbaum, S.188 (vgl.S.276f.)

Hier setzt Garlands sexy Gyndroidin Ava an und sorgt mit ihren Gefühle reizenden weiblichen Kurven für Geschmacksverirrung, dass den KI-Forschern Hören und Sehen vergeht: Ava erweist sich als Sex-Roboter mit voll funktionsfähiger Vagina. Der künstliche Vamp hat Tradition im SF-Genre, schon seit Fritz Langs Metropolis. Und selbst der androide Star-Trek-Pinocchio Mr.Data, der die KI-Thematik schon in der spröden Enterprise-Serie durcharbeiten durfte, bekannte sich einmal –quasi hinter vorgehaltener Hand- zu seinem einsatzbereiten Penis. Ex Machina stellt den Maschinen-Eros ins Zentrum, macht ihn zum Prüfstein im (vorgeblichen) Turing-Test. Aber kann die Thematik vom Robot und seinen Gefühlen heute wirklich noch zu Reflexionen über die Probleme der KI anregen?

Weizenbaums auf menschliche Körperlichkeit und Emotionen abzielende Argumentation richtete sich damals nur an die ersten Frühformen, quasi die Neandertaler der KI-Forschung, wie z.B. Newell & Simon. Die glaubten mit ihrem „General Problem Solver“ (GPS) schon den menschlichen Geist nachzubilden, obgleich der es nur bis zum mäßigen Schachspielen brachte. Sie waren sich immerhin noch bewusst, eine reduzierte Sicht des Menschen zu vertreten, den „homo cogitans“ (Newell & Simon S.113) –daher spricht man von kognitivistischer KI-Forschung, die aber später vom Konnektionismus mit seinen Neuronalen Netzen überflügelt wurde.

Die frühen KI-Euphoriker, die Weizenbaum als extreme „künstliche Intelligenzia“ bezeichnete (Weizenbaum S.282), wollten damals menschliches Schlussfolgern in Algorithmen nachbilden. Sie wollten allen Ernstes schon alsbald z.B. menschliche Richter durch Computer ersetzen, so bekannte ein hierzulande eher unbekannter KI-Extremist namens John McCarthy (Weizenbaum S.275). McCarthy glaubte, es sei nützlich, Computern menschliche Eigenschaften zuzuschreiben, wenn dies dabei helfen würde, sie zu reparieren oder zu verbessern. Dies mag für Ingenieure gültig sein, wird aber problematisch, wenn es zu einer neuen „Ansicht über den menschlichen Geist“ verallgemeinert wird (McCarthy S.221).

Künstliche Nichtintelligenz

Der Rechtsinformatiker Wilhelm Steinmüller, der Informationssysteme auch als „Machtfabriken“ (S.530) sieht, urteilt in seinem Opus Magnum „Informationstechnologie und Gesellschaft“ weniger optimistisch:

„Bei echten KI-Systemen treten in gewissem Umfang an die Stelle determinierter Verfahren stochastische Verfahren. Sie entscheiden –wenn auch eingeschränkt- nach dem Zufall… Doch ist es weder mit der Ethik der Informatik noch mit unserer Rechtsordnung vereinbar, Zufall –wenn auch eingeschränkt- über physische oder soziale Existenz von Menschen oder Institutionen bestimmen zu lassen. Darum ist die wichtigste Anforderung des Informationsschutzes ihr Verbot, wo sie über Leben oder soziale Chancen befinden.“ Steinmüller, S.693

Diesen Rat hätten die Akteure in Garlands Film Ex Machina besser beherzigen sollen –oder sich fragen, warum Alan Turing seinem epochemachenden Aufsatz „Kann eine Maschine denken?“ (1950) ein Zitat von Shakespeare voranstellte: „Der Spaß ist, wenn mit seinem eignen Pulver der Feuerwerker auffliegt…“, Hamlet. So geht der gyndroide Sexroboter Ava seinen von Frankenstein bis Blade Runner vorhersehbaren Weg, ohne uns allzu viel Anregung zu ernsthaftem Nachdenken über aktuelle KI-Forschung geliefert zu haben. Die naiven Antworten auf die Kritik an quasi prähistorischen KI-Systemen greifen wenig, die rudimentären Verweise auf Noosphäre und kollektive Intelligenz im Netz hätten weiter verfolgt werden können.

Stanislaw Lem sprach in seinem Buch „Die Technologiefalle“ von „Künstlicher Nichtintelligenz“ (S.141), die womöglich bei gezielter Informationszüchtung entstehen könne, kaum aber einfach so im Internet. Der späte KI-Extremist Marvin Minksy schien mit seiner „Mentopolis“ zwar eine Brücke vom globalen Netz der „Telepolis“ zu solcher Datenzüchtung schlagen zu wollen. Doch dies blieb rudimentär und Minsky verstrickte sich eher in ähnliche Fragen wie Garland, ob und wie einer KI nicht erst Gefühl einprogrammiert werden müsse (Minsky S.163). Von der Schaffung einer echten KI, die den menschlichen Geist auch nur annähernd nachbilden oder zu ihm ähnlichen Ergebnissen kommen könnte, bleiben solche Ansätze noch weit entfernt.

„Die Entwicklung der KI muß mit der Entwicklung des biologischen Zentralnervensystems nicht äquifinal sein. Die Möglichkeiten sind so weit wie der Ozean, und wir haben weder einen ordentlichen Kompaß noch eine Karte.“ Stanislaw Lem, S.261 (zuerst auf filmverliebt)

07/1/12

Heiner Hastedt: Aufklärung & Technik

Heiner Hastedt: Aufklärung und Technik. Grundprobleme einer Ethik der Technik. Frankfurt, Suhrkamp 1991.

Rezension von Thomas Barth

Der Philosoph Heiner Hastedt sucht in seiner Habilitationsschrift einen nüchternen Weg zu einer aufklärerischen Ethik der Technik, einen Weg zwischen den Wunschträumen eines technokratischen Schlaraffenlandes und dem Pessimismus der Neuen Ethik (Hans Jonas). Dabei will er die „geistesgeschichtliche Klammer zwischen Aufklärung und Technikoptimismus zu lösen“, die ihm in zwei gegensätzlichen Modellen von Aufklärung verwirklicht erscheint: Das Identitätsmodell weist der Aufklärung in der mit ihr identifizierten instrumentellen Vernunft die Schuld an der Misere der Moderne zu und neigt zum Rückgriff auf vormoderne Wertstrukturen; das Überholungsmodell des Technokratismus hält die Ziele der Aufklärung für nunmehr nur noch technische Probleme und möchte sie am liebsten den Ingenieuren überlassen. Gegen beides wendet sich Hastedt und möchte mit seinem Reflexionsmodell von Aufklärung die autonom gewordene Technik wieder der Autonomie des Menschen unterordnen. Kern seines Ansatzes ist die Verknüpfung philosophischer Ethik mit Technikfolgen-Abschätzung (TA) bzw. -Forschung.

New Age und Prinzip Verantwortung?

Die Vertreter des Identitätsmodells glauben in der aufklärungskritischen Tradition der Frankfurter Schule zu stehen (S.155). In der populistischen Variante dieser (falsch verstandenen) Aufklärungs-Kritik, dem „New Age”-Denken z.B. Fritjof Capras (die Hastedt „…nur wegen ihrer großen Verbreitung erwähnt, nicht wegen ihrer sachlichen Diskussionswürdigkeit”), verfallen sie dem einfachen subjektivistischen Irrtum, „…das in der Änderung der privaten Gesinnung automatisch eine Lösung auch der Weltprobleme ..” liege (S.159). Ein -nicht ganz so kurzer- Fehlschluß ist in der ökologischen Neuen Ethik zu sehen, wie an Hans Jonas‘ ”Prinzip Verantwortung” verdeutlicht wird. Hastedt merkt an, „…daß die Popularität von Jonas‘ naturalistischer Position geringer wäre, wenn seine hinter dem wichtigen Titel stehenden Inhalte genauer bekannt geworden wären”. Zu kritisieren sei die teleologische Einordnung des Menschen in die Natur mit der ihr folgenden „Naturalisierung und Objektivierung der Werte”, welche durch das Eingeständnis des naturalistischen Fehlschlusses nicht richtiger werde (S.170). Die postulierte „Heuristik der Furcht” erscheine als apokalyptische Umkehrung der Fortschrittseuphorie und erlaube allenfalls eine rudimentäre (Grenzfragen-) TA, nicht jedoch Technikgestaltung (S.172). Die normativistische Kurzschlüssigkeit neige zum Vernachlässigen der Einzelprobleme und zum adressatlosen Moralisieren -was zu ihrer Beliebtheit unter potentiellen Adressaten beitragen mag-, wenn nicht gar „zur Verharmlosung einer Ökodiktatur” (S.176).

Schlimmer noch bewertet Hastedt die Romantisierung ritueller Tötungspraxis bei Naturvölkern durch den Kleriker Drewermann, der aus Hastedts Sicht endgültig auf anti-humanistische Abwege gerät; aber selbst der „Eurotaoismus” Peter Sloterdijks untergrabe -möge man auch seiner Metapher von der „Mobilmachung” für die gegenwärtige Lage zustimmen- die institutionellen und normativen Errungenschaften der Aufklärung, gefährde letztlich die individuelle Autonomie und Freiheit (S.165). Alles in allem bleiben die Utopien einer „naturgemäßen” Technik undeutlich und der normative Naturalismus ignoriert den Einwand, „…daß die Orientierung an der Natur selbst wiederum nicht ´natürlich´, sondern Ausdruck einer gesellschaftlichen und kulturellen Auffassung ist.” (S.157) Leider versäumt Hastedt in seiner Kritik zu erklären, wie denn richtig verstandene Aufklärungs-Kritik in eine Diskussion der Technikentwicklung einzubeziehen sein könnte. Die diskursive Fassung seiner Ethik erlaubt aber sehr wohl, in den Diskurs auch kritische Positionen einzubeziehen, macht es sogar notwendig.

Das Überholungsmodell von Aufklärung und Technik

Einen ganz anderen Fehlschluß konstatiert Hastedt bei den Vertretern eines Überholungsmodells von Aufklärung und Technik. Ihr epistemologischer Naturalismus versuche, die „…menschliche Gesellschaft, Kultur und Psyche mit den Denkmitteln der Naturwissenschaft zu erklären…”(S.151). Zum Teil handelt es sich dabei um Naturwissenschaftler, die „…nach ihrer Pensionierung auch etwas zu den Problemen der Welt sagen wollen.”(S.184) Ihr Ruf als Spezialwissenschaftler und ihre einfachen Modelle bringen ihnen -auch angesichts der zu komplexen Sozialwissenschaften- die Aufmerksamkeit des Publikums ein. Obschon gesellschaftstheoretisch naiv, füllen sie so ein Vakuum, welches „…die mangelnde öffentliche Berücksichtigung der Sozialwissenschaften hinterläßt.”(S.186)

Eine Affinität zu derartigen Fehlschlüssen besteht aber auch in Kreisen der konservativen Soziologie. Schleichend wandelt sich dort die Analyse der Technisierung zum Technokratismus: „Aus der Diagnose eines Trends wird dann ohne Ausweis der normativen Anteile unversehens das Rezept…” für eine technokratische Handhabung der Gesellschaft (S.190). So etwa beim Alt-Technokraten Schelsky in der naiven Forderung nach rationaler Herrschaft im Sinne eines Managements interesseloser Sachgesetzlichkeiten. Oder auch bei seinem Schüler NiklasLuhmann und dessen Gesellschaftstheorie „…die sich in Ihrer Geschmeidigkeit allerdings auf einem ungleich höheren theoretischem Niveau bewegt als der ältere Technokratismus.”(S.192) Ihr epistemologischer Naturalismus zeige sich vor allem im aus der Biologie importierten Hauptbegriff der Autopoiesis.

Im systemtheoretischen Versuch, die Selbstthematisierung der Thematisierungsweisen im Begriff der Selbstreferentialität wissenschaftlich und technokratisch einzuholen, sieht Hastedt vor allem eine implizite Handlungsentlastung des Theoretikers. Luhmanns technokratischer Verzicht auf den Subjektbegriff übernehme lediglich die philosophische Kritik am einsamen Subjekt der neuzeitlichen Bewußtseinsphilosophie, „…die heute keineswegs mehr als Grundlage für den Reflexions- und Handlungsbegriff genommen werden muß.”(S.194)

Darüber hinaus ergebe sich aus einer gesellschaftstheoretischen Verabschiedung des Subjekts auch kein Grund für die Subjekte selbst, sich in ihren Institutionen nicht für die Realisierung ihrer Reflexionseinsichten einzusetzen -wie Luhmanns Polemik der Gesellschaftskritik nahelegt. Der abstrakte “Flug” über der “geschlossenen Wolkendecke” (Luhmann) fällt somit als systematische Großtheorie wenig überzeugend aus und hinterläßt den Eindruck einer Rechtfertigung für entverantwortlichte Geisteswissenschaftler, so Hastedt.

Die Schrumpfvarianten des Technokratismus

Das Harmoniebedürfnis richtet sich also, laut Hastedt, in der zweiten Variante des Naturalismus nicht auf die Natur, sondern auf die Naturwissenschaft bzw. den industriell-technisch-wissenschaftlichen (Erkenntnis-)Komplex. Eine angesichts der Krisensituation verständliche, aber wenig hilfreiche Reaktion. Übrig bleiben nach dieser Kritik die beiden „Schrumpfvarianten” des Technokratismus, die (1.) naturwissenschaftliche Prinzipien immerhin noch auf technologische Entwicklungen anwenden wollen oder (2.) wenigstens für eine ethische Neutralität der Technik plädieren.

Die erste übersieht jedoch die Ergebnisse zur sozialen Bedingtheit von Technologie, in der zweiten zeige sich nicht viel mehr als die „…bewußte oder unbewußte Zielsetzung einer Neutralisierung der ethischen Verantwortlichkeit für die Technologieentwicklung überhaupt.”(S.200) Dem adressatlosen Moralisieren bzw. technokratischen Entmoralisieren will Hastedt dagegen die Verantwortung des Menschen sowohl für den gesellschaftlich-technischen Gesamtkomplex wie für die zum kulturellen Projekt gewordene Natur entgegensetzen.

Das Projekt der Aufklärung darf sich in laut Hastedt im Reflexionsmodell weder auf eine pauschale Zustimmung zum technischen Fortschritt noch auf seine pauschale Ablehnung festlegen lassen. Erst wenn wir differenziert klären, in welcher Welt mit welchen Technologien wir leben können und wollen, wird entscheidbar, ob und wie eine bestimmte Technologie wünschenswert ist. Die zunehmende Komplexität der Probleme bringe es mit sich, dass „…gleichzeitig mehr empirisches Wissen und mehr normative Orientierung gefordert…” sei (S.105).

Die von Hastedt vorgeschlagene “inklusive” Methode soll daher nicht “…anstatt einer empirischen Technologiefolgenabschätzung betrieben werden (…), sondern unter Zuhilfenahme und in interdisziplinärer Zusammenarbeit mit der Technologiefolgenabschätzung.”(S.106) Hastedt legt Wert darauf, seine Ethik als „anwendungsorientiert” von der „Praxisorientierung” anderer Ansätze abzugrenzen, da diese sich oft in einer Theorieorientierung an Hegel und Marx erschöpft habe. Trotzdem betont die Ethik Hastedts “bei ihrer Gradwanderung zwischen Grundsatzreflexion und Anwendung im Zweifelsfall die Seite der philosophischen Grundsatzreflexion” da die im Alltag meist angewandte Verkürzung von Problemen nicht von der Philosophie verdoppelt zu werden braucht (S.63). Andererseits gelte es aber auch, den “ideologischen Bedarf” nach Ethik nicht unreflektiert zu befriedigen, wie er aus Gründen der Abschiebung von Verantwortung oder im Rahmen einer Marketing-Strategie entstehe (S.61).

Eine anwendungsorientierte Ethik der Technik

Hastedts “inklusive Methode einer anwendungsorientierten Ethik der Technik” versucht, diesen selbstgestellten Anforderungen gerecht zu werden, indem sie ein Programm der reflexiven Koppelung von ethischer Begründung und Anwendung in der TA entwirft. Markierungspunkt ist dabei Habermas, wobei die „quasi-transzendentalen Argumentationsnormen der Diskursethik” mit ihren nicht einlösbaren Versprechungen jedoch nicht mehr als die Umgrenzung prinzipieller Möglichkeiten zum Diskurs beisteuern dürfen (S.220). Kern des Programms ist die diskursive Prüfung jeweiliger Praxis der TA anhand normativ-inhaltlicher Prinzipien, womit zwischen „…dem Absolutismus der Letztbegründung und dem Relativismus…” der „Mittelweg der relativ vernünftigen Begründung” angestrebt wird (S.213).

Die fünf normativen Prinzipien (1.Vereinbar mit Grundfreiheiten; 2.Förderlich für Grundfreiheiten; 3.Förderlich für soziale Gerechtigkeit; 4.Gleiche Berücksichtigung zukünftiger Generationen; 5.Gutes Leben) ergeben mit den fünf Verträglichkeitsdimensionen ( 1.Gesundheit; 2.Gesellschaft; 3.Kultur; 4.Psyche; 5.Umwelt) die ÒSuchmatrixÓ einer anwendungsorientierten Ethik der Technik als Leitlinie der Methode (S.257). Im Prinzip Nr.5 des guten Lebens sieht Hastedt eine notwendige Erweiterung des liberalen Projektes der Moderne durch die alte anthropozentrische Ethik (S.227), da die bürgerliche Privatisierung dieser Frage den heutigen Menschen zunehmend überfordere.

Diskussion

Die bei aller proklamierten Nüchternheit doch häufig erfrischende Polemik auch bei der Diskussion großer Philosophen und Theoretiker wie Hans Jonas oder Niklas Luhmann macht den Band gut lesbar. Die dabei angestrebte Verbindung von Technologie und Philosophie unter die Federführung der Philosophen stellen zu wollen ist ein verständliches Ansinnen. Zu oft haben selbstherrliche Technokraten ethische Überlegungen gegenüber Effizienzdenken bzw. ökonomischen Motiven hintangestellt.

Punkt 5 der normativen Prinzipien des vorgelegten Programms wirft allerdings die Frage auf, wer diese neuen Grundsätzen für Ògutes Leben” festlegen sollte bzw. ob wir dies uneingeschränkt akademischen Philosophen überlassen können. Deren gutbürgerlich-saturierte Lebenswirklichkeit dürfte allzu weit vom Leben der meisten Menschen entfernt sein. Zumal in einer Gesellschaft, in der die Möglichkeiten und damit Freiheiten von Arm und Reich jedes Jahr weiter auseinander liegen.

Vielleicht sollte man Debatten um das gute Leben lieber hinter eine Arbeit an jenen Mechanismen zurückstellen, welche die Fähigkeit zu einer entsprechenden eigenständigen Suche des Individuums untergraben: Den Technikpaternalismus, der den digitalen Technologien innewohnt, weil ihre Entwickler über eine vom einzelnen Nutzer kaum einholbare Komplexität gebieten. Von den Höhen ihres Wissensvorsprungs herab meinen sie oft, uns viele Wahlmöglichkeiten diktieren zu dürfen bzw. sogar zu müssen. Hastedt gibt uns gute Argumente an die Hand, wenn wir mit den Technologen in eine Diskussion um die digitale Gestaltung der Informationsgesellschaft einsteigen wollen.

Dabei geht es auch um technologische Macht, die sich besonders in digitalisierte Kommunikation einschreibt: Als unsichtbarer Code der gesellschaftlichen Strukturen. Die völlige Abwendung von Luhmanns Systemtheorie, die solche Strukturen untersucht, erscheint dabei zu weit zu gehen. Sinnvoller wäre es, Luhmanns zur Verschleierung von Macht tendierende Systemtheorie kritisch zu erweitern, um sie durch eine kommunikationsorientierte Machttheorie zu ersetzen. Diese sollte den Machtbegriff nicht länger vernebelnd in der Kommunikation auflösen, sondern umgekehrt Machtausübung und soziale Kontrolle in Kommunikationstrukturen erhellen. An Lehrende der Informatik könnte man diese Programmatik noch durch den Rat eines Klassikers ergänzen:

„Und da es in diesem Buch um Computer geht, soll es ein Appell sein, der vor allem an diejenigen gerichtet ist, die in Computerwissenschaft unterrichten. Ich möchte, daß sie meine Behauptung aufgenommen haben, daß der Computer eine mächtige neue Metapher ist, mit der wir viele Aspekte der Welt leichter verstehen können, der jedoch ein Denken versklavt, das auf keine anderen Metaphern und wenige andere Hilfsmittel zurückgreifen kann. Der Beruf des Lehrers …ist…ehrenwert… Aber er muß… mehr als nur eine Metapher lehren…Er muß über die Beschränkungen seiner Werkzeuge ebenso sprechen wie über deren Möglichkeiten.“

Joseph Weizenbaum, Die Macht der Computer und die Ohnmacht der Vernunft, S.361f

Heiner Hastedt: Aufklärung und Technik. Grundprobleme einer Ethik der Technik. Frankfurt, Suhrkamp Verlag 1991, 336 S., hardcover 22,80 Euro; Taschenbuch 22,00 Euro

Rezension erschien zuerst 1993 in PP-Aktuell (nicht digitalisiert).