02/3/15

Zivilgesellschaft & digitaler Ungehorsam

In einem aktuellen Beitrag beschäftigen sich Heinz Kleger und Eric Makswitat von der Universität Potsdam mit dem Thema Datenschutz in Europa. Im Gegensatz zu Anthony Dworkins richten sie ihren Fokus nicht auf die Politik, sondern auf Aktionen von der Zivilgesellschaft.

Theresa Kruse 25.02.2015

So merkwürdig es scheint: Die meisten Akteure aus dem NGO-Sektor und die vielen zivilgesellschaftlichen Aktivisten mit ihrem kritischen Bürgersinn, finden zwar nicht gut, was gerade so datenmäßig und überwachungstechnisch alles passiert – aber sie haben weder ein gesteigertes Interesse an ihrem eigenen Schutz, noch setzen sie sich für grundlegende Reformen ein. Stellvertretend für ‚die Zivilgesellschaft‘ kann man vielleicht das Bürgernetzwerk Bürgerschaftliches Engagement nennen, in dem sich große Teile der organisierten deutschen Zivilgesellschaft zusammengeschlossen haben. Hier sucht man vergeblich nach Ideen, was Snowdens Enthüllungen für die deutsche Zivilgesellschaft und für das bürgerschaftliche Engagement in unserem Land bedeuten.

Selbst internationale Demokratie-Aktivisten, die von Überwachung bedroht sind, nutzen nicht automatisch Sicherheits-Tools. Sehr selten reflektieren sie über ihren persönlichen Schutz hinaus die politische Bedeutung und was das Recht auf Privatheit in ihren Konzeptionen von Demokratie und Menschenrechten zu suchen hat.

Bleiben die Aktions- und Beteiligungsformen abseits der formalen Strukturen der Zivilgesellschaft. Hier kreisen mehr und mehr informelle Gruppen und oft künstlerische Akteure um die Fragen Überwachung, Selbstbestimmung, Privatheit und Sicherheit. Heinz Kleger und Eric Makswitat von der Universität Potsdam untersuchen den zivilen Ungehorsam als Handlungsfeld des digitalen Aktivismus.

Handlungen, die im Sinne des guten Ziels als legitim angesehen werden, gehören seit jeher zum digitalen Aktivismus – auch wenn sie illegal sind. Die Autoren diagnostizieren, dass das qualitativ Neue am digitalen zivilen Ungehorsam ist, dass dieser um „Sichtbarmachung und Thematisierung“ kreist. Dieser Ungehorsam speise sich nicht so sehr aus einer protestbereiten Öffentlichkeit, sondern schaffe diese erst einmal, um den Mangel an öffentlichem Bewusstsein und Information auszugleichen.

Ist das der politikwissenschaftliche Ritterschlag für Anonymous? Mitnichten, denn gerade bei deren Aktionen sehen Kleger und Maskwitat die legitimen Grenzen des zivilen Ungehorsames oft überschritten. Im Unterschied zu analogen Sitzblockaden, mit denen man Distributed Denial of Service-Attacken am ehesten vergleichen könnte, seien die Folgen der Ausschaltung großer und wichtiger Dienste im Internet jedoch wesentlich weniger kalkulierbar. Zu viele Unbeteiligte seien betroffen: „Die Folgenverantwortung, die zur politischen Ethik gehört, ist nicht im Blick“, schreiben sie. Kritisch sehen die Autoren auch, wenn Aktivisten „nicht nur informieren, sondern ihre vermeintlichen Gegner auch bestrafen“. Selbstjustiz sei aber gerade kein legitimes Ziel demokratischen Aktivismus. Ebenso widersprächen „die Züge des Klandestinen und Konspirativen den Kriterien des zivilen Ungehorsames.“

Unstrittig ist für die beiden Autoren, dass Edward Snowdens Aktionen zum zivilen Ungehorsam gehören. Im Gegensatz zu Julian Assanges Ohne-Rücksicht-auf-Verluste-Strategie der Veröffentlichung kritischer Informationen (Anm. Netzphil: inzwischen ist bekannt, dass dieser falsche Vorwurf gegen Assange von genau jenen Guardian-Journalisten verbreitet wurde, die für die fahrlässige Publikation des Passwortes verantwortlich waren, mit dem die wegen der Verfolgung durch NSA, CIA, FBI usw. verschlüsselten und global verteilten Wikileaks-Dateien weltweit lesbar wurden; Geheimdienste und willige Medien griffen die Verleumdung jahrelang begierig auf, um Stimmung gegen Wikileaks zu machen; Assange hat diese Beschuldigungen zurückgewiesen, ihm wurde niemals entsprechendes Fehlverhalten nachgewiesen) schätzen sie an Snowdens dosierter Herausgabe von Informationen das verantwortungsbewusste Bemühen um eine Begrenzung des möglichen Schadens, weil er eine qualitative journalistische Aufarbeitung ermöglicht.

Letztlich sei die richtige und legitime Strategie in der Demokratie aber die Mehrheiten zu bilden. Ungehorsam könne da nur die Ausnahme bleiben und ist im Sinne einer „Zivilität des Ungehorsams“ an Kriterien wie die immaterielle und materielle Abwägung der Folgen, Zielgerichtetheit, Friedlichkeit und die Relation des Handelns zu höheren verfassungsmäßigen Werten gebunden.

Das Schweigen der organisierten Zivilgesellschaft

Dworkins auf der einen sowie Kleger und Makswitat auf der anderen Seite behandeln die zwei entgegengesetzten Richtungen des politischen Handlungsspektrums. Hier die Sphäre der supranationalen Verhandlung, der Advocacy und des juristischen Kampfs auf europäischer Ebene, dort der Aktivismus einzelner oder loser Gruppen.

In Europa befindet man sich bei manchem politischen Vorhaben womöglich auch mit denen in einem Boot, die man wegen anderer Dinge bei den BigBrotherAwards prämiert. Das passiert etwa bei Fragen der Verschlüsselung oder Netzneutralität, mit Abstrichen auch bei Urheberrechtsfragen. Bei anderem wie den Big-Data-Regulierungen bleibt man Gegner. Hier muss man Pragmatismus wagen, ohne die Glaubwürdigkeit der digitalen Advocates zu unterlaufen.

Der digitale Aktivismus hat eine spezifische Ausprägung des zivilen Ungehorsames hervorgebracht, der zum kulturellen Kern seiner Bewegung gehört. Er schafft es in einzelnen Fällen Aufmerksamkeit zu erregen und hat auch durchaus Sympathisanten unter Bürgern, in der Politik und in den Medien, die seine Aktivisten als Experten schätzen und in einer speziellen Weise als Hacker oder digitale Bohème heroisieren. Digitaler Ungehorsam kann aber aus demokratie-theoretischen Erwägungen nur ein Teil einer größeren politischen Strategie sein, muss die Ausnahme der Aktionsformen darstellen und Standards genügen, die ihn zivil und demokratisch machen.

Wirksame Bewegungen haben funktionale Lösungen gefunden, wie sie in solch unterschiedlichen Sphären handlungsfähig sein können und die sich ergebenden Dilemmata verhandeln. Insofern kommt Organisationen wie Digitalcourage, aber auch Netzwerkveranstaltungen wie dem CCC oder sektorenübergreifenden Foren des Austauschs und der Kooperation eine wichtige intermediäre Funktion zu.

(reblogged von https://digitalcourage.de/blog/zivilgesellschaft-und-digitaler-ungehorsam)

Weiterführende Links

12/5/14

Uralte Stereotype: Hacker, Nerds, Computerfreaks

Thomas Barth

Als im Wahlkampf 2012 SPIEGEL-Schreiber Mathias Matussek mit seinem Pamphlet „Das maschinenhafte Menschenbild der Piraten“ gegen die neue Netzpartei trommeln wollte, ahnte er wohl nicht, dass er sich damit in eine lange Tradition stellte: Das Stigmatisieren der Netzkultur. Er stellte sich damit gegen neue Ansätze zur Vermeidung einer drohenden totalen Überwachung, welche mit ausuferndem Lobbyismus und Korruption in Medien und Politik einhergeht.

Matussek bediente sich im Dienste Bertelsmanns für den „Spiegel“ eines der ältesten Stereotype gegen Computernutzer –wenn auch nur unbewusst bzw. nach Hörensagen, wie man angesichts seiner eher mäßigen Kenntnisse der Netzkultur wohl vermuten muss.

Der „Maschinelle Charakter“

1987 galt die Studie „Der maschinelle Charakter“ (in Anlehnung an Adornos „Studie zum Autoritären Charakter“) der führenden akademischen Experten Pflüger & Schurz als Stand der Forschung; darin wurde allen Ernstes behauptet, „übermäßige“ Computernutzung führe zu einem totalitären „Schwarz-Weiß-Denken“, quasi durch psychische Infektion mit der binären Null-Eins-Logik der neuen digitalen Medien. In meiner Diplomarbeit konnte ich 1990 signifikant nachweisen, dass die zugrunde gelegten Daten dürftig und zudem falsch interpretiert waren sowie dass Forschungsdesign und Theoriebasis desolat waren.

Warum das Inverse Panoptikum der Hackerkultur nicht verstanden wurde

1997 konnte ich in einer weiteren Studie aufzeigen, wie der „Maschinelle Charakter“ sich als Standardisierung und Normierung von Vorurteilen in eine Stigmatisierungs-Kampagne gegen die damals noch kleine Computer- und Netzkultur einfügte. An diese Stigmatisierung knüpfte 25 Jahre später Matusseks „Spiegel“-Pamphlet an. Der Netzbewohner, Hacker bzw. „Computerfreak“ war schon damals zur Projektionsfläche von Ängsten und Wünschen bezüglich der heranrollenden digitalen Medienkultur geworden, deshalb wurde er pathologisiert und kriminalisiert. Außerdem tobten bereits erste politische Kämpfe um den künftigen Cyberspace der Netze, für die ich damals zwei Hauptfelder prognostizierte:

  1. Strafrecht und Überwachungsstaat, der sich im Internet gegen Hacker richten würde, die nach Transparenz von Daten der Mächtigen strebten, frühe Vorläufer von Anonymous und WikiLeaks;
  2. Die ökonomische Erdrosselung der Netzkultur durch das Copyright, wenn der digitalen Kommunikation die Besitzmetaphorik der Warenwelt übergestülpt würde.

Als Lösungsansatz unterbreitete ich 1997 das Utopiemodell des „inversen Panoptikums“, das den Panoptismus moderner Gesellschaften (Foucault) vom Kopf auf die Füße stellt: Anstatt einer immer weiter ausgebauten Überwachung der vielen Machtlosen durch wenige Mächtige sollte umgekehrt die Transparenz der Mächtigen und der Datenschutz für die vielen zur Norm werden. Meine Studie „Soziale Kontrolle in der Informationsgesellschaft: Systemtheorie, Foucault und die Computerfreaks als Gegenmacht zum Panoptismus der Computer- und Multimedia-Kultur“ steht inzwischen in vielen Informatik-Fachbibliotheken, die Debatte des Panoptismus-Begriffes findet sich in vielen Beiträgen wieder. Im „Spiegel“ und anderen Mainstream-Medien weigert man sich aber verbissen, die neuen Wertvorstellungen der Netzkultur zur Kenntnis zu nehmen. So wird dort immer wieder der angebliche Widerspruch bei Netzaktivisten und Piraten gegeißelt, sie seien für Transparenz, aber wollen zugleich Anonymität im Netz.

„Spiegel“ geißelte „Traum totaler Herrschaftsfreiheit“

Mit dem im „Spiegel“ gegeißelten „Traum totaler Herrschaftsfreiheit“ hat das natürlich nichts zu tun. Das „inverse Panoptikum“ stellt lediglich ein Leitbild zur Vermeidung einer drohenden totalen Überwachung dar, die zudem mit ausuferndem Lobbyismus und Korruption in Medien und Politik einhergeht. Digitale Technologie konzentriert immer mehr Macht bei wenigen Überwachern: Macht durch Kontrolle über die Daten der Einzelnen und Macht über den Zugang der Einzelnen zu den Medien. In einer Demokratie können die vielen Machtlosen sich jedoch gegen die zunehmende Drangsalierung wehren. Die Dunkelmänner der Datenwelt haben das natürlich auch begriffen und schreien allerorten selbst laut nach Transparenz, meinen damit aber Kontrolle über Netznutzer, Kunden, Arbeitende.

Als Gegenmächte stehen der Netzkultur damit vor allem die Geheimdienste und die großen Medienkonzerne, sprich: die Verwerter, gegenüber. Der größte Verwerter in Europa heißt Bertelsmann, der Kampf um alte Pfründe, z.B. des Copyright auch in der neuen Netzkultur, steht für diese Machtgruppen an erster Stelle. Wer etwas Neues will, wird von diesen Machtgruppen angefeindet, schlechtgeredet, später vielleicht korrumpiert, infiltriert und gekauft. So ging es der SPD, als Medienkanzler (!) Schröder für seine „Agenda 2010“ sein Hartz IV-Konzept von der Bertelsmann-Stiftung schreiben, durch McKinsey (damals Bertelsmanns Unternehmensberater) umsetzen und von Bertelsmann-Medien beklatschen ließ. So ging es den Grünen, als sie sich die Bildungspolitik der Bertelsmann-Stiftung aufschwatzen ließen, das „Leuchtturm“-Gefasel, Privatisierung und Studiengebühren. Als Grüne nach jahrzehntelangem Kampf endlich auf EU-Ebene ein Chemikaliengesetz mit formulieren durften, hatten sie sich von neoliberalen Ideologen schon so sehr einlullen lassen, dass sie sich einen Chemielobbyisten unterschieben ließen, der dem Gesetz die Zähne zog. Auch bei den Grünen begann es mit einer medialen Mischung aus Lobhudelei und Verteufelung; Lobhudelei, denn ihre Anhänger sollten ja letztlich an der Nase im Kreis herum geführt werden; Verteufelung für jene, die das nicht mit sich machen lassen wollten.

Piraten als Nerds?

Die Piraten wurden in den Mainstream-Medien aus politischem Kalkül unter dem Stereotyp der Hacker-, Nerd- und Netzkultur stigmatisiert. Der größte Skandal scheint den sie anfeindenden Gegner aber zu sein, dass hier „computeraffine“ Menschen tatsächlich politisch sind. Sie sind eben nicht unpolitische Fachidioten wie die Nerds aus der US-Soap „The Big-Bang-Theory“. Verschiedenste Label werden ihnen aufgedrückt, was im Grunde jedoch nur eines zeigt: Sie dienen als Projektionsfläche für Hoffnungen und Ängste. Vor allem wohl der Hoffnung, sie mögen bei aller Computerkompetenz doch so dumm sein, dass sie wie geschmiert von der korrupten Mainstream-Medienwelt und -Politik assimiliert werden können.

Mathias Matussek hat mit seinem Pamphlet damals wohl den bislang aggressivsten Beitrag zur Medienkampagne gegen die Piraten geleistet und vielleicht sogar maßgeblich zu ihrem Abstieg nebst Selbstzerlegung beigetragen. Ihr Anliegen hat dies keinesfalls verdient, ihre (Netz-) Politik nur teilweise.

Zuerst erschienen bei InversePanopticon

11/16/12

Jörg Auf dem Hövel: Abenteuer Künstliche Intelligenz

Rezensiert von Thomas Barth

Jörg Auf dem Hövel: Abenteuer Künstliche Intelligenz, Discorsi Verlag

Der Publizist und Politikwissenschaftler Jörg Auf dem Hövel lädt seine Leser ein zu einem Abenteuer der utopisch-philosophischen Art: „Künstliche Intelligenz“ -ist so etwas möglich? Reich an Aphorismen, Anekdoten und philosophischen Betrachtungen über AI (Artificial Intelligence) schreibt er die Geschichte eines faszinierenden Gebietes, das schon lange SF-Autoren anregte. Denken wir an Kubricks Film „2001“: Dort wendet sich die AI als Bordcomputer eines Raumschiffes mörderisch wie Frankensteins Monster gegen die Astronauten. Auch Käptn Kirk von der Enterprise musste eine AI überlisten, bei Stanislaw Lem wächst in „Also sprach Golem“ die AI ihren Erfindern eher subtil über den Kopf und nimmt hinter ihrem Rücken interstellaren Kontakt zu ihres Gleichen in der Galaxis auf.

Jörg Auf dem Hövel ist sich dieser literarisch-utopischen Wurzeln bewusst, wenn er in Forschungslabors blickt und über die Zukunft intelligenter Automaten sinniert. Pioniere der AI wie Norbert Wiener, Alan Turing oder die Kommunikationtheoretiker Shannon&Weaver waren auf die Informationsverarbeitung der rationalen Intelligenz fixiert. Die ersten Schachcomputer erstaunten uns. Ein „General Problem Solver“ weckte große Erwartungen, die sich bei Transhumanisten zu einer neuen Heilslehre steigerten, aber auch bescheidenere Hoffnungen, dass de Rekonstruktion unserer Intelligenz schon bald weiter Fortschritte machen wird.

„Eine Maschine, die denkt, fühlt, redet und sich selbst erkennt – für die einen ein Menschheitstraum, für die anderen eine Horrorvision. Noch streiten sich die Wissenschaftler, ob wirkliche künstliche Intelligenz überhaupt jemals technisch realisierbar sein wird, und die Ergebnisse bisheriger Forschung fallen vor dem Hintergrund manch gewagter Vision noch bescheiden aus. Doch dies tut der Faszination an dem Thema keinen Abbruch. Denn die Wissenschaft von der künstlichen Intelligenz berührt das soziale, kulturelle und religiöse Selbstverständnis des Menschen.“ (Verlag)

Es geht um eine Disziplin, die trotz ihrer Fehlschläge von einer magischen Aura umgeben ist. Ende der 80er Jahre zeigte die AI deutliche Anzeichen einer degenerierten Wissenschaft, so der Autor, denn zu hoch waren die geschürten Erwartungen, schon bald menschliche durch elektronische Intelligenz ersetzen zu können. Die enormen Rechenleistungen ermöglichten Erfolge bei Expertensystemen, die aber trotzdem nur bessere Datenbanken blieben. Computer schafften es sogar Schachweltmeister ins Schwitzen zu bringen. Doch beim Einsatz in der banalen Alltagswelt der Straßenüberquerungen und etwa des Häkelns scheiterten die artifiziellen Superhirne gründlich. Selbst am am Massachusetts Institute of Technology (MIT) war man zunehmend frustriert darüber, dass die AI immer noch nicht in der Lage war, zügig eine Treppe zu überwinden und zum Einsammeln von ein paar Bauklötzchen Stunden brauchte. Doch man gab nicht auf.

Da ist zum Beispiel Rodney Brooks, ein MIT-Nestor der Künstlichen Intelligenz, der entwickelte ein völlig neues Konzept: Will man intelligente Maschinen bauen, muss die Kopplung zwischen Wahrnehmung und Handlung sehr eng gestaltet werden. Zuvor war man davon ausgegangen, dass der Roboter zunächst über ein inneres Weltmodell verfügen muss bevor er handeln kann. Brooks dagegen wollte diese „Kognitions-Box“, die man für unabdingbar hielt, einfach weglassen. Er plädierte für eine Rechner- und Roboterarchitektur, in der die einzelnen Elementarverhalten nicht mehr in einer Zentraleinheit verrechnet werden, sondern unabhängig voneinander ablaufen. Das Verhalten des Gesamtsystems ergibt sich aus der Kommunikation der Subsysteme miteinander, die gemeinsam je bestimmten Situationen bestimmte Interaktionsmuster zuordnen.

Es geht auch um die Verschmelzung von Mensch und Maschine mittels Nanotechnologie, doch hier befinden wir uns im Bereich der SF; Science und Fiction auseinander zu halten fällt manchen US-Autoren schwer. Dies gab schon den Ansätzen von Marvin Minsky, Hans Moravec und Ray Kurzweil ihre transhumanistische Würze, aber diskreditierte sie zugleich in der europäischen Wissenschaftlergemeinde. Seit den achtziger und neunziger Jahren lokalisierte man im Körper eine eigene Intelligenz -kann die von AI profitieren? Sind wir auf dem Weg zu einem AI-aufgerüsteten Supermenschen? Doch der Autor dämpft die überschießenden Hoffnungen (ohne sie ganz zu verwerfen).

Zum einen geht es um eine Wissenschaft, die nach Jahren der Höhenflüge auf den Boden der Tatsachen zurück gekommen ist; zum anderen blicken wir auf die Techno-Utopien einer Disziplin, die auf dem schmalen Grat zwischen techno-evolutionärem Fortschrittsglauben und, negativ ausgedrückt, inhumaner Überwindung des Menschseins wandelt. Ihr größtes Manko dabei: Bei allen Erfolgen der computer und neuro sciences weiß bis heute niemand, wie menschliche Intelligenz wirklich funktioniert. Unser Gehirn und seine Arbeitsweise bleiben bislang unerreichter Maßstab für Künstliche Intelligenz, die sich aber mit Informatik, Psychologie, Kognitions- und Neurowissenschaften hartnäckig weiter an Funktion und Struktur unseres Denkorgans herantastet.

Ein kluges und verrückt-geniales Buch, das auch verblüffende Perspektiven auf die Welt der Netze, Computer und AI eröffnet. (Rezension erschien zuerst auf InversePanopticon)

Jörg Auf dem Hövel: Abenteuer Künstliche Intelligenz, Discorsi Verlag, Hamburg 2002, 194 Seiten, 14 Euro, ISBN-13: 9783980733045

07/1/12

Heiner Hastedt: Aufklärung & Technik

Heiner Hastedt: Aufklärung und Technik. Grundprobleme einer Ethik der Technik. Frankfurt, Suhrkamp 1991.

Rezension von Thomas Barth

Der Philosoph Heiner Hastedt sucht in seiner Habilitationsschrift einen nüchternen Weg zu einer aufklärerischen Ethik der Technik, einen Weg zwischen den Wunschträumen eines technokratischen Schlaraffenlandes und dem Pessimismus der Neuen Ethik (Hans Jonas). Dabei will er die „geistesgeschichtliche Klammer zwischen Aufklärung und Technikoptimismus zu lösen“, die ihm in zwei gegensätzlichen Modellen von Aufklärung verwirklicht erscheint: Das Identitätsmodell weist der Aufklärung in der mit ihr identifizierten instrumentellen Vernunft die Schuld an der Misere der Moderne zu und neigt zum Rückgriff auf vormoderne Wertstrukturen; das Überholungsmodell des Technokratismus hält die Ziele der Aufklärung für nunmehr nur noch technische Probleme und möchte sie am liebsten den Ingenieuren überlassen. Gegen beides wendet sich Hastedt und möchte mit seinem Reflexionsmodell von Aufklärung die autonom gewordene Technik wieder der Autonomie des Menschen unterordnen. Kern seines Ansatzes ist die Verknüpfung philosophischer Ethik mit Technikfolgen-Abschätzung (TA) bzw. -Forschung.

New Age und Prinzip Verantwortung?

Die Vertreter des Identitätsmodells glauben in der aufklärungskritischen Tradition der Frankfurter Schule zu stehen (S.155). In der populistischen Variante dieser (falsch verstandenen) Aufklärungs-Kritik, dem „New Age”-Denken z.B. Fritjof Capras (die Hastedt „…nur wegen ihrer großen Verbreitung erwähnt, nicht wegen ihrer sachlichen Diskussionswürdigkeit”), verfallen sie dem einfachen subjektivistischen Irrtum, „…das in der Änderung der privaten Gesinnung automatisch eine Lösung auch der Weltprobleme ..” liege (S.159). Ein -nicht ganz so kurzer- Fehlschluß ist in der ökologischen Neuen Ethik zu sehen, wie an Hans Jonas‘ ”Prinzip Verantwortung” verdeutlicht wird. Hastedt merkt an, „…daß die Popularität von Jonas‘ naturalistischer Position geringer wäre, wenn seine hinter dem wichtigen Titel stehenden Inhalte genauer bekannt geworden wären”. Zu kritisieren sei die teleologische Einordnung des Menschen in die Natur mit der ihr folgenden „Naturalisierung und Objektivierung der Werte”, welche durch das Eingeständnis des naturalistischen Fehlschlusses nicht richtiger werde (S.170). Die postulierte „Heuristik der Furcht” erscheine als apokalyptische Umkehrung der Fortschrittseuphorie und erlaube allenfalls eine rudimentäre (Grenzfragen-) TA, nicht jedoch Technikgestaltung (S.172). Die normativistische Kurzschlüssigkeit neige zum Vernachlässigen der Einzelprobleme und zum adressatlosen Moralisieren -was zu ihrer Beliebtheit unter potentiellen Adressaten beitragen mag-, wenn nicht gar „zur Verharmlosung einer Ökodiktatur” (S.176).

Schlimmer noch bewertet Hastedt die Romantisierung ritueller Tötungspraxis bei Naturvölkern durch den Kleriker Drewermann, der aus Hastedts Sicht endgültig auf anti-humanistische Abwege gerät; aber selbst der „Eurotaoismus” Peter Sloterdijks untergrabe -möge man auch seiner Metapher von der „Mobilmachung” für die gegenwärtige Lage zustimmen- die institutionellen und normativen Errungenschaften der Aufklärung, gefährde letztlich die individuelle Autonomie und Freiheit (S.165). Alles in allem bleiben die Utopien einer „naturgemäßen” Technik undeutlich und der normative Naturalismus ignoriert den Einwand, „…daß die Orientierung an der Natur selbst wiederum nicht ´natürlich´, sondern Ausdruck einer gesellschaftlichen und kulturellen Auffassung ist.” (S.157) Leider versäumt Hastedt in seiner Kritik zu erklären, wie denn richtig verstandene Aufklärungs-Kritik in eine Diskussion der Technikentwicklung einzubeziehen sein könnte. Die diskursive Fassung seiner Ethik erlaubt aber sehr wohl, in den Diskurs auch kritische Positionen einzubeziehen, macht es sogar notwendig.

Das Überholungsmodell von Aufklärung und Technik

Einen ganz anderen Fehlschluß konstatiert Hastedt bei den Vertretern eines Überholungsmodells von Aufklärung und Technik. Ihr epistemologischer Naturalismus versuche, die „…menschliche Gesellschaft, Kultur und Psyche mit den Denkmitteln der Naturwissenschaft zu erklären…”(S.151). Zum Teil handelt es sich dabei um Naturwissenschaftler, die „…nach ihrer Pensionierung auch etwas zu den Problemen der Welt sagen wollen.”(S.184) Ihr Ruf als Spezialwissenschaftler und ihre einfachen Modelle bringen ihnen -auch angesichts der zu komplexen Sozialwissenschaften- die Aufmerksamkeit des Publikums ein. Obschon gesellschaftstheoretisch naiv, füllen sie so ein Vakuum, welches „…die mangelnde öffentliche Berücksichtigung der Sozialwissenschaften hinterläßt.”(S.186)

Eine Affinität zu derartigen Fehlschlüssen besteht aber auch in Kreisen der konservativen Soziologie. Schleichend wandelt sich dort die Analyse der Technisierung zum Technokratismus: „Aus der Diagnose eines Trends wird dann ohne Ausweis der normativen Anteile unversehens das Rezept…” für eine technokratische Handhabung der Gesellschaft (S.190). So etwa beim Alt-Technokraten Schelsky in der naiven Forderung nach rationaler Herrschaft im Sinne eines Managements interesseloser Sachgesetzlichkeiten. Oder auch bei seinem Schüler NiklasLuhmann und dessen Gesellschaftstheorie „…die sich in Ihrer Geschmeidigkeit allerdings auf einem ungleich höheren theoretischem Niveau bewegt als der ältere Technokratismus.”(S.192) Ihr epistemologischer Naturalismus zeige sich vor allem im aus der Biologie importierten Hauptbegriff der Autopoiesis.

Im systemtheoretischen Versuch, die Selbstthematisierung der Thematisierungsweisen im Begriff der Selbstreferentialität wissenschaftlich und technokratisch einzuholen, sieht Hastedt vor allem eine implizite Handlungsentlastung des Theoretikers. Luhmanns technokratischer Verzicht auf den Subjektbegriff übernehme lediglich die philosophische Kritik am einsamen Subjekt der neuzeitlichen Bewußtseinsphilosophie, „…die heute keineswegs mehr als Grundlage für den Reflexions- und Handlungsbegriff genommen werden muß.”(S.194)

Darüber hinaus ergebe sich aus einer gesellschaftstheoretischen Verabschiedung des Subjekts auch kein Grund für die Subjekte selbst, sich in ihren Institutionen nicht für die Realisierung ihrer Reflexionseinsichten einzusetzen -wie Luhmanns Polemik der Gesellschaftskritik nahelegt. Der abstrakte “Flug” über der “geschlossenen Wolkendecke” (Luhmann) fällt somit als systematische Großtheorie wenig überzeugend aus und hinterläßt den Eindruck einer Rechtfertigung für entverantwortlichte Geisteswissenschaftler, so Hastedt.

Die Schrumpfvarianten des Technokratismus

Das Harmoniebedürfnis richtet sich also, laut Hastedt, in der zweiten Variante des Naturalismus nicht auf die Natur, sondern auf die Naturwissenschaft bzw. den industriell-technisch-wissenschaftlichen (Erkenntnis-)Komplex. Eine angesichts der Krisensituation verständliche, aber wenig hilfreiche Reaktion. Übrig bleiben nach dieser Kritik die beiden „Schrumpfvarianten” des Technokratismus, die (1.) naturwissenschaftliche Prinzipien immerhin noch auf technologische Entwicklungen anwenden wollen oder (2.) wenigstens für eine ethische Neutralität der Technik plädieren.

Die erste übersieht jedoch die Ergebnisse zur sozialen Bedingtheit von Technologie, in der zweiten zeige sich nicht viel mehr als die „…bewußte oder unbewußte Zielsetzung einer Neutralisierung der ethischen Verantwortlichkeit für die Technologieentwicklung überhaupt.”(S.200) Dem adressatlosen Moralisieren bzw. technokratischen Entmoralisieren will Hastedt dagegen die Verantwortung des Menschen sowohl für den gesellschaftlich-technischen Gesamtkomplex wie für die zum kulturellen Projekt gewordene Natur entgegensetzen.

Das Projekt der Aufklärung darf sich in laut Hastedt im Reflexionsmodell weder auf eine pauschale Zustimmung zum technischen Fortschritt noch auf seine pauschale Ablehnung festlegen lassen. Erst wenn wir differenziert klären, in welcher Welt mit welchen Technologien wir leben können und wollen, wird entscheidbar, ob und wie eine bestimmte Technologie wünschenswert ist. Die zunehmende Komplexität der Probleme bringe es mit sich, dass „…gleichzeitig mehr empirisches Wissen und mehr normative Orientierung gefordert…” sei (S.105).

Die von Hastedt vorgeschlagene “inklusive” Methode soll daher nicht “…anstatt einer empirischen Technologiefolgenabschätzung betrieben werden (…), sondern unter Zuhilfenahme und in interdisziplinärer Zusammenarbeit mit der Technologiefolgenabschätzung.”(S.106) Hastedt legt Wert darauf, seine Ethik als „anwendungsorientiert” von der „Praxisorientierung” anderer Ansätze abzugrenzen, da diese sich oft in einer Theorieorientierung an Hegel und Marx erschöpft habe. Trotzdem betont die Ethik Hastedts “bei ihrer Gradwanderung zwischen Grundsatzreflexion und Anwendung im Zweifelsfall die Seite der philosophischen Grundsatzreflexion” da die im Alltag meist angewandte Verkürzung von Problemen nicht von der Philosophie verdoppelt zu werden braucht (S.63). Andererseits gelte es aber auch, den “ideologischen Bedarf” nach Ethik nicht unreflektiert zu befriedigen, wie er aus Gründen der Abschiebung von Verantwortung oder im Rahmen einer Marketing-Strategie entstehe (S.61).

Eine anwendungsorientierte Ethik der Technik

Hastedts “inklusive Methode einer anwendungsorientierten Ethik der Technik” versucht, diesen selbstgestellten Anforderungen gerecht zu werden, indem sie ein Programm der reflexiven Koppelung von ethischer Begründung und Anwendung in der TA entwirft. Markierungspunkt ist dabei Habermas, wobei die „quasi-transzendentalen Argumentationsnormen der Diskursethik” mit ihren nicht einlösbaren Versprechungen jedoch nicht mehr als die Umgrenzung prinzipieller Möglichkeiten zum Diskurs beisteuern dürfen (S.220). Kern des Programms ist die diskursive Prüfung jeweiliger Praxis der TA anhand normativ-inhaltlicher Prinzipien, womit zwischen „…dem Absolutismus der Letztbegründung und dem Relativismus…” der „Mittelweg der relativ vernünftigen Begründung” angestrebt wird (S.213).

Die fünf normativen Prinzipien (1.Vereinbar mit Grundfreiheiten; 2.Förderlich für Grundfreiheiten; 3.Förderlich für soziale Gerechtigkeit; 4.Gleiche Berücksichtigung zukünftiger Generationen; 5.Gutes Leben) ergeben mit den fünf Verträglichkeitsdimensionen ( 1.Gesundheit; 2.Gesellschaft; 3.Kultur; 4.Psyche; 5.Umwelt) die ÒSuchmatrixÓ einer anwendungsorientierten Ethik der Technik als Leitlinie der Methode (S.257). Im Prinzip Nr.5 des guten Lebens sieht Hastedt eine notwendige Erweiterung des liberalen Projektes der Moderne durch die alte anthropozentrische Ethik (S.227), da die bürgerliche Privatisierung dieser Frage den heutigen Menschen zunehmend überfordere.

Diskussion

Die bei aller proklamierten Nüchternheit doch häufig erfrischende Polemik auch bei der Diskussion großer Philosophen und Theoretiker wie Hans Jonas oder Niklas Luhmann macht den Band gut lesbar. Die dabei angestrebte Verbindung von Technologie und Philosophie unter die Federführung der Philosophen stellen zu wollen ist ein verständliches Ansinnen. Zu oft haben selbstherrliche Technokraten ethische Überlegungen gegenüber Effizienzdenken bzw. ökonomischen Motiven hintangestellt.

Punkt 5 der normativen Prinzipien des vorgelegten Programms wirft allerdings die Frage auf, wer diese neuen Grundsätzen für Ògutes Leben” festlegen sollte bzw. ob wir dies uneingeschränkt akademischen Philosophen überlassen können. Deren gutbürgerlich-saturierte Lebenswirklichkeit dürfte allzu weit vom Leben der meisten Menschen entfernt sein. Zumal in einer Gesellschaft, in der die Möglichkeiten und damit Freiheiten von Arm und Reich jedes Jahr weiter auseinander liegen.

Vielleicht sollte man Debatten um das gute Leben lieber hinter eine Arbeit an jenen Mechanismen zurückstellen, welche die Fähigkeit zu einer entsprechenden eigenständigen Suche des Individuums untergraben: Den Technikpaternalismus, der den digitalen Technologien innewohnt, weil ihre Entwickler über eine vom einzelnen Nutzer kaum einholbare Komplexität gebieten. Von den Höhen ihres Wissensvorsprungs herab meinen sie oft, uns viele Wahlmöglichkeiten diktieren zu dürfen bzw. sogar zu müssen. Hastedt gibt uns gute Argumente an die Hand, wenn wir mit den Technologen in eine Diskussion um die digitale Gestaltung der Informationsgesellschaft einsteigen wollen.

Dabei geht es auch um technologische Macht, die sich besonders in digitalisierte Kommunikation einschreibt: Als unsichtbarer Code der gesellschaftlichen Strukturen. Die völlige Abwendung von Luhmanns Systemtheorie, die solche Strukturen untersucht, erscheint dabei zu weit zu gehen. Sinnvoller wäre es, Luhmanns zur Verschleierung von Macht tendierende Systemtheorie kritisch zu erweitern, um sie durch eine kommunikationsorientierte Machttheorie zu ersetzen. Diese sollte den Machtbegriff nicht länger vernebelnd in der Kommunikation auflösen, sondern umgekehrt Machtausübung und soziale Kontrolle in Kommunikationstrukturen erhellen. An Lehrende der Informatik könnte man diese Programmatik noch durch den Rat eines Klassikers ergänzen:

„Und da es in diesem Buch um Computer geht, soll es ein Appell sein, der vor allem an diejenigen gerichtet ist, die in Computerwissenschaft unterrichten. Ich möchte, daß sie meine Behauptung aufgenommen haben, daß der Computer eine mächtige neue Metapher ist, mit der wir viele Aspekte der Welt leichter verstehen können, der jedoch ein Denken versklavt, das auf keine anderen Metaphern und wenige andere Hilfsmittel zurückgreifen kann. Der Beruf des Lehrers …ist…ehrenwert… Aber er muß… mehr als nur eine Metapher lehren…Er muß über die Beschränkungen seiner Werkzeuge ebenso sprechen wie über deren Möglichkeiten.“

Joseph Weizenbaum, Die Macht der Computer und die Ohnmacht der Vernunft, S.361f

Heiner Hastedt: Aufklärung und Technik. Grundprobleme einer Ethik der Technik. Frankfurt, Suhrkamp Verlag 1991, 336 S., hardcover 22,80 Euro; Taschenbuch 22,00 Euro

Rezension erschien zuerst 1993 in PP-Aktuell (nicht digitalisiert).