08/15/13

Medien-Mainstream & Netzkultur: Wikileaks – Edward Snowden

Thomas Barth

Die Netzkultur steht den Mainstreammedien heute kritisch gegenüber, von deren Aufmerksamkeit sie gleichwohl abhängig ist. Denn die klassischen Leitmedien Presse und Fernsehen machen immer noch den Kern der Öffentlichkeit aus, in welcher die politischen Debatten sich in gesellschaftliche Veränderungen umsetzen lassen – auch wenn jüngere Generationen ihnen ihrerseits zunehmend die Aufmerksamkeit entziehen. Kein Wunder, hatte doch die Medien-Industrie in Anti-Raubkopierer-Kampagnen ihre Verbraucher lange genug zu Verbrechern erklärt, statt vernünftige und faire Verfahren zu entwickeln.

WikiLeaks hatte erfolgreich den Bogen zurück zum Mainstream geschlagen, nicht zur ungetrübten Freude aller etablierten Meinungsmacher. Und wurde in Gestalt von Juian Assange dämonisiert. Mit Edward Snowden und The Intercept von Glenn Greenwald schlägt die Netzkultur jetzt zurück, bietet weniger Angriffsfläche für Personalisierung und macht es schwerer, die Inhalte zu verschweigen. Das Image der Medien leidet unter ihrer immer unkritischer werdenden Haltung gegenüber den Machthabern im eigenen Land bzw. Machtblock. Einzelne, die diese blinden Flecken aufzeigen wollten, gab es schon immer. Oft nahmen sie, von den Medien wenig beachtet, ein schlimmes Ende, wie etwa der Künstler Mark Lombardi, der westlichen Oligarchen und ihren Machtstrukturen nachging. Jeder, der mit westlichen konkurrierende Machteliten angreift, ist sich dagegen der medialen Aufmerksamkeit gewiss. Aber diese Einseitigkeit genügt offenbar nicht, unsere Journalisten verstehen sich immer öfter auch als Wadenbeißer im Dienste westlicher Herrschaftseliten, die über deren Kritiker hemmungslos herfallen.

Wie WikiLeaks zum Flop erklärt wurde

WikiLeaks gilt den Mainstream-Medien seit der ungefilterten Veröffentlichung tausender Cables als gescheitert. Doch es gibt zahlreiche offene Fragen. Etablierte Medien folgen einer vereinfachenden Erzählung, personifizieren komplexe Probleme, führen Standards an, die sie selbst kaum einhalten und brachten sich selbst gegen WikiLeaks in Stellung -selbst dann, wenn sie zuvor massiv von den Enthüllungen der Plattform profitiert hatten.

Today, 15 September 2014, WikiLeaks releases previously unseen copies of weaponised German surveillance malware used by intelligence agencies around the world to spy on journalists, political dissidents and others. Interaktion von Netzplattform und Medien bleibt problematisch

WikiLeaks ist aus der Hacker-Subkultur hervorgegangen und noch immer darin tief verwurzelt. Seit den Anfängen des Internet traten Hacker ein für freien Informationszugang aller bei vollem Schutz der Privatsphäre. Ihre natürlichen Widersacher waren die Geheimdienste, deren Job im Großen und Ganzen die umgekehrte Ausrichtung hatte. WikiLeaks bezeichnet sich in dieser Tradition auch als „Counter-Intelligence“ und „First Intelligence Agency of the People“ – als erster Geheimdienst des Volkes.

Die technologische Avantgarde der Hacker, deren ehedem esoterische Praxis der Online-Kommunikation heute die breite Masse zumindest der jüngeren Generationen erreicht hat, wurde von Anbeginn misstrauisch von den etablierten Medien beäugt. Heute ist sie selbstbewusst zur „Netzkultur“ gereift und ihr stehen neben staatlichen Institutionen auch die Medienkonzerne gegenüber, die von den neuen „Netzbürgern“ oft als „gnadenlose, gierige Content-Verwerter“ gesehen werden.

Kein Wunder, hat doch die Medien-Industrie in Anti-Raubkopierer-Kampagnen ihre Verbraucher so lange zu Verbrechern erklärt, bis sogar eine Piratenpartei in die politischen Arena stieg. Dabei sehen sich die Medien-Konzerne oft sogar als Säule der Demokratie und Pressefreiheit, vertreten aber zunehmend eigene Unternehmensinteressen. Der Antagonismus von Netzkultur und Medienindustrie schwingt unterschwellig mit, wenn etablierte Journalisten über Hackerprojekte berichten – besonders vielleicht, wenn diese – wie WikiLeaks – mit neuen Publikationsformen in die zentrale Sphäre des Nachrichtengeschäfts eindringen.

“Cablegate” und die mediale Schuldfrage

Am 1.9.2011 machte WikiLeaks, die Whistleblower-Plattform des weltberühmten Hackers Julian Assange, negative Schlagzeilen: Durch eine Sicherheitspanne wurden rund 250.000 US-Diplomaten-Depeschen aus dem WikiLeaks-Datenbestand im Internet zugänglich. Diese Depeschen sind, anders als bei vorherigen Depeschen-Publikationen, nicht redaktionell bearbeitet. Somit enthüllen sie womöglich unabsichtlich Namen von Informanten der US-Auslandsvertretungen. Die Aufregung in den Medien war groß und der Ruf von WikiLeaks, durch einen mysteriösen „Sex-Skandal“ um Assange bereits angeschlagen, drohte nachhaltig beschädigt zu werden. (Nachtrag 2022: Nils Melzer „Der Fall Assange“ stellte klar: Die Verleumdungen von Julian Assange mit einem angeblichen „Vergewaltigungsverdacht“ basierten auf einer geheimdienst-gesteuerten Justizintrige in Schweden.) Vielleicht sollten sogar Internet-Enthüllungsplattformen, die bereits als neue, den herkömmlichen Journalismus ergänzende Form der öffentlichen Aufklärung gesehen wurden, generell in Frage gestellt werden. Die Snowden-Enthüllungen und The Intercept konnten dieses mögliche Ziel jedoch unterlaufen, obgleich sie heute von den Medien tendenziell totgeschwiegen werden.

Die von Journalisten gegen die Whistleblower-Plattform und speziell Assange vorgetragenen Vorwürfe lauteten damals, WikiLeaks würde den Informantenschutz und die journalistische Ethik bzw. Sorgfalt vernachlässigen. Beide Vorwürfe erweisen sich jedoch bei genauerer Betrachtung als zumindest fragwürdig.

Was war geschehen? Bei der Weitergabe der Botschafts-Depeschen hatte WikiLeaks zunächst ein verschlüsseltes Datenpaket gepackt und dieses im Internet in Umlauf gebracht. Ziel war, die Daten auf zahlreichen verteilten Rechnern vor dem physischen Zugriff von Polizei, Militär und Geheimdiensten in Sicherheit zu bringen. Die spätere Jagd auf Assange mittels eines unter zweifelhaften Umständen zustande gekommenen Haftbefehls von Interpol zeigt, dass diese Befürchtungen nicht unbegründet waren.

Die so verschlüsselten Daten gelangten in die Hände der drei ausgewählten Presseredaktionen von „Spiegel“, New York Times und Guardian. Später übergab dann Assange den Redakteuren das geheime Passwort, so dass diese die Pakete öffnen und auswerten konnten. Soweit so gut. Doch zwei Journalisten vom Guardian publizierten 2011 auch ein Buch über die WikiLeaks-Geschichte und gaben dabei (versehentlich?) das Passwort bekannt. Sie hätten geglaubt, so später der Guardian, das Passwort sei nur zeitlich befristet gültig gewesen. Jeder Leser des Buches hatte nun die Möglichkeit, die zirkulierenden Datenpakete zu entschlüsseln und Identitäten von US-Informanten zu enthüllen.

Bei der Berichterstattung über den Vorfall ging im Folgenden vieles durcheinander. Die Tagesschau vom 1.9.2011 befragte in ihrem längeren Bericht einen ARD-Internetexperten, der kritisierte, eine Whistleblower-Plattform solle doch in der Lage sein, ihre Informanten zu schützen. In dieser ARD-Darstellung wurden also die hier betroffenen Informanten mit Whistleblowern durcheinander gebracht. Doch es geht in den Depeschen nicht um Enthüller, die öffentliche Aufklärung im Sinn haben, sondern um Zuträger der US-Administration, wie den FDP-Funktionär Metzner, der Interna aus den schwarzgelben Koalitionsverhandlungen verriet. Der Adressat für das Einklagen von Informantenschutz muss hier also nicht WikiLeaks, sondern die US-Administration sein. Es ist nebenbei bemerkt dieselbe US-Administration, die Assange zum Staatsfeind erklärte, ihm vermutlich die Konten sperren ließ, mutmaßlich seine Strafverfolgung wegen fadenscheiniger Vergewaltigungsanklagen und seine Auslieferung an die USA betrieb.

Und Bradley Manning?

Gleichwohl könnten die Depeschen fatale Folgen für Informanten haben, denn manche Zuträger der US-Botschaften müssen wohl mit bedrohlichen Konsequenzen rechnen –„in totalitären Ländern“, wie besorgte Kommentatoren der WikiLeaks-Datenpanne gern hinzufügten. Kaum einer erwähnte dabei jedoch einen Informanten von WikiLeaks selbst, der schon seit Mai 2010 leidet: Bradley Manning, der US-Soldat, der teilweise unter „harten“ Haftbedingungen in US-Militärgefängnissen gehalten wurde (Menschenrechts-Organisationen sprachen von Folter), um ein Geständnis und eine Aussage gegen Assange zu erzwingen.

Die Manning zugeschriebenen Enthüllungen brachten Kriegsverbrechen und Menschenrechtsverletzungen seitens der US-Truppen ans Licht. Sie zeigten den Krieg in Irak und Afghanistan, der uns oft als hehre Friedensmission mit chirurgisch präzisen Schlägen präsentiert wurde, in seiner ganzen Breite und Grausamkeit. Hinter der offiziellen Version von Wiederaufbau und Krieg gegen den Terror erkannten manche in den WikiLeaks-Dokumenten einen zweiten Krieg: Die Strategie, innerafghanische Kontrahenten im Sinne von „teile und herrsche“ gegeneinander auszuspielen; etwa die entgegen der offiziellen Entwaffnungspolitik zugelassene Aufrüstung von Usbekenführer Dostum, der 2006 mit Warlords der Nordallianz einen Putsch gegen Karsai plante. Dies konnte zwar der US-Führung nicht gefallen, rechtfertigt aber nicht die unmenschliche Behandlung eines mutmaßlichen Whistleblowers. Ob mit Bradley Manning nicht einfach ein unbequemer junger Soldat zum Sündenbock gemacht wurde, um Enthüller von US-Geheimnissen generell einzuschüchtern, weiß bis heute niemand.

Die Darstellung von Leistungen von WikiLeaks und Assange erscheint in den Medien oft personalisiert und wenig auf politische Hintergründe ausgerichtet, so in den auf Bestsellerlisten gehandelten Büchern „Staatsfeind WikiLeaks“ und „Inside WikiLeaks“. Doch auch wo fundiertere Analysen vorgenommen werden, bleibt eine voreingenommene Haltung des etablierten Journalismus spürbar. So wird in einer Studie zum Krisenjournalismus das berühmte Video, mit dem sich WikiLeaks überhaupt erst einen Platz in den Hauptnachrichten erkämpfte, recht einsilbig beschrieben: „…ein WikiLeaks-Video, das den Angriff auf eine Gruppe von Menschen in Bagdad aus der Cockpit-Perspektive eines Kampfhelikopters zeigt. Bei dem Angriff kamen auch zwei Reuters-Journalisten ums Leben.“

Sogar den mit Bedacht von Assange gewählten Titel des Videos verschwiegen die Autoren: „Collateral Murder“, obwohl sie wenige Seiten zuvor noch von der Krisenberichterstattung gefordert hatten, „Euphemistische Wendungen wie… ‚Kollateralschäden‘… sollten durchschaut und vermieden werden.“ Assange & Co. hatten den Euphemismus nicht nur vermieden, sondern durchschaut und in seinem Zynismus entlarvt, aber dies wollten der Journalismus-Professor und sein Co-Autor wohl bei den Medien-Außenseitern von WikiLeaks nicht sehen. „Collateral Murder“ wurde gesendet und schnell vergessen, ebenso wie der Leidensweg des mutmaßlichen WikiLeaks-Informanten Bradley Manning.

Wichtiger als das reale Opfer Manning, schienen den Medien in Deutschland heute offenbar die infolge der Datenpanne möglichen Opfer der Publikation von US-Depeschen zu sein. Tatsächlich könnte man hier die Vernachlässigung journalistischer Ethik und Sorgfaltspflicht anführen. Aber gegen wen? Das Gros der Medien richtet seine Anklagen gegen Assange, etwa die Tagesschau vom 1.9.2011. Sie berichtete zwar, „WikiLeaks beschuldigte einen Journalisten der britischen Zeitung Guardian“, das Passwort publiziert zu haben, ließ aber im restlichen Beitrag keinen Zweifel daran, dass man die Schuld für die Panne bei der Internet-Plattform zu suchen habe. Fazit: WikiLeaks sitzt auf der Anklagebank und beschuldigt, womöglich nur um sich selbst zu entlasten, den Guardian. Diesem Muster folgen die meisten Berichte, aber ist das wirklich eine faire Bewertung?

Wer Standards verlangt, sollte sie selbst einhalten

Journalisten forderten von WikiLeaks seit deren Erscheinen in der Öffentlichkeit Verantwortung, Ethik und journalistische Standards ein, die man übrigens in der breiten Masse des Boulevard-Journalismus vergeblich sucht. Aber was ist mit den Qualitäts-Journalisten des britischen Traditionsblattes Guardian? Sollte eine naheliegende Frage nicht lauten: Welcher Teufel hat die Buchautoren geritten, ausgerechnet das echte Passwort in ihrer Reportage zu publizieren? Ein fanatisches Streben nach Authentizität um jeden Preis? Pure Trägheit, sich eine vergleichbare Phrase auszudenken? Für den Leser hätte ein Ersatzwort das Buch sicher nicht schlechter gemacht, für US-Informanten kann diese Unachtsamkeit der Autoren jedoch fatale Folgen haben.

Der Guardian hätte es wissen müssen

Die Guardian-Schreiber hätten wissen müssen, dass die verschlüsselte Datei mit den Depeschen überall im Netz zirkuliert, und dass sie mit diesem Passwort jeder würde öffnen können. Wäre es nicht ihre journalistische Sorgfaltspflicht gewesen, die Ungefährlichkeit ihrer „Enthüllung“ mit Assange abzuklären? Stattdessen konstruieren jetzt die medialen Ankläger eine kryptologische Bringschuld von Assange, auch in der Zusammenarbeit mit der bei diesem Projekt engstens verbündeten Presse jederzeit höchstes Misstrauen einkalkulieren zu müssen.

Assange hätte die zirkulierenden Sicherungskopien mit anderen Passwörtern verschlüsseln, die Passwörter mit einer Zeitbegrenzung versehen müssen usw. lauten die im Nachhinein besserwisserisch erhobenen Forderungen. Aber hätten nicht auch die seriösen Qualitäts-Journalisten und Buchautoren des Guardian einkalkulieren müssen, dass dem um den Globus gehetzten Assange und seiner zusammengewürfelten Hackergruppe Fehler unterlaufen könnten?

Netzkultur, Whistleblower und „einsame Helden“

Bei aller Hochachtung vor den Leistungen von Julian Assange – der Hacker-Subkultur scheinen die Gefahren bewusst zu sein, die mit seiner Person und auch mit der Fixierung auf einen „einsamen Helden“ verbunden sind.  Edward Snowden hat aus der sorgfältigen Beobachtung der medialen Verarbeitung des Falles Assange gelernt und sich bewusst selbst im Hintergrund gehalten. Die Ergebnisse dieses Ansatzes geben ihm Recht: Es fiel den Medien schwerer, durch Personalisierung von den aufgedeckten Problemen abzulenken. Man diskutiert überwiegend bis heute den NSA-Skandal und nicht den Fall Snowden, dem -anders als bei Assange- auch nicht derart massive Angriffe gelten.

Die Verantwortung wird von der Netzkultur aber vor allem von der Presse eingefordert. Deren zunehmendes Einknicken vor den Interessen herrschender ökonomischer und Machteliten wird von Netizens und Hackern als Hauptargument für die Notwendigkeit von Plattformen wie WikiLeaks und The Intercept angeführt.

So steht die Netzkultur den Mainstreammedien kritisch gegenüber, von deren Aufmerksamkeit sie gleichwohl abhängig ist. Denn die klassischen Leitmedien Presse und Fernsehen machen immer noch den Kern der Öffentlichkeit aus, in welcher die politischen Debatten sich in gesellschaftliche Veränderungen umsetzen lassen – auch wenn jüngere Generationen ihnen ihrerseits zunehmend die Aufmerksamkeit entziehen. WikiLeaks hat erfolgreich den Bogen zurück zum Mainstream geschlagen, nicht zur ungetrübten Freude aller etablierten Meinungsmacher. Die Netzkultur hat mit Snowden und WikiLeaks wichtige Schritte hin zu einem Inversen Panoptikum unternommen, das die Blickrichtung im globalen Überwachungsnetz umdreht: Wir alle werden von Geheimdiensten und Unternehmen beobachtet, aber wir beobachten zunehmend ebenfalls -die Machthaber im Zentrum der panoptischen Anlage.

02/6/13

Das Inverse Panoptikum

Autor: Thomas Barth, 1997

Ausgehend vom Begriff des Panoptikums, gilt es die Frage nach dem Subjekt neu zu stellen und nach einer politischen Utopie für den künftigen Cyberspace zu suchen. Es geht um den Kampf der Subjekte um ihre Autonomie durch Subversion der sich durch IT-Technik rapide ausweitenden panoptischen Machtmechanismen. Jeremy Benthams (1784-1832) Gefängnisbau, die architektonische Erfindung des Panoptikums, besteht aus einer runden Architektur, welche durch einen Beobachtungsturm im Zentrum die Zellen permanenter Beobachtung preis gibt. Die Gefangenen des Panoptikums sehen also die Wächter nicht, sind aber einer dauernden potentiellen Überwachung ausgesetzt, die ein diszipliniertes Verhalten erzwingen soll.

So könnte ein Panoptikum aussehen. Foto: I. Friman CC-BY-SA

So könnte ein Panoptikum aussehen. Foto: I. Friman CC-BY-SA


Michel Foucaults
Analyse der Disziplinargesellschaft sieht im Panoptikum den Kern des utilitaristisch-demokratischen Gesellschaftsmodells und betrachtet es gleichzeitig als Metapher der bürgerlichen Gesellschaft. Wichtiger als die konkrete architektonische Umsetzung erscheint Foucault die Idee eines „Panoptismus“, die in den verschiedensten Bereichen, in Schulen, Hospitälern, Fabriken Fuß fassen konnte: Die disziplinierende Beobachtung vieler durch wenige – Schülerinnen durch Lehrer, Arbeiter durch Vorarbeiterinnen, Bürger durch Verwaltungsbeamte. Bentham ging es einerseits darum, eine vollkommene Disziplinarinstitution zu entwerfen, aber andererseits auch um eine Methode, die Disziplinen vielseitig und diffus verteilt in der ganzen Gesellschaft wirken zu lassen.

Die laut *Michel Foucault* (1924-1986) im Panoptismus disziplinierten Individuen bilden die Basis für die modernen Massendemokratien. Panoptische Institutionen wurden ausgeweitet, um die Individuen so zu disziplinieren, dass sie einer modernen Demokratie würdig werden konnten – in den Augen der damaligen Machtelite. Foucaults Analyse interpretiert Benthams Erfindung als allgemeines Prinzip der Konstituierung des bürgerlichen Subjekts als Gleicher unter Gleichen, autonom und frei in den Grenzen, die die Zentralgewalt des Staates setzt und durch ständige Kontrolle aufrechterhält. Foucaults Motivation war dabei der kritische Hinweis auf den totalitären Aspekt dieser Sozialstruktur, auf die Leiden der Aussortierten, der Eingesperrten in Gefängnissen und Psychiatrien. Er zeigte die unmittelbare Verknüpfung von dadurch fragwürdig werdenden Freiheiten mit disziplinierenden Machtmechanismen auf. Wenn wir als Schulkinder lernen müssen stundenlang stillzusitzen, als Arbeiter zu tun, was die Chefin sagt, als Patientinnen für wirklich zu halten, was ein Psychiater nicht als wahnhaft ansieht, dann konstituieren wir uns damit als Subjekt. Dieses Subjekt passt in den Raum, der durch die Grenzen der Freiheit definiert wird, d.h. durch die körperliche Unversehrtheit, die Unverletzlichkeit der Wohnung, das Fernmelde-Geheimnis, das Recht auf Privateigentum usw. Bisher schien also ein Gleichgewicht zwischen Machtmechanismen und Subjekt-Konstitution zu bestehen.

Fingerabdrucklesegerät-pd

Fingerabdrucklesegeräte gibt es noch nicht so lange. Sie ermöglichen bessere Überwachung, können aber auch ausgetrickst werden.

Was ist wenn technische Möglichkeiten „dem Subjekt” neue Möglichkeitsräume eröffnen, also eigentlich das Subjekt erweitern? Oder wenn andererseits der Zentralgewalt neue Möglichkeiten der Überwachung und Disziplinierung zuwachsen — also eigentlich das Subjekt einer Neukonstituierung „von oben” unterworfen wird?
Das Gleichgewicht muss neu austariert werden, und das ist eine politische Fragestellung. Progressive oder Liberale werden die Möglichkeitsräume begeistert begrüßen und Überwachung ablehnen; konservativen Gemütern wird die Furcht vor der Freiheit die Begeisterung erschweren. Sie werden sich eher auf die Mißbrauchsmöglichkeiten konzentrieren, vor Kriminalität und Anarchie warnen und verstärkte Kontrollmechanismen fordern, d.h. verstärkte Technokratie. Die gewährten Freiheiten waren immer per se systemkonform beschränkt. Aber selbst diese Freiheiten werden heute von den Machteliten angegriffen, eingespart und herunter gekürzt.

Foucaults Einwand ist also das Subjekt sei nicht Gegenüber, sondern erstes Produkt der Macht. Wer sich im emanzipatorischen Kampf um die Freiheit des Subjekts wähnt, der wird sich dadurch im revolutionären Elan abgebremst fühlen.
Dennoch lassen sich postmoderne Ansätze zur Kritik des status quo nutzbar machen, wenn auch ihre Zielrichtung sich nicht so klar ausmachen lässt. Das Denken in ausschließenden Gegensätzen schafft zwar Eindeutigkeit, aber die zahlreichen so abgeleiteten Rezepte, Theorien und Ideologien haben bislang nicht überzeugt. Es ist vielleicht an der Zeit, sich der Ambivalenz zu stellen, auf die Vielfalt nicht länger mit Einfalt zu reagieren. Die Postmoderne richtet sich gegen Technokraten, die vom Gipfel ihrer „technologischen Kompetenz” herab, die Welt mit ihren Dogmen betreffs „inhaltlichen Kriterien von menschenswertem Leben” beglücken wollen. Vieles was noch immer als Antwort präsentiert wird, ist inzwischen in die Position der Frage gerückt. Es knirscht im Gebälk der alten Machtstrukturen, und die, die oben sitzen, können sich des ziemlich plausiblen Gedankens nicht länger erwehren, dass sie diejenigen sind, die am tiefsten fallen könnten. Die Angst der Technokraten, seien sie Ingenieure, Informatiker oder Geisteswissenschaftler, vor ihrer Entmachtung wird ein Haupthindernis bei der Gestaltung des Cyberspace sein. Die Frage danach, was wir mit dem kommenden Cyberspace machen wollen, hat sich als durchaus politische erwiesen, die keinesfalls nur technologischer Lösungen bedarf. Es wird dort auch um die Verteilung von Macht gehen, und zwar auf einer Ebene, die in die Konstituierung der Subjekte hineinreicht. Nun gibt es Subjekte, die sich schon lange mit den Cyberspace-Technologien befassen, ohne sich einer traditionellen Machtinstanz, etwa der akademisch verfassten Wissenschaft, zuordnen zu lassen: Die Hacker.

Mit den panoptischen Machtmechanismen hat diese Gruppierung insofern Bekanntschaft gemacht, als sie Ziel von Kriminalisierungen und Pathologisierungen wurde. Aus den Reihen dieser Gruppe werden seit vielen Jahren Forderungen erhoben, die etwas ungewöhnlich klingen, etwa nach „Freiheit für die Daten”, nach „mindestens weltweit freier Kommunikation für alle” aber auch nach Datenschutz. Als inverses Panoptikum könnte man nun ein „latentes Utopiemodell” bezeichnen, welches sich in der Praxis der Hacker spiegelt. Das dem teilweise kriminalisierten „Datenreisen”, zugrunde liegende Streben nach Informationsfreiheit widerspricht nur scheinbar dem ebenfalls geforderten Recht auf die eigene Privatsphäre (Datenschutz). Nicht der gläserne Bürger, wie ihn die computerisierte Verwaltung, das Superpanoptikum, schafft, ist gefordert, sondern die gläserne Bürokratie. Wer Macht ausüben kann, soll für den Bürger sichtbar gemacht werden. Der Sicherheit der persönlichen Daten komplementär ist also der Wunsch nach Beobachtung der Machtausübenden:

Für die staatliche Seite haben wir das so formuliert: Wir fordern die maschinenlesbare Regierung. Mit Hilfe der Computer und der Netzwerke ist so was einfach möglich. Dadurch ist es möglich, Daten transparent zu machen. Diese Technologie existiert dazu. Es ist nur die Frage, wie sie eingesetzt wird.

So Andy Müller-Maguhn, langjähriger Sprecher des CCC, der es einst bis zum europäischen Icann-Direktor brachte.

Die Cyberwelt bietet ungeahnte Möglichkeiten. Ob dieser Hacker gerade die Weltherrschaft übernimmt?

Die Cyberwelt bietet ungeahnte Möglichkeiten. Ob dieser Hacker gerade die Weltherrschaft übernimmt?

Der Wunsch wird deutlich, den überwachenden Blick umzukehren: Die Insassen des Panoptikums sind es leid, in ihren Zellen dem Blick des unsichtbaren Wächters preisgegeben zu sein. Sie fordern – zunächst noch – nicht den Ausbruch aus ihren Zellen, aber sie wollen eine Invertierung jener Kontrolle, die sich durch technologische Entwicklungen gerade zu potenzieren droht. Die auf ein Zentrum hin gerichteten Gegenmächte erweisen sich als Teil der Macht oder ihr Spiegelbild. Ein neuer Ansatz muss also indirekter und lokaler, an der Peripherie angesiedelt sein.

(gekürzte Fassung von)
Barth, Thomas, Das inverse Panoptikum: Ein postmoderner Ansatz für die
politische Informationsstruktur des Cyberspace, zuerst in: Informatik Forum,
Nr.2 1996, S.68-71.

11/16/12

Jörg Auf dem Hövel: Abenteuer Künstliche Intelligenz

Rezensiert von Thomas Barth

Jörg Auf dem Hövel: Abenteuer Künstliche Intelligenz, Discorsi Verlag

Der Publizist und Politikwissenschaftler Jörg Auf dem Hövel lädt seine Leser ein zu einem Abenteuer der utopisch-philosophischen Art: „Künstliche Intelligenz“ -ist so etwas möglich? Reich an Aphorismen, Anekdoten und philosophischen Betrachtungen über AI (Artificial Intelligence) schreibt er die Geschichte eines faszinierenden Gebietes, das schon lange SF-Autoren anregte. Denken wir an Kubricks Film „2001“: Dort wendet sich die AI als Bordcomputer eines Raumschiffes mörderisch wie Frankensteins Monster gegen die Astronauten. Auch Käptn Kirk von der Enterprise musste eine AI überlisten, bei Stanislaw Lem wächst in „Also sprach Golem“ die AI ihren Erfindern eher subtil über den Kopf und nimmt hinter ihrem Rücken interstellaren Kontakt zu ihres Gleichen in der Galaxis auf.

Jörg Auf dem Hövel ist sich dieser literarisch-utopischen Wurzeln bewusst, wenn er in Forschungslabors blickt und über die Zukunft intelligenter Automaten sinniert. Pioniere der AI wie Norbert Wiener, Alan Turing oder die Kommunikationtheoretiker Shannon&Weaver waren auf die Informationsverarbeitung der rationalen Intelligenz fixiert. Die ersten Schachcomputer erstaunten uns. Ein „General Problem Solver“ weckte große Erwartungen, die sich bei Transhumanisten zu einer neuen Heilslehre steigerten, aber auch bescheidenere Hoffnungen, dass de Rekonstruktion unserer Intelligenz schon bald weiter Fortschritte machen wird.

„Eine Maschine, die denkt, fühlt, redet und sich selbst erkennt – für die einen ein Menschheitstraum, für die anderen eine Horrorvision. Noch streiten sich die Wissenschaftler, ob wirkliche künstliche Intelligenz überhaupt jemals technisch realisierbar sein wird, und die Ergebnisse bisheriger Forschung fallen vor dem Hintergrund manch gewagter Vision noch bescheiden aus. Doch dies tut der Faszination an dem Thema keinen Abbruch. Denn die Wissenschaft von der künstlichen Intelligenz berührt das soziale, kulturelle und religiöse Selbstverständnis des Menschen.“ (Verlag)

Es geht um eine Disziplin, die trotz ihrer Fehlschläge von einer magischen Aura umgeben ist. Ende der 80er Jahre zeigte die AI deutliche Anzeichen einer degenerierten Wissenschaft, so der Autor, denn zu hoch waren die geschürten Erwartungen, schon bald menschliche durch elektronische Intelligenz ersetzen zu können. Die enormen Rechenleistungen ermöglichten Erfolge bei Expertensystemen, die aber trotzdem nur bessere Datenbanken blieben. Computer schafften es sogar Schachweltmeister ins Schwitzen zu bringen. Doch beim Einsatz in der banalen Alltagswelt der Straßenüberquerungen und etwa des Häkelns scheiterten die artifiziellen Superhirne gründlich. Selbst am am Massachusetts Institute of Technology (MIT) war man zunehmend frustriert darüber, dass die AI immer noch nicht in der Lage war, zügig eine Treppe zu überwinden und zum Einsammeln von ein paar Bauklötzchen Stunden brauchte. Doch man gab nicht auf.

Da ist zum Beispiel Rodney Brooks, ein MIT-Nestor der Künstlichen Intelligenz, der entwickelte ein völlig neues Konzept: Will man intelligente Maschinen bauen, muss die Kopplung zwischen Wahrnehmung und Handlung sehr eng gestaltet werden. Zuvor war man davon ausgegangen, dass der Roboter zunächst über ein inneres Weltmodell verfügen muss bevor er handeln kann. Brooks dagegen wollte diese „Kognitions-Box“, die man für unabdingbar hielt, einfach weglassen. Er plädierte für eine Rechner- und Roboterarchitektur, in der die einzelnen Elementarverhalten nicht mehr in einer Zentraleinheit verrechnet werden, sondern unabhängig voneinander ablaufen. Das Verhalten des Gesamtsystems ergibt sich aus der Kommunikation der Subsysteme miteinander, die gemeinsam je bestimmten Situationen bestimmte Interaktionsmuster zuordnen.

Es geht auch um die Verschmelzung von Mensch und Maschine mittels Nanotechnologie, doch hier befinden wir uns im Bereich der SF; Science und Fiction auseinander zu halten fällt manchen US-Autoren schwer. Dies gab schon den Ansätzen von Marvin Minsky, Hans Moravec und Ray Kurzweil ihre transhumanistische Würze, aber diskreditierte sie zugleich in der europäischen Wissenschaftlergemeinde. Seit den achtziger und neunziger Jahren lokalisierte man im Körper eine eigene Intelligenz -kann die von AI profitieren? Sind wir auf dem Weg zu einem AI-aufgerüsteten Supermenschen? Doch der Autor dämpft die überschießenden Hoffnungen (ohne sie ganz zu verwerfen).

Zum einen geht es um eine Wissenschaft, die nach Jahren der Höhenflüge auf den Boden der Tatsachen zurück gekommen ist; zum anderen blicken wir auf die Techno-Utopien einer Disziplin, die auf dem schmalen Grat zwischen techno-evolutionärem Fortschrittsglauben und, negativ ausgedrückt, inhumaner Überwindung des Menschseins wandelt. Ihr größtes Manko dabei: Bei allen Erfolgen der computer und neuro sciences weiß bis heute niemand, wie menschliche Intelligenz wirklich funktioniert. Unser Gehirn und seine Arbeitsweise bleiben bislang unerreichter Maßstab für Künstliche Intelligenz, die sich aber mit Informatik, Psychologie, Kognitions- und Neurowissenschaften hartnäckig weiter an Funktion und Struktur unseres Denkorgans herantastet.

Ein kluges und verrückt-geniales Buch, das auch verblüffende Perspektiven auf die Welt der Netze, Computer und AI eröffnet. (Rezension erschien zuerst auf InversePanopticon)

Jörg Auf dem Hövel: Abenteuer Künstliche Intelligenz, Discorsi Verlag, Hamburg 2002, 194 Seiten, 14 Euro, ISBN-13: 9783980733045

08/8/12

Technologie macht medial

Günther Anders Kritik und die Subversion der Cyberpunks

Autor: Thomas Barth, 2008

Cyber ist er. Aber auch punk?

Der pessimistischen Technikdeutung von Günther Anders zufolge sind wir heute nur noch Anhängsel der Technik, Rädchen im Getriebe, das uns antreibt.
Er nennt das: Wir sind „medial“;
wir sind nur noch Mittel zu einem Zweck, der uns nichts anzugehen hat. Pochte Kant mit seinem Kategorischen Imperativ noch auf das Recht auf menschliche Würde, indem man den anderen immer als Zweck, nie als bloßes Mittel sehen sollte, so läuft diese Forderung heute scheinbar ins Leere. Es ist (angeblich) kein Gegenüber mehr vorhanden, bei dem wir unser Menschenrecht einfordern könnten. Die Technik, unsere technologische Lebensweise, möchten wir nicht missen. Wenn wir so leben wollen, haben wir uns einzufügen und anzupassen, ein Rädchen im Getriebe des „Makro-Geräts“, der Megamaschine, des Luhmannschen „Systems“ zu werden, so wird von uns implizit verlangt. Explizit gelten die Menschenrechte, haben wir die Freiheit, nicht zu kooperieren, zu handeln, statt bloß mitzutun. Aber die Systeme der Technologie existieren nicht nur in der physischen Umwelt, die sie mit Bravour kontrollieren können, unsere Köper inbegriffen. Die Systeme der Technologie existieren auch in einer sozialen Umwelt, deren dominante Seite heute immer mehr die Ökonomie zu werden scheint.
Sie gehören jemandem, der sie zu seinem Nutzen arbeiten lässt, und mit ihnen auch die Menschen, die ihre Anhängsel sind.

Günther Anders Sorge galt bei der Entfaltung dieser Gedanken dem drohenden Untergang der Menschheit durch einen atomaren Schlagabtausch, der Apokalypse.
Diese zu verdrängen nannte er „Apokalypse-Blindheit“ und sah in der Medialität der Zeitgenossen deren Wurzel. Diese militärische Apokalypse ist derzeit mit Auflösung der Ost-West-Blockkonfrontation in den Hintergrund getreten, obgleich noch lange nicht abgewendet. Aber andere Apokalypsen sind hinzugekommen, Umweltzerstörung, neue Seuchen (evtl. als Auswuchs des militärischen Apparates) usw. Außerdem gilt das, was auf die „Apokalypse-Blindheit“ abzielte auch für die Blindheit gegenüber der apokalyptischen Lebenssituation von Milliarden Menschen, denen das Lebensnotwendigste vorenthalten wird — obgleich die Güter und Lebensmittel bei gerechter Verteilung für alle reichen würden. Die Arbeit am eigenen Untergang mag besonders plastisches Beispiel für irrationales Handeln sein, die am Untergang anderer ist jedoch nicht vernünftiger.

Aber was von unserem Arbeiten gilt, das gilt nun — und diese Tatsache ist weniger trivial, aber nichtweniger wichtig — auch von unserem /„Handeln“; /oder sagen wir lieber: auch von unserem /„Tun“, /denn das Wort „Handeln“ und die Behauptung, wir seien „Handelnde“, hat in unseren Ohren (was als Hinweis ernst genommen werden muß) bereits den Klang einer Übertreibung angenommen, Abgesehen von einigen wenigen Sektoren läuft unser heutiges „Tun“, da es sich im Rahmen organisierter, uns nicht übersehbarer, aber für uns verbindlicher Betriebe abspielt, auf konformistisches /Mit-Tun /heraus. Der Versuch, abzuwägen, in welchem Verhältnis die Anteile von „aktiv“ und „passiv“ in diesem oder jenem „Mit-Tun“ dosiert sind, abzugrenzen, wo das Getan-Werden aufhört und das Selber-Tun anfängt, würde ebenso ergebnislos bleiben wie der, eine mit dem Maschinengange konform gehende Bedienungsarbeit in ihre aktiven und ihre nur reaktiven Komponenten zu zerlegen. Die Unterscheidung ist zweitrangig geworden, das heutige Dasein des Menschen ist zumeist weder nur „Treiben“ noch nur „Getrieben werden“; weder nur Agieren noch nur Agiert werden; vielmehr „aktiv-passiv-neutral“. Nennen wir diesen Stil unseres Daseins /„medial“. /Diese „Medialität“ herrscht überall. Nicht etwa nur in denjenigen Ländern, die Konformismus gewalttätig, sondern auch in denen, die ihn sanft erzwingen.
(Günther Anders, Antiquiertheit Bd.1, Kap. Wir sind „medial“ S. 287)

CC-by-sa-Gnsin

Ob er auch freiwillig roboterhaft ist?

Die beobachtete Roboterhaftigkeit wird also nicht durch ein totalitäres Regime erzwungen, sie wird scheinbar freiwillig geübt. Der oder die Handelnde ist in diesem technologischen Regime ein Dissident, ein Fremdkörper, der Normalfall ist der Mittäter. Bloßes Tun, besser gesagt Mittun, ersetzt das bewusste Handeln, was eine teilweise Ausschaltung des Bewusstseins voraussetzt. Wie diese Ausschaltung vor sich geht, bleibt etwas unbestimmt. Steckt Erziehung dahinter, der alte Drill der autoritären Regime? Oder ist es die Verführung, die Verlockung, den bequemeren Weg zu gehen? Beides taucht bei Anders auf, die Verlockung durch die Massenmedien verschmilzt mit der Disziplinierung, die sich mehr auf den Körper zurück zieht.

Als Arbeitende sind die Zeitgenossen auf /Mit-Tun als solches /gedrillt. Und jene Gewissenhaftigkeit, die sie sich anstelle ihres Gewissens angeschafft haben (sich anzuschaffen, von der Epoche gezwungen wurden), kommt einem Gelöbnis gleich; dem Gelöbnis, das Ergebnis der Tätigkeit,an der sie teil nehmen, nicht vor sich, zu sehen; wenn sie nicht umhin können, es vor sich zu sehen, es nicht aufzufassen; wenn sie nicht umhin können, es aufzufassen, es nicht aufzubewahren, es zu vergessen — kurz: dem Gelöbnis, /nicht zu wissen, was sie tun. /Damit ist die Furchtbarkeit des heutigen moralischen Dilemmas bezeichnet.
(Günther Anders, Antiquiertheit Bd.1, Kap. Wir sind „medial“ S. 291)

Drill und Gelöbnis klingt an dieser Stelle etwas nach Disziplinarkultur, doch Anders führte im Kapitel „Die Welt als Phantom und Matrize“ bereits ausführlich aus, die massenmediale Verführung funktioniert. Im Arbeitsprozess ist der Körper immer noch gefragt, soll Befehle befolgen, wie geschmiert funktionieren, sogar eigene Initiative zeigen — nur soll er nicht das Ziel hinterfragen, zu dessen Mittel er gemacht worden ist. Initiative zeigen darf er nur in vollkommener Verschmelzung mit dem technologischen Regime, dessen Funktionsprinzipien ihm als Gipfel der Rationalität gelten sollen, vor allem aber in völliger Unterwerfung unter die Belange der Eigentümer der Technologien. Ihre Existenz wird ausgeblendet wo immer möglich; wo nicht, werden ihre Belange den ökonomischen Gesetzmäßigkeiten gleichgesetzt.

Sie kennen die „Verlockung zum Mittun“.

Der äußere Drill bleibt also, wenn auch in gelockerter Form, denn die stramme Erziehung wollte über den Körper ja vor allem auch den Geist disziplinieren.
Aber der innere Drill wird mehr und mehr überflüssig. Er ist ersetzt durch die Verlockung zum Mittun. Dagegen Widerstand zu leisten, scheint sinnlos, denn es gibt scheinbar kein unterdrückendes Gegenüber, nur das „System“ des technologischen Regimes. Ein Regime, das angeblich objektiven ökonomischen Gesetzen folgt, die Entscheidungen der politischen Führungspersonen alternativlos machen. Die nicht mehr wirklich handelnden Entscheidungsträgerinnen behaupten, sie könnten nur noch Mittun, wie alle anderen auch.
„Eigenverantwortung“ heißt dabei nur, noch mehr von den Ansprüchen auf menschliche Würde aufgeben zu sollen, die man an das Regime haben könnte; etwa wenn die solidarische Umlage-Rentensysteme durch individuell anzusparende kapitalbasierte Altersvorsorge ersetzt werden soll, die aber nur die Mittel dem System der Finanzmärkte preisgibt. Auch „Eigeninitiative“ soll sich im Rahmen vorauseilenden Gehorsams abspielen.

Was besagt nun diese Schilderung des medialen Menschen für unser eigentliches Thema? Für die Frage nach den Wurzeln der Apokalypse-Blindheit? Inwiefern ist das „mediale Dasein“ eine dieser Wurzeln? In der Tat ist der Zusammenhang so eng, daß jeder Einzelzug der Medialität gleich gut als Ausgangspunkt verwendet werden kann. Von jedem führt der Weg mit gleicher Direktheit zur Apokalypse – Blindheit.

1. Da der mediale Mensch „aktiv-passiv-neutral“ ist, bleibt er, trotz der ungeheuren Rolle, die Arbeiten für ihn spielt, ja gerade in actu des Arbeitens, /indolent; /er „überläßt sich“. Das heißt: er rechnet mit einem „Weitergehen“ á tout prix, mit einem Weitergehen, das er selbst nicht zu verantworten braucht.

2. Da seine Tätigkeiten niemals in einem echten Telos, auf das er „aus gewesen“, ihren Abschluß finden, sondern immer nur durch Stoppungen, die seinem Tun selbst zufällig bleiben, hat er kein echtes Verhältnis zur /Zukunft. /Während der wirklich Handelnde und Planende durch sein Handeln einen Zeitraum entwirft, also Zukunft konstituiert, tritt das Tun des „medialen Menschen“ auf der Stelle. (…)
(Günther Anders, /Antiquiertheit Bd.1, Kap. Wir sind „medial“ S. 293)

Auch sie konsumieren die Zukunft. Ob sie sie auch planen?

Die Zukunft tritt der medialen Normalbürgerin nur als das, was geschieht, gegenüber, als das, wobei sie mittun soll und auch will. Aus der Zukunft kommen neue Technologien und Moden auf sie zu, die sie haben will und nicht planen.
Die Existenz dieses medialen Normalbürgers rotiert planlos im Zirkel von produzieren und konsumieren, als Tretmühle oder Luxuskarussell, je nach dem, wo er mehr gefragt ist. Seine Planung bezieht sich überwiegend auf den systemkonformen Drang, möglichst immer mehr am Konsumieren teilzunehmen. Das Regime der technologischen Systeme reklamiert Herrschaft ohne Herrschende zu verwirklichen, eine Herrschaft der Vernunft, die von Expertinnen reklamiert wird, die sich zu Technokraten aufschwingen.

Widerstand gegen das Regime wird als unvernünftig abgetan, denn das technologische System gilt als Inbegriff der so verstandenen Rationalität.
Auflehnung dagegen wird als Rückständigkeit gebrandmarkt und mit Ausgrenzung bestraft. Anpassung bedeutet dagegen freien Zugang zu allen Ressourcen, und damit Wohlstand und Freiheit. „Widerstand ist zwecklos, sie werden assimiliert“, droht das Kollektiv der Borg. Doch ein globales Dorf hört nicht auf, Widerstand zu leisten in der wuchernden Tele-Megalopolis.

Die Kultur der Cyberpunks steht auf Widerstand, sie widersetzt sich sowohl der Anpassung als auch der Ausgrenzung. Die Anpassung zu verweigern ist nicht schwer, man braucht nur der Verlockung nicht länger zu erliegen — das ist der Vorteil gegenüber totalitären Regimen. Aber alle Gewalt, die der Totalitarismus auf Formung seiner Untertanen verwendet, stehen hier zur Ausgrenzung zur Verfügung, zur Abschneidung vom Zugang zu Ressourcen. Die Erlangung von Zugang wird also zum Hauptproblem, vor allem Zugang zu Information. Dabei gilt es, den umgekehrten Zugang der Instanzen des Regimes zu den privaten Informationen des Individuums zu blockieren. Insbesondere beim widerständigen Subjekt. Der angepasst mittuende mediale Mensch wird dagegen weniger Privatsphäre benötigen und stellt heute seine Daten unbekümmert in sogenannte „soziale Netzwerke“des Web2.0. Er begreift nicht, dass ihm unüberschaubare staatliche und immer mehr privatwirtschaftliche ökonomische Konglomerate gegenüberstehen.

Kybernetiker nach der ursprünglichen Wortbedeutung. Das Wort „Cyber“ geht auf das altgriechische Wort für Steuerung (κυβέρνησις kybérnesis) zurück.

Die Szene der Cyberpunks, entsprungen aus einem Subgenre der SF, entwickelte sich seit den 80er Jahren und definierte sich über die Kombination von High Tech und Low Life (den Punk des urbanen Underground). In der Hackersubkultur der 80er und 90er fanden sich ihre Fans zusammen. Die Szene (falls man davon überhaupt sprechen kann) wird von Soziologen so beschrieben:

Ein Cyberpunk steht den neuen Kommunikations- und Informationstechnologien sehr positiv gegenüber, gleichzeitig hat er aber ein kritisch-politisches Bewusstsein in Bezug auf deren gesellschaftliche Verwendung entwickelt. Er sieht sich riesigen Korporationen gegenüber, die immer mehr an Stelle von Nationalstaaten treten.
(Winter, Rainer: Medien und Fans — Zur Konstellation von Fan-Kulturen, in:Kursbuch Jugendkultur. Stile, Szenen, Identitäten vor der Jahrtausendwende,Mannheim 1997, S. 40-53, S.48.)

Die von Cyberpunks, die hier mit Hackern und Haecksen im besten Sinne gleichgesetzt werden, entfaltete Kultur erobert die Netzmedien von den Konzernen zurück, wie sie zuerst von Militärs und staatlichen Telekommunikationsbehörden erobert werden mussten. Ihre Verknüpfung von Datenschutz für die Privatsphäre mit der Forderung nach Informationsfreiheit, freiem Zugang zu den Datenbanken (Lyotard) und Transparenz der Mächtigen lässt sich im Utopiemodell des Inversen Panoptikums beschreiben. Panoptismus (Foucault) beschreibt die Disziplinierung unserer westlichen Gesellschaften durch das Prinzip: Wenige unsichtbare Mächtige sehen viele Machtunterworfene und kontrollieren sie so. Invertiert ergibt sich die Forderung nach Umkehrung dieser Blickrichtung und der zumindest teilweisen Unsichtbarkeit für die Vielen.

Diese Forderung könnte ein Gegengewicht schaffen gegen die sonst ausufernde Macht des kontrollierenden Zentrums der Macht, dem aus den Informationstechnologien sonst immer größere und nicht mehr demokratisch kontrollierbare Macht zuwachsen würde.

07/1/12

Heiner Hastedt: Aufklärung & Technik

Heiner Hastedt: Aufklärung und Technik. Grundprobleme einer Ethik der Technik. Frankfurt, Suhrkamp 1991.

Rezension von Thomas Barth

Der Philosoph Heiner Hastedt sucht in seiner Habilitationsschrift einen nüchternen Weg zu einer aufklärerischen Ethik der Technik, einen Weg zwischen den Wunschträumen eines technokratischen Schlaraffenlandes und dem Pessimismus der Neuen Ethik (Hans Jonas). Dabei will er die „geistesgeschichtliche Klammer zwischen Aufklärung und Technikoptimismus zu lösen“, die ihm in zwei gegensätzlichen Modellen von Aufklärung verwirklicht erscheint: Das Identitätsmodell weist der Aufklärung in der mit ihr identifizierten instrumentellen Vernunft die Schuld an der Misere der Moderne zu und neigt zum Rückgriff auf vormoderne Wertstrukturen; das Überholungsmodell des Technokratismus hält die Ziele der Aufklärung für nunmehr nur noch technische Probleme und möchte sie am liebsten den Ingenieuren überlassen. Gegen beides wendet sich Hastedt und möchte mit seinem Reflexionsmodell von Aufklärung die autonom gewordene Technik wieder der Autonomie des Menschen unterordnen. Kern seines Ansatzes ist die Verknüpfung philosophischer Ethik mit Technikfolgen-Abschätzung (TA) bzw. -Forschung.

New Age und Prinzip Verantwortung?

Die Vertreter des Identitätsmodells glauben in der aufklärungskritischen Tradition der Frankfurter Schule zu stehen (S.155). In der populistischen Variante dieser (falsch verstandenen) Aufklärungs-Kritik, dem „New Age”-Denken z.B. Fritjof Capras (die Hastedt „…nur wegen ihrer großen Verbreitung erwähnt, nicht wegen ihrer sachlichen Diskussionswürdigkeit”), verfallen sie dem einfachen subjektivistischen Irrtum, „…das in der Änderung der privaten Gesinnung automatisch eine Lösung auch der Weltprobleme ..” liege (S.159). Ein -nicht ganz so kurzer- Fehlschluß ist in der ökologischen Neuen Ethik zu sehen, wie an Hans Jonas‘ ”Prinzip Verantwortung” verdeutlicht wird. Hastedt merkt an, „…daß die Popularität von Jonas‘ naturalistischer Position geringer wäre, wenn seine hinter dem wichtigen Titel stehenden Inhalte genauer bekannt geworden wären”. Zu kritisieren sei die teleologische Einordnung des Menschen in die Natur mit der ihr folgenden „Naturalisierung und Objektivierung der Werte”, welche durch das Eingeständnis des naturalistischen Fehlschlusses nicht richtiger werde (S.170). Die postulierte „Heuristik der Furcht” erscheine als apokalyptische Umkehrung der Fortschrittseuphorie und erlaube allenfalls eine rudimentäre (Grenzfragen-) TA, nicht jedoch Technikgestaltung (S.172). Die normativistische Kurzschlüssigkeit neige zum Vernachlässigen der Einzelprobleme und zum adressatlosen Moralisieren -was zu ihrer Beliebtheit unter potentiellen Adressaten beitragen mag-, wenn nicht gar „zur Verharmlosung einer Ökodiktatur” (S.176).

Schlimmer noch bewertet Hastedt die Romantisierung ritueller Tötungspraxis bei Naturvölkern durch den Kleriker Drewermann, der aus Hastedts Sicht endgültig auf anti-humanistische Abwege gerät; aber selbst der „Eurotaoismus” Peter Sloterdijks untergrabe -möge man auch seiner Metapher von der „Mobilmachung” für die gegenwärtige Lage zustimmen- die institutionellen und normativen Errungenschaften der Aufklärung, gefährde letztlich die individuelle Autonomie und Freiheit (S.165). Alles in allem bleiben die Utopien einer „naturgemäßen” Technik undeutlich und der normative Naturalismus ignoriert den Einwand, „…daß die Orientierung an der Natur selbst wiederum nicht ´natürlich´, sondern Ausdruck einer gesellschaftlichen und kulturellen Auffassung ist.” (S.157) Leider versäumt Hastedt in seiner Kritik zu erklären, wie denn richtig verstandene Aufklärungs-Kritik in eine Diskussion der Technikentwicklung einzubeziehen sein könnte. Die diskursive Fassung seiner Ethik erlaubt aber sehr wohl, in den Diskurs auch kritische Positionen einzubeziehen, macht es sogar notwendig.

Das Überholungsmodell von Aufklärung und Technik

Einen ganz anderen Fehlschluß konstatiert Hastedt bei den Vertretern eines Überholungsmodells von Aufklärung und Technik. Ihr epistemologischer Naturalismus versuche, die „…menschliche Gesellschaft, Kultur und Psyche mit den Denkmitteln der Naturwissenschaft zu erklären…”(S.151). Zum Teil handelt es sich dabei um Naturwissenschaftler, die „…nach ihrer Pensionierung auch etwas zu den Problemen der Welt sagen wollen.”(S.184) Ihr Ruf als Spezialwissenschaftler und ihre einfachen Modelle bringen ihnen -auch angesichts der zu komplexen Sozialwissenschaften- die Aufmerksamkeit des Publikums ein. Obschon gesellschaftstheoretisch naiv, füllen sie so ein Vakuum, welches „…die mangelnde öffentliche Berücksichtigung der Sozialwissenschaften hinterläßt.”(S.186)

Eine Affinität zu derartigen Fehlschlüssen besteht aber auch in Kreisen der konservativen Soziologie. Schleichend wandelt sich dort die Analyse der Technisierung zum Technokratismus: „Aus der Diagnose eines Trends wird dann ohne Ausweis der normativen Anteile unversehens das Rezept…” für eine technokratische Handhabung der Gesellschaft (S.190). So etwa beim Alt-Technokraten Schelsky in der naiven Forderung nach rationaler Herrschaft im Sinne eines Managements interesseloser Sachgesetzlichkeiten. Oder auch bei seinem Schüler NiklasLuhmann und dessen Gesellschaftstheorie „…die sich in Ihrer Geschmeidigkeit allerdings auf einem ungleich höheren theoretischem Niveau bewegt als der ältere Technokratismus.”(S.192) Ihr epistemologischer Naturalismus zeige sich vor allem im aus der Biologie importierten Hauptbegriff der Autopoiesis.

Im systemtheoretischen Versuch, die Selbstthematisierung der Thematisierungsweisen im Begriff der Selbstreferentialität wissenschaftlich und technokratisch einzuholen, sieht Hastedt vor allem eine implizite Handlungsentlastung des Theoretikers. Luhmanns technokratischer Verzicht auf den Subjektbegriff übernehme lediglich die philosophische Kritik am einsamen Subjekt der neuzeitlichen Bewußtseinsphilosophie, „…die heute keineswegs mehr als Grundlage für den Reflexions- und Handlungsbegriff genommen werden muß.”(S.194)

Darüber hinaus ergebe sich aus einer gesellschaftstheoretischen Verabschiedung des Subjekts auch kein Grund für die Subjekte selbst, sich in ihren Institutionen nicht für die Realisierung ihrer Reflexionseinsichten einzusetzen -wie Luhmanns Polemik der Gesellschaftskritik nahelegt. Der abstrakte “Flug” über der “geschlossenen Wolkendecke” (Luhmann) fällt somit als systematische Großtheorie wenig überzeugend aus und hinterläßt den Eindruck einer Rechtfertigung für entverantwortlichte Geisteswissenschaftler, so Hastedt.

Die Schrumpfvarianten des Technokratismus

Das Harmoniebedürfnis richtet sich also, laut Hastedt, in der zweiten Variante des Naturalismus nicht auf die Natur, sondern auf die Naturwissenschaft bzw. den industriell-technisch-wissenschaftlichen (Erkenntnis-)Komplex. Eine angesichts der Krisensituation verständliche, aber wenig hilfreiche Reaktion. Übrig bleiben nach dieser Kritik die beiden „Schrumpfvarianten” des Technokratismus, die (1.) naturwissenschaftliche Prinzipien immerhin noch auf technologische Entwicklungen anwenden wollen oder (2.) wenigstens für eine ethische Neutralität der Technik plädieren.

Die erste übersieht jedoch die Ergebnisse zur sozialen Bedingtheit von Technologie, in der zweiten zeige sich nicht viel mehr als die „…bewußte oder unbewußte Zielsetzung einer Neutralisierung der ethischen Verantwortlichkeit für die Technologieentwicklung überhaupt.”(S.200) Dem adressatlosen Moralisieren bzw. technokratischen Entmoralisieren will Hastedt dagegen die Verantwortung des Menschen sowohl für den gesellschaftlich-technischen Gesamtkomplex wie für die zum kulturellen Projekt gewordene Natur entgegensetzen.

Das Projekt der Aufklärung darf sich in laut Hastedt im Reflexionsmodell weder auf eine pauschale Zustimmung zum technischen Fortschritt noch auf seine pauschale Ablehnung festlegen lassen. Erst wenn wir differenziert klären, in welcher Welt mit welchen Technologien wir leben können und wollen, wird entscheidbar, ob und wie eine bestimmte Technologie wünschenswert ist. Die zunehmende Komplexität der Probleme bringe es mit sich, dass „…gleichzeitig mehr empirisches Wissen und mehr normative Orientierung gefordert…” sei (S.105).

Die von Hastedt vorgeschlagene “inklusive” Methode soll daher nicht “…anstatt einer empirischen Technologiefolgenabschätzung betrieben werden (…), sondern unter Zuhilfenahme und in interdisziplinärer Zusammenarbeit mit der Technologiefolgenabschätzung.”(S.106) Hastedt legt Wert darauf, seine Ethik als „anwendungsorientiert” von der „Praxisorientierung” anderer Ansätze abzugrenzen, da diese sich oft in einer Theorieorientierung an Hegel und Marx erschöpft habe. Trotzdem betont die Ethik Hastedts “bei ihrer Gradwanderung zwischen Grundsatzreflexion und Anwendung im Zweifelsfall die Seite der philosophischen Grundsatzreflexion” da die im Alltag meist angewandte Verkürzung von Problemen nicht von der Philosophie verdoppelt zu werden braucht (S.63). Andererseits gelte es aber auch, den “ideologischen Bedarf” nach Ethik nicht unreflektiert zu befriedigen, wie er aus Gründen der Abschiebung von Verantwortung oder im Rahmen einer Marketing-Strategie entstehe (S.61).

Eine anwendungsorientierte Ethik der Technik

Hastedts “inklusive Methode einer anwendungsorientierten Ethik der Technik” versucht, diesen selbstgestellten Anforderungen gerecht zu werden, indem sie ein Programm der reflexiven Koppelung von ethischer Begründung und Anwendung in der TA entwirft. Markierungspunkt ist dabei Habermas, wobei die „quasi-transzendentalen Argumentationsnormen der Diskursethik” mit ihren nicht einlösbaren Versprechungen jedoch nicht mehr als die Umgrenzung prinzipieller Möglichkeiten zum Diskurs beisteuern dürfen (S.220). Kern des Programms ist die diskursive Prüfung jeweiliger Praxis der TA anhand normativ-inhaltlicher Prinzipien, womit zwischen „…dem Absolutismus der Letztbegründung und dem Relativismus…” der „Mittelweg der relativ vernünftigen Begründung” angestrebt wird (S.213).

Die fünf normativen Prinzipien (1.Vereinbar mit Grundfreiheiten; 2.Förderlich für Grundfreiheiten; 3.Förderlich für soziale Gerechtigkeit; 4.Gleiche Berücksichtigung zukünftiger Generationen; 5.Gutes Leben) ergeben mit den fünf Verträglichkeitsdimensionen ( 1.Gesundheit; 2.Gesellschaft; 3.Kultur; 4.Psyche; 5.Umwelt) die ÒSuchmatrixÓ einer anwendungsorientierten Ethik der Technik als Leitlinie der Methode (S.257). Im Prinzip Nr.5 des guten Lebens sieht Hastedt eine notwendige Erweiterung des liberalen Projektes der Moderne durch die alte anthropozentrische Ethik (S.227), da die bürgerliche Privatisierung dieser Frage den heutigen Menschen zunehmend überfordere.

Diskussion

Die bei aller proklamierten Nüchternheit doch häufig erfrischende Polemik auch bei der Diskussion großer Philosophen und Theoretiker wie Hans Jonas oder Niklas Luhmann macht den Band gut lesbar. Die dabei angestrebte Verbindung von Technologie und Philosophie unter die Federführung der Philosophen stellen zu wollen ist ein verständliches Ansinnen. Zu oft haben selbstherrliche Technokraten ethische Überlegungen gegenüber Effizienzdenken bzw. ökonomischen Motiven hintangestellt.

Punkt 5 der normativen Prinzipien des vorgelegten Programms wirft allerdings die Frage auf, wer diese neuen Grundsätzen für Ògutes Leben” festlegen sollte bzw. ob wir dies uneingeschränkt akademischen Philosophen überlassen können. Deren gutbürgerlich-saturierte Lebenswirklichkeit dürfte allzu weit vom Leben der meisten Menschen entfernt sein. Zumal in einer Gesellschaft, in der die Möglichkeiten und damit Freiheiten von Arm und Reich jedes Jahr weiter auseinander liegen.

Vielleicht sollte man Debatten um das gute Leben lieber hinter eine Arbeit an jenen Mechanismen zurückstellen, welche die Fähigkeit zu einer entsprechenden eigenständigen Suche des Individuums untergraben: Den Technikpaternalismus, der den digitalen Technologien innewohnt, weil ihre Entwickler über eine vom einzelnen Nutzer kaum einholbare Komplexität gebieten. Von den Höhen ihres Wissensvorsprungs herab meinen sie oft, uns viele Wahlmöglichkeiten diktieren zu dürfen bzw. sogar zu müssen. Hastedt gibt uns gute Argumente an die Hand, wenn wir mit den Technologen in eine Diskussion um die digitale Gestaltung der Informationsgesellschaft einsteigen wollen.

Dabei geht es auch um technologische Macht, die sich besonders in digitalisierte Kommunikation einschreibt: Als unsichtbarer Code der gesellschaftlichen Strukturen. Die völlige Abwendung von Luhmanns Systemtheorie, die solche Strukturen untersucht, erscheint dabei zu weit zu gehen. Sinnvoller wäre es, Luhmanns zur Verschleierung von Macht tendierende Systemtheorie kritisch zu erweitern, um sie durch eine kommunikationsorientierte Machttheorie zu ersetzen. Diese sollte den Machtbegriff nicht länger vernebelnd in der Kommunikation auflösen, sondern umgekehrt Machtausübung und soziale Kontrolle in Kommunikationstrukturen erhellen. An Lehrende der Informatik könnte man diese Programmatik noch durch den Rat eines Klassikers ergänzen:

„Und da es in diesem Buch um Computer geht, soll es ein Appell sein, der vor allem an diejenigen gerichtet ist, die in Computerwissenschaft unterrichten. Ich möchte, daß sie meine Behauptung aufgenommen haben, daß der Computer eine mächtige neue Metapher ist, mit der wir viele Aspekte der Welt leichter verstehen können, der jedoch ein Denken versklavt, das auf keine anderen Metaphern und wenige andere Hilfsmittel zurückgreifen kann. Der Beruf des Lehrers …ist…ehrenwert… Aber er muß… mehr als nur eine Metapher lehren…Er muß über die Beschränkungen seiner Werkzeuge ebenso sprechen wie über deren Möglichkeiten.“

Joseph Weizenbaum, Die Macht der Computer und die Ohnmacht der Vernunft, S.361f

Heiner Hastedt: Aufklärung und Technik. Grundprobleme einer Ethik der Technik. Frankfurt, Suhrkamp Verlag 1991, 336 S., hardcover 22,80 Euro; Taschenbuch 22,00 Euro

Rezension erschien zuerst 1993 in PP-Aktuell (nicht digitalisiert).