01/12/17

Rezension Felix Stalder: Kultur, Digitalität & Entmündigung

Stalder, Felix: Kultur der Digitalität. Suhrkamp Verlag (edition suhrkamp, Bd.2679), Berlin 2016, 283 S., 18,00 Euro, ISBN 978-3-518-12679-0.

Thomas Barth

Felix Stalder ist ein Schweizer Kulturphilosoph, der sich in seinem Buch „Kultur der Digitalität“ mit der Ko-Evolution von digitalen Technologien, Gesellschaft und Kultur befasst. Er warnt darin unter Berufung auch auf Edward Snowden und Julian Assange vor einer schleichenden Entmündigung, die auf uferlose Überwachung und technokratische Massenmanipulation setzt.

Stalders interdisziplinärer Ansatz verbindet philosophisches Denken mit Soziologie, Medien- und Politikwissenschaft, um Digital- und Internetkultur zu analysieren und das utopische Potential digitaler Commons mit ihren Open-Source-Projekten zu beleuchten. Er blickt dabei auch auf dunkle Wurzeln und Gefahren der Digitalität, die er vor allem in Neoliberalismus, Profitorientierung und bei westlichen (!) Geheimdiensten lokalisiert; dies überrascht, denn sonst kreisen westliche Diskurse über Manipulationen im Internet eher um russische und chinesische Geheimdienste. Stalder warnt vor Gefahren von Algorithmisierung, Überwachung und massenmanipulativer Post-Demokratie, zieht jedoch letztlich ein optimistisches Fazit. Die Commons zeigen trotz heutiger Dominanz der Technokraten mit ihrer neoliberalen TINA-Ideologie („There is no alternative“, Thatcher/Merkel S.206) einen offenen „Raum der Zukunft“ (S.281).

Stalder entwirft ein facettenreiches Bild der digitalen Kultur, die geprägt sei von Fluidität, Vernetzung und stetigem Wandel, bei dem sich unser Verständnis von Raum, Zeit, Identität und Macht grundlegend veränderte. Er stellt die These auf, dass die Digitalität sich nicht in technologischer Innovationen erschöpft, sondern durch neue Formen der Selbstorganisation, des politischen Engagements und der kulturellen Produktion geprägt ist. Katalysator ist dabei das Internet als Medium mit spezifischen Formen des Austauschs. Drei zentrale Formen der Kultur der Digitalität sind die Referentialität (kulturelles Material wird ubiquitär zugänglich und fließt in eine explodierende Produktion von Kulturgütern), die Gemeinschaftlichkeit (kulturelle Ressourcen werden geteilt und Bedeutungen durch stetige Kommunikation stabilisiert) und die Algorithmizität (die Informationsflut wird digital geordnet, aber ebenso werden Gesellschaft und Politik technokratisch entpolitisiert).

Kooperation und der Begriff der Digitalität

Zentrales Anliegen Stalders sind Potenziale der Digitalität für eine demokratische und partizipative Gesellschaft. Er plädiert dafür, bestehende Hierarchien aufzubrechen und neue Formen der Kooperation zu ermöglichen -vor allem in digitalen Commons, deren Wurzeln er in der Open Source und Open Software-Bewegung schon der frühen Internet Communities sieht, etwa den Debian-, GNU- und Linux-Projekten. Darin zeige sich eine digital möglich gewordene Neuverhandlung von gesellschaftlichen Werten und Normen im digitalen Zeitalter: Anstelle staatlicher Hierarchien und Profitorientierung der Konzerne trete die freie Kommunikation der Netze, die auf Meritokratie und Freiwilligkeit basiere. Das Linux-Betriebssystem Ubuntu zeigt in seinem Namen nicht zufällig eine interkulturelle Referenz auf den vielschichtigen Begriff der Bantusprache, der Menschenwürde und vernetzte Gemeinschaftlichkeit verbindet (vgl. Afrotopia von Felwine Sarr).

Stalder definiert den Begriff der Digitalität als eine kulturelle Struktur, die sich durch die Veränderung von Wissen, Macht und Kommunikation in der digitalen Ära auszeichne. Digitale Technologien haben zwar einen tiefgreifenden Einfluss auf verschiedene Aspekte unseres Lebens, vom individuellen Verhalten über soziale Interaktionen bis hin zur politischen Organisation.

Laut Stalder ist Digitalität jedoch keineswegs nur eine technologische Entwicklung, sondern vielmehr eine komplexe kulturelle Dynamik, die unsere Vorstellungen von Wahrheit, Realität und Identität in Frage stellt. Er reklamiert eine „im weitesten Sinne poststrukturalistische Perspektive“, Kultur sei heterogen, hybrid und „von konkurrierenden Machtansprüchen und Machtdispositiven durchzogen“, von „Begehren, Wünschen und Zwängen“ getrieben, Kultur mobilisiere diverse Ressourcen in der Konstituierung von Bedeutung (S.17).

„’Digitalität‘ bezeichnet damit jenes Set von Relationen, das heute auf Basis der Infrastruktur digitaler Netzwerke in Produktion, Nutzung und Transformation materieller und immaterieller Güter sowie der Konstitution und Koordination persönlichen und kollektiven Handelns realisiert wird.“ (S.18)

Damit solle jedoch nicht Digitaltechnik ins Zentrum gerückt oder Digitales von Analogem abgegrenzt werden. Analoges würde nicht verschwinden, sondern „neu- und teilweise sogar aufgewertet“. „Digitalität“ verweise vielmehr auf historisch neue Möglichkeiten der Konstitution und Verknüpfung von Akteuren (menschlichen wie nichtmenschlichen):

„Der Begriff ist mithin nicht auf digitale Medien begrenzt, sondern taucht als relationales Muster überall auf und verändert den Raum der Möglichkeiten vieler Materialien und Akteure.“ (S.18)

Stalder knüpft an den Begriff des „Post-Digitalen“ von Florian Cramer an, der damit Praktiken bezeichnet, die sich zwar in Digitalmedien entwickelten, deren offene Interaktionsform sich jedoch immer weiter verbreite. Stalders Begriff der Digitalität vermeide jedoch das missverständliche Präfix „Post-“, das fälschlich so gelesen werden könne, dass „etwas vorbei sei“, und löse sich zugleich von Cramers technikfixiertem Kontext der Medienkunst. Stalder nimmt in diesem Sinne die ganze Gesellschaft in den Blick, denn „…die Präsenz der Digitalität jenseits der digitalen Medien, verleiht der Kultur der Digitalität ihre Dominanz.“ (S.20)

Nicht technologische Entwicklungen allein hätten der Digitalität den Weg gebahnt, sondern auch Politik, Kultur und Ökonomie. Wichtig erscheinen Stalder insbesondere der Aufstieg der Wissensökonomie und der Kritik an Heteronormativität und Postkolonialismus. Die Wissensökonomie habe seit den 1960ern explizit den wachsenden Informations- und Wissensbedarf von Behörden und Konzernen in westlichen Konsumgesellschaften thematisiert. Dazu gehöre die Massenmanipulation durch immer ausgefeiltere Werbung, Propaganda und PR, die der Freud-Neffe Edward Bernays maßgeblich entwickelte:

„Kommunikation wurde zu einem strategischen Feld für unternehmerische und politische Auseinandersetzungen und die Massenmedien zum Ort der Handlung… Eine Medienindustrie im modernen Sinne entstand, die mit dem rasch wachsenden Markt für Werbung expandierte.“ (S.29f.)

Man sprach in den 1980ern und 90ern von „Informations-“ und später „Netzwerkgesellschaften“, in denen -neben der Digitalisierung- eine Flexibilisierung der Arbeit mit neoliberalem Abbau der Sozialstaaten einherging. Der Freiheitsbegriff wurde dabei von neoliberaler Politik und den seit den 1960ern wachsenden „Neuen Sozialen Bewegungen“ konträr definiert: Neoliberal als Freiheit der Märkte, sozial als persönliche Freiheit von gesellschaftlichen Zwängen (S.33). Exemplarisch für Letzteres behandelt Stalder die Schwulenbewegung in Westdeutschland, Rosa von Praunheim, den Bonner Tuntenstreit 1974, die Aids-Krise ab 1983. Diversität und Hybridisierung der Kultur der Digitalität wurzele in emanzipativen Bewegungen, deren Erfolg sich spätestens 2014 beim European Song Contest in der breiten Öffentlichkeit manifestierte -mit der Stalder seine Abhandlung eingeleitet hatte: „Conchita Wurst, die glamouröse Diva mit Bart, war die Gewinnerin“ (S.7), sie habe komplexe Geschlechterkonstruktionen „zumindest ansatzweise mainstreamfähig“ gemacht (S.48):

„Conchita Wurst, die bärtige Diva, ist nicht zwischen widerstreitenden Polen zerrissen. Sie repräsentiert vielmehr eine gelungene Synthese, etwas Neues, in sich Stimmiges, das sich gerade dadurch auszeichnet, dass die Elemente der alten Ordnung (Mann/Frau) sichtbar sind und zugleich transzendiert werden.“ (S.99)

Schattenseiten: Algorithmizität und Post-Demokratie

Die Digitalität ermöglicht laut Stalder neben hybrider Diversität auch neue Formen der Partizipation und Vernetzung, die zur Demokratisierung von Wissen und Kommunikation führen können. Gleichzeitig birgt Digitalität aber auch Risiken, wie die Manipulation durch Algorithmen, Filterblasen und Desinformation. Zugleich seien Algorithmen jedoch prinzipiell unabdingbar, um in einer diversen und hybriden Explosion der Kultur mit ihrer wachsenden Unordnung orientiert zu bleiben. Ohne Suchmaschinen etwa könne heute kein Archiv mehr die digitalen Datenmassen, Texte und Kulturprodukte bewältigen.

Algorithmen automatisieren Kulturtechniken wie die Inhaltsanalyse von Bildern oder das Schreiben von Texten: Der Chef der Firma „Narrative Science“, die automatisierte Sport- und Finanzberichterstattung anbietet, habe 2012 für die nächsten Dekaden eine Ersetzung von neunzig Prozent der Journalisten durch Computer angekündigt. Bedenklich sei, „dass sich auch die CIA für Narrative Science interessiert und über ihre Beteiligungsgesellschaft In-Q-Tel in das Unternehmen investiert hat, ist ein Hinweis darauf, dass bereits heute Anwendungen jenseits des Journalismus entwickelt werden. Zu Propagandazwecken lassen sich mit Algorithmen beispielsweise problemlos massenhaft Einträge in Onlineforen und den sozialen Massenmedien erstellen.“ (S.175)

Dynamische Algorithmen können sich sogar halbautomatisch-eigenständig weiterentwickeln: 2012 habe Google mit solchen „deep learning“-Verfahren die „Gesichtserkennung in unstrukturierten Bildern“ um siebzig Prozent verbessert (S.180). In ausufernder Überwachung greife heute ein „Daten-Behaviorismus“ nach unserer Privatheit, in einem „Revival eines nach wie vor mechanistischen, reduktionistischen und autoritären Ansatzes“. Diese Haltung ungehemmter Kontrolle unseres Verhaltens finde sich bei jenen, die über umfassende Beobachtungsmöglichkeiten verfügen, „dazu gehören neben Facebook und Google auch die Geheimdienste westlicher Länder“ (S.201). Dabei ginge es neben der gern genannten „Serviceverbesserung“ aber auch um soziale Normierung sowie „Profit- oder Überwachungsoptimierung“ (S.202). Anders als viele deutsche Medienwissenschaftler, die an dieser Stelle der Analyse krampfhaft mit den Fingern auf „russische Trolle“ und den chinesischen Überwachungsstaat zeigen, beweist der Schweizer Felix Stalder Rückgrat und kritisiert die eigenen, die westlichen Machteliten (was besagte Kollegen wohl eher nicht aufgreifen dürften).

Assange, Snowden und Entmündigung im libertären Paternalismus

2013 habe, so Stalder, Edward Snowden die „flächendeckende Überwachung des Internets durch staatliche Geheimdienste“ enthüllt (S.233). Felix Stalder zitiert den Wikileaks-Gründer Julian Assange und resümiert: „Die Grenzen zwischen postdemokratischen Massenmedien und staatlichen Nachrichtendiensten sind fließend. Wie inzwischen bekannt ist, bestehen zwischen beiden Bereichen personelle Kontinuitäten und inhaltliche Gemeinsamkeiten.“ (S.234) Die USA hätten seit 2011 z.B. „ein eigenes Programm zu sozialen Massenmedien mit dem Namen ‚Social Media in Strategic Communication‘. (…) seit 2009 vernetzt die Europäische Union im Rahmen des INDECT-Programms Universitäten und Sicherheitsorgane mit dem Ziel ‚Lösungen und Werkzeuge der automatisierten Gefahrenentdeckung zu entwickeln’… Überspitzt könnte man sagen, dass die Missachtung der Grundrechte mit der Qualität der so geschaffenen Dienstleistung ‚Sicherheit‘ legitimiert wird.“ (S.235f.)

Leider sei die Gegenwehr gegen eine in westlichen Gesellschaften so geschaffene soziale Atmosphäre der Angst gering geblieben. Hinter Überwachung und Massenmanipulation stehe in den heutigen Postdemokratien, die demokratische Politik durch technokratisches Gouvernance ersetzen, eine neoliberale Anti-Aufklärung. Obsolet sei heute für die Machteliten „…die aus der Zeit der Aufklärung stammende Annahme, der Mensch könne sich durch den Einsatz seiner Vernunft und die Ausbildung seiner moralischen Fähigkeiten verbessern und sich aus seiner Unmündigkeit durch Bildung und Reflexion selbst befreien.“ (S.227) Eine kybernetische Sicht sehe den Menschen als dressierbare Versuchsratte, die mit subtilen „Nudges“ (Schubsern) zu steuern sei, so Richard Thaler und Cass Sunstein.

Die beiden Neobehavioristen bezeichnen ihr System als „libertären Paternalismus“, der eine „freiheitliche Bevormundung“ anstrebe, was bei den Regierungschefs in Washington und London, Obama und Cameron, so viel Anklang fand, dass sie Thaler und Sunstein in ihre Teams holten (S.228f.). Besonders in den sozialen Massenmedien (also den „sozialen Medien“, Stalder benutzt diesen gängigen Begriff jedoch nicht), ließe sich die mediale Umgebung via Nudging manipulieren. Dies geschehe vor allem im Dienste einer Gruppe, die Stalder als „den inneren Kern des postdemokratischen Systems“ bezeichnet, „bestehend aus den Spitzen der Wirtschaft, der Politik und der Geheimdienste“ (S.230). Viele Mainstream-Konformisten dürften in dieser simplen und analytisch untadelig abgeleiteten politischen Erkenntnis bereits angebliche „Verschwörungstheorie“ oder sogar „-ideologie“ wittern. Denn medial und in der akademischen Forschung werden die von Stalder aufgezeigten Fakten und Zusammenhänge geradezu krampfhaft ignoriert. Es ist zu befürchten, dass genau diese krampfhafte Ignoranz künftig zumindest diese Teile von Stalders Buch betreffen wird. Machtstrukturen dieses Kalibers werden bislang selten öffentlich diskutiert und dies geschieht dann oft nur in künstlerisch verfremdeter Form, wie etwa bei Mark Lombardi.

Stalder ruft im Fazit dazu auf, die Dynamik der Digitalität kritisch zu reflektieren und sich aktiv mit den Auswirkungen digitaler Technologien auf unsere Gesellschaft auseinanderzusetzen. Indem wir die Chancen und Herausforderungen der Digitalität verstehen, können wir Freiheit und Autonomie im digitalen Raum bewahren und weiterentwickeln: Obwohl „die Postdemokratie das Politische selbst abschaffen und alles einer technokratischen Alternativlosigkeit unterordnen will“, beweise die Entwicklung der blühenden Commons das Gegenteil, meint Stalder und schließt sein Buch mit dem Verweis auf utopische Potentiale der Digitalität: „Diese Widersprüchlichkeit der Gegenwart öffnet den Raum der Zukunft.“ Ausbaufähig scheint an Stalders Argumentation die Subjektkonstitution im Netz, die mit der Konzentration auf Kommunizieren, Posten und Liken wohl noch nicht ausreichend erfasst ist, sowie deren Verknüpfung mit Foucaults Konzept des Panoptismus.

08/8/16

Böse Sowjet-Fantastik

Arkadi und Boris Strugatskij, Die Last des Bösen, Frankf./M. 1991, Ullstein Verlag

Rezension von Thomas Barth

Die Handlung des Romans bewegt sich in vier ineinander verschachtelten Rahmenhandlungen. Ort: Taschlinsk, fiktive Provinzstadt in der Sowjetunion; Zeit: ca. 50 Jahre in der Zukunft; Art: utopische Groteske mit mystisch-esoterischen Elementen. Der Ich-Erzähler, dessen Identität als Igor Wsewolodowitsch Mytarin erst am Ende offenbart wird, schreibt ein Buch über seinen Mentor, den “Großen Lehrer” Georgij A. Nossow, genannt G.A. Dafür zitiert Igor umfangreich aus seinem 40 Jahre alten Tagebuch, in welchem er wiederum Zitate aus einem ominösen Manuskript “O3” darlegt, welches G.A. ihm damals gab. In diesem als phantastisch gekennzeichneten Manuskript wimmelt es von Rückblenden in biblische Zeiten, die auf die Vergangenheit von dort handelnden, anscheinend unsterblichen Personen, Ahasver Lukitschs und des Demiurg, verweisen.

Vor 40 Jahren war Igor fanatischer Jünger des G.A. und stand ihm im Kampf um eine alternative Jugendkolonie vor den Toren der Stadt, der “Flora”, bei. Die Flora-Jugend verweigert die Teilnahme an Arbeit und Konsum, praktiziert freie Liebe und Drogenrausch. Als nach einem Rockkonzert auch noch Autos und Fensterscheiben zertrümmert werden, blasen die Bürger von Taschlinsk zur Angriff. Nur G.A., erster Pädagoge am legendären Lyzeeum, einer Lehrerschule, tritt für die Flora ein. Ein blutiges Pogrom braut sich zusammen. Auch G.A. und seine Schüler geraten ins Kreuzfeuer, man demonstriert und fordert die Schließung der Eliteschule. Igor liest derweil im geheimnisvollen Manuskript O3, welches von einem Astronomen namens Manochin hinterlassen wurde. Manochin bekommt den Versicherungsvertreter Lukitsch als Zimmergenossen zugewiesen und erkennt bald, daß dieser mehr als nur Versicherungen verkauft. Aus seiner zuweilen feuerspeienden Aktentasche zieht er Verträge in linksläufiger Schrift in welchen seinen Kunden viel Geld und Lebenserfolg zugesichert wird, gegen die Überlassung ihrer “nicht-materiellen unkörperlichen Substanz”. Der bald auftauchende Chef von Lukitsch, der Demiurg, ist noch unheimlicher; dennoch macht Manochin ein Geschäft: Eine astrophysikalische Theorie von ihm wird plötzlich zur Wahrheit, er hingegen leistet dem Demiurgen Handlangerdienste. Rückblenden, deren Verbindung zu “O3” unklar bleibt, beschreiben Lukitschs und des Demiurgen Vergangenheit als Jünger des biblischen Jesus, bzw. Propheten; die Geschichte Jesu wird dahingehend erläutert, daß Judas -ein gutmütiger Schwachsinniger- auf Jesu Geheiß den Verrat beging, Johannes dagegen einen Fluch der Unsterblichkeit auf sich lud und zum Sammeln menschlicher Seelen überging, während der biblische Johannes in Wahrheit ein Jünger des Unsterblichen war und dessen Worte im gemeinsamen Exil auf Patmos literarisch ausschmückte. Lukitsch und der Demiurg scheinen ein unheimliches Experiment mit Manochin, vielleicht auch ganz Taschlinsk oder gar der ganzen Menschheit vorzubereiten, dessen Ziel möglicherweise die Beseitigung alles Bösen oder aber dessen Verwirklichung sein könnte. Auch G.A., dessen Sohn sich als Anführer der Flora entpuppt, scheint mit Luktisch ins Geschäft gekommen zu sein, wie dessen Auftauchen im Gesichtskreis des Ich-Erzählers Igor letztlich nahelegt. Die Flora zerstreut sich freiwillig, G.A. mußte anscheinend fliehen -doch hier bricht das Tagebuch ab. Th. Barth 8/1995

Arkadi Strugatskij, geb. 1925, Sowjetunion, und Boris Strugatskij, geb. 1933, Sowjetunion; Die Last des Bösen, (Otjagoschtschenije slom), Ullstein Verlag 1991. Ort: Taschlinsk, fiktive Provinzstadt in der Sowjetunion; Zeit: ca. 50 Jahre in der Zukunft; Rezension Nr. 5 für Romanführer, Hamburg, Oktober 1995, Thomas Barth

11/16/12

Jörg Auf dem Hövel: Abenteuer Künstliche Intelligenz

Rezensiert von Thomas Barth

Jörg Auf dem Hövel: Abenteuer Künstliche Intelligenz, Discorsi Verlag

Der Publizist und Politikwissenschaftler Jörg Auf dem Hövel lädt seine Leser ein zu einem Abenteuer der utopisch-philosophischen Art: „Künstliche Intelligenz“ -ist so etwas möglich? Reich an Aphorismen, Anekdoten und philosophischen Betrachtungen über AI (Artificial Intelligence) schreibt er die Geschichte eines faszinierenden Gebietes, das schon lange SF-Autoren anregte. Denken wir an Kubricks Film „2001“: Dort wendet sich die AI als Bordcomputer eines Raumschiffes mörderisch wie Frankensteins Monster gegen die Astronauten. Auch Käptn Kirk von der Enterprise musste eine AI überlisten, bei Stanislaw Lem wächst in „Also sprach Golem“ die AI ihren Erfindern eher subtil über den Kopf und nimmt hinter ihrem Rücken interstellaren Kontakt zu ihres Gleichen in der Galaxis auf.

Jörg Auf dem Hövel ist sich dieser literarisch-utopischen Wurzeln bewusst, wenn er in Forschungslabors blickt und über die Zukunft intelligenter Automaten sinniert. Pioniere der AI wie Norbert Wiener, Alan Turing oder die Kommunikationtheoretiker Shannon&Weaver waren auf die Informationsverarbeitung der rationalen Intelligenz fixiert. Die ersten Schachcomputer erstaunten uns. Ein „General Problem Solver“ weckte große Erwartungen, die sich bei Transhumanisten zu einer neuen Heilslehre steigerten, aber auch bescheidenere Hoffnungen, dass de Rekonstruktion unserer Intelligenz schon bald weiter Fortschritte machen wird.

„Eine Maschine, die denkt, fühlt, redet und sich selbst erkennt – für die einen ein Menschheitstraum, für die anderen eine Horrorvision. Noch streiten sich die Wissenschaftler, ob wirkliche künstliche Intelligenz überhaupt jemals technisch realisierbar sein wird, und die Ergebnisse bisheriger Forschung fallen vor dem Hintergrund manch gewagter Vision noch bescheiden aus. Doch dies tut der Faszination an dem Thema keinen Abbruch. Denn die Wissenschaft von der künstlichen Intelligenz berührt das soziale, kulturelle und religiöse Selbstverständnis des Menschen.“ (Verlag)

Es geht um eine Disziplin, die trotz ihrer Fehlschläge von einer magischen Aura umgeben ist. Ende der 80er Jahre zeigte die AI deutliche Anzeichen einer degenerierten Wissenschaft, so der Autor, denn zu hoch waren die geschürten Erwartungen, schon bald menschliche durch elektronische Intelligenz ersetzen zu können. Die enormen Rechenleistungen ermöglichten Erfolge bei Expertensystemen, die aber trotzdem nur bessere Datenbanken blieben. Computer schafften es sogar Schachweltmeister ins Schwitzen zu bringen. Doch beim Einsatz in der banalen Alltagswelt der Straßenüberquerungen und etwa des Häkelns scheiterten die artifiziellen Superhirne gründlich. Selbst am am Massachusetts Institute of Technology (MIT) war man zunehmend frustriert darüber, dass die AI immer noch nicht in der Lage war, zügig eine Treppe zu überwinden und zum Einsammeln von ein paar Bauklötzchen Stunden brauchte. Doch man gab nicht auf.

Da ist zum Beispiel Rodney Brooks, ein MIT-Nestor der Künstlichen Intelligenz, der entwickelte ein völlig neues Konzept: Will man intelligente Maschinen bauen, muss die Kopplung zwischen Wahrnehmung und Handlung sehr eng gestaltet werden. Zuvor war man davon ausgegangen, dass der Roboter zunächst über ein inneres Weltmodell verfügen muss bevor er handeln kann. Brooks dagegen wollte diese „Kognitions-Box“, die man für unabdingbar hielt, einfach weglassen. Er plädierte für eine Rechner- und Roboterarchitektur, in der die einzelnen Elementarverhalten nicht mehr in einer Zentraleinheit verrechnet werden, sondern unabhängig voneinander ablaufen. Das Verhalten des Gesamtsystems ergibt sich aus der Kommunikation der Subsysteme miteinander, die gemeinsam je bestimmten Situationen bestimmte Interaktionsmuster zuordnen.

Es geht auch um die Verschmelzung von Mensch und Maschine mittels Nanotechnologie, doch hier befinden wir uns im Bereich der SF; Science und Fiction auseinander zu halten fällt manchen US-Autoren schwer. Dies gab schon den Ansätzen von Marvin Minsky, Hans Moravec und Ray Kurzweil ihre transhumanistische Würze, aber diskreditierte sie zugleich in der europäischen Wissenschaftlergemeinde. Seit den achtziger und neunziger Jahren lokalisierte man im Körper eine eigene Intelligenz -kann die von AI profitieren? Sind wir auf dem Weg zu einem AI-aufgerüsteten Supermenschen? Doch der Autor dämpft die überschießenden Hoffnungen (ohne sie ganz zu verwerfen).

Zum einen geht es um eine Wissenschaft, die nach Jahren der Höhenflüge auf den Boden der Tatsachen zurück gekommen ist; zum anderen blicken wir auf die Techno-Utopien einer Disziplin, die auf dem schmalen Grat zwischen techno-evolutionärem Fortschrittsglauben und, negativ ausgedrückt, inhumaner Überwindung des Menschseins wandelt. Ihr größtes Manko dabei: Bei allen Erfolgen der computer und neuro sciences weiß bis heute niemand, wie menschliche Intelligenz wirklich funktioniert. Unser Gehirn und seine Arbeitsweise bleiben bislang unerreichter Maßstab für Künstliche Intelligenz, die sich aber mit Informatik, Psychologie, Kognitions- und Neurowissenschaften hartnäckig weiter an Funktion und Struktur unseres Denkorgans herantastet.

Ein kluges und verrückt-geniales Buch, das auch verblüffende Perspektiven auf die Welt der Netze, Computer und AI eröffnet. (Rezension erschien zuerst auf InversePanopticon)

Jörg Auf dem Hövel: Abenteuer Künstliche Intelligenz, Discorsi Verlag, Hamburg 2002, 194 Seiten, 14 Euro, ISBN-13: 9783980733045

07/1/12

Heiner Hastedt: Aufklärung & Technik

Heiner Hastedt: Aufklärung und Technik. Grundprobleme einer Ethik der Technik. Frankfurt, Suhrkamp 1991.

Rezension von Thomas Barth

Der Philosoph Heiner Hastedt sucht in seiner Habilitationsschrift einen nüchternen Weg zu einer aufklärerischen Ethik der Technik, einen Weg zwischen den Wunschträumen eines technokratischen Schlaraffenlandes und dem Pessimismus der Neuen Ethik (Hans Jonas). Dabei will er die „geistesgeschichtliche Klammer zwischen Aufklärung und Technikoptimismus zu lösen“, die ihm in zwei gegensätzlichen Modellen von Aufklärung verwirklicht erscheint: Das Identitätsmodell weist der Aufklärung in der mit ihr identifizierten instrumentellen Vernunft die Schuld an der Misere der Moderne zu und neigt zum Rückgriff auf vormoderne Wertstrukturen; das Überholungsmodell des Technokratismus hält die Ziele der Aufklärung für nunmehr nur noch technische Probleme und möchte sie am liebsten den Ingenieuren überlassen. Gegen beides wendet sich Hastedt und möchte mit seinem Reflexionsmodell von Aufklärung die autonom gewordene Technik wieder der Autonomie des Menschen unterordnen. Kern seines Ansatzes ist die Verknüpfung philosophischer Ethik mit Technikfolgen-Abschätzung (TA) bzw. -Forschung.

New Age und Prinzip Verantwortung?

Die Vertreter des Identitätsmodells glauben in der aufklärungskritischen Tradition der Frankfurter Schule zu stehen (S.155). In der populistischen Variante dieser (falsch verstandenen) Aufklärungs-Kritik, dem „New Age”-Denken z.B. Fritjof Capras (die Hastedt „…nur wegen ihrer großen Verbreitung erwähnt, nicht wegen ihrer sachlichen Diskussionswürdigkeit”), verfallen sie dem einfachen subjektivistischen Irrtum, „…das in der Änderung der privaten Gesinnung automatisch eine Lösung auch der Weltprobleme ..” liege (S.159). Ein -nicht ganz so kurzer- Fehlschluß ist in der ökologischen Neuen Ethik zu sehen, wie an Hans Jonas‘ ”Prinzip Verantwortung” verdeutlicht wird. Hastedt merkt an, „…daß die Popularität von Jonas‘ naturalistischer Position geringer wäre, wenn seine hinter dem wichtigen Titel stehenden Inhalte genauer bekannt geworden wären”. Zu kritisieren sei die teleologische Einordnung des Menschen in die Natur mit der ihr folgenden „Naturalisierung und Objektivierung der Werte”, welche durch das Eingeständnis des naturalistischen Fehlschlusses nicht richtiger werde (S.170). Die postulierte „Heuristik der Furcht” erscheine als apokalyptische Umkehrung der Fortschrittseuphorie und erlaube allenfalls eine rudimentäre (Grenzfragen-) TA, nicht jedoch Technikgestaltung (S.172). Die normativistische Kurzschlüssigkeit neige zum Vernachlässigen der Einzelprobleme und zum adressatlosen Moralisieren -was zu ihrer Beliebtheit unter potentiellen Adressaten beitragen mag-, wenn nicht gar „zur Verharmlosung einer Ökodiktatur” (S.176).

Schlimmer noch bewertet Hastedt die Romantisierung ritueller Tötungspraxis bei Naturvölkern durch den Kleriker Drewermann, der aus Hastedts Sicht endgültig auf anti-humanistische Abwege gerät; aber selbst der „Eurotaoismus” Peter Sloterdijks untergrabe -möge man auch seiner Metapher von der „Mobilmachung” für die gegenwärtige Lage zustimmen- die institutionellen und normativen Errungenschaften der Aufklärung, gefährde letztlich die individuelle Autonomie und Freiheit (S.165). Alles in allem bleiben die Utopien einer „naturgemäßen” Technik undeutlich und der normative Naturalismus ignoriert den Einwand, „…daß die Orientierung an der Natur selbst wiederum nicht ´natürlich´, sondern Ausdruck einer gesellschaftlichen und kulturellen Auffassung ist.” (S.157) Leider versäumt Hastedt in seiner Kritik zu erklären, wie denn richtig verstandene Aufklärungs-Kritik in eine Diskussion der Technikentwicklung einzubeziehen sein könnte. Die diskursive Fassung seiner Ethik erlaubt aber sehr wohl, in den Diskurs auch kritische Positionen einzubeziehen, macht es sogar notwendig.

Das Überholungsmodell von Aufklärung und Technik

Einen ganz anderen Fehlschluß konstatiert Hastedt bei den Vertretern eines Überholungsmodells von Aufklärung und Technik. Ihr epistemologischer Naturalismus versuche, die „…menschliche Gesellschaft, Kultur und Psyche mit den Denkmitteln der Naturwissenschaft zu erklären…”(S.151). Zum Teil handelt es sich dabei um Naturwissenschaftler, die „…nach ihrer Pensionierung auch etwas zu den Problemen der Welt sagen wollen.”(S.184) Ihr Ruf als Spezialwissenschaftler und ihre einfachen Modelle bringen ihnen -auch angesichts der zu komplexen Sozialwissenschaften- die Aufmerksamkeit des Publikums ein. Obschon gesellschaftstheoretisch naiv, füllen sie so ein Vakuum, welches „…die mangelnde öffentliche Berücksichtigung der Sozialwissenschaften hinterläßt.”(S.186)

Eine Affinität zu derartigen Fehlschlüssen besteht aber auch in Kreisen der konservativen Soziologie. Schleichend wandelt sich dort die Analyse der Technisierung zum Technokratismus: „Aus der Diagnose eines Trends wird dann ohne Ausweis der normativen Anteile unversehens das Rezept…” für eine technokratische Handhabung der Gesellschaft (S.190). So etwa beim Alt-Technokraten Schelsky in der naiven Forderung nach rationaler Herrschaft im Sinne eines Managements interesseloser Sachgesetzlichkeiten. Oder auch bei seinem Schüler NiklasLuhmann und dessen Gesellschaftstheorie „…die sich in Ihrer Geschmeidigkeit allerdings auf einem ungleich höheren theoretischem Niveau bewegt als der ältere Technokratismus.”(S.192) Ihr epistemologischer Naturalismus zeige sich vor allem im aus der Biologie importierten Hauptbegriff der Autopoiesis.

Im systemtheoretischen Versuch, die Selbstthematisierung der Thematisierungsweisen im Begriff der Selbstreferentialität wissenschaftlich und technokratisch einzuholen, sieht Hastedt vor allem eine implizite Handlungsentlastung des Theoretikers. Luhmanns technokratischer Verzicht auf den Subjektbegriff übernehme lediglich die philosophische Kritik am einsamen Subjekt der neuzeitlichen Bewußtseinsphilosophie, „…die heute keineswegs mehr als Grundlage für den Reflexions- und Handlungsbegriff genommen werden muß.”(S.194)

Darüber hinaus ergebe sich aus einer gesellschaftstheoretischen Verabschiedung des Subjekts auch kein Grund für die Subjekte selbst, sich in ihren Institutionen nicht für die Realisierung ihrer Reflexionseinsichten einzusetzen -wie Luhmanns Polemik der Gesellschaftskritik nahelegt. Der abstrakte “Flug” über der “geschlossenen Wolkendecke” (Luhmann) fällt somit als systematische Großtheorie wenig überzeugend aus und hinterläßt den Eindruck einer Rechtfertigung für entverantwortlichte Geisteswissenschaftler, so Hastedt.

Die Schrumpfvarianten des Technokratismus

Das Harmoniebedürfnis richtet sich also, laut Hastedt, in der zweiten Variante des Naturalismus nicht auf die Natur, sondern auf die Naturwissenschaft bzw. den industriell-technisch-wissenschaftlichen (Erkenntnis-)Komplex. Eine angesichts der Krisensituation verständliche, aber wenig hilfreiche Reaktion. Übrig bleiben nach dieser Kritik die beiden „Schrumpfvarianten” des Technokratismus, die (1.) naturwissenschaftliche Prinzipien immerhin noch auf technologische Entwicklungen anwenden wollen oder (2.) wenigstens für eine ethische Neutralität der Technik plädieren.

Die erste übersieht jedoch die Ergebnisse zur sozialen Bedingtheit von Technologie, in der zweiten zeige sich nicht viel mehr als die „…bewußte oder unbewußte Zielsetzung einer Neutralisierung der ethischen Verantwortlichkeit für die Technologieentwicklung überhaupt.”(S.200) Dem adressatlosen Moralisieren bzw. technokratischen Entmoralisieren will Hastedt dagegen die Verantwortung des Menschen sowohl für den gesellschaftlich-technischen Gesamtkomplex wie für die zum kulturellen Projekt gewordene Natur entgegensetzen.

Das Projekt der Aufklärung darf sich in laut Hastedt im Reflexionsmodell weder auf eine pauschale Zustimmung zum technischen Fortschritt noch auf seine pauschale Ablehnung festlegen lassen. Erst wenn wir differenziert klären, in welcher Welt mit welchen Technologien wir leben können und wollen, wird entscheidbar, ob und wie eine bestimmte Technologie wünschenswert ist. Die zunehmende Komplexität der Probleme bringe es mit sich, dass „…gleichzeitig mehr empirisches Wissen und mehr normative Orientierung gefordert…” sei (S.105).

Die von Hastedt vorgeschlagene “inklusive” Methode soll daher nicht “…anstatt einer empirischen Technologiefolgenabschätzung betrieben werden (…), sondern unter Zuhilfenahme und in interdisziplinärer Zusammenarbeit mit der Technologiefolgenabschätzung.”(S.106) Hastedt legt Wert darauf, seine Ethik als „anwendungsorientiert” von der „Praxisorientierung” anderer Ansätze abzugrenzen, da diese sich oft in einer Theorieorientierung an Hegel und Marx erschöpft habe. Trotzdem betont die Ethik Hastedts “bei ihrer Gradwanderung zwischen Grundsatzreflexion und Anwendung im Zweifelsfall die Seite der philosophischen Grundsatzreflexion” da die im Alltag meist angewandte Verkürzung von Problemen nicht von der Philosophie verdoppelt zu werden braucht (S.63). Andererseits gelte es aber auch, den “ideologischen Bedarf” nach Ethik nicht unreflektiert zu befriedigen, wie er aus Gründen der Abschiebung von Verantwortung oder im Rahmen einer Marketing-Strategie entstehe (S.61).

Eine anwendungsorientierte Ethik der Technik

Hastedts “inklusive Methode einer anwendungsorientierten Ethik der Technik” versucht, diesen selbstgestellten Anforderungen gerecht zu werden, indem sie ein Programm der reflexiven Koppelung von ethischer Begründung und Anwendung in der TA entwirft. Markierungspunkt ist dabei Habermas, wobei die „quasi-transzendentalen Argumentationsnormen der Diskursethik” mit ihren nicht einlösbaren Versprechungen jedoch nicht mehr als die Umgrenzung prinzipieller Möglichkeiten zum Diskurs beisteuern dürfen (S.220). Kern des Programms ist die diskursive Prüfung jeweiliger Praxis der TA anhand normativ-inhaltlicher Prinzipien, womit zwischen „…dem Absolutismus der Letztbegründung und dem Relativismus…” der „Mittelweg der relativ vernünftigen Begründung” angestrebt wird (S.213).

Die fünf normativen Prinzipien (1.Vereinbar mit Grundfreiheiten; 2.Förderlich für Grundfreiheiten; 3.Förderlich für soziale Gerechtigkeit; 4.Gleiche Berücksichtigung zukünftiger Generationen; 5.Gutes Leben) ergeben mit den fünf Verträglichkeitsdimensionen ( 1.Gesundheit; 2.Gesellschaft; 3.Kultur; 4.Psyche; 5.Umwelt) die ÒSuchmatrixÓ einer anwendungsorientierten Ethik der Technik als Leitlinie der Methode (S.257). Im Prinzip Nr.5 des guten Lebens sieht Hastedt eine notwendige Erweiterung des liberalen Projektes der Moderne durch die alte anthropozentrische Ethik (S.227), da die bürgerliche Privatisierung dieser Frage den heutigen Menschen zunehmend überfordere.

Diskussion

Die bei aller proklamierten Nüchternheit doch häufig erfrischende Polemik auch bei der Diskussion großer Philosophen und Theoretiker wie Hans Jonas oder Niklas Luhmann macht den Band gut lesbar. Die dabei angestrebte Verbindung von Technologie und Philosophie unter die Federführung der Philosophen stellen zu wollen ist ein verständliches Ansinnen. Zu oft haben selbstherrliche Technokraten ethische Überlegungen gegenüber Effizienzdenken bzw. ökonomischen Motiven hintangestellt.

Punkt 5 der normativen Prinzipien des vorgelegten Programms wirft allerdings die Frage auf, wer diese neuen Grundsätzen für Ògutes Leben” festlegen sollte bzw. ob wir dies uneingeschränkt akademischen Philosophen überlassen können. Deren gutbürgerlich-saturierte Lebenswirklichkeit dürfte allzu weit vom Leben der meisten Menschen entfernt sein. Zumal in einer Gesellschaft, in der die Möglichkeiten und damit Freiheiten von Arm und Reich jedes Jahr weiter auseinander liegen.

Vielleicht sollte man Debatten um das gute Leben lieber hinter eine Arbeit an jenen Mechanismen zurückstellen, welche die Fähigkeit zu einer entsprechenden eigenständigen Suche des Individuums untergraben: Den Technikpaternalismus, der den digitalen Technologien innewohnt, weil ihre Entwickler über eine vom einzelnen Nutzer kaum einholbare Komplexität gebieten. Von den Höhen ihres Wissensvorsprungs herab meinen sie oft, uns viele Wahlmöglichkeiten diktieren zu dürfen bzw. sogar zu müssen. Hastedt gibt uns gute Argumente an die Hand, wenn wir mit den Technologen in eine Diskussion um die digitale Gestaltung der Informationsgesellschaft einsteigen wollen.

Dabei geht es auch um technologische Macht, die sich besonders in digitalisierte Kommunikation einschreibt: Als unsichtbarer Code der gesellschaftlichen Strukturen. Die völlige Abwendung von Luhmanns Systemtheorie, die solche Strukturen untersucht, erscheint dabei zu weit zu gehen. Sinnvoller wäre es, Luhmanns zur Verschleierung von Macht tendierende Systemtheorie kritisch zu erweitern, um sie durch eine kommunikationsorientierte Machttheorie zu ersetzen. Diese sollte den Machtbegriff nicht länger vernebelnd in der Kommunikation auflösen, sondern umgekehrt Machtausübung und soziale Kontrolle in Kommunikationstrukturen erhellen. An Lehrende der Informatik könnte man diese Programmatik noch durch den Rat eines Klassikers ergänzen:

„Und da es in diesem Buch um Computer geht, soll es ein Appell sein, der vor allem an diejenigen gerichtet ist, die in Computerwissenschaft unterrichten. Ich möchte, daß sie meine Behauptung aufgenommen haben, daß der Computer eine mächtige neue Metapher ist, mit der wir viele Aspekte der Welt leichter verstehen können, der jedoch ein Denken versklavt, das auf keine anderen Metaphern und wenige andere Hilfsmittel zurückgreifen kann. Der Beruf des Lehrers …ist…ehrenwert… Aber er muß… mehr als nur eine Metapher lehren…Er muß über die Beschränkungen seiner Werkzeuge ebenso sprechen wie über deren Möglichkeiten.“

Joseph Weizenbaum, Die Macht der Computer und die Ohnmacht der Vernunft, S.361f

Heiner Hastedt: Aufklärung und Technik. Grundprobleme einer Ethik der Technik. Frankfurt, Suhrkamp Verlag 1991, 336 S., hardcover 22,80 Euro; Taschenbuch 22,00 Euro

Rezension erschien zuerst 1993 in PP-Aktuell (nicht digitalisiert).