02/26/24

Rezension – Joan Kristin Bleicher: Grundwissen Internet

Joan Kristin Bleicher: Grundwissen Internet. Perspektiven der Medien- und Kommunikationswissenschaft, München 2022

Rezensiert von Thomas Barth

Für jüngere Generationen hat es das Fernsehen als dominierendes Leitmedium längst abgelöst: Das Internet ist als digitale Parallelwelt aus dem Alltag vieler Menschen nicht mehr wegzudenken. Bleicher legt den Fokus auf medienhistorische und ästhetische Aspekte der Angebotsstrukturen des Internets und macht damit plastisch, wie das Netz seine Sogwirkung auf die Nutzer stetig erhöhte. Sie scheut dabei auch vor politisch heiklen Aspekten wie der staatlichen Unterdrückung der Whistleblower-Plattform Wikileaks und der juristischen Verfolgung ihres Gründers Julian Assange nicht zurück, bleibt gerade dort aber lückenhaft.

Prof. Dr. Joan Kristin Bleicher lehrt am Institut für Medien und Kommunikation der Universität Hamburg. 2009 veröffentlichte sie mit „Poetik des Internets: Geschichte, Angebote und Ästhetik“ eine der ersten geisteswissenschaftlichen Gesamtdarstellungen der Netzmedien, 2010 folgte die Kurzfassung „Internet“, die ihre „Poetik“ straffte und systematisierte. Mit dem vorliegenden Band folgt eine stark erweiterte und aktualisierte Fassung. Ein Vorwort, zwölf Kapitel mit je eigenen Literaturlisten und ein Fazit geben eine umfassende Übersicht. Die Orientierung erleichtern ein Register sowie eine vorangestellte „Zeittafel zu Meilensteinen der Entwicklung des Internets“: Von Vannevar Bush’s Memex-Modell 1945, dem ArpaNet 1969 und TCP/IP 1978, über den Start des WWW 1991 und das Vorgehen von Behörden gegen Wikileaks 2010 bis zur Google-KI AlphaGo und TikTok 2016 sowie der Umstellung der Newsfeeds von Facebook auf die Bevorzugung von Beiträgen der Nutzer 2018. Kapitel 1 „Was Sie vorher wissen sollten“ verweist kurz auf die rasante Dynamik der Internetentwicklung, die viele Details schnell überholen und stetig weitere Forschung erfordern wird, sowie auf die brisanten politischen Dimensionen und wachsende Kritik an netzbezogenen Entwicklungen, die sich etwa bei Shoshana Zuboff und ihrer Streitschrift gegen den „Überwachungskapitalismus“ (2018) zeigen.

Kapitel 2 „Einführung in Theorien, Forschungsschwerpunkte und Methoden“ widmet Zuboff gleich den (nach dem basalen Technikbegriff) zweiten der didaktisch knappen „Gut zu wissen“-Kästen, die im Buch Wichtiges einprägsam markieren (S.21). Nach Prosumer-Kultur, Medialität und Privatheit zeigt das Kapitel Bezüge der Netzkultur zum Posthumanismus und betont Donna Haraways „Cyborg Manifesto“, das 1985 die Hybridisierung von Mensch und Maschinenwelten vorwegnahm (S.26). Über Baudrillards „Simulakrum“ (Blendwerk) -Kritik bis zu Politik-, Wirkungs- und Nutzungstheorien führt Bleicher in ihre Darstellung ein.

Kapitel 3 „Internet: Infrastruktur, Lebenswelt und Medium“ zeigt das Internet als Lebenswelt und Kulturraum, als Medium mit neuen Sozialen Medien, warnt vor dem Wegfall der bisherigen „Gatekeeper“-Funktion der Leitmedien, die der Verbreitung von Fake News den Boden bereite (S.44). Kapitel 4 „Technische, ökonomische und kulturelle Rahmenbedingungen“ beginnt bei den Netzwerkstrukturen des Internets vom Darknet über Onlinemonopole etwa von Alphabet (Google), Meta (Facebook) und Amazon (S.53). Unter Verweis auf Zuboff kritisiert Bleicher deren Geschäftsmodell des Datenhandels bis hin zum Verkauf von Facebook-Daten an die Skandalfirma Cambridge Analytica (S.58). Sie verweist auf Regulierungsbestrebungen sowie die „Amateur:innenkultur als Gegenbewegung zur Ökonomisierung“ (S.61).

Im Kapitel 5 „Historische Entwicklung des Internets“ finden wir eine (zumindest in der deutschen Medienwissenschaft) selten kritische Darstellung der Sozialen Medien, in der die öffentlich nahezu tabuisierte Whistleblower-Plattform Wikileaks gewürdigt wird:

„2006 erfolgte die Gründung der Enthüllungsplattform Wikileaks mit dem Ziel der Veröffentlichung von Dokumenten, die der staatlichen Geheimhaltung unterliegen. Diese Dokumente und Videos verdeutlichten den Machtmissbrauch und die Verletzung von Menschenrechten. Aufgrund von Regulierungen ist seit 2010 ein Datentransfer zu Wikileaks nicht mehr möglich. Der Mitbegründer Julian Assange wurde juristisch verfolgt und flüchtete in eine Botschaft, in der er 2019 festgenommen wurde und noch Anfang 2022 in der Abschiebehaft auf seine Auslieferung wartete.“ (S.79) (Hier ist die Autorin offenbar leitmedialer Falschdarstellung aufgesessen: Wikileaks war auch nach den US-Angriffen 2010, die es kurzfristig lahmlegten, weiterhin aktiv. Zahlreiche weitere Enthüllungen wurden jedoch medial totgeschwiegen, unten mehr dazu).

Kapitel 6 zeigt „Ästhetik und Design des Internets“ Einflüsse von Medienkunst, Netzkunst und digitaler Bildästhetik, Webdesign, Seitenstruktur bis hin zu eingebundener Bewegtbildästhetik und Sound. Über Meme und Selfieästhetik, Mashup, Podcast und Online-Werbung zeigt Bleicher traditionelle Medieneinflüsse sowie neue Qualitäten der Netzmedien auf.

Ordnungsmodelle des Internets

Kapitel 7 „Ordnungsmodelle des Internets“ versucht das Kaleidoskop der Netzkultur zu systematisieren, wobei die technische Basis, Unternehmensstrukturen, Sortierungsprinzipien der Inhalte (Flow, Stream, Raster, Raum) sowie Navigations- und Distributionsmodelle dafür Ansatzpunkte liefern. Beginnend mit dem „Dispositiv Internet“, mit dem Knut Hickethier 1995 an Michel Foucaults Diskurstheorie anknüpfend die Angebotsstrukturen analysierte (S.110), über Hypertext und Hypermedia, die Distributionsmodelle der Plattformen bis zu den bedeutsamen Raummodellen.

Diese begannen mit dem Begriff des „Cyberspace“ aus William Gibsons SF-Roman „Neuromancer (1984), der eine „virtuelle Gegenwelt“ bezeichnete (S.119), die sich in von Avataren bevölkerten Online-Welten wie Second Life und den Kultur- und Spielräumen Sozialer Medien manifestiert.

Navigations- und Orientierungsangebote liefern Suchmaschinen, Spider, Crawler und Robots (Programme, die im Netz Inhalte, Quellen und Links erkennen und indizieren, S.126).

Die Kapitel 8-11 zeigen Angebotsschwerpunkte des Internet wie Information, Dokumentation, Wissen, Unterhaltung (Musikvideos, Comedy, Spiele, Sport, Pornografie), Kultur („Grenzgänge zwischen Fakten, Fiktion, Literatur, Theater, Kunst“) sowie den Angebotsschwerpunkt Werbung, PR, politische Kommunikation, Influencer:innen-Marketing. Dort warnt ein „Gut zu wissen“-Kasten vor Cookies und ihrem uns ausspionierenden Profiling: „Sie durchsuchen Festplatten der Nutzer:innen nach relevanten Daten über Interessen und Konsumverhalten. Auch Posts in sozialen Medien liefern Verhaltensdaten, die an werbetreibende Unternehmen verkauft werden (vgl. Zuboff).“ (S.175)

Kapitel 12 erörtert abschließend die „Nutzungs- und Wirkungspotenziale des Internets“ ausgehend von neuen Potentialen zur Nutzerpartizipation durch individuelle Medienproduktion im Internet. Die virtuelle Identitätskonstruktion im Netz erlaubt veränderliche Selbstkonzepte und als „posthumane Akteur:innen agieren und kommunizieren Bots, Trolle und Influencer:innen-Avatare“ (S.188). Ist das Internet der Öffentlichkeitsraum der digitalen Gesellschaft? Wenn ja, dann kein ungefährlicher: „Gezielte Desinformation etwa in Form von Fake News oder Verschwörungsmythen gilt als Gefährdung des gesellschaftlichen Zusammenhalts und der Demokratie… Propagandistische, antidemokratische Bewegungen versuchen in sozialen Medien und Messengerdiensten wie Telegram durch gezielte Fake News (wie etwa kriminelle Aktivitäten von Flüchtlingen) die Demokratiefeindlichkeit der Bevölkerung zu fördern.“ (S.189) Auf der anderen Seite gibt es Ansätze zu E-Democracy und die „Weisheit der Masse“, die sich etwa bei Wikipedia entfaltet und im Sinne einer Informationsgesellschaft „den fast unbegrenzten Zugang ihrer Mitglieder zu Informations- und Wissensbeständen aller Art“ verspricht (S.194). Unter „Probleme der Globalisierung“ zeigt Bleicher die digitale Spaltung, die sozial benachteiligte Menschen, Länder und ganze Kontinente aus der Wissenskultur ausgrenzt; bezüglich der „Konflikt- und Problempotenziale des Internets“ warnt sie vor Wirklichkeitsverlust, Suchtverhalten, Manipulation, Urheberrechtsverletzungen, Datenhandel, Hass- und Onlinekriminalität. Sie beschreibt die politischen Probleme der Regulierung und verweist auf die Macht der digitalen Großunternehmen, Google lehne eine Regulierung etwa ab, neoliberale Politik habe deren Machtzuwachs gefördert: „Deregulierungen ermöglichten u.a. in Großbritannien und den USA die Ausweitung des digitalen Kapitalismus bei gleichzeitig wachsender sozialer Ungleichheit. Ideologien wie der Neoliberalismus erklären diese Ungleichheit durch individuelle anstelle von gesellschaftlicher Verantwortung.“ (S.199) Ökonomismus und eingeschränkte Regulierung zeitige nicht zuletzt auch Onlinekriminalität, was große Herausforderungen an die Medienethik bringe. Denn das Internet erweise sich als Katalysator gesellschaftlicher und kultureller Dynamik in der immer mehr dominierenden Digitalisierung unseres Lebens (S.205).

Diskussion

Joan Kristin Bleicher scheut wie schon in ihrer „Poetik des Internets“ nicht die Hybris, ein in rasanter Entwicklung prosperierendes Medienfeld in seiner Gesamtheit zu analysieren und übergeht auch kritische Themen nicht völlig. Eine breite Quellenrezeption geht zuweilen mit mangelnder Rezeptionstiefe einher, so scheint Bleichers Darstellung von Felix Stalders Theorie einer Kultur der Digitalität unzulässig verkürzend: Stalders Theorie sehe diese Kultur „auf Grundlage einer einheitlichen digitalen Speicherung“ (S.23). Stalder verwahrte sich jedoch in seinem Buch gerade gegen eine Fixierung der Perspektive auf die (digitalen) Technologien und Medien (siehe Rezension von T.Barth). Stalders Prinzip der Referenzialität, ein Kern der Kultur der Digitalität, mit Mashup und Remix als ästhetische Prinzipien, scheint Bleicher so sehr überzeugt zu haben, dass sie es gleich mit zwei „Gut zu wissen“-Textboxen zu „Mashup-Ästhetik“ würdigt (S.94, 104), aber ohne Referenz auf Stalder. Bleicher selbst zeigt Mashup virtuos auf Textebene durch Remix von Textschnipseln aus ihren beiden vorgängigen Internet-Monografien im vorliegenden Band. Der Hinweis etwa auf Donna Haraway „Die Neuerfindung der Natur“ fand sich in der „Poetik des Internets“ (Bleicher 2009) auf S.174 im Kapitel „Wirkungspotentiale“ unter Wissensgesellschaft; in „Internet“ (Bleicher 2010) taucht Haraway bereits im Eingangskapitel „Rahmenbedingungen und Funktionsweisen“ auf (S.10); in „Grundwissen Internet“ 2022 bringt es Haraway sogar auf eine „Gut zu wissen“-Box zu ihrem Cyborg-Manifesto im Kapitel „Theorien, Forschungsschwerpunkte und Methoden“ unter Posthumanismus (S.26) sowie auf eine Erwähnung im Kapitel „Infrastruktur, Lebenswelt und Medium“ unter Medientheorie (S.47). Besser lässt sich die von ihr beschriebene Mashup-Kombination von „Material zu neuen Bedeutungseinheiten“ (S.104) kaum demonstrieren.

Leider bleibt politisch Brisantes an wichtigen Punkten eher weichgezeichnet (vor allem verglichen mit Stalder), das Stichwort „Datenschutz“ fehlt im Register ebenso wie „Privatheit“ und „Propaganda“. Bleichers Darstellung von Wikileaks erweckt sogar den falschen Eindruck, die Plattform wäre 2010 „aufgrund von Regulierungen“ stillgelegt worden (S.79). Damals gab es Angriffe durch Geheimdienste auf Wikileaks, die aber nur zu zeitweise eingeschränkter Aktivität führten (vgl. Rueger 2011). In den Leitmedien wurden allerdings den medial gehypten Irak- und Afghanistan-Leaks folgende Enthüllungen verschwiegen. Auch die mediale Denunzierung von Assange lässt Bleicher aus, obgleich sie nach der Untersuchung von Nils Melzer (2021) als konstruierte Hetzkampagne gelten können: Der diffamierende „Vergewaltigungsverdacht“ gegen Assange erwies sich dem UNO-Experten Melzer nach als Justizintrige. Unscharf blieb auch der Cambrigde Analytica-Skandal: Bleicher erwähnt nicht, dass Donald Trump den Internet-Manipulationen zumindest teilweise seinen Wahlsieg 2016 verdanken dürfte. Auch Bleichers Verweise auf Zuboffs Überwachungskapitalismus sind ausbaufähig, dort liegt das Potential einer völlig neuen Palette von Ordnungsmodellen des Internets, die auf diverse und stetig wachsende Kontrollmöglichkeiten reflektieren.

Fazit

Das systematisch und didaktisch durchdachte Buch stellt zentrale Aspekte der Medialität des Internets umfassend dar. Im Fokus stehen Rahmenbedingungen, historische Entwicklung und Angebotsschwerpunkte, beleuchtet werden theoretische Fragen, Ästhetik, Nutzungs- und Wirkungspotenziale des Internets sowie Regulierungsansätze. Mit seinem einführenden Charakter richtet sich das Buch primär an Studierende der Kultur-, Medien- und Kommunikationswissenschaften, aber auch an Interessierte anderer Fachrichtungen.

Joan Kristin Bleicher: Grundwissen Internet. Perspektiven der Medien- und Kommunikationswissenschaft, utb, UVK Verlag, München 2022, 230 S., 26,90 Euro. ISBN: 9783825259099

Nils Melzer: Der Fall Assange. Geschichte einer Verfolgung, München 2021.

Gerd Rueger: Julian Assange -Die Zerstörung von Wikileaks, Hamburg 2011.

Shoshana Zuboff: Das Zeitalter des Überwchungskapitalismus, Frankfurt/NY 2018.

01/12/17

Rezension Felix Stalder: Kultur, Digitalität & Entmündigung

Stalder, Felix: Kultur der Digitalität. Suhrkamp Verlag (edition suhrkamp, Bd.2679), Berlin 2016, 283 S., 18,00 Euro, ISBN 978-3-518-12679-0.

Thomas Barth

Felix Stalder ist ein Schweizer Kulturphilosoph, der sich in seinem Buch „Kultur der Digitalität“ mit der Ko-Evolution von digitalen Technologien, Gesellschaft und Kultur befasst. Er warnt darin unter Berufung auch auf Edward Snowden und Julian Assange vor einer schleichenden Entmündigung, die auf uferlose Überwachung und technokratische Massenmanipulation setzt.

Stalders interdisziplinärer Ansatz verbindet philosophisches Denken mit Soziologie, Medien- und Politikwissenschaft, um Digital- und Internetkultur zu analysieren und das utopische Potential digitaler Commons mit ihren Open-Source-Projekten zu beleuchten. Er blickt dabei auch auf dunkle Wurzeln und Gefahren der Digitalität, die er vor allem in Neoliberalismus, Profitorientierung und bei westlichen (!) Geheimdiensten lokalisiert; dies überrascht, denn sonst kreisen westliche Diskurse über Manipulationen im Internet eher um russische und chinesische Geheimdienste. Stalder warnt vor Gefahren von Algorithmisierung, Überwachung und massenmanipulativer Post-Demokratie, zieht jedoch letztlich ein optimistisches Fazit. Die Commons zeigen trotz heutiger Dominanz der Technokraten mit ihrer neoliberalen TINA-Ideologie („There is no alternative“, Thatcher/Merkel S.206) einen offenen „Raum der Zukunft“ (S.281).

Stalder entwirft ein facettenreiches Bild der digitalen Kultur, die geprägt sei von Fluidität, Vernetzung und stetigem Wandel, bei dem sich unser Verständnis von Raum, Zeit, Identität und Macht grundlegend veränderte. Er stellt die These auf, dass die Digitalität sich nicht in technologischer Innovationen erschöpft, sondern durch neue Formen der Selbstorganisation, des politischen Engagements und der kulturellen Produktion geprägt ist. Katalysator ist dabei das Internet als Medium mit spezifischen Formen des Austauschs. Drei zentrale Formen der Kultur der Digitalität sind die Referentialität (kulturelles Material wird ubiquitär zugänglich und fließt in eine explodierende Produktion von Kulturgütern), die Gemeinschaftlichkeit (kulturelle Ressourcen werden geteilt und Bedeutungen durch stetige Kommunikation stabilisiert) und die Algorithmizität (die Informationsflut wird digital geordnet, aber ebenso werden Gesellschaft und Politik technokratisch entpolitisiert).

Kooperation und der Begriff der Digitalität

Zentrales Anliegen Stalders sind Potenziale der Digitalität für eine demokratische und partizipative Gesellschaft. Er plädiert dafür, bestehende Hierarchien aufzubrechen und neue Formen der Kooperation zu ermöglichen -vor allem in digitalen Commons, deren Wurzeln er in der Open Source und Open Software-Bewegung schon der frühen Internet Communities sieht, etwa den Debian-, GNU- und Linux-Projekten. Darin zeige sich eine digital möglich gewordene Neuverhandlung von gesellschaftlichen Werten und Normen im digitalen Zeitalter: Anstelle staatlicher Hierarchien und Profitorientierung der Konzerne trete die freie Kommunikation der Netze, die auf Meritokratie und Freiwilligkeit basiere. Das Linux-Betriebssystem Ubuntu zeigt in seinem Namen nicht zufällig eine interkulturelle Referenz auf den vielschichtigen Begriff der Bantusprache, der Menschenwürde und vernetzte Gemeinschaftlichkeit verbindet (vgl. Afrotopia von Felwine Sarr).

Stalder definiert den Begriff der Digitalität als eine kulturelle Struktur, die sich durch die Veränderung von Wissen, Macht und Kommunikation in der digitalen Ära auszeichne. Digitale Technologien haben zwar einen tiefgreifenden Einfluss auf verschiedene Aspekte unseres Lebens, vom individuellen Verhalten über soziale Interaktionen bis hin zur politischen Organisation.

Laut Stalder ist Digitalität jedoch keineswegs nur eine technologische Entwicklung, sondern vielmehr eine komplexe kulturelle Dynamik, die unsere Vorstellungen von Wahrheit, Realität und Identität in Frage stellt. Er reklamiert eine „im weitesten Sinne poststrukturalistische Perspektive“, Kultur sei heterogen, hybrid und „von konkurrierenden Machtansprüchen und Machtdispositiven durchzogen“, von „Begehren, Wünschen und Zwängen“ getrieben, Kultur mobilisiere diverse Ressourcen in der Konstituierung von Bedeutung (S.17).

„’Digitalität‘ bezeichnet damit jenes Set von Relationen, das heute auf Basis der Infrastruktur digitaler Netzwerke in Produktion, Nutzung und Transformation materieller und immaterieller Güter sowie der Konstitution und Koordination persönlichen und kollektiven Handelns realisiert wird.“ (S.18)

Damit solle jedoch nicht Digitaltechnik ins Zentrum gerückt oder Digitales von Analogem abgegrenzt werden. Analoges würde nicht verschwinden, sondern „neu- und teilweise sogar aufgewertet“. „Digitalität“ verweise vielmehr auf historisch neue Möglichkeiten der Konstitution und Verknüpfung von Akteuren (menschlichen wie nichtmenschlichen):

„Der Begriff ist mithin nicht auf digitale Medien begrenzt, sondern taucht als relationales Muster überall auf und verändert den Raum der Möglichkeiten vieler Materialien und Akteure.“ (S.18)

Stalder knüpft an den Begriff des „Post-Digitalen“ von Florian Cramer an, der damit Praktiken bezeichnet, die sich zwar in Digitalmedien entwickelten, deren offene Interaktionsform sich jedoch immer weiter verbreite. Stalders Begriff der Digitalität vermeide jedoch das missverständliche Präfix „Post-“, das fälschlich so gelesen werden könne, dass „etwas vorbei sei“, und löse sich zugleich von Cramers technikfixiertem Kontext der Medienkunst. Stalder nimmt in diesem Sinne die ganze Gesellschaft in den Blick, denn „…die Präsenz der Digitalität jenseits der digitalen Medien, verleiht der Kultur der Digitalität ihre Dominanz.“ (S.20)

Nicht technologische Entwicklungen allein hätten der Digitalität den Weg gebahnt, sondern auch Politik, Kultur und Ökonomie. Wichtig erscheinen Stalder insbesondere der Aufstieg der Wissensökonomie und der Kritik an Heteronormativität und Postkolonialismus. Die Wissensökonomie habe seit den 1960ern explizit den wachsenden Informations- und Wissensbedarf von Behörden und Konzernen in westlichen Konsumgesellschaften thematisiert. Dazu gehöre die Massenmanipulation durch immer ausgefeiltere Werbung, Propaganda und PR, die der Freud-Neffe Edward Bernays maßgeblich entwickelte:

„Kommunikation wurde zu einem strategischen Feld für unternehmerische und politische Auseinandersetzungen und die Massenmedien zum Ort der Handlung… Eine Medienindustrie im modernen Sinne entstand, die mit dem rasch wachsenden Markt für Werbung expandierte.“ (S.29f.)

Man sprach in den 1980ern und 90ern von „Informations-“ und später „Netzwerkgesellschaften“, in denen -neben der Digitalisierung- eine Flexibilisierung der Arbeit mit neoliberalem Abbau der Sozialstaaten einherging. Der Freiheitsbegriff wurde dabei von neoliberaler Politik und den seit den 1960ern wachsenden „Neuen Sozialen Bewegungen“ konträr definiert: Neoliberal als Freiheit der Märkte, sozial als persönliche Freiheit von gesellschaftlichen Zwängen (S.33). Exemplarisch für Letzteres behandelt Stalder die Schwulenbewegung in Westdeutschland, Rosa von Praunheim, den Bonner Tuntenstreit 1974, die Aids-Krise ab 1983. Diversität und Hybridisierung der Kultur der Digitalität wurzele in emanzipativen Bewegungen, deren Erfolg sich spätestens 2014 beim European Song Contest in der breiten Öffentlichkeit manifestierte -mit der Stalder seine Abhandlung eingeleitet hatte: „Conchita Wurst, die glamouröse Diva mit Bart, war die Gewinnerin“ (S.7), sie habe komplexe Geschlechterkonstruktionen „zumindest ansatzweise mainstreamfähig“ gemacht (S.48):

„Conchita Wurst, die bärtige Diva, ist nicht zwischen widerstreitenden Polen zerrissen. Sie repräsentiert vielmehr eine gelungene Synthese, etwas Neues, in sich Stimmiges, das sich gerade dadurch auszeichnet, dass die Elemente der alten Ordnung (Mann/Frau) sichtbar sind und zugleich transzendiert werden.“ (S.99)

Schattenseiten: Algorithmizität und Post-Demokratie

Die Digitalität ermöglicht laut Stalder neben hybrider Diversität auch neue Formen der Partizipation und Vernetzung, die zur Demokratisierung von Wissen und Kommunikation führen können. Gleichzeitig birgt Digitalität aber auch Risiken, wie die Manipulation durch Algorithmen, Filterblasen und Desinformation. Zugleich seien Algorithmen jedoch prinzipiell unabdingbar, um in einer diversen und hybriden Explosion der Kultur mit ihrer wachsenden Unordnung orientiert zu bleiben. Ohne Suchmaschinen etwa könne heute kein Archiv mehr die digitalen Datenmassen, Texte und Kulturprodukte bewältigen.

Algorithmen automatisieren Kulturtechniken wie die Inhaltsanalyse von Bildern oder das Schreiben von Texten: Der Chef der Firma „Narrative Science“, die automatisierte Sport- und Finanzberichterstattung anbietet, habe 2012 für die nächsten Dekaden eine Ersetzung von neunzig Prozent der Journalisten durch Computer angekündigt. Bedenklich sei, „dass sich auch die CIA für Narrative Science interessiert und über ihre Beteiligungsgesellschaft In-Q-Tel in das Unternehmen investiert hat, ist ein Hinweis darauf, dass bereits heute Anwendungen jenseits des Journalismus entwickelt werden. Zu Propagandazwecken lassen sich mit Algorithmen beispielsweise problemlos massenhaft Einträge in Onlineforen und den sozialen Massenmedien erstellen.“ (S.175)

Dynamische Algorithmen können sich sogar halbautomatisch-eigenständig weiterentwickeln: 2012 habe Google mit solchen „deep learning“-Verfahren die „Gesichtserkennung in unstrukturierten Bildern“ um siebzig Prozent verbessert (S.180). In ausufernder Überwachung greife heute ein „Daten-Behaviorismus“ nach unserer Privatheit, in einem „Revival eines nach wie vor mechanistischen, reduktionistischen und autoritären Ansatzes“. Diese Haltung ungehemmter Kontrolle unseres Verhaltens finde sich bei jenen, die über umfassende Beobachtungsmöglichkeiten verfügen, „dazu gehören neben Facebook und Google auch die Geheimdienste westlicher Länder“ (S.201). Dabei ginge es neben der gern genannten „Serviceverbesserung“ aber auch um soziale Normierung sowie „Profit- oder Überwachungsoptimierung“ (S.202). Anders als viele deutsche Medienwissenschaftler, die an dieser Stelle der Analyse krampfhaft mit den Fingern auf „russische Trolle“ und den chinesischen Überwachungsstaat zeigen, beweist der Schweizer Felix Stalder Rückgrat und kritisiert die eigenen, die westlichen Machteliten (was besagte Kollegen wohl eher nicht aufgreifen dürften).

Assange, Snowden und Entmündigung im libertären Paternalismus

2013 habe, so Stalder, Edward Snowden die „flächendeckende Überwachung des Internets durch staatliche Geheimdienste“ enthüllt (S.233). Felix Stalder zitiert den Wikileaks-Gründer Julian Assange und resümiert: „Die Grenzen zwischen postdemokratischen Massenmedien und staatlichen Nachrichtendiensten sind fließend. Wie inzwischen bekannt ist, bestehen zwischen beiden Bereichen personelle Kontinuitäten und inhaltliche Gemeinsamkeiten.“ (S.234) Die USA hätten seit 2011 z.B. „ein eigenes Programm zu sozialen Massenmedien mit dem Namen ‚Social Media in Strategic Communication‘. (…) seit 2009 vernetzt die Europäische Union im Rahmen des INDECT-Programms Universitäten und Sicherheitsorgane mit dem Ziel ‚Lösungen und Werkzeuge der automatisierten Gefahrenentdeckung zu entwickeln’… Überspitzt könnte man sagen, dass die Missachtung der Grundrechte mit der Qualität der so geschaffenen Dienstleistung ‚Sicherheit‘ legitimiert wird.“ (S.235f.)

Leider sei die Gegenwehr gegen eine in westlichen Gesellschaften so geschaffene soziale Atmosphäre der Angst gering geblieben. Hinter Überwachung und Massenmanipulation stehe in den heutigen Postdemokratien, die demokratische Politik durch technokratisches Gouvernance ersetzen, eine neoliberale Anti-Aufklärung. Obsolet sei heute für die Machteliten „…die aus der Zeit der Aufklärung stammende Annahme, der Mensch könne sich durch den Einsatz seiner Vernunft und die Ausbildung seiner moralischen Fähigkeiten verbessern und sich aus seiner Unmündigkeit durch Bildung und Reflexion selbst befreien.“ (S.227) Eine kybernetische Sicht sehe den Menschen als dressierbare Versuchsratte, die mit subtilen „Nudges“ (Schubsern) zu steuern sei, so Richard Thaler und Cass Sunstein.

Die beiden Neobehavioristen bezeichnen ihr System als „libertären Paternalismus“, der eine „freiheitliche Bevormundung“ anstrebe, was bei den Regierungschefs in Washington und London, Obama und Cameron, so viel Anklang fand, dass sie Thaler und Sunstein in ihre Teams holten (S.228f.). Besonders in den sozialen Massenmedien (also den „sozialen Medien“, Stalder benutzt diesen gängigen Begriff jedoch nicht), ließe sich die mediale Umgebung via Nudging manipulieren. Dies geschehe vor allem im Dienste einer Gruppe, die Stalder als „den inneren Kern des postdemokratischen Systems“ bezeichnet, „bestehend aus den Spitzen der Wirtschaft, der Politik und der Geheimdienste“ (S.230). Viele Mainstream-Konformisten dürften in dieser simplen und analytisch untadelig abgeleiteten politischen Erkenntnis bereits angebliche „Verschwörungstheorie“ oder sogar „-ideologie“ wittern. Denn medial und in der akademischen Forschung werden die von Stalder aufgezeigten Fakten und Zusammenhänge geradezu krampfhaft ignoriert. Es ist zu befürchten, dass genau diese krampfhafte Ignoranz künftig zumindest diese Teile von Stalders Buch betreffen wird. Machtstrukturen dieses Kalibers werden bislang selten öffentlich diskutiert und dies geschieht dann oft nur in künstlerisch verfremdeter Form, wie etwa bei Mark Lombardi.

Stalder ruft im Fazit dazu auf, die Dynamik der Digitalität kritisch zu reflektieren und sich aktiv mit den Auswirkungen digitaler Technologien auf unsere Gesellschaft auseinanderzusetzen. Indem wir die Chancen und Herausforderungen der Digitalität verstehen, können wir Freiheit und Autonomie im digitalen Raum bewahren und weiterentwickeln: Obwohl „die Postdemokratie das Politische selbst abschaffen und alles einer technokratischen Alternativlosigkeit unterordnen will“, beweise die Entwicklung der blühenden Commons das Gegenteil, meint Stalder und schließt sein Buch mit dem Verweis auf utopische Potentiale der Digitalität: „Diese Widersprüchlichkeit der Gegenwart öffnet den Raum der Zukunft.“ Ausbaufähig scheint an Stalders Argumentation die Subjektkonstitution im Netz, die mit der Konzentration auf Kommunizieren, Posten und Liken wohl noch nicht ausreichend erfasst ist, sowie deren Verknüpfung mit Foucaults Konzept des Panoptismus.

11/16/12

Jörg Auf dem Hövel: Abenteuer Künstliche Intelligenz

Rezensiert von Thomas Barth

Jörg Auf dem Hövel: Abenteuer Künstliche Intelligenz, Discorsi Verlag

Der Publizist und Politikwissenschaftler Jörg Auf dem Hövel lädt seine Leser ein zu einem Abenteuer der utopisch-philosophischen Art: „Künstliche Intelligenz“ -ist so etwas möglich? Reich an Aphorismen, Anekdoten und philosophischen Betrachtungen über AI (Artificial Intelligence) schreibt er die Geschichte eines faszinierenden Gebietes, das schon lange SF-Autoren anregte. Denken wir an Kubricks Film „2001“: Dort wendet sich die AI als Bordcomputer eines Raumschiffes mörderisch wie Frankensteins Monster gegen die Astronauten. Auch Käptn Kirk von der Enterprise musste eine AI überlisten, bei Stanislaw Lem wächst in „Also sprach Golem“ die AI ihren Erfindern eher subtil über den Kopf und nimmt hinter ihrem Rücken interstellaren Kontakt zu ihres Gleichen in der Galaxis auf.

Jörg Auf dem Hövel ist sich dieser literarisch-utopischen Wurzeln bewusst, wenn er in Forschungslabors blickt und über die Zukunft intelligenter Automaten sinniert. Pioniere der AI wie Norbert Wiener, Alan Turing oder die Kommunikationtheoretiker Shannon&Weaver waren auf die Informationsverarbeitung der rationalen Intelligenz fixiert. Die ersten Schachcomputer erstaunten uns. Ein „General Problem Solver“ weckte große Erwartungen, die sich bei Transhumanisten zu einer neuen Heilslehre steigerten, aber auch bescheidenere Hoffnungen, dass de Rekonstruktion unserer Intelligenz schon bald weiter Fortschritte machen wird.

„Eine Maschine, die denkt, fühlt, redet und sich selbst erkennt – für die einen ein Menschheitstraum, für die anderen eine Horrorvision. Noch streiten sich die Wissenschaftler, ob wirkliche künstliche Intelligenz überhaupt jemals technisch realisierbar sein wird, und die Ergebnisse bisheriger Forschung fallen vor dem Hintergrund manch gewagter Vision noch bescheiden aus. Doch dies tut der Faszination an dem Thema keinen Abbruch. Denn die Wissenschaft von der künstlichen Intelligenz berührt das soziale, kulturelle und religiöse Selbstverständnis des Menschen.“ (Verlag)

Es geht um eine Disziplin, die trotz ihrer Fehlschläge von einer magischen Aura umgeben ist. Ende der 80er Jahre zeigte die AI deutliche Anzeichen einer degenerierten Wissenschaft, so der Autor, denn zu hoch waren die geschürten Erwartungen, schon bald menschliche durch elektronische Intelligenz ersetzen zu können. Die enormen Rechenleistungen ermöglichten Erfolge bei Expertensystemen, die aber trotzdem nur bessere Datenbanken blieben. Computer schafften es sogar Schachweltmeister ins Schwitzen zu bringen. Doch beim Einsatz in der banalen Alltagswelt der Straßenüberquerungen und etwa des Häkelns scheiterten die artifiziellen Superhirne gründlich. Selbst am am Massachusetts Institute of Technology (MIT) war man zunehmend frustriert darüber, dass die AI immer noch nicht in der Lage war, zügig eine Treppe zu überwinden und zum Einsammeln von ein paar Bauklötzchen Stunden brauchte. Doch man gab nicht auf.

Da ist zum Beispiel Rodney Brooks, ein MIT-Nestor der Künstlichen Intelligenz, der entwickelte ein völlig neues Konzept: Will man intelligente Maschinen bauen, muss die Kopplung zwischen Wahrnehmung und Handlung sehr eng gestaltet werden. Zuvor war man davon ausgegangen, dass der Roboter zunächst über ein inneres Weltmodell verfügen muss bevor er handeln kann. Brooks dagegen wollte diese „Kognitions-Box“, die man für unabdingbar hielt, einfach weglassen. Er plädierte für eine Rechner- und Roboterarchitektur, in der die einzelnen Elementarverhalten nicht mehr in einer Zentraleinheit verrechnet werden, sondern unabhängig voneinander ablaufen. Das Verhalten des Gesamtsystems ergibt sich aus der Kommunikation der Subsysteme miteinander, die gemeinsam je bestimmten Situationen bestimmte Interaktionsmuster zuordnen.

Es geht auch um die Verschmelzung von Mensch und Maschine mittels Nanotechnologie, doch hier befinden wir uns im Bereich der SF; Science und Fiction auseinander zu halten fällt manchen US-Autoren schwer. Dies gab schon den Ansätzen von Marvin Minsky, Hans Moravec und Ray Kurzweil ihre transhumanistische Würze, aber diskreditierte sie zugleich in der europäischen Wissenschaftlergemeinde. Seit den achtziger und neunziger Jahren lokalisierte man im Körper eine eigene Intelligenz -kann die von AI profitieren? Sind wir auf dem Weg zu einem AI-aufgerüsteten Supermenschen? Doch der Autor dämpft die überschießenden Hoffnungen (ohne sie ganz zu verwerfen).

Zum einen geht es um eine Wissenschaft, die nach Jahren der Höhenflüge auf den Boden der Tatsachen zurück gekommen ist; zum anderen blicken wir auf die Techno-Utopien einer Disziplin, die auf dem schmalen Grat zwischen techno-evolutionärem Fortschrittsglauben und, negativ ausgedrückt, inhumaner Überwindung des Menschseins wandelt. Ihr größtes Manko dabei: Bei allen Erfolgen der computer und neuro sciences weiß bis heute niemand, wie menschliche Intelligenz wirklich funktioniert. Unser Gehirn und seine Arbeitsweise bleiben bislang unerreichter Maßstab für Künstliche Intelligenz, die sich aber mit Informatik, Psychologie, Kognitions- und Neurowissenschaften hartnäckig weiter an Funktion und Struktur unseres Denkorgans herantastet.

Ein kluges und verrückt-geniales Buch, das auch verblüffende Perspektiven auf die Welt der Netze, Computer und AI eröffnet. (Rezension erschien zuerst auf InversePanopticon)

Jörg Auf dem Hövel: Abenteuer Künstliche Intelligenz, Discorsi Verlag, Hamburg 2002, 194 Seiten, 14 Euro, ISBN-13: 9783980733045