02/26/24

Rezension – Joan Kristin Bleicher: Grundwissen Internet

Joan Kristin Bleicher: Grundwissen Internet. Perspektiven der Medien- und Kommunikationswissenschaft, München 2022

Rezensiert von Thomas Barth

Für jüngere Generationen hat es das Fernsehen als dominierendes Leitmedium längst abgelöst: Das Internet ist als digitale Parallelwelt aus dem Alltag vieler Menschen nicht mehr wegzudenken. Bleicher legt den Fokus auf medienhistorische und ästhetische Aspekte der Angebotsstrukturen des Internets und macht damit plastisch, wie das Netz seine Sogwirkung auf die Nutzer stetig erhöhte. Sie scheut dabei auch vor politisch heiklen Aspekten wie der staatlichen Unterdrückung der Whistleblower-Plattform Wikileaks und der juristischen Verfolgung ihres Gründers Julian Assange nicht zurück, bleibt gerade dort aber lückenhaft.

Prof. Dr. Joan Kristin Bleicher lehrt am Institut für Medien und Kommunikation der Universität Hamburg. 2009 veröffentlichte sie mit „Poetik des Internets: Geschichte, Angebote und Ästhetik“ eine der ersten geisteswissenschaftlichen Gesamtdarstellungen der Netzmedien, 2010 folgte die Kurzfassung „Internet“, die ihre „Poetik“ straffte und systematisierte. Mit dem vorliegenden Band folgt eine stark erweiterte und aktualisierte Fassung. Ein Vorwort, zwölf Kapitel mit je eigenen Literaturlisten und ein Fazit geben eine umfassende Übersicht. Die Orientierung erleichtern ein Register sowie eine vorangestellte „Zeittafel zu Meilensteinen der Entwicklung des Internets“: Von Vannevar Bush’s Memex-Modell 1945, dem ArpaNet 1969 und TCP/IP 1978, über den Start des WWW 1991 und das Vorgehen von Behörden gegen Wikileaks 2010 bis zur Google-KI AlphaGo und TikTok 2016 sowie der Umstellung der Newsfeeds von Facebook auf die Bevorzugung von Beiträgen der Nutzer 2018. Kapitel 1 „Was Sie vorher wissen sollten“ verweist kurz auf die rasante Dynamik der Internetentwicklung, die viele Details schnell überholen und stetig weitere Forschung erfordern wird, sowie auf die brisanten politischen Dimensionen und wachsende Kritik an netzbezogenen Entwicklungen, die sich etwa bei Shoshana Zuboff und ihrer Streitschrift gegen den „Überwachungskapitalismus“ (2018) zeigen.

Kapitel 2 „Einführung in Theorien, Forschungsschwerpunkte und Methoden“ widmet Zuboff gleich den (nach dem basalen Technikbegriff) zweiten der didaktisch knappen „Gut zu wissen“-Kästen, die im Buch Wichtiges einprägsam markieren (S.21). Nach Prosumer-Kultur, Medialität und Privatheit zeigt das Kapitel Bezüge der Netzkultur zum Posthumanismus und betont Donna Haraways „Cyborg Manifesto“, das 1985 die Hybridisierung von Mensch und Maschinenwelten vorwegnahm (S.26). Über Baudrillards „Simulakrum“ (Blendwerk) -Kritik bis zu Politik-, Wirkungs- und Nutzungstheorien führt Bleicher in ihre Darstellung ein.

Kapitel 3 „Internet: Infrastruktur, Lebenswelt und Medium“ zeigt das Internet als Lebenswelt und Kulturraum, als Medium mit neuen Sozialen Medien, warnt vor dem Wegfall der bisherigen „Gatekeeper“-Funktion der Leitmedien, die der Verbreitung von Fake News den Boden bereite (S.44). Kapitel 4 „Technische, ökonomische und kulturelle Rahmenbedingungen“ beginnt bei den Netzwerkstrukturen des Internets vom Darknet über Onlinemonopole etwa von Alphabet (Google), Meta (Facebook) und Amazon (S.53). Unter Verweis auf Zuboff kritisiert Bleicher deren Geschäftsmodell des Datenhandels bis hin zum Verkauf von Facebook-Daten an die Skandalfirma Cambridge Analytica (S.58). Sie verweist auf Regulierungsbestrebungen sowie die „Amateur:innenkultur als Gegenbewegung zur Ökonomisierung“ (S.61).

Im Kapitel 5 „Historische Entwicklung des Internets“ finden wir eine (zumindest in der deutschen Medienwissenschaft) selten kritische Darstellung der Sozialen Medien, in der die öffentlich nahezu tabuisierte Whistleblower-Plattform Wikileaks gewürdigt wird:

„2006 erfolgte die Gründung der Enthüllungsplattform Wikileaks mit dem Ziel der Veröffentlichung von Dokumenten, die der staatlichen Geheimhaltung unterliegen. Diese Dokumente und Videos verdeutlichten den Machtmissbrauch und die Verletzung von Menschenrechten. Aufgrund von Regulierungen ist seit 2010 ein Datentransfer zu Wikileaks nicht mehr möglich. Der Mitbegründer Julian Assange wurde juristisch verfolgt und flüchtete in eine Botschaft, in der er 2019 festgenommen wurde und noch Anfang 2022 in der Abschiebehaft auf seine Auslieferung wartete.“ (S.79) (Hier ist die Autorin offenbar leitmedialer Falschdarstellung aufgesessen: Wikileaks war auch nach den US-Angriffen 2010, die es kurzfristig lahmlegten, weiterhin aktiv. Zahlreiche weitere Enthüllungen wurden jedoch medial totgeschwiegen, unten mehr dazu).

Kapitel 6 zeigt „Ästhetik und Design des Internets“ Einflüsse von Medienkunst, Netzkunst und digitaler Bildästhetik, Webdesign, Seitenstruktur bis hin zu eingebundener Bewegtbildästhetik und Sound. Über Meme und Selfieästhetik, Mashup, Podcast und Online-Werbung zeigt Bleicher traditionelle Medieneinflüsse sowie neue Qualitäten der Netzmedien auf.

Ordnungsmodelle des Internets

Kapitel 7 „Ordnungsmodelle des Internets“ versucht das Kaleidoskop der Netzkultur zu systematisieren, wobei die technische Basis, Unternehmensstrukturen, Sortierungsprinzipien der Inhalte (Flow, Stream, Raster, Raum) sowie Navigations- und Distributionsmodelle dafür Ansatzpunkte liefern. Beginnend mit dem „Dispositiv Internet“, mit dem Knut Hickethier 1995 an Michel Foucaults Diskurstheorie anknüpfend die Angebotsstrukturen analysierte (S.110), über Hypertext und Hypermedia, die Distributionsmodelle der Plattformen bis zu den bedeutsamen Raummodellen.

Diese begannen mit dem Begriff des „Cyberspace“ aus William Gibsons SF-Roman „Neuromancer (1984), der eine „virtuelle Gegenwelt“ bezeichnete (S.119), die sich in von Avataren bevölkerten Online-Welten wie Second Life und den Kultur- und Spielräumen Sozialer Medien manifestiert.

Navigations- und Orientierungsangebote liefern Suchmaschinen, Spider, Crawler und Robots (Programme, die im Netz Inhalte, Quellen und Links erkennen und indizieren, S.126).

Die Kapitel 8-11 zeigen Angebotsschwerpunkte des Internet wie Information, Dokumentation, Wissen, Unterhaltung (Musikvideos, Comedy, Spiele, Sport, Pornografie), Kultur („Grenzgänge zwischen Fakten, Fiktion, Literatur, Theater, Kunst“) sowie den Angebotsschwerpunkt Werbung, PR, politische Kommunikation, Influencer:innen-Marketing. Dort warnt ein „Gut zu wissen“-Kasten vor Cookies und ihrem uns ausspionierenden Profiling: „Sie durchsuchen Festplatten der Nutzer:innen nach relevanten Daten über Interessen und Konsumverhalten. Auch Posts in sozialen Medien liefern Verhaltensdaten, die an werbetreibende Unternehmen verkauft werden (vgl. Zuboff).“ (S.175)

Kapitel 12 erörtert abschließend die „Nutzungs- und Wirkungspotenziale des Internets“ ausgehend von neuen Potentialen zur Nutzerpartizipation durch individuelle Medienproduktion im Internet. Die virtuelle Identitätskonstruktion im Netz erlaubt veränderliche Selbstkonzepte und als „posthumane Akteur:innen agieren und kommunizieren Bots, Trolle und Influencer:innen-Avatare“ (S.188). Ist das Internet der Öffentlichkeitsraum der digitalen Gesellschaft? Wenn ja, dann kein ungefährlicher: „Gezielte Desinformation etwa in Form von Fake News oder Verschwörungsmythen gilt als Gefährdung des gesellschaftlichen Zusammenhalts und der Demokratie… Propagandistische, antidemokratische Bewegungen versuchen in sozialen Medien und Messengerdiensten wie Telegram durch gezielte Fake News (wie etwa kriminelle Aktivitäten von Flüchtlingen) die Demokratiefeindlichkeit der Bevölkerung zu fördern.“ (S.189) Auf der anderen Seite gibt es Ansätze zu E-Democracy und die „Weisheit der Masse“, die sich etwa bei Wikipedia entfaltet und im Sinne einer Informationsgesellschaft „den fast unbegrenzten Zugang ihrer Mitglieder zu Informations- und Wissensbeständen aller Art“ verspricht (S.194). Unter „Probleme der Globalisierung“ zeigt Bleicher die digitale Spaltung, die sozial benachteiligte Menschen, Länder und ganze Kontinente aus der Wissenskultur ausgrenzt; bezüglich der „Konflikt- und Problempotenziale des Internets“ warnt sie vor Wirklichkeitsverlust, Suchtverhalten, Manipulation, Urheberrechtsverletzungen, Datenhandel, Hass- und Onlinekriminalität. Sie beschreibt die politischen Probleme der Regulierung und verweist auf die Macht der digitalen Großunternehmen, Google lehne eine Regulierung etwa ab, neoliberale Politik habe deren Machtzuwachs gefördert: „Deregulierungen ermöglichten u.a. in Großbritannien und den USA die Ausweitung des digitalen Kapitalismus bei gleichzeitig wachsender sozialer Ungleichheit. Ideologien wie der Neoliberalismus erklären diese Ungleichheit durch individuelle anstelle von gesellschaftlicher Verantwortung.“ (S.199) Ökonomismus und eingeschränkte Regulierung zeitige nicht zuletzt auch Onlinekriminalität, was große Herausforderungen an die Medienethik bringe. Denn das Internet erweise sich als Katalysator gesellschaftlicher und kultureller Dynamik in der immer mehr dominierenden Digitalisierung unseres Lebens (S.205).

Diskussion

Joan Kristin Bleicher scheut wie schon in ihrer „Poetik des Internets“ nicht die Hybris, ein in rasanter Entwicklung prosperierendes Medienfeld in seiner Gesamtheit zu analysieren und übergeht auch kritische Themen nicht völlig. Eine breite Quellenrezeption geht zuweilen mit mangelnder Rezeptionstiefe einher, so scheint Bleichers Darstellung von Felix Stalders Theorie einer Kultur der Digitalität unzulässig verkürzend: Stalders Theorie sehe diese Kultur „auf Grundlage einer einheitlichen digitalen Speicherung“ (S.23). Stalder verwahrte sich jedoch in seinem Buch gerade gegen eine Fixierung der Perspektive auf die (digitalen) Technologien und Medien (siehe Rezension von T.Barth). Stalders Prinzip der Referenzialität, ein Kern der Kultur der Digitalität, mit Mashup und Remix als ästhetische Prinzipien, scheint Bleicher so sehr überzeugt zu haben, dass sie es gleich mit zwei „Gut zu wissen“-Textboxen zu „Mashup-Ästhetik“ würdigt (S.94, 104), aber ohne Referenz auf Stalder. Bleicher selbst zeigt Mashup virtuos auf Textebene durch Remix von Textschnipseln aus ihren beiden vorgängigen Internet-Monografien im vorliegenden Band. Der Hinweis etwa auf Donna Haraway „Die Neuerfindung der Natur“ fand sich in der „Poetik des Internets“ (Bleicher 2009) auf S.174 im Kapitel „Wirkungspotentiale“ unter Wissensgesellschaft; in „Internet“ (Bleicher 2010) taucht Haraway bereits im Eingangskapitel „Rahmenbedingungen und Funktionsweisen“ auf (S.10); in „Grundwissen Internet“ 2022 bringt es Haraway sogar auf eine „Gut zu wissen“-Box zu ihrem Cyborg-Manifesto im Kapitel „Theorien, Forschungsschwerpunkte und Methoden“ unter Posthumanismus (S.26) sowie auf eine Erwähnung im Kapitel „Infrastruktur, Lebenswelt und Medium“ unter Medientheorie (S.47). Besser lässt sich die von ihr beschriebene Mashup-Kombination von „Material zu neuen Bedeutungseinheiten“ (S.104) kaum demonstrieren.

Leider bleibt politisch Brisantes an wichtigen Punkten eher weichgezeichnet (vor allem verglichen mit Stalder), das Stichwort „Datenschutz“ fehlt im Register ebenso wie „Privatheit“ und „Propaganda“. Bleichers Darstellung von Wikileaks erweckt sogar den falschen Eindruck, die Plattform wäre 2010 „aufgrund von Regulierungen“ stillgelegt worden (S.79). Damals gab es Angriffe durch Geheimdienste auf Wikileaks, die aber nur zu zeitweise eingeschränkter Aktivität führten (vgl. Rueger 2011). In den Leitmedien wurden allerdings den medial gehypten Irak- und Afghanistan-Leaks folgende Enthüllungen verschwiegen. Auch die mediale Denunzierung von Assange lässt Bleicher aus, obgleich sie nach der Untersuchung von Nils Melzer (2021) als konstruierte Hetzkampagne gelten können: Der diffamierende „Vergewaltigungsverdacht“ gegen Assange erwies sich dem UNO-Experten Melzer nach als Justizintrige. Unscharf blieb auch der Cambrigde Analytica-Skandal: Bleicher erwähnt nicht, dass Donald Trump den Internet-Manipulationen zumindest teilweise seinen Wahlsieg 2016 verdanken dürfte. Auch Bleichers Verweise auf Zuboffs Überwachungskapitalismus sind ausbaufähig, dort liegt das Potential einer völlig neuen Palette von Ordnungsmodellen des Internets, die auf diverse und stetig wachsende Kontrollmöglichkeiten reflektieren.

Fazit

Das systematisch und didaktisch durchdachte Buch stellt zentrale Aspekte der Medialität des Internets umfassend dar. Im Fokus stehen Rahmenbedingungen, historische Entwicklung und Angebotsschwerpunkte, beleuchtet werden theoretische Fragen, Ästhetik, Nutzungs- und Wirkungspotenziale des Internets sowie Regulierungsansätze. Mit seinem einführenden Charakter richtet sich das Buch primär an Studierende der Kultur-, Medien- und Kommunikationswissenschaften, aber auch an Interessierte anderer Fachrichtungen.

Joan Kristin Bleicher: Grundwissen Internet. Perspektiven der Medien- und Kommunikationswissenschaft, utb, UVK Verlag, München 2022, 230 S., 26,90 Euro. ISBN: 9783825259099

Nils Melzer: Der Fall Assange. Geschichte einer Verfolgung, München 2021.

Gerd Rueger: Julian Assange -Die Zerstörung von Wikileaks, Hamburg 2011.

Shoshana Zuboff: Das Zeitalter des Überwchungskapitalismus, Frankfurt/NY 2018.

08/30/23
Total vernetzt - Nur wer sich anschließt wird nicht ausgeschlossen.

Rezension: Braches-Chyrek u.a. (Hg.): Handbuch Kindheit, Technik und das Digitale

Thomas Barth
Was bedeuten die rasanten medialen und digitalen Transformationen für das Leben von Kindern? Diese Frage wurde „in der deutschsprachigen Kindheitsforschung bislang wenig untersucht“ (Klappentext). Das Handbuch thematisiert zentrale Zusammenhänge und interdisziplinäre Diskurse über Gesellschaft, Technik und Kindheit mit dem Ziel, emanzipatorische Bildungs- und Lernprozesse zu fördern.
Die Herausgeber*innen kommen aus den Bereichen Pädagogik, Sozialpädagogik und Soziologie, ebenso die meisten der insgesamt 26 Beiträger*innen unter denen acht aus Digitalisierungs- oder Medienwissenschaften stammen. Charlotte Röhner und Heinz Sünker, beide emiritiert, sind Nestor*innen der deutschen Kindheitsforschung, Sünker ist zudem Adorno-Experte und sein Blick auf das Digitale geprägt von der Kritischen Theorie der freudomarxistischen Frankfurter Schule. Überwiegend aus dieser kritischen Perspektive diskutiert der erste von vier Teilen des Bandes „Technik und Gesellschaft“, also die sozialen, kulturellen, pädagogischen und politischen Folgen der Digitalisierung. „Welche neuen Zugriffsmöglichkeiten auf kindliche Subjektivität ergeben sich aus der Techniknutzung und welche Widerstandspotentiale (Adorno, Erziehung zur Mündigkeit)? Welche veränderten Konzeptualisierungsansätze von Kindheitspolitik ergeben sich?“ (Verlagstext).
Soziale Aufgaben wie Wert schätzen, Bindung schaffen, Trennung verarbeiten, Grenzen setzen, Identität und Autonomie gewinnen, sie alle unterliegen durch allgegenwärtige Digitalmedien neuen Risiken, etwa prekärer Datensicherheit, leicht zugänglichen jugendgefährdenden Inhalten oder Cybermobbing. Doch das Handbuch thematisiert auch neue Chancen der Digitalmedien. Im zweiten Teil „Digitalisierung und Mediatisierung von Kindheit“ wird die Sozialisation und Kinder als Akteur*innen thematisiert. Der dritte Teil „Digitales Konstruieren, Spielen und Handeln“ legt den Fokus auf die früher meist negativ bewerteten Computer-, Video- und heute auch Online-Spiele, sucht nach kreativen Potentialen, warnt aber auch, etwa vor unreflektiertem Konsum gewalthaltiger Spiele. Der letzte Teil „Digitalisierung und digitale Bildung in Institutionen“ nimmt Probleme und Lösungsansätze in Kitas und Schulen des Elementar- und Primarbereichs in den Blick.
Technologie, Adoption und Pflegefamilien
Prof. Rita Braches-Chyrek war 2010 Mitherausgeberin des Bandes „Kindheit in Pflegefamilien“, doch dieser Aspekt der Kindheitsforschung klingt im vorliegenden Handbuch nur in zwei Beiträgen an: 1. Die Afrikanistin Konstanze N‘Guessan streift mit „Verwandtschaft und Kindheit im Zeitalter assistierter Reproduktion – Einblicke in die ethnographische Erforschung des doing family“ das Thema Adoption und Islam. 2. Der Beitrag „Beobachtung der Beobachteten: Technologie, Schutz und Fürsorge an einem Tag im Leben von Jasmine“ von Rachel Thomson und Ester McGeeney, berichtet aus einer „alternativen Erziehungseinrichtung für Jugendliche, die keinen Zugang zur Regelschule haben“; sie beobachten dort den Medienalltag der fünfzehnjährigen Mutter Jasmine, die in einer Pflegefamilie untergebracht ist (s.u.2.).
1. Verwandtschaft, Kindheit und Technologie
Der Beitrag von N‘Guessan ist der einzige des Bandes, der nicht von digitalen Medien handelt -dafür aber biotechnologische Bezüge zum Transhumanismus aufweist, indem dessen Biologismus auf den Boden der sozialen, kulturellen und psychologischen Tatsachen zurückgeholt wird. Im Fokus stehen medizinische Technologien der assistierten Reproduktion und die kulturelle Herstellung von Verwandtschaft und Familie in verschiedenen Kulturen. Ihre Ausgangsfragen sind: „Was ist Familie und wer gehört dazu? Welche Dimensionen hat Eltern-Sein und wie wird Abstammung kulturell konzeptualisiert?“ Solche Fragen stellt die Ethnologie der „New Kinship Studies“, die seit den 1980er-Jahren die Verwandtschaftsforschung „von der Biologie befreit, die durch euroamerikanische Prägung entstanden sei.“
Verwandtschaft wird und wurde immer kulturell gemacht -und dieser Entstehungsprozess oft mit Biologismen wie „Blut ist dicker als Wasser“ verborgen, was oft schon den Status von Adoptivkindern kompliziert habe. Neue Reproduktionstechniken (NRT) lassen die biologische Simplifizierung heute vielerorts ins Schwimmen geraten. Denn es sind dabei nicht nur zwei, sondern bis zu fünf Personen im engeren Kreis einer konstruierbaren Elternschaft vorhanden: Mutter, Vater, Eispenderin, Samenspender und Leihmutter. Dazu kämen im weiteren Umfeld noch diverse Medizintechniker*innen, die etwa mit ihren Händen unter dem Mikroskop die Eizelle besamen. „NRT und Adoption konstituieren einen Möglichkeitsraum, auf den sich unterschiedlichste Akteur*innen in ihren Überlegungen und Praxen beziehen. Durch die Linse der NRT lässt sich Verwandtschaft als Ergebnis von Handlungen verstehen.“
Konstanze N‘Guessan erläutert an diversen afrikanischen und islamischen Kulturen Praktiken des Verwandt-Machens -und ist mit dieser interkulturellen Perspektive in diesem Handbuch einmalig. Wir erfahren von einem „Unfruchtbarkeitsgürtel“ in Zentral- und Südafrika, wo NRT trotz der hohen Kosten stark gefragt sind und auf andere als die euroamerikanischen Verwandtschafts-Praktiken treffen. In matrinlinearen Gesellschaften, etwa den Macao in Mozambik, können Vaterpflichten und -privilegien auf den Mutterbruder übergehen; in anderen Kulturen gibt es die „Geist- oder Frauenheirat“, wo Vater- bzw. Schwangerschaft durch Zahlung eines Brautpreises auf einen Ahnen oder eine Frau übertragen werden.
In islamischen Kulturen ist entscheidend, ob diese schiitisch oder sunnitisch sind: Bei Sunniten kann schon die Adoption verboten sein, im weniger restriktiven Schiismus bleiben Adoptivkinder zumindest von der patrilinearen Erbfolge ausgeschlossen; seit einer permissiven Fatwa von Ayatolla Khomeini sind in Iran und Libanon NRT-Kinder erlaubt und Adoptierten gleichgestellt. „Die Frage, wie ‚fremde‘ Kinder durch soziale Praktiken und diskursive Rahmungen der Familie zugehörig gemacht werden stellt sich nicht nur bei NRT-Kindern, sondern immer“, so N‘Guessan, denn Verwandtschaft sei eine „biologisch wie sozial unterdeterminierte, gestaltungsoffene wie gestaltungsnotwendige soziale Ordnung“.
2.Technologie, Schutz und Fürsorge
Thomson und McGeeney stehen mit ihrem britischen „Kinderalltagsprojekt“ in der Tradition materialistisch-feministischer Methodologie, die ihre Forschungstätigkeit eingehend selbstkritisch reflektiert und nach Möglichkeiten „nachhaltigerer Sorge-Relationalitäten“ sucht:
„Die digitalen Medien haben ganz eigene Möglichkeiten geschaffen, die auch neue Arten von erzieherischer Führung erfordern und neue Gebiet ethischer Untersuchungen eröffnen. (…) Junge Menschen in staatlicher Obhut wurden als eine besondere Risikogruppe identifiziert, einschließlich des Risikos in Bezug auf digitale Kulturen… besonders in den Bereichen Adoption und Pflegefamilien kämpfen Sozialarbeiter*innen darum, die Kinder vor der Aufnahme oder der Fortsetzung von Kontakten mit ihren leiblichen Eltern zu bewahren, wenn diese gerichtlich eingeschränkt worden war.“
Digitale Medien, besonders das allgegenwärtige Smartphone, erschweren diese Aufgabe, denn Kinder und Jugendliche verstehen es, sich der Kontrolle zu entziehen. Im Fall der einen Tag wissenschaftlich beobachteten Jasmine wird klar, dass auch sie und ihre Mitschüler*innen die ihnen auferlegten Regeln für den Mediengebrauch zu unterlaufen wissen: „Die ‚Ein-Tag-im-Leben-Methode‘ hat uns diese Art der dichten, affektiven Geometrien einfangen lassen.“ Die Forscher*innen erfahren, wie vermutlich Instagram und Snapchat von minderjährigen Müttern verwendet werden, um Babyfotos zu posten -schon deren Aufnahme wird von der Einrichtung eigentlich untersagt.
Die Konfliktsituation wird von Thomson und McGeeney aus beiden Perspektiven reflektiert: Die Schutzbefohlenen müssen einerseits „beobachtet, überwacht, geschützt und zensiert werden“, andererseits gibt es auch eine „Kinderöffentlichkeit“ mit „den Imperativen: gesehen werden, sichtbar sein, teilhaben in/an einer digitalen Kultur“. Die Autor*innen stellen fest, dass in dieser neuen Kultur „neue Arten der Subjektivität“ entstehen. „Im Kontext einer Aufmerksamkeitsökonomie können wir das Bedürfnis junger Menschen, gekannt und gesehen zu werden, nicht einfach ignorieren“. Jugendliche Medienpraxis unreflektiert „unterdrücken“ zu wollen, halten die beiden Forscher*innen „für irregehend“.
Der emanzipative Ansatz ist bei Thomson und McGeeney deutlich, doch bei der Reflexion des „Neuen“ an der „neuen Subjektivität“ ist noch Luft nach oben. Denken wir an eine 1950er-Jahre-Werbung für Dosen-Ananas: „Toast Hawaii! Da werden Ihre Nachbarn staunen!“ Foodporn auf Instagram posten ist vielleicht nur überkommene Subjektivierung in digitalisierter Werbeästhetik, die kunstvolle Beleuchtung und Belichtung von damals wird heute durch einen das Foto farblich aufpeppenden digitalen „Filter“ ersetzt.
Fazit
Die emanzipatorische Haltung ist löblich, doch leider gelingt der Transfer der Medienkritik von Adorno ff. auf die Digitalisierung durch die Bank nur ungenügend. Die zweifelhafte Referenz von Heidegger als Paten der Technikkritik überzeugt ebenso wenig wie der gelegentliche, hilflos wirkende Verweis auf neueste Ansätze wie Shoshana Zuboffs „Überwachungskapitalismus“. Dabei wäre bei Kenntnis der kritischen Diskurse zu Computer- und Internetkultur gar nicht nötig, das Rad neu zu erfinden: Der Adorno-Experte Mark Poster etwa kombiniert seit 30 Jahren Freudomarxismus mit postmodernen Ansätzen, etwa den Heidegger implizit weiterführenden Theorien von Michel Foucault, bei seiner Digitalmedienkritik.
Den meisten Beiträgen scheinen auch tiefer gehende Kenntnisse der technologischen und politischen Hintergründe der Digitalisierung zu fehlen, mit den beiden Ausnahmen des Professors für Digital Humanities (Sussex) David M. Berry und des Diplom-Informatikers Marius Melzer, der beim Chaos Computer Club ein Schülerprojekt betreibt. Bei Melzer bleibt die Warnung vor Manipulation im Internet nicht vage, sondern er führt konkret die wohl dramatischste Auseinandersetzung auf diesem Gebiet an:
„Das Beispiel Julian Assange zeigt dies deutlich: Die nach heutigem Wissensstand fingierten Vergewaltigungsvorwürfe (Melzer 2020) führten dazu, dass die vorhergegangene Wikileaks-Veröffentlichung „Collateral Murder“, die zeigte wie US-Soldaten im Irakkrieg lachend aus einem Hubschrauber auf Zivilisten und Journalisten feuerten, in Vergessenheit geriet.“ (S.114)
Die mit nur einem Satz allzu sparsame Erwähnung dieser digitalen Medienschlacht um die (nicht nur Medien-) Geschichte schreibende Enthüllungsplattform Wikileaks brachte einen gravierenden Fehler: In der Literaturliste wurde beim Quellennachweis der Vorname von N.Melzer offenbar zu M.Melzer fehlkorrigiert. Man nahm wohl ein Selbstzitat von Marius Melzer an und kannte nicht den wirklich zitierten weltberühmten Autor Nils Melzer, den UNO-Folterbeauftragten und Schweizer Professor für Völkerrecht. Nils Melzer hatte die gegenwärtige Folter des Wikileaks-Gründers Julian Assange angeprangert, den er als Opfer einer perfiden Intrige sieht. Er hatte in schockierenden Artikeln und seinem Buch „Der Fall Assange“ detailliert enthüllt, wie mutmaßlich Geheimdienste die Regierungen der USA und Großbritanniens sowie die schwedische Justiz den politisch verfolgten Assange als Vergewaltiger abgestempelt hatten. Diese Fakten wurden in westlichen Medien jedoch weitgehend vertuscht, was den Irrtum von Verlag, Lektoren und Korrekturat begründen dürfte. Somit wird dieses Handbuch selbst zu einem Beispiel gelungener Medienmanipulation im Digitalzeitalter.

Rita Braches-Chyrek, Jo Moran-Ellis, Charlotte Röhner, Heinz Sünker (Hrsg.): Handbuch Kindheit, Technik und das Digitale. Verlag Barbara Budrich GmbH (Opladen, Berlin, Toronto) 2021. 422 S., 69,90 Euro.

08/15/13

Medien-Mainstream & Netzkultur: Wikileaks – Edward Snowden

Thomas Barth

Die Netzkultur steht den Mainstreammedien heute kritisch gegenüber, von deren Aufmerksamkeit sie gleichwohl abhängig ist. Denn die klassischen Leitmedien Presse und Fernsehen machen immer noch den Kern der Öffentlichkeit aus, in welcher die politischen Debatten sich in gesellschaftliche Veränderungen umsetzen lassen – auch wenn jüngere Generationen ihnen ihrerseits zunehmend die Aufmerksamkeit entziehen. Kein Wunder, hatte doch die Medien-Industrie in Anti-Raubkopierer-Kampagnen ihre Verbraucher lange genug zu Verbrechern erklärt, statt vernünftige und faire Verfahren zu entwickeln.

WikiLeaks hatte erfolgreich den Bogen zurück zum Mainstream geschlagen, nicht zur ungetrübten Freude aller etablierten Meinungsmacher. Und wurde in Gestalt von Juian Assange dämonisiert. Mit Edward Snowden und The Intercept von Glenn Greenwald schlägt die Netzkultur jetzt zurück, bietet weniger Angriffsfläche für Personalisierung und macht es schwerer, die Inhalte zu verschweigen. Das Image der Medien leidet unter ihrer immer unkritischer werdenden Haltung gegenüber den Machthabern im eigenen Land bzw. Machtblock. Einzelne, die diese blinden Flecken aufzeigen wollten, gab es schon immer. Oft nahmen sie, von den Medien wenig beachtet, ein schlimmes Ende, wie etwa der Künstler Mark Lombardi, der westlichen Oligarchen und ihren Machtstrukturen nachging. Jeder, der mit westlichen konkurrierende Machteliten angreift, ist sich dagegen der medialen Aufmerksamkeit gewiss. Aber diese Einseitigkeit genügt offenbar nicht, unsere Journalisten verstehen sich immer öfter auch als Wadenbeißer im Dienste westlicher Herrschaftseliten, die über deren Kritiker hemmungslos herfallen.

Wie WikiLeaks zum Flop erklärt wurde

WikiLeaks gilt den Mainstream-Medien seit der ungefilterten Veröffentlichung tausender Cables als gescheitert. Doch es gibt zahlreiche offene Fragen. Etablierte Medien folgen einer vereinfachenden Erzählung, personifizieren komplexe Probleme, führen Standards an, die sie selbst kaum einhalten und brachten sich selbst gegen WikiLeaks in Stellung -selbst dann, wenn sie zuvor massiv von den Enthüllungen der Plattform profitiert hatten.

Today, 15 September 2014, WikiLeaks releases previously unseen copies of weaponised German surveillance malware used by intelligence agencies around the world to spy on journalists, political dissidents and others. Interaktion von Netzplattform und Medien bleibt problematisch

WikiLeaks ist aus der Hacker-Subkultur hervorgegangen und noch immer darin tief verwurzelt. Seit den Anfängen des Internet traten Hacker ein für freien Informationszugang aller bei vollem Schutz der Privatsphäre. Ihre natürlichen Widersacher waren die Geheimdienste, deren Job im Großen und Ganzen die umgekehrte Ausrichtung hatte. WikiLeaks bezeichnet sich in dieser Tradition auch als „Counter-Intelligence“ und „First Intelligence Agency of the People“ – als erster Geheimdienst des Volkes.

Die technologische Avantgarde der Hacker, deren ehedem esoterische Praxis der Online-Kommunikation heute die breite Masse zumindest der jüngeren Generationen erreicht hat, wurde von Anbeginn misstrauisch von den etablierten Medien beäugt. Heute ist sie selbstbewusst zur „Netzkultur“ gereift und ihr stehen neben staatlichen Institutionen auch die Medienkonzerne gegenüber, die von den neuen „Netzbürgern“ oft als „gnadenlose, gierige Content-Verwerter“ gesehen werden.

Kein Wunder, hat doch die Medien-Industrie in Anti-Raubkopierer-Kampagnen ihre Verbraucher so lange zu Verbrechern erklärt, bis sogar eine Piratenpartei in die politischen Arena stieg. Dabei sehen sich die Medien-Konzerne oft sogar als Säule der Demokratie und Pressefreiheit, vertreten aber zunehmend eigene Unternehmensinteressen. Der Antagonismus von Netzkultur und Medienindustrie schwingt unterschwellig mit, wenn etablierte Journalisten über Hackerprojekte berichten – besonders vielleicht, wenn diese – wie WikiLeaks – mit neuen Publikationsformen in die zentrale Sphäre des Nachrichtengeschäfts eindringen.

“Cablegate” und die mediale Schuldfrage

Am 1.9.2011 machte WikiLeaks, die Whistleblower-Plattform des weltberühmten Hackers Julian Assange, negative Schlagzeilen: Durch eine Sicherheitspanne wurden rund 250.000 US-Diplomaten-Depeschen aus dem WikiLeaks-Datenbestand im Internet zugänglich. Diese Depeschen sind, anders als bei vorherigen Depeschen-Publikationen, nicht redaktionell bearbeitet. Somit enthüllen sie womöglich unabsichtlich Namen von Informanten der US-Auslandsvertretungen. Die Aufregung in den Medien war groß und der Ruf von WikiLeaks, durch einen mysteriösen „Sex-Skandal“ um Assange bereits angeschlagen, drohte nachhaltig beschädigt zu werden. (Nachtrag 2022: Nils Melzer „Der Fall Assange“ stellte klar: Die Verleumdungen von Julian Assange mit einem angeblichen „Vergewaltigungsverdacht“ basierten auf einer geheimdienst-gesteuerten Justizintrige in Schweden.) Vielleicht sollten sogar Internet-Enthüllungsplattformen, die bereits als neue, den herkömmlichen Journalismus ergänzende Form der öffentlichen Aufklärung gesehen wurden, generell in Frage gestellt werden. Die Snowden-Enthüllungen und The Intercept konnten dieses mögliche Ziel jedoch unterlaufen, obgleich sie heute von den Medien tendenziell totgeschwiegen werden.

Die von Journalisten gegen die Whistleblower-Plattform und speziell Assange vorgetragenen Vorwürfe lauteten damals, WikiLeaks würde den Informantenschutz und die journalistische Ethik bzw. Sorgfalt vernachlässigen. Beide Vorwürfe erweisen sich jedoch bei genauerer Betrachtung als zumindest fragwürdig.

Was war geschehen? Bei der Weitergabe der Botschafts-Depeschen hatte WikiLeaks zunächst ein verschlüsseltes Datenpaket gepackt und dieses im Internet in Umlauf gebracht. Ziel war, die Daten auf zahlreichen verteilten Rechnern vor dem physischen Zugriff von Polizei, Militär und Geheimdiensten in Sicherheit zu bringen. Die spätere Jagd auf Assange mittels eines unter zweifelhaften Umständen zustande gekommenen Haftbefehls von Interpol zeigt, dass diese Befürchtungen nicht unbegründet waren.

Die so verschlüsselten Daten gelangten in die Hände der drei ausgewählten Presseredaktionen von „Spiegel“, New York Times und Guardian. Später übergab dann Assange den Redakteuren das geheime Passwort, so dass diese die Pakete öffnen und auswerten konnten. Soweit so gut. Doch zwei Journalisten vom Guardian publizierten 2011 auch ein Buch über die WikiLeaks-Geschichte und gaben dabei (versehentlich?) das Passwort bekannt. Sie hätten geglaubt, so später der Guardian, das Passwort sei nur zeitlich befristet gültig gewesen. Jeder Leser des Buches hatte nun die Möglichkeit, die zirkulierenden Datenpakete zu entschlüsseln und Identitäten von US-Informanten zu enthüllen.

Bei der Berichterstattung über den Vorfall ging im Folgenden vieles durcheinander. Die Tagesschau vom 1.9.2011 befragte in ihrem längeren Bericht einen ARD-Internetexperten, der kritisierte, eine Whistleblower-Plattform solle doch in der Lage sein, ihre Informanten zu schützen. In dieser ARD-Darstellung wurden also die hier betroffenen Informanten mit Whistleblowern durcheinander gebracht. Doch es geht in den Depeschen nicht um Enthüller, die öffentliche Aufklärung im Sinn haben, sondern um Zuträger der US-Administration, wie den FDP-Funktionär Metzner, der Interna aus den schwarzgelben Koalitionsverhandlungen verriet. Der Adressat für das Einklagen von Informantenschutz muss hier also nicht WikiLeaks, sondern die US-Administration sein. Es ist nebenbei bemerkt dieselbe US-Administration, die Assange zum Staatsfeind erklärte, ihm vermutlich die Konten sperren ließ, mutmaßlich seine Strafverfolgung wegen fadenscheiniger Vergewaltigungsanklagen und seine Auslieferung an die USA betrieb.

Und Bradley Manning?

Gleichwohl könnten die Depeschen fatale Folgen für Informanten haben, denn manche Zuträger der US-Botschaften müssen wohl mit bedrohlichen Konsequenzen rechnen –„in totalitären Ländern“, wie besorgte Kommentatoren der WikiLeaks-Datenpanne gern hinzufügten. Kaum einer erwähnte dabei jedoch einen Informanten von WikiLeaks selbst, der schon seit Mai 2010 leidet: Bradley Manning, der US-Soldat, der teilweise unter „harten“ Haftbedingungen in US-Militärgefängnissen gehalten wurde (Menschenrechts-Organisationen sprachen von Folter), um ein Geständnis und eine Aussage gegen Assange zu erzwingen.

Die Manning zugeschriebenen Enthüllungen brachten Kriegsverbrechen und Menschenrechtsverletzungen seitens der US-Truppen ans Licht. Sie zeigten den Krieg in Irak und Afghanistan, der uns oft als hehre Friedensmission mit chirurgisch präzisen Schlägen präsentiert wurde, in seiner ganzen Breite und Grausamkeit. Hinter der offiziellen Version von Wiederaufbau und Krieg gegen den Terror erkannten manche in den WikiLeaks-Dokumenten einen zweiten Krieg: Die Strategie, innerafghanische Kontrahenten im Sinne von „teile und herrsche“ gegeneinander auszuspielen; etwa die entgegen der offiziellen Entwaffnungspolitik zugelassene Aufrüstung von Usbekenführer Dostum, der 2006 mit Warlords der Nordallianz einen Putsch gegen Karsai plante. Dies konnte zwar der US-Führung nicht gefallen, rechtfertigt aber nicht die unmenschliche Behandlung eines mutmaßlichen Whistleblowers. Ob mit Bradley Manning nicht einfach ein unbequemer junger Soldat zum Sündenbock gemacht wurde, um Enthüller von US-Geheimnissen generell einzuschüchtern, weiß bis heute niemand.

Die Darstellung von Leistungen von WikiLeaks und Assange erscheint in den Medien oft personalisiert und wenig auf politische Hintergründe ausgerichtet, so in den auf Bestsellerlisten gehandelten Büchern „Staatsfeind WikiLeaks“ und „Inside WikiLeaks“. Doch auch wo fundiertere Analysen vorgenommen werden, bleibt eine voreingenommene Haltung des etablierten Journalismus spürbar. So wird in einer Studie zum Krisenjournalismus das berühmte Video, mit dem sich WikiLeaks überhaupt erst einen Platz in den Hauptnachrichten erkämpfte, recht einsilbig beschrieben: „…ein WikiLeaks-Video, das den Angriff auf eine Gruppe von Menschen in Bagdad aus der Cockpit-Perspektive eines Kampfhelikopters zeigt. Bei dem Angriff kamen auch zwei Reuters-Journalisten ums Leben.“

Sogar den mit Bedacht von Assange gewählten Titel des Videos verschwiegen die Autoren: „Collateral Murder“, obwohl sie wenige Seiten zuvor noch von der Krisenberichterstattung gefordert hatten, „Euphemistische Wendungen wie… ‚Kollateralschäden‘… sollten durchschaut und vermieden werden.“ Assange & Co. hatten den Euphemismus nicht nur vermieden, sondern durchschaut und in seinem Zynismus entlarvt, aber dies wollten der Journalismus-Professor und sein Co-Autor wohl bei den Medien-Außenseitern von WikiLeaks nicht sehen. „Collateral Murder“ wurde gesendet und schnell vergessen, ebenso wie der Leidensweg des mutmaßlichen WikiLeaks-Informanten Bradley Manning.

Wichtiger als das reale Opfer Manning, schienen den Medien in Deutschland heute offenbar die infolge der Datenpanne möglichen Opfer der Publikation von US-Depeschen zu sein. Tatsächlich könnte man hier die Vernachlässigung journalistischer Ethik und Sorgfaltspflicht anführen. Aber gegen wen? Das Gros der Medien richtet seine Anklagen gegen Assange, etwa die Tagesschau vom 1.9.2011. Sie berichtete zwar, „WikiLeaks beschuldigte einen Journalisten der britischen Zeitung Guardian“, das Passwort publiziert zu haben, ließ aber im restlichen Beitrag keinen Zweifel daran, dass man die Schuld für die Panne bei der Internet-Plattform zu suchen habe. Fazit: WikiLeaks sitzt auf der Anklagebank und beschuldigt, womöglich nur um sich selbst zu entlasten, den Guardian. Diesem Muster folgen die meisten Berichte, aber ist das wirklich eine faire Bewertung?

Wer Standards verlangt, sollte sie selbst einhalten

Journalisten forderten von WikiLeaks seit deren Erscheinen in der Öffentlichkeit Verantwortung, Ethik und journalistische Standards ein, die man übrigens in der breiten Masse des Boulevard-Journalismus vergeblich sucht. Aber was ist mit den Qualitäts-Journalisten des britischen Traditionsblattes Guardian? Sollte eine naheliegende Frage nicht lauten: Welcher Teufel hat die Buchautoren geritten, ausgerechnet das echte Passwort in ihrer Reportage zu publizieren? Ein fanatisches Streben nach Authentizität um jeden Preis? Pure Trägheit, sich eine vergleichbare Phrase auszudenken? Für den Leser hätte ein Ersatzwort das Buch sicher nicht schlechter gemacht, für US-Informanten kann diese Unachtsamkeit der Autoren jedoch fatale Folgen haben.

Der Guardian hätte es wissen müssen

Die Guardian-Schreiber hätten wissen müssen, dass die verschlüsselte Datei mit den Depeschen überall im Netz zirkuliert, und dass sie mit diesem Passwort jeder würde öffnen können. Wäre es nicht ihre journalistische Sorgfaltspflicht gewesen, die Ungefährlichkeit ihrer „Enthüllung“ mit Assange abzuklären? Stattdessen konstruieren jetzt die medialen Ankläger eine kryptologische Bringschuld von Assange, auch in der Zusammenarbeit mit der bei diesem Projekt engstens verbündeten Presse jederzeit höchstes Misstrauen einkalkulieren zu müssen.

Assange hätte die zirkulierenden Sicherungskopien mit anderen Passwörtern verschlüsseln, die Passwörter mit einer Zeitbegrenzung versehen müssen usw. lauten die im Nachhinein besserwisserisch erhobenen Forderungen. Aber hätten nicht auch die seriösen Qualitäts-Journalisten und Buchautoren des Guardian einkalkulieren müssen, dass dem um den Globus gehetzten Assange und seiner zusammengewürfelten Hackergruppe Fehler unterlaufen könnten?

Netzkultur, Whistleblower und „einsame Helden“

Bei aller Hochachtung vor den Leistungen von Julian Assange – der Hacker-Subkultur scheinen die Gefahren bewusst zu sein, die mit seiner Person und auch mit der Fixierung auf einen „einsamen Helden“ verbunden sind.  Edward Snowden hat aus der sorgfältigen Beobachtung der medialen Verarbeitung des Falles Assange gelernt und sich bewusst selbst im Hintergrund gehalten. Die Ergebnisse dieses Ansatzes geben ihm Recht: Es fiel den Medien schwerer, durch Personalisierung von den aufgedeckten Problemen abzulenken. Man diskutiert überwiegend bis heute den NSA-Skandal und nicht den Fall Snowden, dem -anders als bei Assange- auch nicht derart massive Angriffe gelten.

Die Verantwortung wird von der Netzkultur aber vor allem von der Presse eingefordert. Deren zunehmendes Einknicken vor den Interessen herrschender ökonomischer und Machteliten wird von Netizens und Hackern als Hauptargument für die Notwendigkeit von Plattformen wie WikiLeaks und The Intercept angeführt.

So steht die Netzkultur den Mainstreammedien kritisch gegenüber, von deren Aufmerksamkeit sie gleichwohl abhängig ist. Denn die klassischen Leitmedien Presse und Fernsehen machen immer noch den Kern der Öffentlichkeit aus, in welcher die politischen Debatten sich in gesellschaftliche Veränderungen umsetzen lassen – auch wenn jüngere Generationen ihnen ihrerseits zunehmend die Aufmerksamkeit entziehen. WikiLeaks hat erfolgreich den Bogen zurück zum Mainstream geschlagen, nicht zur ungetrübten Freude aller etablierten Meinungsmacher. Die Netzkultur hat mit Snowden und WikiLeaks wichtige Schritte hin zu einem Inversen Panoptikum unternommen, das die Blickrichtung im globalen Überwachungsnetz umdreht: Wir alle werden von Geheimdiensten und Unternehmen beobachtet, aber wir beobachten zunehmend ebenfalls -die Machthaber im Zentrum der panoptischen Anlage.