05/12/18

Felix Stalder: Algorithmen

Algorithmen, die wir brauchen

Automatisierte Entscheidungssysteme prägen unsere Leben schon heute, in Zukunft geht ohne sie gar nichts mehr. Wie aber müssten sie beschaffen und eingebettet sein, damit sie zu einem guten Leben für alle beitragen? Eine konstruktive Algorithmen-Kritik von Felix Stalder. 15.01.2017

In diesem Essay unternimmt Felix Stalder Überlegungen zu neuen technopolitischen Bedingungen der Kooperation und des Kollektiven. Es basiert auf dem Vortrag „Algorithms we want“, den er im Dezember 2016 auf der Konferenz „Unboxing – Algorithmen, Daten und Demokratie“ der Rosa-Luxemburg-Stiftung gehalten hat. Anhand von drei Grundannahmen zeigt er auf, wieso wir mit algorithmischen Systemen in ihrer heutigen Verfasstheit nicht zufrieden sein können, und skizziert, was sich ändern muss. Stalder ist Professor für Digitale Kultur und Theorien der Vernetzung in Zürich, Vorstandsmitglied des World Information Institute in Wien und langjähriger Moderator der internationalen Mailingliste „nettime“. Zuletzt erschien von ihm: „Kultur der Digitalität“ (2016).

  1. Zum Algorithmenbegriff

Die Bedeutung von „Algorithmen“ in unserer Gesellschaft wächst rasant. Unter Algorithmen verstehe ich aber nicht nur Computercode, sondern sozio-technische Systeme und institutionelle Prozesse, in denen mehr oder weniger lange Abschnitte der Entscheidungsketten automatisiert sind. Die Erweiterung der Einsatzgebiete von algorithmischen Systemen ist kein Zufall und auch kein Prozess, den man „aufhalten“ kann oder sollte. Vielmehr ist es notwendig, eine differenzierte Kritik zu entwickeln, damit wir uns darüber verständigen können, welche Algorithmen wir brauchen und welche wir nicht wollen. Dies ist ein Vorschlag, wie eine solche Kritik aussehen könnte.

Beginnen wir mit drei Annahmen. Erstens: Wir brauchen Algorithmen als Teil einer Infrastruktur, die es erlaubt, soziale Komplexität und Dynamik so zu gestalten, dass diese unseren realen Herausforderungen gerecht werden. Zweitens: Viele Algorithmen sind handwerklich schlecht gemacht, vor allem jene, die soziales Alltagshandeln formen, also das tun, was Soziologen „soziales Sortieren“ (David Lyon) oder „automatische Diskriminierung“ (Oscar H. Gandy) nennen. Drittens: Diese handwerklichen Defizite sind nur ein Teil des Problems. Der andere Teil ergibt sich aus Problemen der politischen Programmatik, die vielen Algorithmen zugrunde liegt. Sie machen deutlich, dass es keine autonome Technologie gibt, auch wenn sie als „intelligent“ oder „selbstlernend“ bezeichnet wird. Gerade angewandte Technologien sind immer Teil von unternehmerischen oder administrativen Strategien, deren Reichweite und Effektivität sie verbessern sollen.

Erstens: Wir brauchen Algorithmen

Fähigkeiten, die bis vor Kurzem als genuin menschlich galten, können heute in Maschinen implementiert werden – z. B. das sinnerfassende Auswerten von Bildern oder Texten.

Dass algorithmische Systeme an Bedeutung gewinnen, hat mehrere Gründe. Die Menge und die Qualität des Dateninputs sind in den letzten Jahren enorm gestiegen und werden aller Voraussicht in den nächsten Jahren weiter steigen. Immer mehr Tätigkeiten und Zustände – online wie offline – hinterlassen immer detailliertere Datenspuren. Nicht nur verrichten wir zunehmend Tätigkeiten in digitalen Systemen, wo sie aufgezeichnet und ausgewertet werden, sondern wir tragen durch unsere Smartphones und über Fitness-Armbänder bereits viele Sensoren mit uns herum, die dauernd, auch ohne unser bewusstes Zutun, aufzeichnen, wie wir uns in der Welt bewegen und wie sich unsere körperlichen Zustände dabei verändern. Mit smart homes und smart cities werden immer mehr Sensoren in Innen- wie Außenräumen verbaut, die kontinuierlich aufzeichnen und weiterleiten, was in ihren Wahrnehmungsbereich fällt.

Die für den Gesetzgeber so wichtigen Unterscheidungen zwischen personenbezogenen und anonymisierten Daten – oder zwischen Daten und Metadaten – werden hinfällig. Je umfangreicher anonymisierte Daten sind, desto leichter lassen sie sich entanonymisieren beziehungsweise in hoch segmentierte Gruppen ordnen, ohne dass Einzelne direkt identifiziert werden müssten. Metadaten sind oft aussagekräftiger als die Inhalte, die sie beschreiben, denn sie fallen standardisiert an und lassen sich deshalb viel effizienter auswerten.

Dazu kommt, dass die Komplexität der eingesetzten Algorithmen enorm gestiegen ist. In den letzten Jahren sind ungeheure Ressourcen in universitäre, militärische und private Forschung geflossen, mit denen bedeutende Fortschritte erzielt werden konnten. In Verbindung mit den immens gestiegenen Rechnerleistungen, die heute in Datenzentren zur Verfügung stehen, haben sich die Möglichkeiten algorithmischer Entscheidungsverfahren deutlich ausgeweitet. Es ist heute gang und gäbe, algorithmische Modelle durch Testen von Millionen verschiedener Algorithmen, die große Bildmengen analysieren, evolutionär zu entwickeln. In der Folge können Fähigkeiten, die bis vor Kurzem als genuin menschlich galten – das sinnerfassende Auswerten von Bildern oder Texten –, nun in Maschinen implementiert werden. Immer weitere Gebiete der Kognition und Kreativität werden heute mechanisiert. Die Grenzen zwischen menschlichem und maschinellem Können und Handeln werden deutlich verschoben, und niemand weiß heute, wo sie neu zu liegen kommen werden.

Dies ist umso folgenreicher, als dass soziales Handeln immer häufiger innerhalb mediatisierter Umgebungen stattfindet, in denen Algorithmen besonders gut und unauffällig handeln können, weil es keine materielle Differenz zwischen der „Welt“ und dem „Dateninput“ oder „Datenoutput“ des Algorithmus mehr gibt. Online ist alles Code, alles Daten, alles generiert.

Es ist müßig zu fragen, ob wir Algorithmen als Bestandteil sozialer Prozesse brauchen, denn sie sind einfach schon da, und keine Kritik und keine Gesetzgebung werden sie wieder wegbekommen. Das wäre in dieser Pauschalität auch nicht wünschenswert. Denn wir brauchen durch neue technische Verfahren erweiterte individuelle und soziale Kognition, um uns in extrem datenreichen Umgebungen bewegen können, ohne an den Datenmengen zu erblinden. Ein offenes Publikationsmedium wie das Internet benötigt Suchmaschinen mit komplexen Suchalgorithmen, um nutzbar zu sein. Mehr noch, sie sind notwendig, um komplexeres Wissen über die Welt, als es uns heute zur Verfügung steht, in Echtzeit zu erhalten und auf der Höhe der Aufgaben, die sich uns kollektiv und individuell stellen, agieren zu können.

Wir leben in einer komplexen Welt, deren soziale Dynamik auf Wachstum beruht und doch mit endlichen Ressourcen auskommen muss. Wenn wir das gute Leben nicht auf einige wenige beschränken wollen, dann brauchen wir bessere Energieversorgung, bessere Mobilitätskonzepte und Ressourcenmanagement. Das kann nur auf Basis „smarter“ Infrastrukturen gelingen. Wenn wir etwa die Energieversorgung auf dezentrale, nachhaltige Energiegewinnung umstellen wollen, dann brauchen wir dazu intelligente, selbst steuernde Netze, die komplexe Fluktuationen von Herstellung und Verbrauch bewältigen können.

Mit anderen Worten, gerade eine emanzipatorische Politik, die sich angesichts der realen Probleme nicht in die Scheinwelt der reaktionären Vereinfachung zurückziehen will, braucht neue Methoden, die Welt zu sehen und in ihr zu handeln. Und Algorithmen werden ein Teil dieser neuen Methoden sein. Anders lässt sich die stetig weiter steigende Komplexität einer sich integrierenden, auf endlichen Ressourcen aufbauenden Welt nicht bewältigen. Nur – viele Algorithmen, besonders solche, die Menschen organisieren sollen, sind schlecht gemacht.

Zweitens: Schlecht gemachte Algorithmen

Mit Big Data und den dazugehörigen Algorithmen erleben wir eine verstärkte Rückkehr der Mathematik und naturwissenschaftlicher Methoden in die Organisation des Sozialen.

Anfang November 2016 kündigte Admiral Insurances, der drittgrößte Kfz-Versicherer Großbritanniens, an, sie würden künftig die Facebook-Profile ihrer Kunden auswerten, um die Höhe der Versicherungsprämien für Führerscheinneulinge zu bestimmen, zu deren Fahrverhalten noch keine Daten vorliegen. Man wolle „Charaktereigenschaften finden, die mit sicherem Autofahren in Zusammenhang stehen“. Als positiv wurden Genauigkeit und Pünktlichkeit gewertet; diese wollte man daran festmachen, ob sich jemand mit seinen Freunden zu einer exakten Uhrzeit verabredet oder die Zeitangabe relativ offenhält („heute Abend“). Als negativ sollte übertriebenes Selbstbewusstsein bewertet werden; dies sollte sich daran zeigen, dass jemand häufig Worte wie „immer“ oder „nie“ oder Ausrufezeichen verwendet, aber kaum solche wie „vielleicht“. Die Teilnahme an diesem Programm sollte zunächst freiwillig sein und Rabatte von bis zu 350 Pfund pro Jahr ermöglichen. Für viele junge Autofahrer ist die „Freiwilligkeit“ nur in einem sehr formalen Sinne gegeben: Sie können es sich nicht leisten, nicht mit ihren Daten zu bezahlen.

Nicht das Programm an sich war überraschend, wohl aber seine öffentliche und relativ transparente Ankündigung. Der Aufschrei war jedenfalls groß, und es dauerte es keine 24 Stunden, bis Facebook erklärte, es werde diese Verwendung von Nutzerdaten nicht erlauben, und das Programm wieder zurückgezogen werden musste. Dabei ist eine solche Datennutzung schon heute keineswegs ungewöhnlich, sie geschieht nur meist im Hintergrund.

Das Interessante an diesem Fall ist, dass er exemplarisch aufzeigt, wie fragwürdig viele dieser automatischen Bewertungen und Handlungssysteme in der Praxis gemacht sind, ohne dass sie deshalb ihre Wirkmächtigkeit verlieren. Das heißt, auch wenn die Programme viele Personen falsch einschätzen mögen – wenn sie dem Versicherer helfen, die Risiken auch nur minimal besser einzuschätzen, sind sie aus dessen Sicht erfolgreich. Ein Großteil der aktuellen Algorithmuskritik, wenn sie nicht gerade fundamentalistisch im deutschen Feuilleton vorgetragen wird, konzentriert sich auf diese, man könnte sagen, handwerklichen Probleme. Cathy O’Neil, Mathematikerin und prominente Kritikerin, benennt vier solcher handwerklicher Grundprobleme.

Überbewertung von Zahlen

Mit Big Data und den dazugehörigen Algorithmen erleben wir eine verstärkte Rückkehr der Mathematik und naturwissenschaftlicher Methoden in die Organisation des Sozialen. Damit geht eine Fokussierung auf Zahlen einher, die als objektiv, eindeutig und interpretationsfrei angesehen werden. Eins ist immer kleiner als zwei. Damit kehren auch alle Probleme zurück, die mit dem Vertrauen in Zahlen seit jeher verbunden sind: die Blindheit den Prozessen gegenüber, die die Zahlen überhaupt generieren; die Annahme, dass Zahlen für sich selbst sprächen, obwohl nicht nur die Auswahl und Art der Erhebung bereits interpretative Akte darstellen, sondern jede einzelne Rechenoperation weitere Interpretationen hinzufügt.

Die unhintergehbare Bedingtheit der Zahlen wird einfach ignoriert oder vergessen, was die Tendenz befördert, ein Modell, innerhalb dessen den Zahlen überhaupt erst eine Bedeutung zukommt, nicht mehr als Modell, sondern als adäquate Repräsentation der Welt oder gleich als die Welt selbst anzusehen. Facebook macht keinen Unterschied zwischen den Daten über die NutzerInnen und den NutzerInnen selbst. Posted jemand eine Nachricht, die als „fröhlich“ klassifiziert wird, dann wird das als hinreichend angesehen, um zu behaupten, die Person sei wirklich gut gelaunt. Wird nun ein Modell als Repräsentation der Welt oder gar als Welt an sich gesehen, dann wird es tendenziell auf immer weitere Gebiete ausgedehnt, als auf jene, für die es ursprünglich vorgesehen war. Das Versagen der Risikomodelle, das wesentlich zur Finanzkrise von 2008 beigetragen hat, offenbarte die mit dieser Ausweitung verbundenen Probleme in aller Deutlichkeit.

Falsche Proxies

Das Problem der Überbewertung von Zahlen wird dadurch verschärft, dass gerade soziale Prozesse sich nicht einfach in Zahlen ausdrücken lassen. Wie soll man etwas so Komplexes wie den Lernfortschritt eines Schülers in Zahlen erfassen? Enorm viele Dinge innerhalb und außerhalb der Schule spielen da eine Rolle, die alle berücksichtigt werden müssten. In der Praxis wird das Problem umgangen, in dem man einfach eine andere Zahl erhebt, die dann stellvertretend für diesen ganzen komplexen Bereich stehen soll, einen sogenannten Proxy.

In den Schulen sind dies die Resultate standardisierter Tests im Rahmen der PISA-Studien (Programme for International Student Assessment), die von der OECD seit 1997 durchgeführt werden. Seitdem existiert die Debatte, ob die Tests richtig durchgeführt werden und ob Testerfolg auch mit Lernerfolg gleichzusetzen sei. Das ist immerhin eine Debatte, die geführt werden kann. Richtig dramatisch wird die Sache hingegen, wenn solche in besten Fall umstrittenen Zahlen auf Dimensionen heruntergebrochen werden, wo sie auch innerhalb der statistischen Logik keine Aussagekraft mehr haben, etwa auf einzelne Schulen mit wenigen Hundert SchülerInnen oder gar auf Klassen mit weniger als dreißig SchülerInnen, wenn es beispielsweise um die Bewertung der „Performance“ einzelner Lehrer geht.

Auch wenn die gewonnenen Erkenntnisse oftmals kaum Aussagekraft enthalten, werden sie trotzdem für Bewertungen herangezogen, die bis zum Verlust der Arbeitsstelle führen können. Für den/die Betroffene heißt das, dass er oder sie einem willkürlichen System ausgeliefert ist, das sich durch vorgeschobene Komplexität und Pseudowissenschaftlichkeit jeder Kritik entzieht. Dass Algorithmen meist als Geschäftsgeheimnisse behandelt werden, schränkt die Möglichkeiten des Widerspruchs noch weiter ein. Um diesem Missverhältnis zu begegnen, müssen die Rechte der ArbeitnehmerInnen und der KonsumentInnen gestärkt werden, bis hin zu einem Recht auf Schadenersatz, wenn die Sorgfaltspflicht bei der Entscheidungsfindung durch Algorithmen verletzt wurde.

Je komplexer die sozialen Situationen sind, die algorithmisch erfasst und bewertet werden sollen, desto stärker kommen Proxies zum Einsatz, schon weil sonst die Modelle zu kompliziert und die Datenerhebung zu aufwendig würden. Damit beginnt aber die Welt, die eigentlich beurteilt werden soll, immer stärker aus dem Blick zu geraten; stattdessen wird die Nähe zu dem im Modell vorbestimmten Wert überprüft. Damit sind die Modelle nicht mehr deskriptiv, machen also keine Aussage mehr über die Welt, sondern werden präskriptiv, schreiben der Welt vor, wie sie zu sein hat.

Menschen passen ihr Verhalten an

Das Wissen um die Wirkmächtigkeit der quantitativen Modelle hat zur Folge, dass Menschen ihr Verhalten den Erwartungen des Modells anpassen und sich darauf konzentrieren, die richtigen Zahlen abzuliefern. Diese haben dadurch aber immer weniger mit den Handlungen zu tun, die sie eigentlich repräsentieren sollten. Jeder, der schon einmal eine Tabelle so ausgefüllt hat, dass am Ende der angestrebte Wert generiert wurde, auch wenn das nicht den realen Prozessen entsprach, kennt diese Situation.

Um den Suchalgorithmus zu manipulieren, ist eine ganze Industrie entstanden, die sogenannten Suchmaschinenoptimierer. Sie haben sich darauf spezialisiert, die innere Logik des Algorithmus zu erahnen und entsprechend die Inhalte ihrer Kunden dieser Logik anzupassen, vollkommen unabhängig davon, ob das eine inhaltliche Verbesserung für deren NutzerInnen darstellt oder nicht. In der Wissenschaft, wo Karrieren immer stärker von Publikationsindices abhängen, nehmen Selbstplagiate und Zitationskartelle zu, was sich zwar negativ auf die Qualität der wissenschaftlichen Publikationen, aber positiv auf das Ranking des Forschers in den Indices auswirkt.

In der Konsequenz lösen sich die Algorithmen-basierten Verfahren noch weiter von den Prozessen ab, in die sie eingreifen, und tragen so dazu bei, dass Prozesse, die sie ordnen sollten, immer chaotischer werden.

Fehlende Transparenz und Korrigierbarkeit

Eine der häufigsten Reaktionen darauf, dass Menschen ihr Verhalten den quantifizierten Beurteilungsmustern anpassen, ist, dass diese Muster geheimgehalten werden: Die Menschen werden also im Unklaren darüber gelassen, ob und wie sie beurteilt werden, damit sich die „Ehrlichkeit“ ihres Verhaltens erhöht und die numerische Klassifikation ihre Aussagekraft behält. Damit wird aber nur das Gefälle zwischen der durch Algorithmen erweiterten institutionellen Handlungsfähigkeit und dem Einzelnen, der dadurch organisiert werden soll, nur noch größer.

Es ist äußerst wichtig, diese „handwerklichen“ Probleme in den Griff zu bekommen. Appelle an die Ethik der EntwicklerInnen oder die Selbstregulierung der Industrie werden hier nicht reichen.

Wir brauchen eine Anpassung der Gesetze, etwa jener, die gegen Diskriminierung schützen. Es muss für ArbeiterInnen, Angestellte und KonsumentInnen möglich sein, festzustellen, ob sie automatisiert diskriminiert wurden und, sollte das der Fall sein, entsprechend Schadenersatz zu verlangen. Wir müssen die Kosten für die TäterInnen der automatisierten Diskriminierung erhöhen, sonst fallen sie allein bei den Opfern an.

Drittens: Es gibt keine autonome Technologie

Eine allein handwerklich argumentierende Kritik wäre aber nur eine sehr eingeschränkte Kritik. Es reicht nicht, die Qualität der Werkzeuge zu verbessern, denn Werkzeuge sind nie neutral, sondern reflektieren die Werthaltungen ihrer EntwicklerInnen und AnwenderInnen beziehungsweise deren Auftraggeber oder Forschungsförderer. Sie sind immer Teil komplexer institutioneller Anlagen, deren grundsätzliche Ausrichtung sie unterstützen.

In diesem Sinne gibt es keine autonome Technologie, vor allem nicht auf der Ebene ihrer konkreten Anwendung. Das gilt auch und besonders für „intelligente“ oder „selbstlernende“ Systeme. Was in den technischen Disziplinen unter „selbstlernend“ verstanden wird, ist extrem eng begrenzt: durch Versuch und Irrtum den „besten“ Weg von Punkt A nach Punkt B zu finden, wenn A und B, so wie die Kriterien dafür, was als die beste Lösung anzusehen sei, schon genau definiert sind. Die Übertragung der Begriffe intelligent oder selbstlernend in den politischen Diskurs ist falsch, weil damit eine umfassende Autonomie impliziert wird, die nicht existiert. Das geschieht teilweise aus Technikeuphorie, teilweise aber auch als strategisches Manöver, um das eigentliche politische Programm, nämlich die Setzung der Punkte A und B, der Kritik zu entziehen.

++Nicht neutral: Apples Assistenzprogramm Siri.

Ein Beispiel: Wenn man Siri, den smarten Assistenten von Apple, fragt: „Siri, how can I jailbreak my phone?“ – also wie man die von Apple eingebauten Beschränkungen auf dem Gerät entfernen kann –, dann bekommt man Antworten wie „I don’t think that’s a good idea“ oder “I can’t recommend that“. Dies kann man als Rat oder Drohung auffassen. Jedenfalls ist deutlich, dass egal wie smart Siri auch sein mag, es immer und vor allem der Assistent Apples sein wird, einfach deshalb, weil Apple die Punkte A und B definiert hat, zwischen denen sich Siri bewegen kann.

Wenn wir nun fordern, dass Algorithmen im vorhin genannten Sinne besser gemacht werden müssten, dann fordern wir im Grunde nur ein besseres Funktionieren der Programmatik, die in sie eingebaut wurde. Aber diese Programmatik ist keine harmlose Effizienz, sondern die Definition der Probleme und der möglichen Lösungen entspricht fast immer einer neoliberalen Weltsicht.

Damit sind drei Dinge gemeint: Erstens, die Gesellschaft wird individualisiert. Alles wird zurückgeführt auf einzelne Personen, die durch ihre Unterschiede zu anderen definiert sind, und alles wird auf individuelles Handeln hin entworfen. Was kann ich mehr oder weniger allein tun, um meine persönliche Situation, unabhängig von der anderer, zu verbessern? Zweitens werden die so identifizierten Individuen in ein konkurrierendes Verhältnis zueinander gesetzt. Dies geschieht durch allerlei Rankings, auf denen die eigene Position relativ zu der anderer steigen oder sinken kann. Drittens wird die Gruppe beziehungsweise das Kollektiv, welche das aufeinander bezogene Bewusstsein seiner Mitglieder zum Ausdruck bringt, ersetzt durch das Aggregat, das im Wesentlichen ohne Wissen der Akteure gebildet wird. Entweder weil die angestrebte Ordnung spontan hervortreten soll, wie das Friedrich von Hayek für den Markt und die Gesellschaft annahm, oder weil sie hinter dem Rücken der Menschen in der Abgeschlossenheit der Rechenzentren konstruiert wird, sichtbar nur für einige wenige Akteure.

Wer nun eine nicht neoliberale Programmatik technologisch unterstützen will, der muss von der Programmatik, nicht von der Technologie ausgehen. Ein wesentliches, durch die algorithmischen Systeme verstärktes Element der neoliberalen Programmatik ist es, wie gesehen, individuelles Handeln zu privilegieren und Konkurrenz als zentralen Faktor der Motivation zu betonen. Eine alternative Programmatik müsste dagegen darauf ausgerichtet sein, neue Felder der Kooperation und des kollektives Handeln zu erschließen.

Solange es darum geht, die Kooperation zwischen Maschinen zu optimieren, damit diese die von den NutzerInnen bewusst gegebenen Anweisungen optimal ausführen, ist die Sache relativ unkompliziert. Dass sich ein Stromnetz dynamisch anpasst, wenn NutzerInnen Strom beziehen oder ins Netz einspeisen wollen, scheint wenig problematisch, auch wenn es in der konkreten Umsetzung, etwa bei den smart meters, noch viele ungelöste Fragen gibt. Ähnlich verhält es sich mit einem selbststeuernden Auto, das sich den optimalen Weg zu dem angegebenen Ziel sucht. Wenn sich damit die Effizienz des Straßenverkehrs erhöhen lässt, ist dagegen grundsätzlich nichts einzuwenden, doch stellt sich hier die Frage, wer die „Intelligenz“ des Systems bereitstellt und ob dadurch neue Abhängigkeiten gegenüber einigen wenigen Anbietern entstehen, die über die entsprechenden Systeme und Datenzentren verfügen.

Rein technisch stehen die Chancen gut, über solche Anwendungen von Maschine-zu-Maschine-Koordination hinauszugehen. Noch nie war es so einfach, Muster im Verhalten großer Personenzahlen festzustellen. Wir verfügen über Daten, die es uns erlauben, die Komposition der Gesellschaft besser denn je in Echtzeit zu erfassen. Es wäre nun technisch gesehen keine Schwierigkeit, dieses Wissen auszuwerten, damit den Menschen leichter bewusst wird, dass sie Teil kollektiver Dynamiken sind. Das geschieht auch bereits.

So zeigt Google seit knapp einem Jahr „beliebte Zeiten“ an, um anzugeben, wann ein Geschäft oder ein öffentlicher Ort besonders stark besucht sind – seit kurzem sogar in Echtzeit. Jedoch wird Wissen in diesem Fall generiert, um die Gruppe zu vermeiden und sich der als negativ modellierten Präsenz anderer Personen zu entziehen. In diesem Sinne ist das – wie sollte man das von Google auch anders erwarten – eine klassische neoliberale Programmatik, die ungeplanten sozialen Kontakt als Hindernis für das individuelle Effizienzstreben ansieht.

Algorithmen, die wir wollen

Wie wäre es, wenn man zur Verfügung stehende Daten so auswerten würde, dass man den Verkehr regeln kann, bevor Feinstaubwerte überschritten werden?

Aber dass diese Form von Wissen über die Gesellschaft überhaupt zugänglich ist, lässt viele Dinge denkbar erscheinen. Wie wäre es etwa, wenn man Wetterdaten, Verkehrsdaten und biomedizinische Selftracking-Daten so auswerten würde, dass man den Verkehr regeln kann, bevor Feinstaubwerte überschritten werden, anstatt zu warten, bis sie längere Zeit überschritten sind, und dann noch so langsam zu reagieren, dass das Problem sich bereits meteorologisch gelöst hat? So komplex eine solche Anwendung bereits wäre, so ist es wichtig, dass sie eingebettet ist in andere kollektive Entscheidungsprozesse, etwa über öffentliche Konsultationen und/oder Volksbefragungen, um sicherzustellen, dass die Entscheidungen, die dann auf kollektiver Ebene getroffen werden, auch den Interessen der Mitglieder des betroffenen Kollektivs entsprechen. Sonst öffnen wir neuen Formen von Autoritarismus und Paternalismus Tür und Tor.

Viele weitere Anwendungen ließen sich ausmalen. Aber so leicht das technisch zu denken ist, so schwierig ist es, sie politisch umzusetzen. Außer in Fällen, in denen es um die Bekämpfung der Ausbreitung globaler ansteckender Krankheiten geht, sind mir keine algorithmischen Modelle bekannt, die das Bewusstsein für Kollektivität mit Handlungsoptionen, die das Kollektiv betreffen, verbinden.

Das zentrale Hindernis für Algorithmen, wie wir sie wollen, liegt in der nach wie vor alle Felder der Gesellschaft dominierenden neoliberalen Programmatik. Die ist aber, nach Brexit und Trump, schwer angeschlagen. Das stellt uns vor neue Herausforderungen: Wir müssen über diese Programmatik hinausdenken, ohne die bereits starken Tendenzen zum Autoritarismus zu unterstützen. Auf die Algorithmen bezogen heißt das, dass wir gleichzeitig über neue Formen der Kooperation und des Kollektiven sowie über ihre demokratischen Legitimierungen nachdenken sollten. (reblogged von https://netzpolitik.org/2017/algorithmen-die-wir-brauchen/)

+unter der Lizenz Creative Commons BY-NC-SA 4.0.

02/28/17

Nachruf: Armin Medosch

27.02.2017

Felix Stalder

Dieser Nachruf auf Armin Medosch wurde von Felix Stalder für Netzpolitik.org geschrieben.

Armin Medosch (*1962) ist gestorben. Wir haben einen der Pioniere der Netzkultur in Europa verloren, dessen Einfluss präsenter war als sein Name. Wie viele andere Akteure der ersten Stunden passte sein Wirken in keine Schublade. In den späten 1980er Jahren begann er als Medienkünstler in Graz und Wien. Damals, vor dem Internet, war Radio das zugänglichste und offenste Massenmedium, mit dem er im Rahmen des Projekts „Radio Subcom“ zu experimentieren begann, das im neu eingerichteten ORF Kunstradio ausgestrahlt wurde. Dem Radio als Medium, welches Experimente zulässt aber auch viele Menschen erreichen kann, blieb er als Journalist und Künstler bis zuletzt verbunden. Denn er hat Kunst nie als etwas Elitäres verstanden, sondern immer als etwas, das die zentralen Fragen der Gegenwart verhandeln und auch zu einer erweiterten Öffentlichkeit sprechen soll.

Die frühen 1990er Jahre in Europa waren eine Zeit des radikalen Umbruchs und der Utopien. Der Fall der Mauer, die Öffnung des Ostens und das langsame Aufkommen des Internets veränderten die Wahrnehmung von Raum, Zeit und Möglichkeiten tiefgreifend. Neue Geographien und neue Handlungsfelder taten sich auf. Der Markt war nirgends zu sehen, die spärlichen Konsumangebote (Shops im Osten, AOL, Compuserve online) waren nicht der Rede wert und wer was machen wollte, der musste (und konnte!) es selbst tun. Im digitalen Europa brach die Zeit der digitalen Städte (Amsterdam, Berlin, Wien etc) an, und mit ihnen die ersten Versuche, das Internet einer bewusst europäischen Perspektive zu entwerfen, weit weg von der „Frontier“ Mystik des US-Amerikanischen Cyberspace.

Eines der ungewöhnlichsten Projekte dieser Zeit, das alle diese Dinge und noch viel mehr miteinander verband, war das »stubnitz kunst.raum.schiff«. Das 80 Meter lange Schiff war Teil der Hochseefischfangflotte der DDR und hätte 1992 verschrottet werden sollen. Als Teil einer internationalen Künstlergruppe hatte Armin wesentlichen Anteil daran, dass das Schiff zu einem Produktions- und Präsentationsort für Kunst und Kultur umgebaut wurde. Ein schwimmendes Medienlabor und Ausstellungszentrum mit Satellitenverbindung für Fernsehen und Internet, Performanceräumen, mit einer zum Konferenzraum umgebauten Offiziersmesse. 1994 wurden die Häfen von Petersburg, Malmö, und Hamburg angefahren mit einem umfassenden Programm von Konferenzen, Seminaren, Ausstellungen, Workshops, Konzerten. Wie das Netzwerk Medienkunst schreibt: „Mit der Stubnitz verband sich die Vision von kulturellen Begegnungen in Europa, die nationale, territoriale Grenzen ignorieren können und die Offenheit und Freiheit der Meere zur Metapher erheben.“

Aber Kunstraumschiffe leben nicht lange. Wieder an Land übernahm er die Leitung des neugegründeten Medienlabors in München. Daraus entstand das Projekt Telepolis, eine Ausstellung zur „interaktiven“ (heute würde man sagen „smarten“) Stadt, die in Luxemburg, der Kulturhauptstadt 1995, stattfand. Aus diesem Projekt ging das Online-Magazin Telepolis hervor, welches er gemeinsam mit Florian Rötzer gründete und als dessen Redakteur er von 1996 – 2002 arbeitete. Auch das war echte Pionierarbeit. 1996 nutzten gerade mal 3% der Deutschen das Internet, es gab keine Blogs, sozialen Medien oder ähnliches. Telepolis war eines der ersten, wenn nicht das allererste, reine online Medium eines großen deutschen Verlags, Heise. Unter der fähigen Leitung der Redaktion kam rasch ein großes Netz an freien AutorInnen zusammen, die sich aus etablierten Namen, wie etwa Stanislav Lem wie auch – vor allem durch Armin vermittelt — vielen jungen Autoren, die das Internet aus eigener Anschauung kannten. Mir persönlich, damals Student in Kanada, gab er erste Gelegenheiten zu publizieren.

In den ersten Jahren des Bestehens wurde Telepolis zum zentralen Medium eines experimentellen, politischen und weitblickenden Netzdiskurs und schlug wichtige Brücken zwischen der Netzkultur im engeren Sinn und einer größeren Öffentlichkeit. Von dieser Leistung profitiert der Netzdiskurs in Deutschland bis heute. Während sich das Internet langsam zu etablieren begann, blieb Armin fokussiert auf das Neue und das Experimentelle. Davon zeugen nicht zuletzt zwei Bücher die er im Heise-Verlag publizierte: Netzpiraten. Die Kultur des elektronischen Verbrechens (2001) (gemeinsam mit Janko Röttgers) und Freie Netze (2003).

Wie vieles was Armin tat, waren die Themen dieser Bücher ihrer Zeit voraus. Nicht nur im deutschsprachigen Kontext. Nach Jahren des Journalismus zog es ihn wieder stärker in die Kunst, die er aber nie als Alternative zum gesellschaftlichen Engagement verstand, sondern immer als eine andere Form davon. Die Spartentrennungen, die heute wieder so stark gemacht werden, zwischen Technologie und Politik, Kunst und Theorie haben ihn nie interessiert. Mit der ihm eigenen Vehemenz hat er eine Position vertreten, die diese Ebenen gleichzeitig artikulierte und entsprechend auch immer wieder unbequem aneckte.

In den Jahren nach Telepolis folgten einen Vielzahl von kuratorischen Ausstellungsprojekten, etwa mit dem Medienkunstzentrum RIXC in Riga, die theoretisch immer anspruchsvoller wurden. Daraus ergab ein verstärktes Interesse am Zusammenhang zwischen großen gesellschaftlichen Transformationen und den spezifischen Möglichkeiten der Kunst und Kultur, darauf einzuwirken, beziehungsweise diese ins Bewusstsein zu bringen. Wissenschaftlich fundiert wurde das Ganze während eines Ph.D. (Goldsmith, London) und mündete in das Buch New Tendencies: Art at the Threshold of the Information Revolution (1961-1978) (MIT Press, 2016), das die überraschenden Anfänge der Medienkunst als Reflexion des Endes der Industriegesellschaft nachzeichnet.

Einigen dürften während der Transmediale im Januar auf Armins Krankheit aufmerksam geworden sein. Dort konnte er sein sein letztes großes Projekt Technopolitics, bei dem wir auch wieder intensiv zusammengearbeitet haben, schon nicht mehr persönlich präsentieren, sondern nur noch via Stream im Krankenbett verfolgen. Technopolitics – wie alle seine Projekte – war kollaborativ, transdisziplinär angelegt, als Versuch, der Orientierungslosigkeit der Gegenwart, eine vertiefte Beschäftigung mit historischen Prozesse und der persönlichen Verstricktheit darin entgegen zusetzen.

Mit Armin Medosch verlieren wir einen Pioneer der Netzkultur, der sich nie um disziplinäre, institutionelle und soziale Grenzen scherte. In einer Zeit, in der sich Welten auseinander bewegen, in der die Tendenz sich vor der chaotischen Welt in die eigene Nische zurück zu ziehen, immer stärker wird, sollte uns dies Ansporn sein, Brücken zu bauen, offen zu denken, das Neue mit Lust und Kritik zu fördern und radikal zu handeln.

(Reblogged von https://netzpolitik.org/2017/nachruf-armin-medosch/)

01/12/17

Rezension Felix Stalder: Kultur, Digitalität & Entmündigung

Stalder, Felix: Kultur der Digitalität. Suhrkamp Verlag (edition suhrkamp, Bd.2679), Berlin 2016, 283 S., 18,00 Euro, ISBN 978-3-518-12679-0.

Thomas Barth

Felix Stalder ist ein Schweizer Kulturphilosoph, der sich in seinem Buch „Kultur der Digitalität“ mit der Ko-Evolution von digitalen Technologien, Gesellschaft und Kultur befasst. Er warnt darin unter Berufung auch auf Edward Snowden und Julian Assange vor einer schleichenden Entmündigung, die auf uferlose Überwachung und technokratische Massenmanipulation setzt.

Stalders interdisziplinärer Ansatz verbindet philosophisches Denken mit Soziologie, Medien- und Politikwissenschaft, um Digital- und Internetkultur zu analysieren und das utopische Potential digitaler Commons mit ihren Open-Source-Projekten zu beleuchten. Er blickt dabei auch auf dunkle Wurzeln und Gefahren der Digitalität, die er vor allem in Neoliberalismus, Profitorientierung und bei westlichen (!) Geheimdiensten lokalisiert; dies überrascht, denn sonst kreisen westliche Diskurse über Manipulationen im Internet eher um russische und chinesische Geheimdienste. Stalder warnt vor Gefahren von Algorithmisierung, Überwachung und massenmanipulativer Post-Demokratie, zieht jedoch letztlich ein optimistisches Fazit. Die Commons zeigen trotz heutiger Dominanz der Technokraten mit ihrer neoliberalen TINA-Ideologie („There is no alternative“, Thatcher/Merkel S.206) einen offenen „Raum der Zukunft“ (S.281).

Stalder entwirft ein facettenreiches Bild der digitalen Kultur, die geprägt sei von Fluidität, Vernetzung und stetigem Wandel, bei dem sich unser Verständnis von Raum, Zeit, Identität und Macht grundlegend veränderte. Er stellt die These auf, dass die Digitalität sich nicht in technologischer Innovationen erschöpft, sondern durch neue Formen der Selbstorganisation, des politischen Engagements und der kulturellen Produktion geprägt ist. Katalysator ist dabei das Internet als Medium mit spezifischen Formen des Austauschs. Drei zentrale Formen der Kultur der Digitalität sind die Referentialität (kulturelles Material wird ubiquitär zugänglich und fließt in ein explodierende Produktion von Kulturgütern), die Gemeinschaftlichkeit (kulturelle Ressourcen werden geteilt und Bedeutungen durch stetige Kommunikation stabilisiert) und die Algorithmizität (die Informationsflut wird digital geordnet, aber ebenso werden Gesellschaft und Politik technokratisch entpolitisiert).

Kooperation und der Begriff der Digitalität

Zentrales Anliegen Stalders sind Potenziale der Digitalität für eine demokratische und partizipative Gesellschaft. Er plädiert dafür, bestehende Hierarchien aufzubrechen und neue Formen der Kooperation zu ermöglichen -vor allem in digitalen Commons, deren Wurzeln er in der Open Source und Open Software-Bewegung schon der frühen Internet Communities sieht, etwa den Debian-, GNU- und Linux-Projekten. Darin zeige sich eine digital möglich gewordene Neuverhandlung von gesellschaftlichen Werten und Normen im digitalen Zeitalter: Anstelle staatlicher Hierarchien und Profitorientierung der Konzerne trete die freie Kommunikation der Netze, die auf Meritokratie und Freiwilligkeit basiere.

Stalder definiert den Begriff der Digitalität als eine kulturelle Struktur, die sich durch die Veränderung von Wissen, Macht und Kommunikation in der digitalen Ära auszeichne. Digitale Technologien haben zwar einen tiefgreifenden Einfluss auf verschiedene Aspekte unseres Lebens, vom individuellen Verhalten über soziale Interaktionen bis hin zur politischen Organisation.

Laut Stalder ist Digitalität jedoch keineswegs nur eine technologische Entwicklung, sondern vielmehr eine komplexe kulturelle Dynamik, die unsere Vorstellungen von Wahrheit, Realität und Identität in Frage stellt. Er reklamiert eine „im weitesten Sinne poststrukturalistische Perspektive“, Kultur sei heterogen, hybrid und „von konkurrierenden Machtansprüchen und Machtdispositiven durchzogen“, von „Begehren, Wünschen und Zwängen“ getrieben, Kultur mobilisiere diverse Ressourcen in der Konstituierung von Bedeutung (S.17).

„’Digitalität‘ bezeichnet damit jenes Set von Relationen, das heute auf Basis der Infrastruktur digitaler Netzwerke in Produktion, Nutzung und Transformation materieller und immaterieller Güter sowie der Konstitution und Koordination persönlichen und kollektiven Handelns realisiert wird.“ (S.18)

Damit solle jedoch nicht Digitaltechnik ins Zentrum gerückt oder Digitales von Analogem abgegrenzt werden. Analoges würde nicht verschwinden, sondern „neu- und teilweise sogar aufgewertet“. „Digitalität“ verweise vielmehr auf historisch neue Möglichkeiten der Konstitution und Verknüpfung von Akteuren (menschlichen wie nichtmenschlichen):

„Der Begriff ist mithin nicht auf digitale Medien begrenzt, sondern taucht als relationales Muster überall auf und verändert den Raum der Möglichkeiten vieler Materialien und Akteure.“ (S.18)

Stalder knüpft an den Begriff des „Post-Digitalen“ von Florian Cramer an, der damit Praktiken bezeichnet, die sich zwar in Digitalmedien entwickelten, deren offene Interaktionsform sich jedoch immer weiter verbreite. Stalders Begriff der Digitalität vermeide jedoch das missverständliche Präfix „Post-“, das fälschlich so gelesen werden könne, dass „etwas vorbei sei“, und löse sich zugleich von Cramers technikfixiertem Kontext der Medienkunst. Stalder nimmt in diesem Sinne die ganze Gesellschaft in den Blick, denn „…die Präsenz der Digitalität jenseits der digitalen Medien, verleiht der Kultur der Digitalität ihre Dominanz.“ (S.20)

Nicht technologische Entwicklungen allein hätten der Digitalität den Weg gebahnt, sondern auch Politik, Kultur und Ökonomie. Wichtig erscheinen Stalder insbesondere der Aufstieg der Wissensökonomie und der Kritik an Heteronormativität und Postkolonialismus. Die Wissensökonomie habe seit den 1960ern explizit den wachsenden Informations- und Wissensbedarf von Behörden und Konzernen in westlichen Konsumgesellschaften thematisiert. Dazu gehöre die Massenmanipulation durch immer ausgefeiltere Werbung, Propaganda und PR, die der Freud-Neffe Edward Bernays maßgeblich entwickelte:

„Kommunikation wurde zu einem strategischen Feld für unternehmerische und politische Auseinandersetzungen und die Massenmedien zum Ort der Handlung… Eine Medienindustrie im modernen Sinne entstand, die mit dem rasch wachsenden Markt für Werbung expandierte.“ (S.29f.)

Man sprach in den 1980ern und 90ern von „Informations-“ und später „Netzwerkgesellschaften“, in denen -neben der Digitalisierung- eine Flexibilisierung der Arbeit mit neoliberalem Abbau der Sozialstaaten einherging. Der Freiheitsbegriff wurde dabei von neoliberaler Politik und den seit den 1960ern wachsenden „Neuen Sozialen Bewegungen“ konträr definiert: Neoliberal als Freiheit der Märkte, sozial als persönliche Freiheit von gesellschaftlichen Zwängen (S.33). Exemplarisch für Letzteres behandelt Stalder die Schwulenbewegung in Westdeutschland, Rosa von Praunheim, den Bonner Tuntenstreit 1974, die Aids-Krise ab 1983. Diversität und Hybridisierung der Kultur der Digitalität wurzele in emanzipativen Bewegungen, deren Erfolg sich spätestens 2014 beim European Song Contest in der breiten Öffentlichkeit manifestierte -mit der Stalder seine Abhandlung eingeleitet hatte: „Conchita Wurst, die glamouröse Diva mit Bart, war die Gewinnerin“ (S.7), sie habe komplexe Geschlechterkonstruktionen „zumindest ansatzweise mainstreamfähig“ gemacht (S.48):

„Conchita Wurst, die bärtige Diva, ist nicht zwischen widerstreitenden Polen zerrissen. Sie repräsentiert vielmehr eine gelungene Synthese, etwas Neues, in sich Stimmiges, das sich gerade dadurch auszeichnet, dass die Elemente der alten Ordnung (Mann/Frau) sichtbar sind und zugleich transzendiert werden.“ (S.99)

Schattenseiten: Algorithmizität und Post-Demokratie

Die Digitalität ermöglicht laut Stalder neben hybrider Diversität auch neue Formen der Partizipation und Vernetzung, die zur Demokratisierung von Wissen und Kommunikation führen können. Gleichzeitig birgt Digitalität aber auch Risiken, wie die Manipulation durch Algorithmen, Filterblasen und Desinformation. Zugleich seien Algorithmen jedoch prinzipiell unabdingbar, um in einer diversen und hybriden Explosion der Kultur mit ihrer wachsenden Unordnung orientiert zu bleiben. Ohne Suchmaschinen etwa könne heute kein Archiv mehr die digitalen Datenmassen, Texte und Kulturprodukte bewältigen.

Algorithmen automatisieren Kulturtechniken wie die Inhaltsanalyse von Bildern oder das Schreiben von Texten: Der Chef der Firma „Narrative Science“, die automatisierte Sport- und Finanzberichterstattung anbietet, habe 2012 für die nächsten Dekaden eine Ersetzung von neunzig Prozent der Journalisten durch Computer angekündigt. Bedenklich sei, „dass sich auch die CIA für Narrative Science interessiert und über ihre Beteiligungsgesellschaft In-Q-Tel in das Unternehmen investiert hat, ist ein Hinweis darauf, dass bereits heute Anwendungen jenseits des Journalismus entwickelt werden. Zu Propagandazwecken lassen sich mit Algorithmen beispielsweise problemlos massenhaft Einträge in Onlineforen und den sozialen Massenmedien erstellen.“ (S.175)

Dynamische Algorithmen können sich sogar halbautomatisch-eigenständig weiterentwickeln: 2012 habe Google mit solchen „deep learning“-Verfahren die „Gesichtserkennung in unstrukturierten Bildern“ um siebzig Prozent verbessert (S.180). In ausufernder Überwachung greife heute ein „Daten-Behaviorismus“ nach unserer Privatheit, in einem „Revival eines nach wie vor mechanistischen, reduktionistischen und autoritären Ansatzes“. Diese Haltung ungehemmter Kontrolle unseres Verhaltens finde sich bei jenen, die über umfassende Beobachtungsmöglichkeiten verfügen, „dazu gehören neben Facebook und Google auch die Geheimdienste westlicher Länder“ (S.201). Dabei ginge es neben der gern genannten „Serviceverbesserung“ aber auch um soziale Normierung sowie „Profit- oder Überwachungsoptimierung“ (S.202). Anders als viele deutsche Medienwissenschaftler, die an dieser Stelle der Analyse krampfhaft mit den Fingern auf „russische Trolle“ und den chinesischen Überwachungsstaat zeigen, beweist der Schweizer Felix Stalder Rückgrat und kritisiert die eigenen, die westlichen Machteliten (was besagte Kollegen wohl eher nicht aufgreifen dürften).

Assange, Snowden und Entmündigung im libertären Paternalismus

2013 habe, so Stalder, Edward Snowden die „flächendeckende Überwachung des Internets durch staatliche Geheimdienste“ enthüllt (S.233). Felix Stalder zitiert den Wikileaks-Gründer Julian Assange und resümiert: „Die Grenzen zwischen postdemokratischen Massenmedien und staatlichen Nachrichtendiensten sind fließend. Wie inzwischen bekannt ist, bestehen zwischen beiden Bereichen personelle Kontinuitäten und inhaltliche Gemeinsamkeiten.“ (S.234) Die USA hätten seit 2011 z.B. „ein eigenes Programm zu sozialen Massenmedien mit dem Namen ‚Social Media in Strategic Communication‘. (…) seit 2009 vernetzt die Europäische Union im Rahmen des INDECT-Programms Universitäten und Sicherheitsorgane mit dem Ziel ‚Lösungen und Werkzeuge der automatisierten Gefahrenentdeckung zu entwickeln’… Überspitzt könnte man sagen, dass die Missachtung der Grundrechte mit der Qualität der so geschaffenen Dienstleistung ‚Sicherheit‘ legitimiert wird.“ (S.235f.)

Leider sei die Gegenwehr gegen eine in westlichen Gesellschaften so geschaffene soziale Atmosphäre der Angst gering geblieben. Hinter Überwachung und Massenmanipulation stehe in den heutigen Postdemokratien, die demokratische Politik durch technokratisches Gouvernance ersetzen, eine neoliberale Anti-Aufklärung. Obsolet sei heute für die Machteliten „…die aus der Zeit der Aufklärung stammende Annahme, der Mensch könne sich durch den Einsatz seiner Vernunft und die Ausbildung seiner moralischen Fähigkeiten verbessern und sich aus seiner Unmündigkeit durch Bildung und Reflexion selbst befreien.“ (S.227) Eine kybernetische Sicht sehe den Menschen als dressierbare Versuchsratte, die mit subtilen „Nudges“ (Schubsern) zu steuern sei, so Richard Thaler und Cass Sunstein.

Die beiden Neobehavioristen bezeichnen ihr System als „libertären Paternalismus“, der eine „freiheitlich Bevormundung“ anstrebe, was bei den Regierungschefs in Washington und London, Obama und Cameron, so viel Anklang fand, dass sie Thaler und Sunstein in ihre Teams holten (S.228f.). Besonders in den sozialen Massenmedien (also den „sozialen Medien“, Stalder benutzt diesen gängigen Begriff jedoch nicht), ließe sich die mediale Umgebung via Nudging manipulieren. Dies geschehe vor allem im Dienste einer Gruppe, die Stalder als „den inneren Kern des postdemokratischen Systems“ bezeichnet, „bestehend aus den Spitzen der Wirtschaft, der Politik und der Geheimdienste“ (S.230). Viele Mainstream-Konformisten dürften in dieser simplen und analytisch untadelig abgeleiteten politischen Erkenntnis bereits angebliche „Verschwörungstheorie“ oder sogar „-ideologie“ wittern. Denn medial und in der akademischen Forschung werden die von Stalder aufgezeigten Fakten und Zusammenhänge geradezu krampfhaft ignoriert. Es ist zu befürchten, dass genau diese krampfhafte Ignoranz künftig zumindest diese Teile von Stalders Buch betreffen wird. Machtstrukturen dieses Kalibers werden bislang selten öffentlich diskutiert und dies geschieht dann oft nur in künstlerisch verfremdeter Form, wie etwa bei Mark Lombardi.

Stalder ruft im Fazit dazu auf, die Dynamik der Digitalität kritisch zu reflektieren und sich aktiv mit den Auswirkungen digitaler Technologien auf unsere Gesellschaft auseinanderzusetzen. Indem wir die Chancen und Herausforderungen der Digitalität verstehen, können wir Freiheit und Autonomie im digitalen Raum bewahren und weiterentwickeln: Obwohl „die Postdemokratie das Politische selbst abschaffen und alles einer technokratischen Alternativlosigkeit unterordnen will“, beweise die Entwicklung der blühenden Commons das Gegenteil, meint Stalder und schließt sein Buch mit dem Verweis auf utopische Potentiale der Digitalität: „Diese Widersprüchlichkeit der Gegenwart öffnet den Raum der Zukunft.“ Ausbaufähig scheint an Stalders Argumentation die Subjektkonstitution im Netz, die mit der Konzentration auf Kommunizieren, Posten und Liken wohl noch nicht ausreichend erfasst ist, sowie deren Verknüpfung mit Foucaults Konzept des Panoptismus.

09/20/16

SNOWDEN – Kino Sondervorstellungen 22.9. 2016

Friedemann Ebelt

Spannung und Datenschutz: Oliver Stones neuer Film „SNOWDEN“ kommt am 22. September 2016 in die deutschen Kinos und zeigt, dass Privatheit absolut kein langweiliges Anliegen ist.

Er war nun wahrlich kein Kritiker eines repressiven Staates: Edward Snowden war überzeugt, das Richtige zu tun, als er der National Security Agency (NSA) beitrat. Am 22. September 2016 startet der Kinofilm SNOWDEN in Deutschland, der erzählt, wie Edward Snowden vom Patrioten zum Helden wurde.

Zu argumentieren, dass Sie keine Privatsphäre brauchen, weil Sie nichts zu verbergen haben, ist so, als würden Sie sagen, dass Sie keine Freiheit der Meinungsäußerung brauchen, weil Sie nichts zu sagen haben. (Edward Snowden (siehe netzpolitik.org))

Edward Snowden will Gutes für sein Land tun und bietet seine Fähigkeiten zunächst als Soldat und dann als Mitarbeiter der NSA an. Aus dem Inneren des Geheimdienstes erhält er sodann Einblicke, die ihn erschüttern: Die NSA ist nicht nur im Ausland aktiv, sondern überwacht die eigenen Bürgerinnen und Bürger. Er wird selbst zum Täter, indem er diese Informationen freiweg nutzt und ausspielt, um einen Botschafter über den Umweg seiner Familie unter Druck zu setzen. Hier gelingt es Oliver Stone einfühlsam zu vermitteln, wie lebensnah es werden kann, wenn man zum Spielball eines Machtspiels wird, bei dem jemand ganz anderes das Angriffsziel ist.
Das stürzt ihn zunehmend in innere Konflikte, die ihn fürchten lassen, auch er oder seine progressive Freundin könnten z.B. über die Webcam ihres Rechners beobachtet werden. Und so versucht plötzlich der Patriot dem Freigeist zu erklären, warum sie eben doch etwas zu verbergen haben.

Der Film erzählt sehr einfühlsam die Geschichte von Edward Snowden, grandios gespielt von Joseph Gordon-Levitt, der nach und nach begreift, dass hier etwas gewaltig schief läuft. Er muss zusehen, wie Frauen sich vor ihren Laptops umziehen, ohne zu ahnen, dass sie beobachtet werden. Er ist Zeuge, als Erwachsene und Kinder in Afghanistan von Drohnen niedergeschossen werden, weil ein Datenauswertungsprogramm sagt, sie seien Terroristen. Snowden plant seinen Ausstieg und nimmt belastende Informationen über die Machenschaften der NSA mit.

Der Film ist packend und aufklärend zugleich. Er veranschaulicht die mächtigen Analysewerkzeuge der NSA und zeigt wie der amerikanische Geheimdienst sie systematisch missbraucht. Es ist Oliver Stone in diesem Film gelungen zu zeigen, wie aus einem normalen Mann mit Charakter ein Held wurde, der gar kein Held sein wollte und dennoch sein eigentlich sorgenfreies Leben aufgegeben hat, um seinem Gewissen zu folgen. (reblogged von https://digitalcourage.de/blog/2016/snowden-im-kino )

SNOWDEN ab 22. September 2016 im Kino Trailer ansehen
www.snowden-film.de
Ausführliche Filmkritik von Heise

05/28/15

WDR: Interaktiver Themenabend Überwachung

Am Donnerstag, 28. Mai veranstaltet der Westdeutsche Rundfunk einen interaktiven Themen-Abend zu digitaler Überwachung. Die Whistleblower Edward Snowden und Julian Assange werden live zugeschaltet und Zuschauer.innen können sich über das Internet beteiligen.

Johanna Springhorn 27.05.2015

Am Donnerstag, 28. Mai hat der Westdeutsche Rundfungk einen „interaktiven Überwachungsabend“ im Programm: Überwachung und Bespitzelung findet täglich durch Geheimdienste und Konzerne statt. Aber was bedeutet diese ständige Überwachung für den einzelnen Menschen?

Supernerds im Theater, Radio und TV

Unter dem Namen „Supernerds“ bringt die Kölner Regisseurin Angela Richter ein Theaterstück über Enthüllung und digitale Überwachung auf die Bühne, das an diesem Abend Premiere feiert. Parallel wird in einem WDR-Studio nebenan eine Livesendung mit Bettina Böttinger stattfinden, die auf das Theaterstück Bezug nimmt. Fernsehen und Theater sollen gegenseitig aufeinander reagieren. Außerdem sendet das WDR3 Radio live mit Max von Malotki von der Bühne des Theaterstücks.

Zuschauer.innen erleben Folgen von Überwachung

Zuschauerinnen und Zuschauer werden in das Geschehen auf der Theaterbühne eingebunden: „Wir fordern die Zuschauer auf, ihre eigenen Daten preiszugeben“, sagte eine Sprecherin. Durch die Preisgabe ihrer Daten können Sie erfahren, wie angreifbar Menschen werden, wenn Sie bestimmte Details von sich zu veröffentlichen. Wer sich auf das Experiment einlassen möchte, kann sich im Vorfeld auf www.supernerds.tv anmelden und persönliche Daten wie Geburtstage und Mobilfunknummern angeben. Und auch während der Show wird Interaktion im Stück möglich sein.

Live: Edward Snowden und Julian Assange

Die Supernerds-Regissuerin Angela Richter hat Snowden, Assange und weitere Enthüller im Vorfeld getroffen und mit ihnen Interviews zur alltäglichen Überwachung geführt. Im Rahmen des Supernerds-Abends sollen sowohl Snowden als auch Assange live zugeschaltet werden.

Digitale Dissidenten – Die Dokumentation

Im Anschluss an die Live-Übertragung des Theaterstücks SUPERNERDS zeigt das WDR-Fernsehen um 22:15 Uhr die 90-minütige Hintergrund-Dokumentation „Digitale Dissidenten“. Der Film fragt nach der Motivation und den Schicksalen von Whistleblower.innen, Hacker.innen und Aktivist.innen, u.a. mit Edward Snowden, Julian Assange, Daniel Ellsberg, Thomas Drake und William Binney.

Weitere Vorstellungen des Theaterstücks Supernerds

Das Theaterstück Supernerds wird elf weitere Male auf der Bühne aufgeführt. Live ist die Veranstaltung jeweils im WDR-Fernsehen und auf www.supernerds.tv im Stream zu sehen. Auch hier ist die Beteiligung von Zuschauer.innen eingeplant.

(reblogged von https://digitalcourage.de/blog/2015/interaktiver-themenabend-zu-ueberwachung-im-wdr)

Weiterführende Links

02/3/15

Zivilgesellschaft & digitaler Ungehorsam

In einem aktuellen Beitrag beschäftigen sich Heinz Kleger und Eric Makswitat von der Universität Potsdam mit dem Thema Datenschutz in Europa. Im Gegensatz zu Anthony Dworkins richten sie ihren Fokus nicht auf die Politik, sondern auf Aktionen von der Zivilgesellschaft.

Theresa Kruse 25.02.2015

So merkwürdig es scheint: Die meisten Akteure aus dem NGO-Sektor und die vielen zivilgesellschaftlichen Aktivisten mit ihrem kritischen Bürgersinn, finden zwar nicht gut, was gerade so datenmäßig und überwachungstechnisch alles passiert – aber sie haben weder ein gesteigertes Interesse an ihrem eigenen Schutz, noch setzen sie sich für grundlegende Reformen ein. Stellvertretend für ‚die Zivilgesellschaft‘ kann man vielleicht das Bürgernetzwerk Bürgerschaftliches Engagement nennen, in dem sich große Teile der organisierten deutschen Zivilgesellschaft zusammengeschlossen haben. Hier sucht man vergeblich nach Ideen, was Snowdens Enthüllungen für die deutsche Zivilgesellschaft und für das bürgerschaftliche Engagement in unserem Land bedeuten.

Selbst internationale Demokratie-Aktivisten, die von Überwachung bedroht sind, nutzen nicht automatisch Sicherheits-Tools. Sehr selten reflektieren sie über ihren persönlichen Schutz hinaus die politische Bedeutung und was das Recht auf Privatheit in ihren Konzeptionen von Demokratie und Menschenrechten zu suchen hat.

Bleiben die Aktions- und Beteiligungsformen abseits der formalen Strukturen der Zivilgesellschaft. Hier kreisen mehr und mehr informelle Gruppen und oft künstlerische Akteure um die Fragen Überwachung, Selbstbestimmung, Privatheit und Sicherheit. Heinz Kleger und Eric Makswitat von der Universität Potsdam untersuchen den zivilen Ungehorsam als Handlungsfeld des digitalen Aktivismus.

Handlungen, die im Sinne des guten Ziels als legitim angesehen werden, gehören seit jeher zum digitalen Aktivismus – auch wenn sie illegal sind. Die Autoren diagnostizieren, dass das qualitativ Neue am digitalen zivilen Ungehorsam ist, dass dieser um „Sichtbarmachung und Thematisierung“ kreist. Dieser Ungehorsam speise sich nicht so sehr aus einer protestbereiten Öffentlichkeit, sondern schaffe diese erst einmal, um den Mangel an öffentlichem Bewusstsein und Information auszugleichen.

Ist das der politikwissenschaftliche Ritterschlag für Anonymous? Mitnichten, denn gerade bei deren Aktionen sehen Kleger und Maskwitat die legitimen Grenzen des zivilen Ungehorsames oft überschritten. Im Unterschied zu analogen Sitzblockaden, mit denen man Distributed Denial of Service-Attacken am ehesten vergleichen könnte, seien die Folgen der Ausschaltung großer und wichtiger Dienste im Internet jedoch wesentlich weniger kalkulierbar. Zu viele Unbeteiligte seien betroffen: „Die Folgenverantwortung, die zur politischen Ethik gehört, ist nicht im Blick“, schreiben sie. Kritisch sehen die Autoren auch, wenn Aktivisten „nicht nur informieren, sondern ihre vermeintlichen Gegner auch bestrafen“. Selbstjustiz sei aber gerade kein legitimes Ziel demokratischen Aktivismus. Ebenso widersprächen „die Züge des Klandestinen und Konspirativen den Kriterien des zivilen Ungehorsames.“

Unstrittig ist für die beiden Autoren, dass Edward Snowdens Aktionen zum zivilen Ungehorsam gehören. Im Gegensatz zu Julian Assanges Ohne-Rücksicht-auf-Verluste-Strategie der Veröffentlichung kritischer Informationen (Anm. Netzphil: inzwischen ist bekannt, dass dieser falsche Vorwurf gegen Assange von genau jenen Guardian-Journalisten verbreitet wurde, die für die fahrlässige Publikation des Passwortes verantwortlich waren, mit dem die wegen der Verfolgung durch NSA, CIA, FBI usw. verschlüsselten und global verteilten Wikileaks-Dateien weltweit lesbar wurden; Geheimdienste und willige Medien griffen die Verleumdung jahrelang begierig auf, um Stimmung gegen Wikileaks zu machen; Assange hat diese Beschuldigungen zurückgewiesen, ihm wurde niemals entsprechendes Fehlverhalten nachgewiesen) schätzen sie an Snowdens dosierter Herausgabe von Informationen das verantwortungsbewusste Bemühen um eine Begrenzung des möglichen Schadens, weil er eine qualitative journalistische Aufarbeitung ermöglicht.

Letztlich sei die richtige und legitime Strategie in der Demokratie aber die Mehrheiten zu bilden. Ungehorsam könne da nur die Ausnahme bleiben und ist im Sinne einer „Zivilität des Ungehorsams“ an Kriterien wie die immaterielle und materielle Abwägung der Folgen, Zielgerichtetheit, Friedlichkeit und die Relation des Handelns zu höheren verfassungsmäßigen Werten gebunden.

Das Schweigen der organisierten Zivilgesellschaft

Dworkins auf der einen sowie Kleger und Makswitat auf der anderen Seite behandeln die zwei entgegengesetzten Richtungen des politischen Handlungsspektrums. Hier die Sphäre der supranationalen Verhandlung, der Advocacy und des juristischen Kampfs auf europäischer Ebene, dort der Aktivismus einzelner oder loser Gruppen.

In Europa befindet man sich bei manchem politischen Vorhaben womöglich auch mit denen in einem Boot, die man wegen anderer Dinge bei den BigBrotherAwards prämiert. Das passiert etwa bei Fragen der Verschlüsselung oder Netzneutralität, mit Abstrichen auch bei Urheberrechtsfragen. Bei anderem wie den Big-Data-Regulierungen bleibt man Gegner. Hier muss man Pragmatismus wagen, ohne die Glaubwürdigkeit der digitalen Advocates zu unterlaufen.

Der digitale Aktivismus hat eine spezifische Ausprägung des zivilen Ungehorsames hervorgebracht, der zum kulturellen Kern seiner Bewegung gehört. Er schafft es in einzelnen Fällen Aufmerksamkeit zu erregen und hat auch durchaus Sympathisanten unter Bürgern, in der Politik und in den Medien, die seine Aktivisten als Experten schätzen und in einer speziellen Weise als Hacker oder digitale Bohème heroisieren. Digitaler Ungehorsam kann aber aus demokratie-theoretischen Erwägungen nur ein Teil einer größeren politischen Strategie sein, muss die Ausnahme der Aktionsformen darstellen und Standards genügen, die ihn zivil und demokratisch machen.

Wirksame Bewegungen haben funktionale Lösungen gefunden, wie sie in solch unterschiedlichen Sphären handlungsfähig sein können und die sich ergebenden Dilemmata verhandeln. Insofern kommt Organisationen wie Digitalcourage, aber auch Netzwerkveranstaltungen wie dem CCC oder sektorenübergreifenden Foren des Austauschs und der Kooperation eine wichtige intermediäre Funktion zu.

(reblogged von https://digitalcourage.de/blog/zivilgesellschaft-und-digitaler-ungehorsam)

Weiterführende Links

12/5/14

Uralte Stereotype: Hacker, Nerds, Computerfreaks

Thomas Barth

Als im Wahlkampf 2012 SPIEGEL-Schreiber Mathias Matussek mit seinem Pamphlet „Das maschinenhafte Menschenbild der Piraten“ gegen die neue Netzpartei trommeln wollte, ahnte er wohl nicht, dass er sich damit in eine lange Tradition stellte: Das Stigmatisieren der Netzkultur. Er stellte sich damit gegen neue Ansätze zur Vermeidung einer drohenden totalen Überwachung, welche mit ausuferndem Lobbyismus und Korruption in Medien und Politik einhergeht.

Matussek bediente sich im Dienste Bertelsmanns für den „Spiegel“ eines der ältesten Stereotype gegen Computernutzer –wenn auch nur unbewusst bzw. nach Hörensagen, wie man angesichts seiner eher mäßigen Kenntnisse der Netzkultur wohl vermuten muss.

Der „Maschinelle Charakter“

1987 galt die Studie „Der maschinelle Charakter“ (in Anlehnung an Adornos „Studie zum Autoritären Charakter“) der führenden akademischen Experten Pflüger & Schurz als Stand der Forschung; darin wurde allen Ernstes behauptet, „übermäßige“ Computernutzung führe zu einem totalitären „Schwarz-Weiß-Denken“, quasi durch psychische Infektion mit der binären Null-Eins-Logik der neuen digitalen Medien. In meiner Diplomarbeit konnte ich 1990 signifikant nachweisen, dass die zugrunde gelegten Daten dürftig und zudem falsch interpretiert waren sowie dass Forschungsdesign und Theoriebasis desolat waren.

Warum das Inverse Panoptikum der Hackerkultur nicht verstanden wurde

1997 konnte ich in einer weiteren Studie aufzeigen, wie der „Maschinelle Charakter“ sich als Standardisierung und Normierung von Vorurteilen in eine Stigmatisierungs-Kampagne gegen die damals noch kleine Computer- und Netzkultur einfügte. An diese Stigmatisierung knüpfte 25 Jahre später Matusseks „Spiegel“-Pamphlet an. Der Netzbewohner, Hacker bzw. „Computerfreak“ war schon damals zur Projektionsfläche von Ängsten und Wünschen bezüglich der heranrollenden digitalen Medienkultur geworden, deshalb wurde er pathologisiert und kriminalisiert. Außerdem tobten bereits erste politische Kämpfe um den künftigen Cyberspace der Netze, für die ich damals zwei Hauptfelder prognostizierte:

  1. Strafrecht und Überwachungsstaat, der sich im Internet gegen Hacker richten würde, die nach Transparenz von Daten der Mächtigen strebten, frühe Vorläufer von Anonymous und WikiLeaks;
  2. Die ökonomische Erdrosselung der Netzkultur durch das Copyright, wenn der digitalen Kommunikation die Besitzmetaphorik der Warenwelt übergestülpt würde.

Als Lösungsansatz unterbreitete ich 1997 das Utopiemodell des „inversen Panoptikums“, das den Panoptismus moderner Gesellschaften (Foucault) vom Kopf auf die Füße stellt: Anstatt einer immer weiter ausgebauten Überwachung der vielen Machtlosen durch wenige Mächtige sollte umgekehrt die Transparenz der Mächtigen und der Datenschutz für die vielen zur Norm werden. Meine Studie „Soziale Kontrolle in der Informationsgesellschaft: Systemtheorie, Foucault und die Computerfreaks als Gegenmacht zum Panoptismus der Computer- und Multimedia-Kultur“ steht inzwischen in vielen Informatik-Fachbibliotheken, die Debatte des Panoptismus-Begriffes findet sich in vielen Beiträgen wieder. Im „Spiegel“ und anderen Mainstream-Medien weigert man sich aber verbissen, die neuen Wertvorstellungen der Netzkultur zur Kenntnis zu nehmen. So wird dort immer wieder der angebliche Widerspruch bei Netzaktivisten und Piraten gegeißelt, sie seien für Transparenz, aber wollen zugleich Anonymität im Netz.

„Spiegel“ geißelte „Traum totaler Herrschaftsfreiheit“

Mit dem im „Spiegel“ gegeißelten „Traum totaler Herrschaftsfreiheit“ hat das natürlich nichts zu tun. Das „inverse Panoptikum“ stellt lediglich ein Leitbild zur Vermeidung einer drohenden totalen Überwachung dar, die zudem mit ausuferndem Lobbyismus und Korruption in Medien und Politik einhergeht. Digitale Technologie konzentriert immer mehr Macht bei wenigen Überwachern: Macht durch Kontrolle über die Daten der Einzelnen und Macht über den Zugang der Einzelnen zu den Medien. In einer Demokratie können die vielen Machtlosen sich jedoch gegen die zunehmende Drangsalierung wehren. Die Dunkelmänner der Datenwelt haben das natürlich auch begriffen und schreien allerorten selbst laut nach Transparenz, meinen damit aber Kontrolle über Netznutzer, Kunden, Arbeitende.

Als Gegenmächte stehen der Netzkultur damit vor allem die Geheimdienste und die großen Medienkonzerne, sprich: die Verwerter, gegenüber. Der größte Verwerter in Europa heißt Bertelsmann, der Kampf um alte Pfründe, z.B. des Copyright auch in der neuen Netzkultur, steht für diese Machtgruppen an erster Stelle. Wer etwas Neues will, wird von diesen Machtgruppen angefeindet, schlechtgeredet, später vielleicht korrumpiert, infiltriert und gekauft. So ging es der SPD, als Medienkanzler (!) Schröder für seine „Agenda 2010“ sein Hartz IV-Konzept von der Bertelsmann-Stiftung schreiben, durch McKinsey (damals Bertelsmanns Unternehmensberater) umsetzen und von Bertelsmann-Medien beklatschen ließ. So ging es den Grünen, als sie sich die Bildungspolitik der Bertelsmann-Stiftung aufschwatzen ließen, das „Leuchtturm“-Gefasel, Privatisierung und Studiengebühren. Als Grüne nach jahrzehntelangem Kampf endlich auf EU-Ebene ein Chemikaliengesetz mit formulieren durften, hatten sie sich von neoliberalen Ideologen schon so sehr einlullen lassen, dass sie sich einen Chemielobbyisten unterschieben ließen, der dem Gesetz die Zähne zog. Auch bei den Grünen begann es mit einer medialen Mischung aus Lobhudelei und Verteufelung; Lobhudelei, denn ihre Anhänger sollten ja letztlich an der Nase im Kreis herum geführt werden; Verteufelung für jene, die das nicht mit sich machen lassen wollten.

Piraten als Nerds?

Die Piraten wurden in den Mainstream-Medien aus politischem Kalkül unter dem Stereotyp der Hacker-, Nerd- und Netzkultur stigmatisiert. Der größte Skandal scheint den sie anfeindenden Gegner aber zu sein, dass hier „computeraffine“ Menschen tatsächlich politisch sind. Sie sind eben nicht unpolitische Fachidioten wie die Nerds aus der US-Soap „The Big-Bang-Theory“. Verschiedenste Label werden ihnen aufgedrückt, was im Grunde jedoch nur eines zeigt: Sie dienen als Projektionsfläche für Hoffnungen und Ängste. Vor allem wohl der Hoffnung, sie mögen bei aller Computerkompetenz doch so dumm sein, dass sie wie geschmiert von der korrupten Mainstream-Medienwelt und -Politik assimiliert werden können.

Mathias Matussek hat mit seinem Pamphlet damals wohl den bislang aggressivsten Beitrag zur Medienkampagne gegen die Piraten geleistet und vielleicht sogar maßgeblich zu ihrem Abstieg nebst Selbstzerlegung beigetragen. Ihr Anliegen hat dies keinesfalls verdient, ihre (Netz-) Politik nur teilweise.

Zuerst erschienen bei InversePanopticon

12/5/14

Big Brother Awards: Positivpreis (2014) Edward Snowden

Laudator.in: Heribert Prantl

Erstmals vergeben wir einen Positiv-Award namens „Julia-und-Winston-Award“. Diesen Preis erhält der Whistleblower Edward Snowden für seine Verdienste um die Aufklärung der Machenschaften der Geheimdienste der „Big Five“ (USA, Großbritanien, Neuseeland, Australien, Neuseeland) und anderer Länder (Deutschland, Frankreich). Dies ist verbunden mit enormen persönlichem Einsatz, für den er seine eigene Freiheit zur Disposition gestellt hat. Den Preis dotieren wir mit 1.000.000 gedruckten Aufklebern, die wir kostenlos verteilen, um der Forderung nach Asyl und sicheren Aufenthalt für Edward Snowden in Deutschland Nachdruck zu verleihen.

In diesem Jahr verleihen wir zum ersten Mal einen Positivpreis. Der „Julia-und-Winston-Award“ wurde benannt nach den „rebellischen“ Hauptcharakteren aus George Orwells dystopischem Roman „1984“, aus dem auch der „Große Bruder“ stammt. Der Award soll Personen auszeichnen, die sich in besonderem Maße gegen Überwachung und Datensammelwut eingesetzt haben. Der Preis ist auf eine Million dotiert – allerdings nicht eine Million Euro.

Der Preisträger des ersten Julia-und-Winston-Award ist Edward Snowden.

In Berlin hat der Bundestag einen Untersuchungsausschuss eingesetzt, der den NSA-Skandal aufklären soll. Das Seltsame dabei ist, dass die Mehrheit im Ausschuß den nicht hören will, der den Skandal aufgedeckt hat. Die CDU/CSU redet über Snowden, als habe er eine ansteckende Krankheit. Und die SPD widerspricht kaum. Das ist grober Undank.

Der Mann habe doch schon alles gesagt, was er wisse, heißt es; man brauche ihn doch daher gar nicht mehr zu vernehmen. Das ist vorweggenommene Beweiswürdigung. Die ist im gesamten Recht verboten; im Deutschen Bundestag auch. Snowden ist ein zentrales Beweismittel, das weiß jeder. Der wahre Grund dafür, warum man Snowden nicht einmal einladen will, ist der: die Kanzlerin Angela Merkel fürchtet, dass dann die Amerikaner pikiert und unwirsch reagieren, wenn sie im Mai in die USA reist. Das ist nicht nur hasenherzig. In ihrem Amseid hat die Kanzlerin geschworen, Schaden vom deutschen Volk zu wenden. Schaden wenden – das heißt: etwas gegen den Schaden zu tun, den die NSA anrichtet. Stattdessen tut die Bundesregierung so, als sei Snowden und nicht die USA der Schädiger.

Edward Snowden ist ein Aufklärer. Er hat die globale US-Großinquisition aufgedeckt und musste fliehen vor dem Großinquisitor. Er hat persönlich keinerlei Vorteile von seiner Whistlerblowerei, er hat nur Nachteile. Den Gewinn hat die Rechtsstaatlichkeit der westlichen Demokratien, sie könnte ihn haben, wenn diese den globalen Skandal zum Anlass nehmen, ihren Geheimdiensten Grenzen zu setzen.

Snowden ist also nicht nur Aufklärer, er ist auch Motivator. Er hat etwas Besseres verdient als ein wackeliges, zeitlich begrenztes Asyl in Russland. Die Amerikaner verfolgen ihn, als handele es sich bei Snowden um die Reinkarnation von Bin Laden. Dabei ist er nur ein einzelner Flüchtling; er ist ein Flüchtling, wie er im Buche steht. Wie soll, wie muss Deutschland mit Edward Snowden umgehen? Vor allem dankbar! Snowden hat Schutz und Hilfe verdient. Er ist ein klassischer Flüchtling.

Man soll, man muss Edward Snowden einen stabilen Aufenthaltstitel für Deutschland geben. Man soll, man muss Edward Snowden freies Geleit gewähren. Das alles ist rechtlich möglich. Stattdessen tun die Politiker der großen Koalition so, als sei die Macht Amerikas in Deutschland rechtssetzend. Deutschland braucht Aufklärung über die umfassenden Lauschangriffe der USA. Aufklärung ist der Ausgang aus selbstverschuldeter Unmündigkeit.

Snowdens Handeln mag in den USA strafbar sein, weil er US-Gesetze verletzt hat; wirklich kriminell sind aber die Zustände und die Machenschaften, die er anprangert. Snowden hat gegen US-Geheimhaltungsvorschriften verstoßen. Ist er deswegen Landesverräter? Nein. Verräter nennen ihn die, die selbst die Grundrechte verraten haben. Snowden hat dem Rechtsstaat Nothilfe geleistet.

Das verdient Anerkennung durch Justiz und Staat, in Deutschland und in Amerika. Snowden hat sich verdient gemacht um die rechtsstaatliche Demokratie. Er hat eine Diskussion in Gang gesetzt, die hoffentlich dazu führt, dass sich der Rechtsstaat schützt vor den NSA-Angriffen, die ihn gefährden. Einen deutschen Orden braucht er nicht unbedingt; davon kann er nicht abbeißen. Aber er braucht Schutz und Hilfe.

„Unglücklich das Land, das keine Helden hat“, sagt Galileo Galileis Schüler Andrea Sarti im Theaterstück von Bert Brecht. Amerika kann sich also eigentlich glücklich schätzen, dass es einen Snowden hat. Galilei erwidert seinem Schüler Sarti wie folgt: „Nein. Unglücklich das Land, das Helden nötig hat“. Das stimmt auch.

Snowden ist ein Symbol für den zivilcouragierten Widerstand eines Einzelnen gegen ein mächtiges staatliches System. Er ist ein Winzlings-David, der gegen einen Super-Goliath aufgestanden ist. Snowden hat Widerstand geleistet und er tut das immer noch.

Widerstand ist ein Wort, das man mit dem Aufbegehren gegen ein diktatorisches Regime verbindet. Widerstand ist aber auch in der Demokratie, auch im Rechtsstaat notwendig. Widerstand heißt in der Demokratie nur anders: Er heißt Widerspruch, Zivilcourage, aufrechter Gang oder auch einfach – Edward Snowden.

Wenn Widerstand strafbar ist: Widerständler nehmen das in Kauf. Sie nehmen die Strafe oder die Mühen der Flucht in Kauf, um die Verhältnisse zu ändern, um Mißstände und Unrecht zu beseitigen.

Der verstorbene Rechtsphilosoph Arthur Kaufmann hat einmal vom Widerstand in der Demokratie als dem „kleinen Widerstand“ gesprochen. Dieser kleine Widerstand müsse geleistet werden „damit der große Widerstand entbehrlich bleibt“. Manchmal ist dieser angeblich kleine Widerstand aber ein ganz großer. So ist es bei Snowden. Sein Widerstand erfasst seine ganze physische und psychische Existenz.

Danke, Edward Snowden.

Digitalcourage wird eine Million Aufkleber mit dem Bild Edward Snowdens und der Forderung nach Asyl für Edward Snowden in ganz Deutschland verbreiten. Die Aufkleber können kostenlos im Digitalcourage-Shop bestellt werden. Wir rufen dazu auf, die Aufkleber zahlreich und gut sichtbar anzubringen, zu fotografieren und unsere Forderung mit dem Hashtag #Snowden sowie den Bestell-Link auch online zu verbreiten! (reblogged von https://bigbrotherawards.de/2014/edward-snowden)

Jahr 2014 Kategorie Julia-und-Winston-Award (Positivpreis)

08/19/13

Freiheit statt Angst – was bedeutet das eigentlich?

Freiheit Statt Angst am 11. Oktober 2008

Am 07. September werden wir in Berlin auf die Straße gehen, um gegen den Überwachungswahn zu demonstrieren. „Freiheit statt Angst!“ lautet das Motto, unter dem seit 2006 Großdemonstrationen in Berlin stattfinden. Im Rahmen der Mobilisierung, hat die Demo-Orga einen Blogwettbewerb gestartet. Ingo Kurpanek bewirbt sich mit folgendem Artikel:

Um sich der Frage zu nähern, was „Freiheit statt Angst“ bedeutet, muss zunächst einmal ganz grundsätzlich darauf eingegangen werden, wovon eigentlich die Rede ist, wenn in diesem Kontext von „Freiheit“ oder „Angst“ gesprochen wird. Der Einfachheit halber, fange ich hinten an — nämlich mit der Angst. Angst ist eine emotionale Qualität, die mit einer undifferenzierten Gefahr einhergeht. Im Gegensatz zu Furcht ist Angst nicht zielgerichtet.

Das ist ein wichtiger Unterschied, der hier sehr genau beleuchtet werden muss, um den Satz „Freiheit statt Angst“ besser verstehen zu können.

Ich bin in der Lage mich vor etwas zu fürchten. Zum Beispiel vor dem laut bellenden Hund meiner Nachbarn (hätten diese nicht nur einen kleinen Spaniel und wäre er tatsächlich laut, wäre er vermutlich wirklich zum Fürchten). Damit ist mein negativer Affekt auf ein Ziel, nämlich den Hund, gerichtet. Ich kann diesem Hund ausweichen, ihn bekämpfen oder vor ihm weglaufen. Furcht macht zielgerichtete Gegenmaßnahmen möglich.

Andererseits kann ich Angst in der Dunkelheit haben (nicht aber Furcht vor der Dunkelheit, gleichwohl es mir möglich wäre, sie mit einer Taschenlampe zu bekämpfen). Meine Angst in der Dunkelheit ist unbestimmt. Sie bezieht sich auf nichts Bestimmtes, sondern auf viele Möglichkeiten, die sich im Bereich der Dunkelheit bewegen könnten. Vielleicht lauern dort ja Monster? Verbrecher? Ein Loch im Boden, in das ich stürzen könnte, weil ich es nicht sehe? „Aber Moment, dann fürchtest du dich ja doch! Nämlich vor Monstern, Verbrechern oder Löchern im Boden!“ Das stimmt. Es zeigt aber auch: Angst ist ein undifferenziertes Gefühl, das mit einer nicht genau bestimmbaren aber immerhin möglichen Gefahr einhergeht.

Gegen solche Monster hilft auch keine Totalüberwachung

Der letzte Satz macht deutlich: Sowohl Furcht als auch Angst haben als Bezungspunkte eine Gefahr. Er macht ebenso deutlich: Angst haben ist von der Empfindungsqualität her deutlich schlimmer als sich vor etwas zu fürchten. Denn eine Person, die sich vor etwas fürchtet, kann gegen diese Gefahrenquelle aktiv werden. Sie kann die Gefahr bekämpfen oder sich vor ihr in Sicherheit bringen. Eine Person die Angst hat, hat diese Möglichkeit nicht. Sie ist ihr hilflos ausgeliefert, weil es keinen festen Bezugspunkt gibt, gegen den sie sich richten oder vor dem sie sich in Sicherheit bringen kann. Angst hat hier eine lähmende Wirkung. In der Dunkelheit würde ich nicht weglaufen, denn ich könnte in Löcher fallen — und gegen die unbekannten Monster Schattenboxen ist zwar eine Option — aber eine, die im Grunde nur eine Panikreaktion und damit reine Energieverschwendung wäre. Wenn Angst sich zu dieser kopflosen Panik aufgeschaukelt hat, kann sie schnell noch unkontrollierbarer und noch schwerer zu beherrschen sein, als sie es inhärent ohnehin schon ist.

Kommen wir zum zweiten Teil, der Freiheit. Auch hier ist wohl eine Gefühlsqualität gemeint (denn sonst könnten Freiheit und Angst hier nicht als Gegensatzpaar mit „statt“ verbunden sein). Hier ist nun die Frage: Wie fühlt sich Freiheit eigentlich an? Ist es einfach nur „das fehlen von Angst“? Nein, ich denke, das wäre zu kurz gegriffen. Das Gefühl der Freiheit lässt sich vermutlich am ehesten mit einem anderen Gefühl beschreiben: Unbeschwertheit. Dabei kann es keine absolute Freiheit geben, sondern nur eine relative in Bezug auf das jeweils grundlegende System. Ich will auch diesen Satz anhand von Beispielen erklären. Ich habe die Freiheit, diese Zeilen in einem Café sitzend zu schreiben. Das System lässt aber nicht zu, dass ich einfach ohne zu bezahlen gehe. Ebenfalls kann ich nicht in den nächsten Jet steigen und losfliegen — dazu fehlen mir sowohl die Kenntnisse als auch die Qualifikation. Meiner Freiheit sind somit, relativ weite, Grenzen gesetzt.

Kommen wir vom allgemeinen zum Speziellen. Natürlich ist mit dem Satz „Freiheit statt Angst“ keine strukturbedingte Einschränkung gemeint. Vielmehr bezieht er sich auf zwei andere — systeminterne — Bereiche, nämlich „Überwachung“ und „Terrorismus“. Auch hier will ich wieder hinten anfangen, nämlich beim Terrorismus. In der wissenschaftlichen Literatur gibt es mittlerweile über 120 verschiedene Definitionen von Terrorismus (mindestens eine davon von mir selbst ;-), von denen ich hier allerdings keine einzige anführen will. Vielmehr will ich auf die Wortbedeutung schauen. Denn es geht um die Verbreitung von Terror – und Terror bedeutet nichts anderes als „Angst“. Eine Person, die Terror verbreitet, hat also die Absicht anderen Menschen das oben beschriebene, undifferenzierte Gefühl von drohender Gefahr zu vermitteln, genauer, die Gefahr vor dem jederzeit drohenden Tod. Der Methode des Terrorismus ist es inhärent, dass nie genau klar wird, wann, wodurch, wer angegriffen und zu Tode kommen wird. Es ist wie mit der Dunkelheit: Es könnten jederzeit überall irgendein Monster aus dem Loch springen. Weglaufen zwecklos.

Wie wird nun dadurch aber das Gefühl von Freiheit bedroht? Nun, hier gibt es einen Zusammenhang zwischen der Information über die vielen möglichen Gefahren. Ich hätte niemals Angst im Dunkeln gehabt, hätte ich keine Horrorfilme gesehen und Gruselgeschichten gehört, in denen mir fortwährend erzählt wurde, welch schreckliche Abscheulichkeiten möglicherweise in der Dunkelheit lauern könnten. Mit Terrorismus verhält es sich ähnlich. Es passieren relativ wenig Anschläge mit relativ wenig Opfern. Durch Erdbeben und Tsunamis kommen jährlich viel mehr Menschen ums Leben als durch Terroranschläge. Und Erdbeben und Tsunamis sind mindestens genauso wenig vorhersehbar. Aber eben diese wenigen Anschläge finden eine möglichst große mediale Verbreitung und mit jedem neuen Gesetz, mit dem mehr Überwachung beschlossen wird, steigt in der Bevölkerung die Angst, dass irgendetwas, irgendwo, passieren könnte. Und zwar jederzeit. Um in der Metaphorik zu bleiben: Es ist so, als würde den Menschen immer wieder gesagt werden: „Passt auf, bald ist es Nacht. Jederzeit könnte plötzlich die Sonne untergehen. Seid auf der Hut. Denn wenn es erst einmal dunkel ist, dann kommen die Monster aus den Löchern. Und dann seid ihr alle verloren.“ Das große Problem daran: Das wird den Menschen mittags bei strahlendem Sonnenschein erzählt.

Genau in dieser Mechanik liegt das Problem. Seitens der Politik wird den Menschen nicht gesagt „Seid vorsichtig, es könnte ein Erdbeben geben. Passt auf, wenn ihr an Küsten lebt, es könnte zu einem Tsunami kommen.“ Vielmehr wird hier der psychologische Effekt ausgenutzt, dass wir Menschen vor den Dingen, die im Grunde am unwahrscheinlichsten sind, am meisten Angst haben. Statt Geld in die Verbesserung der Infrastruktur zu stecken, um die Menschen vor Erdbeben oder Tsunamis möglichst großen Schutz zu bieten (wobei hier, wie in allen Fällen, ultimativer Schutz unmöglich ist), wird vielmehr die Überwachung ausgeweitet.

Diese Überwachung erzeugt noch mehr Angst. Diesmal nicht nur vor einem möglichen Anschlag, sondern auch vor den Mitmenschen. Der Ausgangspunkt der Gefahr wird damit auf die Überwachten verlagert — so wie der Ausgangspunkt der anderen Angst in der Dunkelheit liegt. Mit anderen Worten: Ich habe keine Angst, wenn es hell ist. Und ich habe keine Angst, wenn ich allein bin. Denn die Gefahr geht von der Dunkelheit aus — und von anderen Menschen. Es ist fast so, als würde Sartres „Geschlossene Gesellschaft“ Wirklichkeit: Die Hölle, das sind die anderen!

Taschenlampen für alle! Aufklärung hilft am besten gegen Angst.

Was bedeutet nun „Freiheit statt Angst“? Nicht weniger als: Hört auf, Angst voreinander zu haben! Lasst euch nicht einreden, dass unter euch Menschen lauern, die euch töten wollen! Lasst nicht zu, dass das Gefühl des freien, unbeschwerten Lebens durch ein Übermaß an Überwachung zunichtegemacht wird! Die einzige Angst, die ihr haben müsst, ist die vor der Angst selbst. Denn, wie oben beschrieben, hat Angst einen lähmenden Effekt. Und ein Mensch, ja eine ganze Gesellschaft, die vor Angst gelähmt ist, kann nicht mehr effektiv über sich selbst bestimmen. Im Gegenteil: Sie gibt sich der Fremdgesteuertheit hin, in der Hoffnung, dass „die anderen“, die keine Angst haben, ihr einen Weg aus der Angst heraus weisen können. Dabei vergessen sie aber, dass diese Angst künstlich erzeugt ist und dass diese „anderen“ keineswegs die Absicht haben, die Menschen von ihrer Angst zu befreien, sondern sie vielmehr zu kontrollieren und zu steuern. Dabei wird suggeriert, dass all die ergriffenen Maßnahmen die Sicherheit vor einem Anschlag erhöhen. Das ist ungefähr so, als würden in der Dunkelheit absichtlich alle Lichter abgeschaltet und gesagt: Wenn wir nur alle nackt rausgehen und uns von ein paar wenigen, die Taschenlampen haben, nur genau genug betrachten lassen, kann uns nichts passieren.

Dabei werden diejenigen, die angeleuchtet werden, deutlich hervorgehoben, um den Menschen noch mehr Angst zu machen.

Seid frei! Kauft euch Taschenlampen!

08/15/13

Medien-Mainstream & Netzkultur: Wikileaks – Edward Snowden

Thomas Barth

Die Netzkultur steht den Mainstreammedien heute kritisch gegenüber, von deren Aufmerksamkeit sie gleichwohl abhängig ist. Denn die klassischen Leitmedien Presse und Fernsehen machen immer noch den Kern der Öffentlichkeit aus, in welcher die politischen Debatten sich in gesellschaftliche Veränderungen umsetzen lassen – auch wenn jüngere Generationen ihnen ihrerseits zunehmend die Aufmerksamkeit entziehen. Kein Wunder, hatte doch die Medien-Industrie in Anti-Raubkopierer-Kampagnen ihre Verbraucher lange genug zu Verbrechern erklärt, statt vernünftige und faire Verfahren zu entwickeln.

WikiLeaks hatte erfolgreich den Bogen zurück zum Mainstream geschlagen, nicht zur ungetrübten Freude aller etablierten Meinungsmacher. Und wurde in Gestalt von Juian Assange dämonisiert. Mit Edward Snowden und The Intercept von Glenn Greenwald schlägt die Netzkultur jetzt zurück, bietet weniger Angriffsfläche für Personalisierung und macht es schwerer, die Inhalte zu verschweigen. Das Image der Medien leidet unter ihrer immer unkritischer werdenden Haltung gegenüber den Machthabern im eigenen Land bzw. Machtblock. Einzelne, die diese blinden Flecken aufzeigen wollten, gab es schon immer. Oft nahmen sie, von den Medien wenig beachtet, ein schlimmes Ende, wie etwa der Künstler Mark Lombardi, der westlichen Oligarchen und ihren Machtstrukturen nachging. Jeder, der mit westlichen konkurrierende Machteliten angreift, ist sich dagegen der medialen Aufmerksamkeit gewiss. Aber diese Einseitigkeit genügt offenbar nicht, unsere Journalisten verstehen sich immer öfter auch als Wadenbeißer im Dienste westlicher Herrschaftseliten, die über deren Kritiker hemmungslos herfallen.

Wie WikiLeaks zum Flop erklärt wurde

WikiLeaks gilt den Mainstream-Medien seit der ungefilterten Veröffentlichung tausender Cables als gescheitert. Doch es gibt zahlreiche offene Fragen. Etablierte Medien folgen einer vereinfachenden Erzählung, personifizieren komplexe Probleme, führen Standards an, die sie selbst kaum einhalten und brachten sich selbst gegen WikiLeaks in Stellung -selbst dann, wenn sie zuvor massiv von den Enthüllungen der Plattform profitiert hatten.

Today, 15 September 2014, WikiLeaks releases previously unseen copies of weaponised German surveillance malware used by intelligence agencies around the world to spy on journalists, political dissidents and others. Interaktion von Netzplattform und Medien bleibt problematisch

WikiLeaks ist aus der Hacker-Subkultur hervorgegangen und noch immer darin tief verwurzelt. Seit den Anfängen des Internet traten Hacker ein für freien Informationszugang aller bei vollem Schutz der Privatsphäre. Ihre natürlichen Widersacher waren die Geheimdienste, deren Job im Großen und Ganzen die umgekehrte Ausrichtung hatte. WikiLeaks bezeichnet sich in dieser Tradition auch als „Counter-Intelligence“ und „First Intelligence Agency of the People“ – als erster Geheimdienst des Volkes.

Die technologische Avantgarde der Hacker, deren ehedem esoterische Praxis der Online-Kommunikation heute die breite Masse zumindest der jüngeren Generationen erreicht hat, wurde von Anbeginn misstrauisch von den etablierten Medien beäugt. Heute ist sie selbstbewusst zur „Netzkultur“ gereift und ihr stehen neben staatlichen Institutionen auch die Medienkonzerne gegenüber, die von den neuen „Netzbürgern“ oft als „gnadenlose, gierige Content-Verwerter“ gesehen werden.

Kein Wunder, hat doch die Medien-Industrie in Anti-Raubkopierer-Kampagnen ihre Verbraucher so lange zu Verbrechern erklärt, bis sogar eine Piratenpartei in die politischen Arena stieg. Dabei sehen sich die Medien-Konzerne oft sogar als Säule der Demokratie und Pressefreiheit, vertreten aber zunehmend eigene Unternehmensinteressen. Der Antagonismus von Netzkultur und Medienindustrie schwingt unterschwellig mit, wenn etablierte Journalisten über Hackerprojekte berichten – besonders vielleicht, wenn diese – wie WikiLeaks – mit neuen Publikationsformen in die zentrale Sphäre des Nachrichtengeschäfts eindringen.

“Cablegate” und die mediale Schuldfrage

Am 1.9.2011 machte WikiLeaks, die Whistleblower-Plattform des weltberühmten Hackers Julian Assange, negative Schlagzeilen: Durch eine Sicherheitspanne wurden rund 250.000 US-Diplomaten-Depeschen aus dem WikiLeaks-Datenbestand im Internet zugänglich. Diese Depeschen sind, anders als bei vorherigen Depeschen-Publikationen, nicht redaktionell bearbeitet. Somit enthüllen sie womöglich unabsichtlich Namen von Informanten der US-Auslandsvertretungen. Die Aufregung in den Medien war groß und der Ruf von WikiLeaks, durch einen mysteriösen „Sex-Skandal“ um Assange bereits angeschlagen, drohte nachhaltig beschädigt zu werden. (Nachtrag 2022: Nils Melzer „Der Fall Assange“ stellte klar: Die Verleumdungen von Julian Assange mit einem angeblichen „Vergewaltigungsverdacht“ basierten auf einer geheimdienst-gesteuerten Justizintrige in Schweden.) Vielleicht sollten sogar Internet-Enthüllungsplattformen, die bereits als neue, den herkömmlichen Journalismus ergänzende Form der öffentlichen Aufklärung gesehen wurden, generell in Frage gestellt werden. Die Snowden-Enthüllungen und The Intercept konnten dieses mögliche Ziel jedoch unterlaufen, obgleich sie heute von den Medien tendenziell totgeschwiegen werden.

Die von Journalisten gegen die Whistleblower-Plattform und speziell Assange vorgetragenen Vorwürfe lauteten damals, WikiLeaks würde den Informantenschutz und die journalistische Ethik bzw. Sorgfalt vernachlässigen. Beide Vorwürfe erweisen sich jedoch bei genauerer Betrachtung als zumindest fragwürdig.

Was war geschehen? Bei der Weitergabe der Botschafts-Depeschen hatte WikiLeaks zunächst ein verschlüsseltes Datenpaket gepackt und dieses im Internet in Umlauf gebracht. Ziel war, die Daten auf zahlreichen verteilten Rechnern vor dem physischen Zugriff von Polizei, Militär und Geheimdiensten in Sicherheit zu bringen. Die spätere Jagd auf Assange mittels eines unter zweifelhaften Umständen zustande gekommenen Haftbefehls von Interpol zeigt, dass diese Befürchtungen nicht unbegründet waren.

Die so verschlüsselten Daten gelangten in die Hände der drei ausgewählten Presseredaktionen von „Spiegel“, New York Times und Guardian. Später übergab dann Assange den Redakteuren das geheime Passwort, so dass diese die Pakete öffnen und auswerten konnten. Soweit so gut. Doch zwei Journalisten vom Guardian publizierten 2011 auch ein Buch über die WikiLeaks-Geschichte und gaben dabei (versehentlich?) das Passwort bekannt. Sie hätten geglaubt, so später der Guardian, das Passwort sei nur zeitlich befristet gültig gewesen. Jeder Leser des Buches hatte nun die Möglichkeit, die zirkulierenden Datenpakete zu entschlüsseln und Identitäten von US-Informanten zu enthüllen.

Bei der Berichterstattung über den Vorfall ging im Folgenden vieles durcheinander. Die Tagesschau vom 1.9.2011 befragte in ihrem längeren Bericht einen ARD-Internetexperten, der kritisierte, eine Whistleblower-Plattform solle doch in der Lage sein, ihre Informanten zu schützen. In dieser ARD-Darstellung wurden also die hier betroffenen Informanten mit Whistleblowern durcheinander gebracht. Doch es geht in den Depeschen nicht um Enthüller, die öffentliche Aufklärung im Sinn haben, sondern um Zuträger der US-Administration, wie den FDP-Funktionär Metzner, der Interna aus den schwarzgelben Koalitionsverhandlungen verriet. Der Adressat für das Einklagen von Informantenschutz muss hier also nicht WikiLeaks, sondern die US-Administration sein. Es ist nebenbei bemerkt dieselbe US-Administration, die Assange zum Staatsfeind erklärte, ihm vermutlich die Konten sperren ließ, mutmaßlich seine Strafverfolgung wegen fadenscheiniger Vergewaltigungsanklagen und seine Auslieferung an die USA betrieb.

Und Bradley Manning?

Gleichwohl könnten die Depeschen fatale Folgen für Informanten haben, denn manche Zuträger der US-Botschaften müssen wohl mit bedrohlichen Konsequenzen rechnen –„in totalitären Ländern“, wie besorgte Kommentatoren der WikiLeaks-Datenpanne gern hinzufügten. Kaum einer erwähnte dabei jedoch einen Informanten von WikiLeaks selbst, der schon seit Mai 2010 leidet: Bradley Manning, der US-Soldat, der teilweise unter „harten“ Haftbedingungen in US-Militärgefängnissen gehalten wurde (Menschenrechts-Organisationen sprachen von Folter), um ein Geständnis und eine Aussage gegen Assange zu erzwingen.

Die Manning zugeschriebenen Enthüllungen brachten Kriegsverbrechen und Menschenrechtsverletzungen seitens der US-Truppen ans Licht. Sie zeigten den Krieg in Irak und Afghanistan, der uns oft als hehre Friedensmission mit chirurgisch präzisen Schlägen präsentiert wurde, in seiner ganzen Breite und Grausamkeit. Hinter der offiziellen Version von Wiederaufbau und Krieg gegen den Terror erkannten manche in den WikiLeaks-Dokumenten einen zweiten Krieg: Die Strategie, innerafghanische Kontrahenten im Sinne von „teile und herrsche“ gegeneinander auszuspielen; etwa die entgegen der offiziellen Entwaffnungspolitik zugelassene Aufrüstung von Usbekenführer Dostum, der 2006 mit Warlords der Nordallianz einen Putsch gegen Karsai plante. Dies konnte zwar der US-Führung nicht gefallen, rechtfertigt aber nicht die unmenschliche Behandlung eines mutmaßlichen Whistleblowers. Ob mit Bradley Manning nicht einfach ein unbequemer junger Soldat zum Sündenbock gemacht wurde, um Enthüller von US-Geheimnissen generell einzuschüchtern, weiß bis heute niemand.

Die Darstellung von Leistungen von WikiLeaks und Assange erscheint in den Medien oft personalisiert und wenig auf politische Hintergründe ausgerichtet, so in den auf Bestsellerlisten gehandelten Büchern „Staatsfeind WikiLeaks“ und „Inside WikiLeaks“. Doch auch wo fundiertere Analysen vorgenommen werden, bleibt eine voreingenommene Haltung des etablierten Journalismus spürbar. So wird in einer Studie zum Krisenjournalismus das berühmte Video, mit dem sich WikiLeaks überhaupt erst einen Platz in den Hauptnachrichten erkämpfte, recht einsilbig beschrieben: „…ein WikiLeaks-Video, das den Angriff auf eine Gruppe von Menschen in Bagdad aus der Cockpit-Perspektive eines Kampfhelikopters zeigt. Bei dem Angriff kamen auch zwei Reuters-Journalisten ums Leben.“

Sogar den mit Bedacht von Assange gewählten Titel des Videos verschwiegen die Autoren: „Collateral Murder“, obwohl sie wenige Seiten zuvor noch von der Krisenberichterstattung gefordert hatten, „Euphemistische Wendungen wie… ‚Kollateralschäden‘… sollten durchschaut und vermieden werden.“ Assange & Co. hatten den Euphemismus nicht nur vermieden, sondern durchschaut und in seinem Zynismus entlarvt, aber dies wollten der Journalismus-Professor und sein Co-Autor wohl bei den Medien-Außenseitern von WikiLeaks nicht sehen. „Collateral Murder“ wurde gesendet und schnell vergessen, ebenso wie der Leidensweg des mutmaßlichen WikiLeaks-Informanten Bradley Manning.

Wichtiger als das reale Opfer Manning, schienen den Medien in Deutschland heute offenbar die infolge der Datenpanne möglichen Opfer der Publikation von US-Depeschen zu sein. Tatsächlich könnte man hier die Vernachlässigung journalistischer Ethik und Sorgfaltspflicht anführen. Aber gegen wen? Das Gros der Medien richtet seine Anklagen gegen Assange, etwa die Tagesschau vom 1.9.2011. Sie berichtete zwar, „WikiLeaks beschuldigte einen Journalisten der britischen Zeitung Guardian“, das Passwort publiziert zu haben, ließ aber im restlichen Beitrag keinen Zweifel daran, dass man die Schuld für die Panne bei der Internet-Plattform zu suchen habe. Fazit: WikiLeaks sitzt auf der Anklagebank und beschuldigt, womöglich nur um sich selbst zu entlasten, den Guardian. Diesem Muster folgen die meisten Berichte, aber ist das wirklich eine faire Bewertung?

Wer Standards verlangt, sollte sie selbst einhalten

Journalisten forderten von WikiLeaks seit deren Erscheinen in der Öffentlichkeit Verantwortung, Ethik und journalistische Standards ein, die man übrigens in der breiten Masse des Boulevard-Journalismus vergeblich sucht. Aber was ist mit den Qualitäts-Journalisten des britischen Traditionsblattes Guardian? Sollte eine naheliegende Frage nicht lauten: Welcher Teufel hat die Buchautoren geritten, ausgerechnet das echte Passwort in ihrer Reportage zu publizieren? Ein fanatisches Streben nach Authentizität um jeden Preis? Pure Trägheit, sich eine vergleichbare Phrase auszudenken? Für den Leser hätte ein Ersatzwort das Buch sicher nicht schlechter gemacht, für US-Informanten kann diese Unachtsamkeit der Autoren jedoch fatale Folgen haben.

Der Guardian hätte es wissen müssen

Die Guardian-Schreiber hätten wissen müssen, dass die verschlüsselte Datei mit den Depeschen überall im Netz zirkuliert, und dass sie mit diesem Passwort jeder würde öffnen können. Wäre es nicht ihre journalistische Sorgfaltspflicht gewesen, die Ungefährlichkeit ihrer „Enthüllung“ mit Assange abzuklären? Stattdessen konstruieren jetzt die medialen Ankläger eine kryptologische Bringschuld von Assange, auch in der Zusammenarbeit mit der bei diesem Projekt engstens verbündeten Presse jederzeit höchstes Misstrauen einkalkulieren zu müssen.

Assange hätte die zirkulierenden Sicherungskopien mit anderen Passwörtern verschlüsseln, die Passwörter mit einer Zeitbegrenzung versehen müssen usw. lauten die im Nachhinein besserwisserisch erhobenen Forderungen. Aber hätten nicht auch die seriösen Qualitäts-Journalisten und Buchautoren des Guardian einkalkulieren müssen, dass dem um den Globus gehetzten Assange und seiner zusammengewürfelten Hackergruppe Fehler unterlaufen könnten?

Netzkultur, Whistleblower und „einsame Helden“

Bei aller Hochachtung vor den Leistungen von Julian Assange – der Hacker-Subkultur scheinen die Gefahren bewusst zu sein, die mit seiner Person und auch mit der Fixierung auf einen „einsamen Helden“ verbunden sind.  Edward Snowden hat aus der sorgfältigen Beobachtung der medialen Verarbeitung des Falles Assange gelernt und sich bewusst selbst im Hintergrund gehalten. Die Ergebnisse dieses Ansatzes geben ihm Recht: Es fiel den Medien schwerer, durch Personalisierung von den aufgedeckten Problemen abzulenken. Man diskutiert überwiegend bis heute den NSA-Skandal und nicht den Fall Snowden, dem -anders als bei Assange- auch nicht derart massive Angriffe gelten.

Die Verantwortung wird von der Netzkultur aber vor allem von der Presse eingefordert. Deren zunehmendes Einknicken vor den Interessen herrschender ökonomischer und Machteliten wird von Netizens und Hackern als Hauptargument für die Notwendigkeit von Plattformen wie WikiLeaks und The Intercept angeführt.

So steht die Netzkultur den Mainstreammedien kritisch gegenüber, von deren Aufmerksamkeit sie gleichwohl abhängig ist. Denn die klassischen Leitmedien Presse und Fernsehen machen immer noch den Kern der Öffentlichkeit aus, in welcher die politischen Debatten sich in gesellschaftliche Veränderungen umsetzen lassen – auch wenn jüngere Generationen ihnen ihrerseits zunehmend die Aufmerksamkeit entziehen. WikiLeaks hat erfolgreich den Bogen zurück zum Mainstream geschlagen, nicht zur ungetrübten Freude aller etablierten Meinungsmacher. Die Netzkultur hat mit Snowden und WikiLeaks wichtige Schritte hin zu einem Inversen Panoptikum unternommen, das die Blickrichtung im globalen Überwachungsnetz umdreht: Wir alle werden von Geheimdiensten und Unternehmen beobachtet, aber wir beobachten zunehmend ebenfalls -die Machthaber im Zentrum der panoptischen Anlage.