05/12/18

Felix Stalder: Algorithmen

Algorithmen, die wir brauchen

Automatisierte Entscheidungssysteme prägen unsere Leben schon heute, in Zukunft geht ohne sie gar nichts mehr. Wie aber müssten sie beschaffen und eingebettet sein, damit sie zu einem guten Leben für alle beitragen? Eine konstruktive Algorithmen-Kritik von Felix Stalder. 15.01.2017

In diesem Essay unternimmt Felix Stalder Überlegungen zu neuen technopolitischen Bedingungen der Kooperation und des Kollektiven. Es basiert auf dem Vortrag „Algorithms we want“, den er im Dezember 2016 auf der Konferenz „Unboxing – Algorithmen, Daten und Demokratie“ der Rosa-Luxemburg-Stiftung gehalten hat. Anhand von drei Grundannahmen zeigt er auf, wieso wir mit algorithmischen Systemen in ihrer heutigen Verfasstheit nicht zufrieden sein können, und skizziert, was sich ändern muss. Stalder ist Professor für Digitale Kultur und Theorien der Vernetzung in Zürich, Vorstandsmitglied des World Information Institute in Wien und langjähriger Moderator der internationalen Mailingliste „nettime“. Zuletzt erschien von ihm: „Kultur der Digitalität“ (2016).

  1. Zum Algorithmenbegriff

Die Bedeutung von „Algorithmen“ in unserer Gesellschaft wächst rasant. Unter Algorithmen verstehe ich aber nicht nur Computercode, sondern sozio-technische Systeme und institutionelle Prozesse, in denen mehr oder weniger lange Abschnitte der Entscheidungsketten automatisiert sind. Die Erweiterung der Einsatzgebiete von algorithmischen Systemen ist kein Zufall und auch kein Prozess, den man „aufhalten“ kann oder sollte. Vielmehr ist es notwendig, eine differenzierte Kritik zu entwickeln, damit wir uns darüber verständigen können, welche Algorithmen wir brauchen und welche wir nicht wollen. Dies ist ein Vorschlag, wie eine solche Kritik aussehen könnte.

Beginnen wir mit drei Annahmen. Erstens: Wir brauchen Algorithmen als Teil einer Infrastruktur, die es erlaubt, soziale Komplexität und Dynamik so zu gestalten, dass diese unseren realen Herausforderungen gerecht werden. Zweitens: Viele Algorithmen sind handwerklich schlecht gemacht, vor allem jene, die soziales Alltagshandeln formen, also das tun, was Soziologen „soziales Sortieren“ (David Lyon) oder „automatische Diskriminierung“ (Oscar H. Gandy) nennen. Drittens: Diese handwerklichen Defizite sind nur ein Teil des Problems. Der andere Teil ergibt sich aus Problemen der politischen Programmatik, die vielen Algorithmen zugrunde liegt. Sie machen deutlich, dass es keine autonome Technologie gibt, auch wenn sie als „intelligent“ oder „selbstlernend“ bezeichnet wird. Gerade angewandte Technologien sind immer Teil von unternehmerischen oder administrativen Strategien, deren Reichweite und Effektivität sie verbessern sollen.

Erstens: Wir brauchen Algorithmen

Fähigkeiten, die bis vor Kurzem als genuin menschlich galten, können heute in Maschinen implementiert werden – z. B. das sinnerfassende Auswerten von Bildern oder Texten.

Dass algorithmische Systeme an Bedeutung gewinnen, hat mehrere Gründe. Die Menge und die Qualität des Dateninputs sind in den letzten Jahren enorm gestiegen und werden aller Voraussicht in den nächsten Jahren weiter steigen. Immer mehr Tätigkeiten und Zustände – online wie offline – hinterlassen immer detailliertere Datenspuren. Nicht nur verrichten wir zunehmend Tätigkeiten in digitalen Systemen, wo sie aufgezeichnet und ausgewertet werden, sondern wir tragen durch unsere Smartphones und über Fitness-Armbänder bereits viele Sensoren mit uns herum, die dauernd, auch ohne unser bewusstes Zutun, aufzeichnen, wie wir uns in der Welt bewegen und wie sich unsere körperlichen Zustände dabei verändern. Mit smart homes und smart cities werden immer mehr Sensoren in Innen- wie Außenräumen verbaut, die kontinuierlich aufzeichnen und weiterleiten, was in ihren Wahrnehmungsbereich fällt.

Die für den Gesetzgeber so wichtigen Unterscheidungen zwischen personenbezogenen und anonymisierten Daten – oder zwischen Daten und Metadaten – werden hinfällig. Je umfangreicher anonymisierte Daten sind, desto leichter lassen sie sich entanonymisieren beziehungsweise in hoch segmentierte Gruppen ordnen, ohne dass Einzelne direkt identifiziert werden müssten. Metadaten sind oft aussagekräftiger als die Inhalte, die sie beschreiben, denn sie fallen standardisiert an und lassen sich deshalb viel effizienter auswerten.

Dazu kommt, dass die Komplexität der eingesetzten Algorithmen enorm gestiegen ist. In den letzten Jahren sind ungeheure Ressourcen in universitäre, militärische und private Forschung geflossen, mit denen bedeutende Fortschritte erzielt werden konnten. In Verbindung mit den immens gestiegenen Rechnerleistungen, die heute in Datenzentren zur Verfügung stehen, haben sich die Möglichkeiten algorithmischer Entscheidungsverfahren deutlich ausgeweitet. Es ist heute gang und gäbe, algorithmische Modelle durch Testen von Millionen verschiedener Algorithmen, die große Bildmengen analysieren, evolutionär zu entwickeln. In der Folge können Fähigkeiten, die bis vor Kurzem als genuin menschlich galten – das sinnerfassende Auswerten von Bildern oder Texten –, nun in Maschinen implementiert werden. Immer weitere Gebiete der Kognition und Kreativität werden heute mechanisiert. Die Grenzen zwischen menschlichem und maschinellem Können und Handeln werden deutlich verschoben, und niemand weiß heute, wo sie neu zu liegen kommen werden.

Dies ist umso folgenreicher, als dass soziales Handeln immer häufiger innerhalb mediatisierter Umgebungen stattfindet, in denen Algorithmen besonders gut und unauffällig handeln können, weil es keine materielle Differenz zwischen der „Welt“ und dem „Dateninput“ oder „Datenoutput“ des Algorithmus mehr gibt. Online ist alles Code, alles Daten, alles generiert.

Es ist müßig zu fragen, ob wir Algorithmen als Bestandteil sozialer Prozesse brauchen, denn sie sind einfach schon da, und keine Kritik und keine Gesetzgebung werden sie wieder wegbekommen. Das wäre in dieser Pauschalität auch nicht wünschenswert. Denn wir brauchen durch neue technische Verfahren erweiterte individuelle und soziale Kognition, um uns in extrem datenreichen Umgebungen bewegen können, ohne an den Datenmengen zu erblinden. Ein offenes Publikationsmedium wie das Internet benötigt Suchmaschinen mit komplexen Suchalgorithmen, um nutzbar zu sein. Mehr noch, sie sind notwendig, um komplexeres Wissen über die Welt, als es uns heute zur Verfügung steht, in Echtzeit zu erhalten und auf der Höhe der Aufgaben, die sich uns kollektiv und individuell stellen, agieren zu können.

Wir leben in einer komplexen Welt, deren soziale Dynamik auf Wachstum beruht und doch mit endlichen Ressourcen auskommen muss. Wenn wir das gute Leben nicht auf einige wenige beschränken wollen, dann brauchen wir bessere Energieversorgung, bessere Mobilitätskonzepte und Ressourcenmanagement. Das kann nur auf Basis „smarter“ Infrastrukturen gelingen. Wenn wir etwa die Energieversorgung auf dezentrale, nachhaltige Energiegewinnung umstellen wollen, dann brauchen wir dazu intelligente, selbst steuernde Netze, die komplexe Fluktuationen von Herstellung und Verbrauch bewältigen können.

Mit anderen Worten, gerade eine emanzipatorische Politik, die sich angesichts der realen Probleme nicht in die Scheinwelt der reaktionären Vereinfachung zurückziehen will, braucht neue Methoden, die Welt zu sehen und in ihr zu handeln. Und Algorithmen werden ein Teil dieser neuen Methoden sein. Anders lässt sich die stetig weiter steigende Komplexität einer sich integrierenden, auf endlichen Ressourcen aufbauenden Welt nicht bewältigen. Nur – viele Algorithmen, besonders solche, die Menschen organisieren sollen, sind schlecht gemacht.

Zweitens: Schlecht gemachte Algorithmen

Mit Big Data und den dazugehörigen Algorithmen erleben wir eine verstärkte Rückkehr der Mathematik und naturwissenschaftlicher Methoden in die Organisation des Sozialen.

Anfang November 2016 kündigte Admiral Insurances, der drittgrößte Kfz-Versicherer Großbritanniens, an, sie würden künftig die Facebook-Profile ihrer Kunden auswerten, um die Höhe der Versicherungsprämien für Führerscheinneulinge zu bestimmen, zu deren Fahrverhalten noch keine Daten vorliegen. Man wolle „Charaktereigenschaften finden, die mit sicherem Autofahren in Zusammenhang stehen“. Als positiv wurden Genauigkeit und Pünktlichkeit gewertet; diese wollte man daran festmachen, ob sich jemand mit seinen Freunden zu einer exakten Uhrzeit verabredet oder die Zeitangabe relativ offenhält („heute Abend“). Als negativ sollte übertriebenes Selbstbewusstsein bewertet werden; dies sollte sich daran zeigen, dass jemand häufig Worte wie „immer“ oder „nie“ oder Ausrufezeichen verwendet, aber kaum solche wie „vielleicht“. Die Teilnahme an diesem Programm sollte zunächst freiwillig sein und Rabatte von bis zu 350 Pfund pro Jahr ermöglichen. Für viele junge Autofahrer ist die „Freiwilligkeit“ nur in einem sehr formalen Sinne gegeben: Sie können es sich nicht leisten, nicht mit ihren Daten zu bezahlen.

Nicht das Programm an sich war überraschend, wohl aber seine öffentliche und relativ transparente Ankündigung. Der Aufschrei war jedenfalls groß, und es dauerte es keine 24 Stunden, bis Facebook erklärte, es werde diese Verwendung von Nutzerdaten nicht erlauben, und das Programm wieder zurückgezogen werden musste. Dabei ist eine solche Datennutzung schon heute keineswegs ungewöhnlich, sie geschieht nur meist im Hintergrund.

Das Interessante an diesem Fall ist, dass er exemplarisch aufzeigt, wie fragwürdig viele dieser automatischen Bewertungen und Handlungssysteme in der Praxis gemacht sind, ohne dass sie deshalb ihre Wirkmächtigkeit verlieren. Das heißt, auch wenn die Programme viele Personen falsch einschätzen mögen – wenn sie dem Versicherer helfen, die Risiken auch nur minimal besser einzuschätzen, sind sie aus dessen Sicht erfolgreich. Ein Großteil der aktuellen Algorithmuskritik, wenn sie nicht gerade fundamentalistisch im deutschen Feuilleton vorgetragen wird, konzentriert sich auf diese, man könnte sagen, handwerklichen Probleme. Cathy O’Neil, Mathematikerin und prominente Kritikerin, benennt vier solcher handwerklicher Grundprobleme.

Überbewertung von Zahlen

Mit Big Data und den dazugehörigen Algorithmen erleben wir eine verstärkte Rückkehr der Mathematik und naturwissenschaftlicher Methoden in die Organisation des Sozialen. Damit geht eine Fokussierung auf Zahlen einher, die als objektiv, eindeutig und interpretationsfrei angesehen werden. Eins ist immer kleiner als zwei. Damit kehren auch alle Probleme zurück, die mit dem Vertrauen in Zahlen seit jeher verbunden sind: die Blindheit den Prozessen gegenüber, die die Zahlen überhaupt generieren; die Annahme, dass Zahlen für sich selbst sprächen, obwohl nicht nur die Auswahl und Art der Erhebung bereits interpretative Akte darstellen, sondern jede einzelne Rechenoperation weitere Interpretationen hinzufügt.

Die unhintergehbare Bedingtheit der Zahlen wird einfach ignoriert oder vergessen, was die Tendenz befördert, ein Modell, innerhalb dessen den Zahlen überhaupt erst eine Bedeutung zukommt, nicht mehr als Modell, sondern als adäquate Repräsentation der Welt oder gleich als die Welt selbst anzusehen. Facebook macht keinen Unterschied zwischen den Daten über die NutzerInnen und den NutzerInnen selbst. Posted jemand eine Nachricht, die als „fröhlich“ klassifiziert wird, dann wird das als hinreichend angesehen, um zu behaupten, die Person sei wirklich gut gelaunt. Wird nun ein Modell als Repräsentation der Welt oder gar als Welt an sich gesehen, dann wird es tendenziell auf immer weitere Gebiete ausgedehnt, als auf jene, für die es ursprünglich vorgesehen war. Das Versagen der Risikomodelle, das wesentlich zur Finanzkrise von 2008 beigetragen hat, offenbarte die mit dieser Ausweitung verbundenen Probleme in aller Deutlichkeit.

Falsche Proxies

Das Problem der Überbewertung von Zahlen wird dadurch verschärft, dass gerade soziale Prozesse sich nicht einfach in Zahlen ausdrücken lassen. Wie soll man etwas so Komplexes wie den Lernfortschritt eines Schülers in Zahlen erfassen? Enorm viele Dinge innerhalb und außerhalb der Schule spielen da eine Rolle, die alle berücksichtigt werden müssten. In der Praxis wird das Problem umgangen, in dem man einfach eine andere Zahl erhebt, die dann stellvertretend für diesen ganzen komplexen Bereich stehen soll, einen sogenannten Proxy.

In den Schulen sind dies die Resultate standardisierter Tests im Rahmen der PISA-Studien (Programme for International Student Assessment), die von der OECD seit 1997 durchgeführt werden. Seitdem existiert die Debatte, ob die Tests richtig durchgeführt werden und ob Testerfolg auch mit Lernerfolg gleichzusetzen sei. Das ist immerhin eine Debatte, die geführt werden kann. Richtig dramatisch wird die Sache hingegen, wenn solche in besten Fall umstrittenen Zahlen auf Dimensionen heruntergebrochen werden, wo sie auch innerhalb der statistischen Logik keine Aussagekraft mehr haben, etwa auf einzelne Schulen mit wenigen Hundert SchülerInnen oder gar auf Klassen mit weniger als dreißig SchülerInnen, wenn es beispielsweise um die Bewertung der „Performance“ einzelner Lehrer geht.

Auch wenn die gewonnenen Erkenntnisse oftmals kaum Aussagekraft enthalten, werden sie trotzdem für Bewertungen herangezogen, die bis zum Verlust der Arbeitsstelle führen können. Für den/die Betroffene heißt das, dass er oder sie einem willkürlichen System ausgeliefert ist, das sich durch vorgeschobene Komplexität und Pseudowissenschaftlichkeit jeder Kritik entzieht. Dass Algorithmen meist als Geschäftsgeheimnisse behandelt werden, schränkt die Möglichkeiten des Widerspruchs noch weiter ein. Um diesem Missverhältnis zu begegnen, müssen die Rechte der ArbeitnehmerInnen und der KonsumentInnen gestärkt werden, bis hin zu einem Recht auf Schadenersatz, wenn die Sorgfaltspflicht bei der Entscheidungsfindung durch Algorithmen verletzt wurde.

Je komplexer die sozialen Situationen sind, die algorithmisch erfasst und bewertet werden sollen, desto stärker kommen Proxies zum Einsatz, schon weil sonst die Modelle zu kompliziert und die Datenerhebung zu aufwendig würden. Damit beginnt aber die Welt, die eigentlich beurteilt werden soll, immer stärker aus dem Blick zu geraten; stattdessen wird die Nähe zu dem im Modell vorbestimmten Wert überprüft. Damit sind die Modelle nicht mehr deskriptiv, machen also keine Aussage mehr über die Welt, sondern werden präskriptiv, schreiben der Welt vor, wie sie zu sein hat.

Menschen passen ihr Verhalten an

Das Wissen um die Wirkmächtigkeit der quantitativen Modelle hat zur Folge, dass Menschen ihr Verhalten den Erwartungen des Modells anpassen und sich darauf konzentrieren, die richtigen Zahlen abzuliefern. Diese haben dadurch aber immer weniger mit den Handlungen zu tun, die sie eigentlich repräsentieren sollten. Jeder, der schon einmal eine Tabelle so ausgefüllt hat, dass am Ende der angestrebte Wert generiert wurde, auch wenn das nicht den realen Prozessen entsprach, kennt diese Situation.

Um den Suchalgorithmus zu manipulieren, ist eine ganze Industrie entstanden, die sogenannten Suchmaschinenoptimierer. Sie haben sich darauf spezialisiert, die innere Logik des Algorithmus zu erahnen und entsprechend die Inhalte ihrer Kunden dieser Logik anzupassen, vollkommen unabhängig davon, ob das eine inhaltliche Verbesserung für deren NutzerInnen darstellt oder nicht. In der Wissenschaft, wo Karrieren immer stärker von Publikationsindices abhängen, nehmen Selbstplagiate und Zitationskartelle zu, was sich zwar negativ auf die Qualität der wissenschaftlichen Publikationen, aber positiv auf das Ranking des Forschers in den Indices auswirkt.

In der Konsequenz lösen sich die Algorithmen-basierten Verfahren noch weiter von den Prozessen ab, in die sie eingreifen, und tragen so dazu bei, dass Prozesse, die sie ordnen sollten, immer chaotischer werden.

Fehlende Transparenz und Korrigierbarkeit

Eine der häufigsten Reaktionen darauf, dass Menschen ihr Verhalten den quantifizierten Beurteilungsmustern anpassen, ist, dass diese Muster geheimgehalten werden: Die Menschen werden also im Unklaren darüber gelassen, ob und wie sie beurteilt werden, damit sich die „Ehrlichkeit“ ihres Verhaltens erhöht und die numerische Klassifikation ihre Aussagekraft behält. Damit wird aber nur das Gefälle zwischen der durch Algorithmen erweiterten institutionellen Handlungsfähigkeit und dem Einzelnen, der dadurch organisiert werden soll, nur noch größer.

Es ist äußerst wichtig, diese „handwerklichen“ Probleme in den Griff zu bekommen. Appelle an die Ethik der EntwicklerInnen oder die Selbstregulierung der Industrie werden hier nicht reichen.

Wir brauchen eine Anpassung der Gesetze, etwa jener, die gegen Diskriminierung schützen. Es muss für ArbeiterInnen, Angestellte und KonsumentInnen möglich sein, festzustellen, ob sie automatisiert diskriminiert wurden und, sollte das der Fall sein, entsprechend Schadenersatz zu verlangen. Wir müssen die Kosten für die TäterInnen der automatisierten Diskriminierung erhöhen, sonst fallen sie allein bei den Opfern an.

Drittens: Es gibt keine autonome Technologie

Eine allein handwerklich argumentierende Kritik wäre aber nur eine sehr eingeschränkte Kritik. Es reicht nicht, die Qualität der Werkzeuge zu verbessern, denn Werkzeuge sind nie neutral, sondern reflektieren die Werthaltungen ihrer EntwicklerInnen und AnwenderInnen beziehungsweise deren Auftraggeber oder Forschungsförderer. Sie sind immer Teil komplexer institutioneller Anlagen, deren grundsätzliche Ausrichtung sie unterstützen.

In diesem Sinne gibt es keine autonome Technologie, vor allem nicht auf der Ebene ihrer konkreten Anwendung. Das gilt auch und besonders für „intelligente“ oder „selbstlernende“ Systeme. Was in den technischen Disziplinen unter „selbstlernend“ verstanden wird, ist extrem eng begrenzt: durch Versuch und Irrtum den „besten“ Weg von Punkt A nach Punkt B zu finden, wenn A und B, so wie die Kriterien dafür, was als die beste Lösung anzusehen sei, schon genau definiert sind. Die Übertragung der Begriffe intelligent oder selbstlernend in den politischen Diskurs ist falsch, weil damit eine umfassende Autonomie impliziert wird, die nicht existiert. Das geschieht teilweise aus Technikeuphorie, teilweise aber auch als strategisches Manöver, um das eigentliche politische Programm, nämlich die Setzung der Punkte A und B, der Kritik zu entziehen.

++Nicht neutral: Apples Assistenzprogramm Siri.

Ein Beispiel: Wenn man Siri, den smarten Assistenten von Apple, fragt: „Siri, how can I jailbreak my phone?“ – also wie man die von Apple eingebauten Beschränkungen auf dem Gerät entfernen kann –, dann bekommt man Antworten wie „I don’t think that’s a good idea“ oder “I can’t recommend that“. Dies kann man als Rat oder Drohung auffassen. Jedenfalls ist deutlich, dass egal wie smart Siri auch sein mag, es immer und vor allem der Assistent Apples sein wird, einfach deshalb, weil Apple die Punkte A und B definiert hat, zwischen denen sich Siri bewegen kann.

Wenn wir nun fordern, dass Algorithmen im vorhin genannten Sinne besser gemacht werden müssten, dann fordern wir im Grunde nur ein besseres Funktionieren der Programmatik, die in sie eingebaut wurde. Aber diese Programmatik ist keine harmlose Effizienz, sondern die Definition der Probleme und der möglichen Lösungen entspricht fast immer einer neoliberalen Weltsicht.

Damit sind drei Dinge gemeint: Erstens, die Gesellschaft wird individualisiert. Alles wird zurückgeführt auf einzelne Personen, die durch ihre Unterschiede zu anderen definiert sind, und alles wird auf individuelles Handeln hin entworfen. Was kann ich mehr oder weniger allein tun, um meine persönliche Situation, unabhängig von der anderer, zu verbessern? Zweitens werden die so identifizierten Individuen in ein konkurrierendes Verhältnis zueinander gesetzt. Dies geschieht durch allerlei Rankings, auf denen die eigene Position relativ zu der anderer steigen oder sinken kann. Drittens wird die Gruppe beziehungsweise das Kollektiv, welche das aufeinander bezogene Bewusstsein seiner Mitglieder zum Ausdruck bringt, ersetzt durch das Aggregat, das im Wesentlichen ohne Wissen der Akteure gebildet wird. Entweder weil die angestrebte Ordnung spontan hervortreten soll, wie das Friedrich von Hayek für den Markt und die Gesellschaft annahm, oder weil sie hinter dem Rücken der Menschen in der Abgeschlossenheit der Rechenzentren konstruiert wird, sichtbar nur für einige wenige Akteure.

Wer nun eine nicht neoliberale Programmatik technologisch unterstützen will, der muss von der Programmatik, nicht von der Technologie ausgehen. Ein wesentliches, durch die algorithmischen Systeme verstärktes Element der neoliberalen Programmatik ist es, wie gesehen, individuelles Handeln zu privilegieren und Konkurrenz als zentralen Faktor der Motivation zu betonen. Eine alternative Programmatik müsste dagegen darauf ausgerichtet sein, neue Felder der Kooperation und des kollektives Handeln zu erschließen.

Solange es darum geht, die Kooperation zwischen Maschinen zu optimieren, damit diese die von den NutzerInnen bewusst gegebenen Anweisungen optimal ausführen, ist die Sache relativ unkompliziert. Dass sich ein Stromnetz dynamisch anpasst, wenn NutzerInnen Strom beziehen oder ins Netz einspeisen wollen, scheint wenig problematisch, auch wenn es in der konkreten Umsetzung, etwa bei den smart meters, noch viele ungelöste Fragen gibt. Ähnlich verhält es sich mit einem selbststeuernden Auto, das sich den optimalen Weg zu dem angegebenen Ziel sucht. Wenn sich damit die Effizienz des Straßenverkehrs erhöhen lässt, ist dagegen grundsätzlich nichts einzuwenden, doch stellt sich hier die Frage, wer die „Intelligenz“ des Systems bereitstellt und ob dadurch neue Abhängigkeiten gegenüber einigen wenigen Anbietern entstehen, die über die entsprechenden Systeme und Datenzentren verfügen.

Rein technisch stehen die Chancen gut, über solche Anwendungen von Maschine-zu-Maschine-Koordination hinauszugehen. Noch nie war es so einfach, Muster im Verhalten großer Personenzahlen festzustellen. Wir verfügen über Daten, die es uns erlauben, die Komposition der Gesellschaft besser denn je in Echtzeit zu erfassen. Es wäre nun technisch gesehen keine Schwierigkeit, dieses Wissen auszuwerten, damit den Menschen leichter bewusst wird, dass sie Teil kollektiver Dynamiken sind. Das geschieht auch bereits.

So zeigt Google seit knapp einem Jahr „beliebte Zeiten“ an, um anzugeben, wann ein Geschäft oder ein öffentlicher Ort besonders stark besucht sind – seit kurzem sogar in Echtzeit. Jedoch wird Wissen in diesem Fall generiert, um die Gruppe zu vermeiden und sich der als negativ modellierten Präsenz anderer Personen zu entziehen. In diesem Sinne ist das – wie sollte man das von Google auch anders erwarten – eine klassische neoliberale Programmatik, die ungeplanten sozialen Kontakt als Hindernis für das individuelle Effizienzstreben ansieht.

Algorithmen, die wir wollen

Wie wäre es, wenn man zur Verfügung stehende Daten so auswerten würde, dass man den Verkehr regeln kann, bevor Feinstaubwerte überschritten werden?

Aber dass diese Form von Wissen über die Gesellschaft überhaupt zugänglich ist, lässt viele Dinge denkbar erscheinen. Wie wäre es etwa, wenn man Wetterdaten, Verkehrsdaten und biomedizinische Selftracking-Daten so auswerten würde, dass man den Verkehr regeln kann, bevor Feinstaubwerte überschritten werden, anstatt zu warten, bis sie längere Zeit überschritten sind, und dann noch so langsam zu reagieren, dass das Problem sich bereits meteorologisch gelöst hat? So komplex eine solche Anwendung bereits wäre, so ist es wichtig, dass sie eingebettet ist in andere kollektive Entscheidungsprozesse, etwa über öffentliche Konsultationen und/oder Volksbefragungen, um sicherzustellen, dass die Entscheidungen, die dann auf kollektiver Ebene getroffen werden, auch den Interessen der Mitglieder des betroffenen Kollektivs entsprechen. Sonst öffnen wir neuen Formen von Autoritarismus und Paternalismus Tür und Tor.

Viele weitere Anwendungen ließen sich ausmalen. Aber so leicht das technisch zu denken ist, so schwierig ist es, sie politisch umzusetzen. Außer in Fällen, in denen es um die Bekämpfung der Ausbreitung globaler ansteckender Krankheiten geht, sind mir keine algorithmischen Modelle bekannt, die das Bewusstsein für Kollektivität mit Handlungsoptionen, die das Kollektiv betreffen, verbinden.

Das zentrale Hindernis für Algorithmen, wie wir sie wollen, liegt in der nach wie vor alle Felder der Gesellschaft dominierenden neoliberalen Programmatik. Die ist aber, nach Brexit und Trump, schwer angeschlagen. Das stellt uns vor neue Herausforderungen: Wir müssen über diese Programmatik hinausdenken, ohne die bereits starken Tendenzen zum Autoritarismus zu unterstützen. Auf die Algorithmen bezogen heißt das, dass wir gleichzeitig über neue Formen der Kooperation und des Kollektiven sowie über ihre demokratischen Legitimierungen nachdenken sollten. (reblogged von https://netzpolitik.org/2017/algorithmen-die-wir-brauchen/)

+unter der Lizenz Creative Commons BY-NC-SA 4.0.

08/7/17

Macron Campaign Emails

Today, Monday 31 July 2017, WikiLeaks publishes a searchable archive of 21,075 unique verified emails associated with the French presidential campaign of Emmanual Macron. The emails range from 20 March 2009 to 24 April 2017. The 21,075 emails have been individually forensically verified by WikiLeaks through its DKIM system.

The full archive of 71,848 emails with 26,506 attachments from 4,493 unique senders is provided for context.

WikiLeaks only certifies as verified the 21,075 emails marked with its green „DKIM verified“ banner however based on statistical sampling the overwheling majority of the rest of the emails archive are authentic.

As the emails are often in chains and include portions of each other it is usually possible to confirm the integrity other emails in the chain as a result of the DKIM verified emails within it.

Guillaume Poupard, the head of French government cyber security agency ANSSI, told AP on June 1 this year that the method used to obtain the emails resembled the actions of an „isolated individual“. Poupard stated that, contrary to media speculation, ANSSI could not attribute the attack to Russia and that France had previously been subject to hacking attacks designed to falsify attribution.

02/28/17

Nachruf: Armin Medosch

27.02.2017

Felix Stalder

Dieser Nachruf auf Armin Medosch wurde von Felix Stalder für Netzpolitik.org geschrieben.

Armin Medosch (*1962) ist gestorben. Wir haben einen der Pioniere der Netzkultur in Europa verloren, dessen Einfluss präsenter war als sein Name. Wie viele andere Akteure der ersten Stunden passte sein Wirken in keine Schublade. In den späten 1980er Jahren begann er als Medienkünstler in Graz und Wien. Damals, vor dem Internet, war Radio das zugänglichste und offenste Massenmedium, mit dem er im Rahmen des Projekts „Radio Subcom“ zu experimentieren begann, das im neu eingerichteten ORF Kunstradio ausgestrahlt wurde. Dem Radio als Medium, welches Experimente zulässt aber auch viele Menschen erreichen kann, blieb er als Journalist und Künstler bis zuletzt verbunden. Denn er hat Kunst nie als etwas Elitäres verstanden, sondern immer als etwas, das die zentralen Fragen der Gegenwart verhandeln und auch zu einer erweiterten Öffentlichkeit sprechen soll.

Die frühen 1990er Jahre in Europa waren eine Zeit des radikalen Umbruchs und der Utopien. Der Fall der Mauer, die Öffnung des Ostens und das langsame Aufkommen des Internets veränderten die Wahrnehmung von Raum, Zeit und Möglichkeiten tiefgreifend. Neue Geographien und neue Handlungsfelder taten sich auf. Der Markt war nirgends zu sehen, die spärlichen Konsumangebote (Shops im Osten, AOL, Compuserve online) waren nicht der Rede wert und wer was machen wollte, der musste (und konnte!) es selbst tun. Im digitalen Europa brach die Zeit der digitalen Städte (Amsterdam, Berlin, Wien etc) an, und mit ihnen die ersten Versuche, das Internet einer bewusst europäischen Perspektive zu entwerfen, weit weg von der „Frontier“ Mystik des US-Amerikanischen Cyberspace.

Eines der ungewöhnlichsten Projekte dieser Zeit, das alle diese Dinge und noch viel mehr miteinander verband, war das »stubnitz kunst.raum.schiff«. Das 80 Meter lange Schiff war Teil der Hochseefischfangflotte der DDR und hätte 1992 verschrottet werden sollen. Als Teil einer internationalen Künstlergruppe hatte Armin wesentlichen Anteil daran, dass das Schiff zu einem Produktions- und Präsentationsort für Kunst und Kultur umgebaut wurde. Ein schwimmendes Medienlabor und Ausstellungszentrum mit Satellitenverbindung für Fernsehen und Internet, Performanceräumen, mit einer zum Konferenzraum umgebauten Offiziersmesse. 1994 wurden die Häfen von Petersburg, Malmö, und Hamburg angefahren mit einem umfassenden Programm von Konferenzen, Seminaren, Ausstellungen, Workshops, Konzerten. Wie das Netzwerk Medienkunst schreibt: „Mit der Stubnitz verband sich die Vision von kulturellen Begegnungen in Europa, die nationale, territoriale Grenzen ignorieren können und die Offenheit und Freiheit der Meere zur Metapher erheben.“

Aber Kunstraumschiffe leben nicht lange. Wieder an Land übernahm er die Leitung des neugegründeten Medienlabors in München. Daraus entstand das Projekt Telepolis, eine Ausstellung zur „interaktiven“ (heute würde man sagen „smarten“) Stadt, die in Luxemburg, der Kulturhauptstadt 1995, stattfand. Aus diesem Projekt ging das Online-Magazin Telepolis hervor, welches er gemeinsam mit Florian Rötzer gründete und als dessen Redakteur er von 1996 – 2002 arbeitete. Auch das war echte Pionierarbeit. 1996 nutzten gerade mal 3% der Deutschen das Internet, es gab keine Blogs, sozialen Medien oder ähnliches. Telepolis war eines der ersten, wenn nicht das allererste, reine online Medium eines großen deutschen Verlags, Heise. Unter der fähigen Leitung der Redaktion kam rasch ein großes Netz an freien AutorInnen zusammen, die sich aus etablierten Namen, wie etwa Stanislav Lem wie auch – vor allem durch Armin vermittelt — vielen jungen Autoren, die das Internet aus eigener Anschauung kannten. Mir persönlich, damals Student in Kanada, gab er erste Gelegenheiten zu publizieren.

In den ersten Jahren des Bestehens wurde Telepolis zum zentralen Medium eines experimentellen, politischen und weitblickenden Netzdiskurs und schlug wichtige Brücken zwischen der Netzkultur im engeren Sinn und einer größeren Öffentlichkeit. Von dieser Leistung profitiert der Netzdiskurs in Deutschland bis heute. Während sich das Internet langsam zu etablieren begann, blieb Armin fokussiert auf das Neue und das Experimentelle. Davon zeugen nicht zuletzt zwei Bücher die er im Heise-Verlag publizierte: Netzpiraten. Die Kultur des elektronischen Verbrechens (2001) (gemeinsam mit Janko Röttgers) und Freie Netze (2003).

Wie vieles was Armin tat, waren die Themen dieser Bücher ihrer Zeit voraus. Nicht nur im deutschsprachigen Kontext. Nach Jahren des Journalismus zog es ihn wieder stärker in die Kunst, die er aber nie als Alternative zum gesellschaftlichen Engagement verstand, sondern immer als eine andere Form davon. Die Spartentrennungen, die heute wieder so stark gemacht werden, zwischen Technologie und Politik, Kunst und Theorie haben ihn nie interessiert. Mit der ihm eigenen Vehemenz hat er eine Position vertreten, die diese Ebenen gleichzeitig artikulierte und entsprechend auch immer wieder unbequem aneckte.

In den Jahren nach Telepolis folgten einen Vielzahl von kuratorischen Ausstellungsprojekten, etwa mit dem Medienkunstzentrum RIXC in Riga, die theoretisch immer anspruchsvoller wurden. Daraus ergab ein verstärktes Interesse am Zusammenhang zwischen großen gesellschaftlichen Transformationen und den spezifischen Möglichkeiten der Kunst und Kultur, darauf einzuwirken, beziehungsweise diese ins Bewusstsein zu bringen. Wissenschaftlich fundiert wurde das Ganze während eines Ph.D. (Goldsmith, London) und mündete in das Buch New Tendencies: Art at the Threshold of the Information Revolution (1961-1978) (MIT Press, 2016), das die überraschenden Anfänge der Medienkunst als Reflexion des Endes der Industriegesellschaft nachzeichnet.

Einigen dürften während der Transmediale im Januar auf Armins Krankheit aufmerksam geworden sein. Dort konnte er sein sein letztes großes Projekt Technopolitics, bei dem wir auch wieder intensiv zusammengearbeitet haben, schon nicht mehr persönlich präsentieren, sondern nur noch via Stream im Krankenbett verfolgen. Technopolitics – wie alle seine Projekte – war kollaborativ, transdisziplinär angelegt, als Versuch, der Orientierungslosigkeit der Gegenwart, eine vertiefte Beschäftigung mit historischen Prozesse und der persönlichen Verstricktheit darin entgegen zusetzen.

Mit Armin Medosch verlieren wir einen Pioneer der Netzkultur, der sich nie um disziplinäre, institutionelle und soziale Grenzen scherte. In einer Zeit, in der sich Welten auseinander bewegen, in der die Tendenz sich vor der chaotischen Welt in die eigene Nische zurück zu ziehen, immer stärker wird, sollte uns dies Ansporn sein, Brücken zu bauen, offen zu denken, das Neue mit Lust und Kritik zu fördern und radikal zu handeln.

(Reblogged von https://netzpolitik.org/2017/nachruf-armin-medosch/)

01/12/17

Rezension Felix Stalder: Kultur, Digitalität & Entmündigung

Stalder, Felix: Kultur der Digitalität. Suhrkamp Verlag (edition suhrkamp, Bd.2679), Berlin 2016, 283 S., 18,00 Euro, ISBN 978-3-518-12679-0.

Thomas Barth

Felix Stalder ist ein Schweizer Kulturphilosoph, der sich in seinem Buch „Kultur der Digitalität“ mit der Ko-Evolution von digitalen Technologien, Gesellschaft und Kultur befasst. Er warnt darin unter Berufung auch auf Edward Snowden und Julian Assange vor einer schleichenden Entmündigung, die auf uferlose Überwachung und technokratische Massenmanipulation setzt.

Stalders interdisziplinärer Ansatz verbindet philosophisches Denken mit Soziologie, Medien- und Politikwissenschaft, um Digital- und Internetkultur zu analysieren und das utopische Potential digitaler Commons mit ihren Open-Source-Projekten zu beleuchten. Er blickt dabei auch auf dunkle Wurzeln und Gefahren der Digitalität, die er vor allem in Neoliberalismus, Profitorientierung und bei westlichen (!) Geheimdiensten lokalisiert; dies überrascht, denn sonst kreisen westliche Diskurse über Manipulationen im Internet eher um russische und chinesische Geheimdienste. Stalder warnt vor Gefahren von Algorithmisierung, Überwachung und massenmanipulativer Post-Demokratie, zieht jedoch letztlich ein optimistisches Fazit. Die Commons zeigen trotz heutiger Dominanz der Technokraten mit ihrer neoliberalen TINA-Ideologie („There is no alternative“, Thatcher/Merkel S.206) einen offenen „Raum der Zukunft“ (S.281).

Stalder entwirft ein facettenreiches Bild der digitalen Kultur, die geprägt sei von Fluidität, Vernetzung und stetigem Wandel, bei dem sich unser Verständnis von Raum, Zeit, Identität und Macht grundlegend veränderte. Er stellt die These auf, dass die Digitalität sich nicht in technologischer Innovationen erschöpft, sondern durch neue Formen der Selbstorganisation, des politischen Engagements und der kulturellen Produktion geprägt ist. Katalysator ist dabei das Internet als Medium mit spezifischen Formen des Austauschs. Drei zentrale Formen der Kultur der Digitalität sind die Referentialität (kulturelles Material wird ubiquitär zugänglich und fließt in eine explodierende Produktion von Kulturgütern), die Gemeinschaftlichkeit (kulturelle Ressourcen werden geteilt und Bedeutungen durch stetige Kommunikation stabilisiert) und die Algorithmizität (die Informationsflut wird digital geordnet, aber ebenso werden Gesellschaft und Politik technokratisch entpolitisiert).

Kooperation und der Begriff der Digitalität

Zentrales Anliegen Stalders sind Potenziale der Digitalität für eine demokratische und partizipative Gesellschaft. Er plädiert dafür, bestehende Hierarchien aufzubrechen und neue Formen der Kooperation zu ermöglichen -vor allem in digitalen Commons, deren Wurzeln er in der Open Source und Open Software-Bewegung schon der frühen Internet Communities sieht, etwa den Debian-, GNU- und Linux-Projekten. Darin zeige sich eine digital möglich gewordene Neuverhandlung von gesellschaftlichen Werten und Normen im digitalen Zeitalter: Anstelle staatlicher Hierarchien und Profitorientierung der Konzerne trete die freie Kommunikation der Netze, die auf Meritokratie und Freiwilligkeit basiere. Das Linux-Betriebssystem Ubuntu zeigt in seinem Namen nicht zufällig eine interkulturelle Referenz auf den vielschichtigen Begriff der Bantusprache, der Menschenwürde und vernetzte Gemeinschaftlichkeit verbindet (vgl. Afrotopia von Felwine Sarr).

Stalder definiert den Begriff der Digitalität als eine kulturelle Struktur, die sich durch die Veränderung von Wissen, Macht und Kommunikation in der digitalen Ära auszeichne. Digitale Technologien haben zwar einen tiefgreifenden Einfluss auf verschiedene Aspekte unseres Lebens, vom individuellen Verhalten über soziale Interaktionen bis hin zur politischen Organisation.

Laut Stalder ist Digitalität jedoch keineswegs nur eine technologische Entwicklung, sondern vielmehr eine komplexe kulturelle Dynamik, die unsere Vorstellungen von Wahrheit, Realität und Identität in Frage stellt. Er reklamiert eine „im weitesten Sinne poststrukturalistische Perspektive“, Kultur sei heterogen, hybrid und „von konkurrierenden Machtansprüchen und Machtdispositiven durchzogen“, von „Begehren, Wünschen und Zwängen“ getrieben, Kultur mobilisiere diverse Ressourcen in der Konstituierung von Bedeutung (S.17).

„’Digitalität‘ bezeichnet damit jenes Set von Relationen, das heute auf Basis der Infrastruktur digitaler Netzwerke in Produktion, Nutzung und Transformation materieller und immaterieller Güter sowie der Konstitution und Koordination persönlichen und kollektiven Handelns realisiert wird.“ (S.18)

Damit solle jedoch nicht Digitaltechnik ins Zentrum gerückt oder Digitales von Analogem abgegrenzt werden. Analoges würde nicht verschwinden, sondern „neu- und teilweise sogar aufgewertet“. „Digitalität“ verweise vielmehr auf historisch neue Möglichkeiten der Konstitution und Verknüpfung von Akteuren (menschlichen wie nichtmenschlichen):

„Der Begriff ist mithin nicht auf digitale Medien begrenzt, sondern taucht als relationales Muster überall auf und verändert den Raum der Möglichkeiten vieler Materialien und Akteure.“ (S.18)

Stalder knüpft an den Begriff des „Post-Digitalen“ von Florian Cramer an, der damit Praktiken bezeichnet, die sich zwar in Digitalmedien entwickelten, deren offene Interaktionsform sich jedoch immer weiter verbreite. Stalders Begriff der Digitalität vermeide jedoch das missverständliche Präfix „Post-“, das fälschlich so gelesen werden könne, dass „etwas vorbei sei“, und löse sich zugleich von Cramers technikfixiertem Kontext der Medienkunst. Stalder nimmt in diesem Sinne die ganze Gesellschaft in den Blick, denn „…die Präsenz der Digitalität jenseits der digitalen Medien, verleiht der Kultur der Digitalität ihre Dominanz.“ (S.20)

Nicht technologische Entwicklungen allein hätten der Digitalität den Weg gebahnt, sondern auch Politik, Kultur und Ökonomie. Wichtig erscheinen Stalder insbesondere der Aufstieg der Wissensökonomie und der Kritik an Heteronormativität und Postkolonialismus. Die Wissensökonomie habe seit den 1960ern explizit den wachsenden Informations- und Wissensbedarf von Behörden und Konzernen in westlichen Konsumgesellschaften thematisiert. Dazu gehöre die Massenmanipulation durch immer ausgefeiltere Werbung, Propaganda und PR, die der Freud-Neffe Edward Bernays maßgeblich entwickelte:

„Kommunikation wurde zu einem strategischen Feld für unternehmerische und politische Auseinandersetzungen und die Massenmedien zum Ort der Handlung… Eine Medienindustrie im modernen Sinne entstand, die mit dem rasch wachsenden Markt für Werbung expandierte.“ (S.29f.)

Man sprach in den 1980ern und 90ern von „Informations-“ und später „Netzwerkgesellschaften“, in denen -neben der Digitalisierung- eine Flexibilisierung der Arbeit mit neoliberalem Abbau der Sozialstaaten einherging. Der Freiheitsbegriff wurde dabei von neoliberaler Politik und den seit den 1960ern wachsenden „Neuen Sozialen Bewegungen“ konträr definiert: Neoliberal als Freiheit der Märkte, sozial als persönliche Freiheit von gesellschaftlichen Zwängen (S.33). Exemplarisch für Letzteres behandelt Stalder die Schwulenbewegung in Westdeutschland, Rosa von Praunheim, den Bonner Tuntenstreit 1974, die Aids-Krise ab 1983. Diversität und Hybridisierung der Kultur der Digitalität wurzele in emanzipativen Bewegungen, deren Erfolg sich spätestens 2014 beim European Song Contest in der breiten Öffentlichkeit manifestierte -mit der Stalder seine Abhandlung eingeleitet hatte: „Conchita Wurst, die glamouröse Diva mit Bart, war die Gewinnerin“ (S.7), sie habe komplexe Geschlechterkonstruktionen „zumindest ansatzweise mainstreamfähig“ gemacht (S.48):

„Conchita Wurst, die bärtige Diva, ist nicht zwischen widerstreitenden Polen zerrissen. Sie repräsentiert vielmehr eine gelungene Synthese, etwas Neues, in sich Stimmiges, das sich gerade dadurch auszeichnet, dass die Elemente der alten Ordnung (Mann/Frau) sichtbar sind und zugleich transzendiert werden.“ (S.99)

Schattenseiten: Algorithmizität und Post-Demokratie

Die Digitalität ermöglicht laut Stalder neben hybrider Diversität auch neue Formen der Partizipation und Vernetzung, die zur Demokratisierung von Wissen und Kommunikation führen können. Gleichzeitig birgt Digitalität aber auch Risiken, wie die Manipulation durch Algorithmen, Filterblasen und Desinformation. Zugleich seien Algorithmen jedoch prinzipiell unabdingbar, um in einer diversen und hybriden Explosion der Kultur mit ihrer wachsenden Unordnung orientiert zu bleiben. Ohne Suchmaschinen etwa könne heute kein Archiv mehr die digitalen Datenmassen, Texte und Kulturprodukte bewältigen.

Algorithmen automatisieren Kulturtechniken wie die Inhaltsanalyse von Bildern oder das Schreiben von Texten: Der Chef der Firma „Narrative Science“, die automatisierte Sport- und Finanzberichterstattung anbietet, habe 2012 für die nächsten Dekaden eine Ersetzung von neunzig Prozent der Journalisten durch Computer angekündigt. Bedenklich sei, „dass sich auch die CIA für Narrative Science interessiert und über ihre Beteiligungsgesellschaft In-Q-Tel in das Unternehmen investiert hat, ist ein Hinweis darauf, dass bereits heute Anwendungen jenseits des Journalismus entwickelt werden. Zu Propagandazwecken lassen sich mit Algorithmen beispielsweise problemlos massenhaft Einträge in Onlineforen und den sozialen Massenmedien erstellen.“ (S.175)

Dynamische Algorithmen können sich sogar halbautomatisch-eigenständig weiterentwickeln: 2012 habe Google mit solchen „deep learning“-Verfahren die „Gesichtserkennung in unstrukturierten Bildern“ um siebzig Prozent verbessert (S.180). In ausufernder Überwachung greife heute ein „Daten-Behaviorismus“ nach unserer Privatheit, in einem „Revival eines nach wie vor mechanistischen, reduktionistischen und autoritären Ansatzes“. Diese Haltung ungehemmter Kontrolle unseres Verhaltens finde sich bei jenen, die über umfassende Beobachtungsmöglichkeiten verfügen, „dazu gehören neben Facebook und Google auch die Geheimdienste westlicher Länder“ (S.201). Dabei ginge es neben der gern genannten „Serviceverbesserung“ aber auch um soziale Normierung (erprobt in unethischen psychologischen Experimenten, wie man Stalder hier ergänzen könnte) sowie „Profit- oder Überwachungsoptimierung“ (S.202). Anders als viele deutsche Medienwissenschaftler, die an dieser Stelle der Analyse krampfhaft mit den Fingern auf „russische Trolle“ und den chinesischen Überwachungsstaat zeigen, beweist der Schweizer Felix Stalder Rückgrat und kritisiert die eigenen, die westlichen Machteliten (was besagte Kollegen wohl eher nicht aufgreifen dürften).

Assange, Snowden und Entmündigung im libertären Paternalismus

2013 habe, so Stalder, Edward Snowden die „flächendeckende Überwachung des Internets durch staatliche Geheimdienste“ enthüllt (S.233). Felix Stalder zitiert den Wikileaks-Gründer Julian Assange und resümiert: „Die Grenzen zwischen postdemokratischen Massenmedien und staatlichen Nachrichtendiensten sind fließend. Wie inzwischen bekannt ist, bestehen zwischen beiden Bereichen personelle Kontinuitäten und inhaltliche Gemeinsamkeiten.“ (S.234) Die USA hätten seit 2011 z.B. „ein eigenes Programm zu sozialen Massenmedien mit dem Namen ‚Social Media in Strategic Communication‘. (…) seit 2009 vernetzt die Europäische Union im Rahmen des INDECT-Programms Universitäten und Sicherheitsorgane mit dem Ziel ‚Lösungen und Werkzeuge der automatisierten Gefahrenentdeckung zu entwickeln’… Überspitzt könnte man sagen, dass die Missachtung der Grundrechte mit der Qualität der so geschaffenen Dienstleistung ‚Sicherheit‘ legitimiert wird.“ (S.235f.)

Leider sei die Gegenwehr gegen eine in westlichen Gesellschaften so geschaffene soziale Atmosphäre der Angst gering geblieben. Hinter Überwachung und Massenmanipulation stehe in den heutigen Postdemokratien, die demokratische Politik durch technokratisches Gouvernance ersetzen, eine neoliberale Anti-Aufklärung. Obsolet sei heute für die Machteliten „…die aus der Zeit der Aufklärung stammende Annahme, der Mensch könne sich durch den Einsatz seiner Vernunft und die Ausbildung seiner moralischen Fähigkeiten verbessern und sich aus seiner Unmündigkeit durch Bildung und Reflexion selbst befreien.“ (S.227) Eine kybernetische Sicht sehe den Menschen als dressierbare Versuchsratte, die mit subtilen „Nudges“ (Schubsern) zu steuern sei, so Richard Thaler und Cass Sunstein.

Die beiden Neobehavioristen bezeichnen ihr System als „libertären Paternalismus“, der eine „freiheitliche Bevormundung“ anstrebe, was bei den Regierungschefs in Washington und London, Obama und Cameron, so viel Anklang fand, dass sie Thaler und Sunstein in ihre Teams holten (S.228f.). Besonders in den sozialen Massenmedien (also den „sozialen Medien“, Stalder benutzt diesen gängigen Begriff jedoch nicht), ließe sich die mediale Umgebung via Nudging manipulieren. Dies geschehe vor allem im Dienste einer Gruppe, die Stalder als „den inneren Kern des postdemokratischen Systems“ bezeichnet, „bestehend aus den Spitzen der Wirtschaft, der Politik und der Geheimdienste“ (S.230). Viele Mainstream-Konformisten dürften in dieser simplen und analytisch untadelig abgeleiteten politischen Erkenntnis bereits angebliche „Verschwörungstheorie“ oder sogar „-ideologie“ wittern. Denn medial und in der akademischen Forschung werden die von Stalder aufgezeigten Fakten und Zusammenhänge geradezu krampfhaft ignoriert. Es ist zu befürchten, dass genau diese krampfhafte Ignoranz künftig zumindest diese Teile von Stalders Buch betreffen wird. Machtstrukturen dieses Kalibers werden bislang selten öffentlich diskutiert und dies geschieht dann oft nur in künstlerisch verfremdeter Form, wie etwa bei Mark Lombardi.

Stalder ruft im Fazit dazu auf, die Dynamik der Digitalität kritisch zu reflektieren und sich aktiv mit den Auswirkungen digitaler Technologien auf unsere Gesellschaft auseinanderzusetzen. Indem wir die Chancen und Herausforderungen der Digitalität verstehen, können wir Freiheit und Autonomie im digitalen Raum bewahren und weiterentwickeln: Obwohl „die Postdemokratie das Politische selbst abschaffen und alles einer technokratischen Alternativlosigkeit unterordnen will“, beweise die Entwicklung der blühenden Commons das Gegenteil, meint Stalder und schließt sein Buch mit dem Verweis auf utopische Potentiale der Digitalität: „Diese Widersprüchlichkeit der Gegenwart öffnet den Raum der Zukunft.“ Ausbaufähig scheint an Stalders Argumentation die Subjektkonstitution im Netz, die mit der Konzentration auf Kommunizieren, Posten und Liken wohl noch nicht ausreichend erfasst ist, sowie deren Verknüpfung mit Foucaults Konzept des Panoptismus.

12/21/16

German BND-NSA Inquiry Exhibits

Today, 1 December 2016, WikiLeaks releases 90 gigabytes of information relating to the German parliamentary inquiry into the surveillance activities of Germany’s foreign intelligence agency Bundesnachrichtendienst (BND) and its cooperation with the United States‘ National Security Agency (NSA).

The 2,420 documents originate from various agencies of the German government including the BND and Federal Office for the Protection of the Constitution, Bundesamt für Verfassungsschutz (BfV) and were submitted to the inquiry last year in response to questions posed by the committee. They include administrative documents, correspondence, agreements and press reactions. They also include 125 documents from the BND, 33 from the BfVand 72 from the Federal Office for Information Security (BSI).

The collection offers a detailed insight, not just into the agencies themselves, but also into the mechanics of the inquiry. Several documents detail how the agency in question collated the information that was requested of them. For example, a BND document shows its preparations for collecting internal information on which private US companies are operating in the security sector in Germany. Such internal processes are particularly pertinent to the inquiry. The committee has been trying (unsuccessfully so far) to gain access to the full selector list that the BND holds regarding who they spy on at the behest of the US. The BND is withholding this list from the inquiry on the grounds that releasing it could imperil the BND’s relationship with the NSA.

Whilst a number of facts have already come to light as a result of the inquiry including WikiLeaks’ publication of inquiry transcripts last year this substantial new collection of primary source documents provides significant new evidence. The collection contains early agreements between the BND and the NSA and internal processes at the BND, but also more recent details on the close collaboration between the two agencies. For example, one document from the BND states that a BND employee will be tasked to use and write software for XKeyscore, an NSA system for searching and analysing data collected through mass surveillance.

A number of the documents show how intelligence agencies find ways to work around their own government. Documents pertaining to an audit visit by Germany’s data protection agency to the BND’s offices show that BND officers withheld the notes made by the auditors during their visit. The BND would only release the notes to the auditors once they had checked the content for themselves.

The inquiry was established in 2014 in the wake of the Snowden revelations, which showed that not only was the NSA spying on the whole world, but it had also partnered with the intelligence services of particular states to spy on their citizens and those of the surrounding regions. One of these countries is Germany, which has had a close relationship with the US in military and intelligence matters since its occupation by US forces in WWII. The US has been shown to use its bases in Germany and its relationship with German intelligence to spy on German citizens as well as European Union institutions.

WikiLeaks revelations of NSA spying on Angela Merkel and top officials at German ministries, the EU and France also contributed to the political impetus of the inquiry.

The depth of this relationship had been unknown to the German public and much of its government. The outrage that was sparked by the Snowden NSA revelations led to the establishment of the inquiry, which later called for Mr Snowden to testify at it. Whereas there was initially unanimity among German political parties in 2014 for Snowden to provide expert testimony, the government deemed that guaranteeing that he would not be handed over to the US (a condition imposed by Snowden for testifying) would damage Germany’s political relationship with the United States. Subsequently, the Greens and the left-wing party (Die Linke) filed an official complaint to force the German Parliament to hear Mr Snowden.

Last week, on 21 November 2016, Germany’s Federal Court of Justice upheld the complaint and ruled that the committee was obliged to hear Edward Snowden in person. However, at the next inquiry hearing three days after the ruling, Chancellor Angela Merkel’s Union bloc and the Social Democrats removed Snowden’s invitation from the agenda of the inquiry and are contesting the Court’s decision.

Julian Assange said: „This substantial body of evidence proves that the inquiry has been using documents from Mr Snowden and yet it has been too cowardly to permit him to testify. Germany can not take a leadership role within the EU if it’s own parliamentary processes are subservient to the wishes of a non EU state.“

von WikiLeaks

09/20/16

SNOWDEN – Kino Sondervorstellungen 22.9. 2016

Friedemann Ebelt

Spannung und Datenschutz: Oliver Stones neuer Film „SNOWDEN“ kommt am 22. September 2016 in die deutschen Kinos und zeigt, dass Privatheit absolut kein langweiliges Anliegen ist.

Er war nun wahrlich kein Kritiker eines repressiven Staates: Edward Snowden war überzeugt, das Richtige zu tun, als er der National Security Agency (NSA) beitrat. Am 22. September 2016 startet der Kinofilm SNOWDEN in Deutschland, der erzählt, wie Edward Snowden vom Patrioten zum Helden wurde.

Zu argumentieren, dass Sie keine Privatsphäre brauchen, weil Sie nichts zu verbergen haben, ist so, als würden Sie sagen, dass Sie keine Freiheit der Meinungsäußerung brauchen, weil Sie nichts zu sagen haben. (Edward Snowden (siehe netzpolitik.org))

Edward Snowden will Gutes für sein Land tun und bietet seine Fähigkeiten zunächst als Soldat und dann als Mitarbeiter der NSA an. Aus dem Inneren des Geheimdienstes erhält er sodann Einblicke, die ihn erschüttern: Die NSA ist nicht nur im Ausland aktiv, sondern überwacht die eigenen Bürgerinnen und Bürger. Er wird selbst zum Täter, indem er diese Informationen freiweg nutzt und ausspielt, um einen Botschafter über den Umweg seiner Familie unter Druck zu setzen. Hier gelingt es Oliver Stone einfühlsam zu vermitteln, wie lebensnah es werden kann, wenn man zum Spielball eines Machtspiels wird, bei dem jemand ganz anderes das Angriffsziel ist.
Das stürzt ihn zunehmend in innere Konflikte, die ihn fürchten lassen, auch er oder seine progressive Freundin könnten z.B. über die Webcam ihres Rechners beobachtet werden. Und so versucht plötzlich der Patriot dem Freigeist zu erklären, warum sie eben doch etwas zu verbergen haben.

Der Film erzählt sehr einfühlsam die Geschichte von Edward Snowden, grandios gespielt von Joseph Gordon-Levitt, der nach und nach begreift, dass hier etwas gewaltig schief läuft. Er muss zusehen, wie Frauen sich vor ihren Laptops umziehen, ohne zu ahnen, dass sie beobachtet werden. Er ist Zeuge, als Erwachsene und Kinder in Afghanistan von Drohnen niedergeschossen werden, weil ein Datenauswertungsprogramm sagt, sie seien Terroristen. Snowden plant seinen Ausstieg und nimmt belastende Informationen über die Machenschaften der NSA mit.

Der Film ist packend und aufklärend zugleich. Er veranschaulicht die mächtigen Analysewerkzeuge der NSA und zeigt wie der amerikanische Geheimdienst sie systematisch missbraucht. Es ist Oliver Stone in diesem Film gelungen zu zeigen, wie aus einem normalen Mann mit Charakter ein Held wurde, der gar kein Held sein wollte und dennoch sein eigentlich sorgenfreies Leben aufgegeben hat, um seinem Gewissen zu folgen. (reblogged von https://digitalcourage.de/blog/2016/snowden-im-kino )

SNOWDEN ab 22. September 2016 im Kino Trailer ansehen
www.snowden-film.de
Ausführliche Filmkritik von Heise

08/8/16

Böse Sowjet-Fantastik

Arkadi und Boris Strugatskij, Die Last des Bösen, Frankf./M. 1991, Ullstein Verlag

Buchbesprechung von Thomas Barth

Die Handlung des Romans bewegt sich in vier ineinander verschachtelten Rahmenhandlungen. Ort: Taschlinsk, fiktive Provinzstadt in der Sowjetunion; Zeit: ca. 50 Jahre in der Zukunft; Art: utopische Groteske mit mystisch-esoterischen Elementen. Der Ich-Erzähler, dessen Identität als Igor Wsewolodowitsch Mytarin erst am Ende offenbart wird, schreibt ein Buch über seinen Mentor, den “Großen Lehrer” Georgij A. Nossow, genannt G.A. Dafür zitiert Igor umfangreich aus seinem 40 Jahre alten Tagebuch, in welchem er wiederum Zitate aus einem ominösen Manuskript “O3” darlegt, welches G.A. ihm damals gab. In diesem als phantastisch gekennzeichneten Manuskript wimmelt es von Rückblenden in biblische Zeiten, die auf die Vergangenheit von dort handelnden, anscheinend unsterblichen Personen, Ahasver Lukitschs und des Demiurg, verweisen.

SPOILER WARNUNG! Dies ist keine Rezension, sondern eine komplette Inhaltsangabe -wer den Roman noch mit allen Überraschungen genießen will, sollte nicht weiterlesen.

Vor 40 Jahren war Igor fanatischer Jünger des G.A. und stand ihm im Kampf um eine alternative Jugendkolonie vor den Toren der Stadt, der “Flora”, bei. Die Flora-Jugend verweigert die Teilnahme an Arbeit und Konsum, praktiziert freie Liebe und Drogenrausch. Als nach einem Rockkonzert auch noch Autos und Fensterscheiben zertrümmert werden, blasen die Bürger von Taschlinsk zur Angriff. Nur G.A., erster Pädagoge am legendären Lyzeeum, einer Lehrerschule, tritt für die Flora ein. Ein blutiges Pogrom braut sich zusammen. Auch G.A. und seine Schüler geraten ins Kreuzfeuer, man demonstriert und fordert die Schließung der Eliteschule. Igor liest derweil im geheimnisvollen Manuskript O3, welches von einem Astronomen namens Manochin hinterlassen wurde. Manochin bekommt den Versicherungsvertreter Lukitsch als Zimmergenossen zugewiesen und erkennt bald, daß dieser mehr als nur Versicherungen verkauft. Aus seiner zuweilen feuerspeienden Aktentasche zieht er Verträge in linksläufiger Schrift in welchen seinen Kunden viel Geld und Lebenserfolg zugesichert wird, gegen die Überlassung ihrer “nicht-materiellen unkörperlichen Substanz”. Der bald auftauchende Chef von Lukitsch, der Demiurg, ist noch unheimlicher; dennoch macht Manochin ein Geschäft: Eine astrophysikalische Theorie von ihm wird plötzlich zur Wahrheit, er hingegen leistet dem Demiurgen Handlangerdienste. Rückblenden, deren Verbindung zu “O3” unklar bleibt, beschreiben Lukitschs und des Demiurgen Vergangenheit als Jünger des biblischen Jesus, bzw. Propheten; die Geschichte Jesu wird dahingehend erläutert, daß Judas -ein gutmütiger Schwachsinniger- auf Jesu Geheiß den Verrat beging, Johannes dagegen einen Fluch der Unsterblichkeit auf sich lud und zum Sammeln menschlicher Seelen überging, während der biblische Johannes in Wahrheit ein Jünger des Unsterblichen war und dessen Worte im gemeinsamen Exil auf Patmos literarisch ausschmückte. Lukitsch und der Demiurg scheinen ein unheimliches Experiment mit Manochin, vielleicht auch ganz Taschlinsk oder gar der ganzen Menschheit vorzubereiten, dessen Ziel möglicherweise die Beseitigung alles Bösen oder aber dessen Verwirklichung sein könnte. Auch G.A., dessen Sohn sich als Anführer der Flora entpuppt, scheint mit Luktisch ins Geschäft gekommen zu sein, wie dessen Auftauchen im Gesichtskreis des Ich-Erzählers Igor letztlich nahelegt. Die Flora zerstreut sich freiwillig, G.A. mußte anscheinend fliehen -doch hier bricht das Tagebuch ab. Th. Barth 8/1995

Arkadi Strugatskij, geb. 1925, Sowjetunion, und Boris Strugatskij, geb. 1933, Sowjetunion; Die Last des Bösen, (Otjagoschtschenije slom), Ullstein Verlag 1991. Ort: Taschlinsk, fiktive Provinzstadt in der Sowjetunion; Zeit: ca. 50 Jahre in der Zukunft; Rezension Nr. 5 für Romanführer, Hamburg, Oktober 1995, Thomas Barth

07/8/16

SF-Sowjet-Satire Troika (A&B Strugatski)

Troika, (Skaza o troike, Zs. “Smena”, Moskau 1987, Nr. 11-14); Frankfurt: Suhrkamp Taschenbuch 2221, 1993. Ort: fiktive “Kolonie für unerklärte Erscheinungen” in der Sowjetunion; Zeit: nahe Zukunft; Art: phantastische Satire auf die sowjetische Bürokratie und Glasnost. Autoren sind die Brüder Arkadi STRUGATZKI (1925-1991) und Boris STRUGATZKI (1933-2012) geboren in der Sowjetunion.

Buchbesprechung von Thomas Barth

Die überschäumende Fantasie der Brüder Strugatski widmet sich hier der sowjetischen Bürokratie: Eine Kolonie für unerklärte Erscheinungen ist Sitz einer bürokratischen Institution, der Kommission für unerklärte Phänomene, deren Aufgabe es ist, esoterische, parawissenschaftliche, phantastische usw. Dinge als solche zu benennen bzw. zu verwerfen und sie ggf. als Bedrohung zu vernichten oder sie gesellschaftlichen Stellen zu überantworten. Die drei Mitglieder der Kommission werden auch “Troika” genannt.

Die Troika: Lawr Fedotowitsch Wunjukow ist der senile Vorsitzende, der sich immer wieder an den unsinnigsten Stellen seiner wirren Einlassungen auf die von ihm vertretenen “Interessen des Volkes” beruft. Der Oberst ist erster Beisitzer und fällt als Vertreter des Militärs durch unerschütterliches Schnarchen auf, nur zuweilen unterbrochen von im Schlaf gemurmelten Kommandos an seine alte ruhmreiche Einheit der motorisierten Kavallerie. Rudolf Archipowitsch Chlebowwodow, zweiter Beisitzer, entnervt durch seine übereifrige Einfältigkeit, die ihn als Mitläufer an die Spitze gebracht hat. Ergänzt wird das Unternehmen durch den Schreiber Farfurkis, peniblen Vollstrecker juristischer Winkelzüge und Prof. Wybegallo, der als wissenschaftlicher Berater seine Belesenheit in deplazierten französischen Zitaten und akademischer Arroganz ausdrückt, ohne Chlebowwodow an Intelligenz zu übertreffen. Subalterner Diener der Kommission ist der Kommandant Subo, zuständig für die Wartung, Bewachung, Unterbringung und Fütterung der als Phänomen zu verhandelnden Wesenheiten.

SPOILER WARNUNG! Dies ist keine Rezension, sondern eine komplette Inhaltsangabe -wer den Roman noch mit allen Überraschungen genießen will, sollte nicht weiterlesen.

Der Ich-Erzähler Alexander Iwanowitsch Priwalow, gehört zu einer Gruppe junger, engagierter Wissenschaftler, die sich jeweils für eines der Phänomene interessieren und bei der Kommission einen Antrag auf Überstellung an ihre Forschungsinstitute gestellt haben, wobei sie eine teils schon monatelange Wartezeit in Kauf zu nehmen haben. Priwalow will den “Black Box” -Vorgang Nr. 97 für sein Forschungsinstitut der Hexerei und Zauberkünste gewinnen. Er hat drei junge Freunde: Den radikalen Vitjka Kornejew, der die Verhandlung seines “flüssigen Außerirdischen” nicht abwarten möchte und immer wieder auf illegalen Zugriff sinnt; Edik Amperjan, ein naiver Neuling aus einer “Abteilung für lineares Glück” und Anwärter auf die “Wanze Quasselstrippe”, ein sprechendes und philosophierendes Insekt, welches die Menschen immer wieder ungefragt mit Enthüllungen der Greueltaten gegenüber Kerbtieren konfrontiert und sie z.B. der “typischen Weltsicht narzißtisch veranlagter mittelgradig Schwachsinniger” bezichtigt, welche aus dem uralten menschlichen Traum, fliegen zu können, also dem Neid auf die Insekten, entspringt. Vierter im Bunde ist Roman Oira-Oira, dessen Sehnsucht dem riesigen, ebenfalls sprechenden Kraken Spiridon gehört, welcher sich selbst als “Bevollmächtigter Botschafter der Generalfreundschaft urtümlicher Kopffüßer” bezeichnet und bei der Kommission vergeblich seine Akkreditierung fordert.

Fedja, der Schneemensch, ein schüchterner Flugsaurier und eine offensichtlich gefälschte Wahrheitsmaschine sind weitere “Vorgänge”, die den Protagonisten Priwalow und seine trotz magischer und parapsychologischer Talente der Bürokratie hilflos gegenüberstehenden Freunde über absurde Verhandlungen und Begehungen angeblich verwunschener Sümpfe etc. schließlich zu einer systemkonformen Lösung bringen: sie entnerven die alte Troika solange, bis diese Priwalow zum Vorsitzenden einer “Unterkommission für Kleinkram” ernennt, die sie als Mitglieder besetzen, um sich den “STEMPEL” der nun unterwanderten Bürokratie selbst auf ihre Anträge zu setzen. Sie ziehen mit ihren zumeist über diese Befreiung beglückten “unerklärten Phänomenen” davon.
Rezension Nr. 6 für Romanführer, Hamburg, Oktober 1995, Thomas Barth

Unter dem Titel „Das Märchen von der Troika“ auch in Band 6 der Werkausgabe im Golkonda-Verlag

Wikipedia: Das Märchen von der Troika (russisch Сказка о Тройке Skaska o Troike) ist eine Erzählung von Arkadi und Boris Strugazki aus dem Jahr 1967, die Fortsetzung zu Der Montag fängt am Samstag an. Ursprünglich sollte diese Erzählung in den Verlagen Molodaja Gwardija und Detskaja literatura erscheinen, die Veröffentlichung wurde jedoch aufgrund der Kritik an der sowjetischen Bürokratie abgelehnt. Im Jahr 1967 wurde eine kürzere, harmlosere Version der Erzählung in zwei Ausgaben der Zeitschrift Angara in Irkutsk abgedruckt. Selbst dann wurde die gesamte Auflage der beiden Angara-Ausgaben eingestampft; der Chefredakteur der Zeitschrift, Juri Samsonow, wurde seines Postens enthoben. In der Sowjetzeit wurde „Das Märchen von der Troika“ unautorisiert im deutsch-russischen Dissidentenverlag Posev veröffentlicht. Erst zwanzig Jahre später wurde die Originalversion der „Troika“ in der Sowjetunion in der Zeitschrift Smena veröffentlicht. (Anm. d. Rezensenten: Und trug vermutlich zur nur vier Jahre später erfolgten Auflösung der UdSSR bei.)

12/24/15

EU-Democracy: Im Datenrausch

Kinokritik von Thomas Barth

David Bernets Kinofilm bringt kaum Neues zum Datenschutz, man bekommt stattdessen ein rosarot gemaltes Bild der EU-Legislative und ihrer engen Beziehung zum Lobbyismus: Dokumentarfilm oder Propagandastreifen für die Diktatur des Geldes in einer korrupten Europäischen Union?

Der Kinofilm Democracy -Im Rausch der Daten dokumentiert den parlamentarischen Gesetzgebungsprozess der EU anhand des europäischen Datenschutzes. Der handwerklich gut gemachte Film ergreift zwar Partei für den Datenschutz, aber er tut dies aus der unreflektierten Perspektive eines von Industrielobbyisten vorgegebenen Rahmens. Nur aus dieser Perspektive erscheint am Ende der vorgelegte Gesetzentwurf als großartiger Erfolg. Tatsächlich hat die Politik hier nur ausnahmsweise und auch nur teilweise endlich einmal das getan hat, wofür wir sie gewählt haben: Unsere Rechte zu verteidigen. Aber das Gesetz, dessen Werdegang von 2012-2013 dargestellt wird, ist bis heute nicht in Kraft.

Die Grünen wird der Film freuen, denn ihr Protagonist, der EU-Parlamentarier Jan Philipp Albrecht, wird neben der EU-Kommissarin Viviane Reding als Hauptfigur des Datenschutzes präsentiert. Im Januar 2012 hatte Reding für die EU-Kommission eine Reform der EU-Datenschutzvorschriften vorgeschlagen, der im Oktober 2013 der Vorschlag eines im EU-Parlament unter Federführung von Albrecht ausgehandelten Gesetzesentwurfs folgte, der den Datenschutz noch weiter verschärfen sollte. Besagte Verhandlungen werden im Film „Democracy“ akribisch verfolgt.

Der Kampf um das Thema außerhalb der EU-Bürokratie wird dagegen in nur fünf Filmminuten abgehandelt, die von Snowdens Enthüllungen handeln. Die europaweite Entstehung einer einer neuen politischen Bewegung zum Thema Netzpolitik und Datenschutz, der Piratenpartei, blendet „Democracy -Im Rausch der Daten“ fast völlig aus. Nur eine halbe Sekunde ist am unteren Rand eines Plakats mit Edward Snowdens Gesicht unter dem Slogan „Stop watching us“ das Wort „Piratenpartei“ zu erhaschen, dann drängen sich wieder Werbe-Luftballons der Grünen ins Bild. Klasse Parteipropaganda, oder?

Aber waren die überraschend großen Wahlerfolge der Piraten, die gerade in Deutschland bis in den zweistelligen Bereich emporschossen und ihnen teilweise bis heute Einfluss in Landesparlamenten von Berlin und NRW sicherten, wirklich so unbedeutend für den Datenschutz, dass eine solche Doku sie weglassen darf? Zählen Millionen Wählerstimmen für den Film „Democracy“ weniger als das PR-Gerede von Industrie-Lobbyisten in Brüssel? Welches Bild von Demokratie wird so vermittelt?

Lobbyismus wird nicht hinterfragt

Die äußerst dubiose Rolle des Lobbyismus im EU-Gesetzgebungsprozess wird von Bernet weniger hinterfragt als vielmehr zur Naturgewalt stilisiert: Korrupte Politiker werden zu Heroen geschönt, die gegen einen „Lobbyorkan“ ankämpfen müssen (dem sie, das leuchtet jedem ein, hie und da einfach erliegen müssen -wo genau wird jedoch verschwiegen). Dass diese Politiker die Lobbyisten erst in die Gesetzgebung hinein gelassen haben und sich von ihnen mit Kaviarempfängen und unzähligen mehr oder weniger korruptiven Gaben umschmeicheln lassen und sich sogar die angeblich von ihnen, den Politikern mühsam erarbeiteten Gesetzestexte von den Lobbykraten formulieren lassen, verschweigt Bernets Film. Korruption wird damit zugleich verharmlost, vertuscht und in ihren konkreten Folgen verschwiegen.

Jacques Santer und die EU-Bangemann-Affäre

Ist Bernets Film selbst eine dreiste PR-Produktion, die uns ein weichgespültes Bild der EU vorsetzt? Wer uns über die EU-Demokratie informieren will, kann sich, so sollte man meinen, kaum um die zahlreichen Korruptionsfälle herum drücken, bis zum Sturz einer kompletten EU-Kommission unter Jacques Santer 1999 wg. einer korrupten Édith Cresson, die beim Griff in die Kasse erwischt, letztlich sogar ungestraft davon kam. Mit der Bangemann-Affäre gab es einen der größten Skandale überhaupt genau im Bereich Netz- und Datenwirtschaft: Der dafür zuständige EU-Kommissar Bangemann (FDP) wollte nach Dienstende flugs zur IT-Firma Telefonica wechseln, die dank der vom Industriefreund Bangemann durchgesetzten Liberalisierung der Kommunikationsnetze saftige Gewinne einstreichen konnte. Das hatte eine Debatte über Mechanismen der Korruption ausgelöst.

Jacques Santer (Luxemburg), Staatsminister a. D., Präsident der EU-Kommission a. D. ist inzwischen im Führungskreis des INEA an den Schalthebeln der Lobby-Macht: Das Institute for European Affairs e.V. (INEA) mit Sitz in Düsseldorf ist eine europaweit – mit Schwerpunkt Osteuropa – tätige Beratungs- und Lobbyorganisation. Sie ist eng mit dem Baltic Sea Forum verflochten, mit dem sie im Ostseeraum kooperiert. Führende Mitarbeiter des INEA waren früher in die Aktivitäten der Sicherheitsfirma Prevent involviert. All diese Hintergründe lässt der Kinofilm im launigen Hahaha der Sektempfänge im Lobbyland verschwinden. Bestechung, Personalkarussell und Lobbyismus gehören zusammen und sind Grundübel unseres politischen Systems, die dringend öffentlicher Aufklärung bedürfen. Doch stattdessen gewährt Dokumentarfilmer Bernet vielen Lobbyisten ein Forum zur Selbstdarstellung, das dieser in PR und Rhetorik bestens geschulte „Berufsstand“ zu nutzen versteht. Der Film wird damit Teil der lobbykratischen Korruption und ihrer Propaganda.

Datenschutz kommt zu kurz

Datenschutz war in der deutschen Politik immer ein wichtiges Thema, schon beim Volkszählungsboykott in den 1980er-Jahren über das Erstreiten eines „Rechtes auf informationelle Selbstbestimmung“ vor dem Verfassungsgericht bis zu den aktuell tobenden Gefechten gegen die Vorratsdatenspeicherung.

Die internationale Dimension zeigte sich spätestens beim Echelon-Skandal, der einen Konflikt Washingtons mit Westeuropa (außer Großbritannien) offen legte: NSA und andere Geheimdienste greifen in größtmöglicher Weise illegal auf die Daten der Europäer zu. Im diplomatischen Krypto-War um die Freigabe von Verschlüsselungstechnik für die Bürger eskalierte zwischen USA und EU ein Streit um den Datenschutz, der nie wirklich beigelegt werden konnte.

Mit den Enthüllungen von WikiLeaks wurde der „panoptische Blick“ der alles-sehenden Augen von NSA & Co. erstmals in großem Maßstab umgekehrt. Die alte Utopie von Hacker-Bewegung und Netzkultur, die Vision eines „Inversen Panoptismus“, wurde ansatzweise zur Realität.

Eine zweite, noch größere Bresche schlugen die NSA-Leaks von Edward Snowden in die Palisaden der globalen Überwacher. Während heute Geheimdienste um den Schutz ihrer Geheimdaten bangen, stacheln sie zugleich die Netz- und Medienwirtschaft an, den Datenschutz der Bürger immer aggressiver zu untergraben – wie Snowden enthüllte.

Big Data ist das Stichwort und die „sozialen Netzwerke“ von Facebook, Google & Co. sind ihre „digitalen Fischgründe“. Aber Bernets Film bleibt beim Thema Datenschutz leider sehr oberflächlich. Die netzpolitische Debatte, deren Intensität seit Snowden noch einmal enorm gestiegen ist, streift er nur allzu knapp. Nur fünf Minuten, von Filmminute 80 bis 85, von 100, widmet er einigen reißerischen Bildern der außerparlamentarischen Kämpfe, von „Snowden – Held oder Verbrecher?“ bis zur Demo „Freiheit statt Angst“ aus Kreisen der deutschen Hacker-Netzkultur. Das ist zu wenig. Und die Rolle der EU-Kommission wird anbiedernd heroisiert: Waren Kommissarin Reding & Co. -insbesondere angesichts der Snowden-Enthüllungen- wirklich so engagiert für den Datenschutz, wie ihre PR-Leute und dieser Film uns weismachen wollen? Regierungskritiker der Hackerszene sind da ganz anderer Ansicht:

„Als der Guardian am 5. Juni die ersten Informationen über die gigantische Überwachung aller Bürger/innen durch amerikanische Geheimdienste publik machte war die Reaktion in der EU verhalten. Nur einzelne Abgeordnete des EU-Parlaments veröffentlichten kritische Presseaussendungen und versuchten mehr Informationen durch Anfragen an die Kommission zu erlangen. Erst als auch die Überwachung durch europäische Geheimdienste, etwa durch Tempora und die Datenweitergabe der USA an europäische Dienste thematisiert wurde, wachten auch die EU-Politiker/innen langsam auf… Erst am 14.Juni äußerten sich die beiden Kommissarinnen Viviane Reding, zuständig für Justiz, und Cecilia Malmström, zuständig für Inneres, zu dem Überwachungsskandal… Und auch bei der Beantwortung der unzähligen parlamentarischen Anfragen zeigt die Kommission keinen besonders großen Willen, den Skandal aufzuklären. Am Ende bleibt ein zahnloser Ausschuss… (Es ist) zu befürchten, dass sich die Kommission weiter von den Amerikanern die Bedingungen der Aufklärung diktieren lässt und am Ende keine ausreichend verwertbaren Informationen vorlegen kann, um gegen die gigantische Überwachung aktiv werden zu können.“ Alexander Sander: Aufklärung à la EU, in: Hrsg. Markus Beckedahl & Andre Meister (Hg.): Überwachtes Netz. Edward Snowden und der größte Überwachungsskandal der Geschichte, 2013, S.128-130.

Es ergibt sich beim Blick auf das EU-Parlament in diesem Film ein auf seine beiden politischen Akteure beschränktes Bild. Besonders gefährlich ist die großzügige Einbindung der Industrie-Lobbyisten, deren Weltsicht geradezu als „natürlicher“ Hintergrund der Debatte präsentiert wird.

Es entsteht ein pseudo-ausgewogenes Storybord zur Geschichte des Datenschutzes: Hier die Wirtschaft, dort die Politik. Doch geht es nicht um unsere künftigen Menschenrechte? Würden wir bei der Debatte um Frauen-, Kinder- oder Organhandel, jene in die Diskussion einbinden wollen, die am Raub menschlichen Lebens und menschlicher Freiheit ihren schmutzigen Profit erwirtschaften wollen?

Betonung der Sicht der Lobbyisten

Bernets Film kritisiert zwar die Lobbyisten der IT-Industrie, aber er lässt sich von ihnen das Spielfeld vorgeben, auf dem das geschieht. Schon der Beginn seines Film steckt dieses Spielfeld ab. Erste Szene: Ein Hubschrauber fliegt über Athen. Eine Stimme aus dem Off (wie wir später erfahren, ein Lobbyist) erklärt uns im Ton eines Dokumentarfilms:

Viele Leute sagen, Daten sind das neue Öl, das Öl des 21.Jahrhunderts. Ein guter Vergleich, wenn man bedenkt, wie Öl unsere Welt geformt hat. Es hat uns globale Mobilität ermöglicht. Öl liefert uns Energie, hat unser Leben für immer verändert und Daten werden dasselbe tun. Je mehr Daten wir haben, umso interessantere, weltverändernde und bislang undenkbare Dinge werden Wirklichkeit. Aber wer keine Daten hat, hat auch kein Öl. Leider gibt es einen großen Widerspruch zwischen BigData und dem Wunsch nach Privatsphäre. Es werden riesige Mengen an Daten generiert, die persönliche Informationen enthalten. Die Frage ist nun: Wie sollen diese Daten genutzt oder geschützt werden? Wer hat die Kontrolle darüber? Wem gehören sie? Es ist entscheidend, dass wir die richtige Antwort finden.

Die erste Szene führt dann die beiden Hauptprotagonisten ein, EU-Kommissarin Reding und den Grünen Jan-Philipp Albrecht. Von Albrecht sieht man zunächst zwei ungeschickte Hände, die versuchen eine Krawatte zu binden. Er blättert dabei auf seinem Smartphone in einer Online-Anleitung zum Krawattenbinden. Albrecht wird als unangepasster Grüner präsentiert, vielleicht auch als Grünschnabel, der jedoch mit dem Internet umgehen kann.

Dann tritt Reding auf, in Politikerpose. Man ahnt, sie saß als VIP im angeflogenen Hubschrauber, der zugleich die „globale Mobilität“ durch Erdöl aus dem Lobbyistentext visualisierte. Sie steht vor Journalisten, redet souverän auf sie ein. Die Rollen von Reding und Albrecht werden in dieser Szene ebenso abgesteckt, wie die der EU-Industrie-Lobbyisten als Stichwortgeber, Drahtzieher und Spielmacher im Hintergrund.

David Bernet fängt mit Bildern, Musik und Schnitttechnik Stimmungen ein, vermittelt ein kurzweilig-emotionales Erlebnis der trockenen EU-Parlamentswelt. Die Personen werden plastisch gemacht, besonders Albrecht, dessen Gewohnheiten und Gefühle dokumentiert werden: Beim Kekseknabbern, bei der Arbeit, in seiner Rolle als von der mächtigen Kommissarin Reding gefördertes, ursympathisches Nachwuchstalent. Hier liegt der Schwerpunkt des Films, nicht bei der Thematik des Datenschutzes. Dies liegt vielleicht auch daran, dass Bernet quasi zufällig über das Thema stolperte, wie er selbst berichtet.

Auf die Frage, wie er auf die Idee kam, einen Dokumentarfilm über die EU-Datenschutzreform und das damit verbundene Gesetzgebungsverfahren zu drehen, antwortet David Bernet laut Presseheft:

Als ich vor ungefähr fünf Jahren die Recherche für DEMOCRACY – IM RAUSCH DER DATEN aufnahm, ging es noch nicht um Datenschutz, sondern um zwei grundsätzliche Fragen: Werde ich den Zugang bekommen, um einen solchen Dokumentarfilm im Inneren der EU-Institutionen zu drehen? Und falls ja, welches Gesetz würde von so großer Relevanz sein, dass die Debatte dazu während des Drehzeitraums europaweit heiß laufen könnte? (…)

Als ich nach (…) vielen Wochen Recherche meinen Produzenten mitteilte, dass die EU-Datenschutzreform wohl dieses heiße Eisen werden wird und ich den Film zu diesem Thema sehe, schlugen sie berechtigterweise die Hände über dem Kopf zusammen. Denn es war 2010. Das Thema Datenschutz war damals komplett außer Reichweite und nur die politischen Avantgardisten in Brüssel konnten wissen, wie bedeutsam dieses Gesetz für die Zukunft unserer Gesellschaft werden wird.

Über die Idee, „nur die politischen Avantgardisten“ hätten 2010 erkennen können, wie bedeutsam Datenschutz für die Zukunft unserer Gesellschaft werden wird, kann man nach drei Jahrzehnten politischer Kämpfe um das Thema nur die Stirn runzeln. Immerhin kommen auch NGO-Vertreter zu Wort, von denen die kritischeren Beiträge zum Thema stammen. Dabei werden leider Industrie-Lobbyisten mit NGO-Bürgerrechtlern schwer unterscheidbar gemischt.

Von der modernen Pest der BONGOs und GONGOs (Business- bzw. Government Organised NGO) hat Bernet scheinbar auch noch nichts gehört. Wenigstens erfährt man, dass in Brüssel 99 Prozent der Lobbyarbeit durch offen agierende Industrie-Lobbyisten geleistet wird. Besonders viel Raum bekommt Kataryna Szymielewicz, Gründerin und Vorsitzende der NGO „Panoptykon Foundation“ (Warschau). Die Kamera folgt der jungen attraktiven Juristin, die erläutert:

Überwachung bedeutet nicht, dass jemand weiß, wie man nackt aussieht oder mit wem man seine Nächte verbringt. Das ist Kinderkram, für den sich niemand interessiert. Tatsächlich geht es bei der Überwachung darum, Menschen und Bevölkerungsgruppen zu steuern.

Die Industrie wolle ihre Kundenprofile auf Kosten der Freiheit aufbauen und etwa jungen Frauen in polnischen Dörfern Töpfe und Pfannen verkaufen, statt roten Highheels, die ihnen Flausen in den Kopf setzen könnten. Szymielewicz‘ Bewertung der Überwachung ist richtig, wenn sie auch bei Webcams irren mag, deren Missbrauch durchaus der Gewinnung pornographischer Bilder dienen kann.

Auch finden sich vermutlich viele Onlinefirmen, die gerne jedwedes Schuhwerk in die polnische Provinz liefern würden. Warum aber zitiert die Doku Szymielewicz ausgerechnet mit Nacktheit, Bett- und Highheels? Dies lenkt nur von der politisch bedeutsameren Manipulation und Bevölkerungssteuerung durch BigData ab.

Data-Mining versus Menschenrecht

Mit Data-Mining in unserer Netzkommunikation wird das Marketing an Kundenprofilen perfektioniert, die jede Stasi-Akte in den Schatten stellen. Damit wird auch Geld verdient, aber ein wichtiger Aspekt ist zweifellos das Abschöpfen dieser Profile durch Geheimdienste, denen jede Privatsphäre ein Gräuel ist (außer ihrer eigenen). Nach außen propagieren Werbe-Abteilungen und Lobbyisten diese kriminelle, zumindest aber ethisch fragwürdige Praxis mit PR-Parolen wie „Daten sind das neue Öl“.

Mit genau diesem Satz beginnt der Film „Democracy -Im Rausch der Daten“ und viele Lobbyisten bekommen Gelegenheit, ihn in Variationen zu wiederholen. Der Hauptprotagonist der Doku, der grüne EU-Politiker Jan Philipp Albrecht, hört ihnen geduldig zu, während er um einen Kompromiss für die europäische Datenschutzverordnung im EU-Parlament ringt. Seine Devise ist: „Wenn Daten das neue Öl sind, ist Datenschutz der neue Umweltschutz“ -und somit Sache der Grünen. Die Botschaft: Kritik ist erlaubt, wenn sie im Rahmen der von Industrie-Lobbyisten vorgegebenen Weltsicht bleibt.

Dass es bei unseren persönlichen Daten um etwas fundamental anderes geht als um einen neuen Rohstoff, dass es hier um den Zugriff auf unser Grund- und Menschenrecht auf informationelle Selbstbestimmung geht, tritt in den Hintergrund. Dass es damit um die Macht geht, uns alle in bislang undenkbarem Ausmaß zu kontrollieren und zu manipulieren, bleibt ungesagt. Die oft wiederholte Parole, künftig wären unsere privaten Daten eben die Währung, in der wir die Netzkonzerne für „kostenlose“ Dienstleistungen bezahlen müssten, bleibt unhinterfragt.

Vielleicht zeigt sich hier eine besonders perfide Wirkung der Ideologie des Neoliberalismus: In einer Welt, in der alles zum Wirtschaftsgut gemacht werden darf (unsere Beziehungen im Netz, unsere ausgeforschte Persönlichkeit, unser Leben) werden die Menschenrechte in die Ecke gedrängt. Nicht mehr die Industrie soll sich rechtfertigen, unsere Daten abzugreifen, wenn wir sie in unseren öffentlichen Netzen Geld verdienen lassen – Wir sollen uns rechtfertigen müssen, wenn wir dies verweigern oder begrenzen wollen.

Die neoliberale Ideologie des „Wer zahlt befiehlt“ gewinnt an Macht durch die immer weiter gehende Privatisierung öffentlicher Infrastruktur. Im Netz genügt den Unternehmen nicht mehr die zu Beginn des Netzfirmen-Booms propagierte „Ökonomie der Aufmerksamkeit“, bei der sie unsere Weltsicht hemmungslos mit Werbung verkleistern darf.

Jetzt wollen die zu global dominierenden Multi-Milliarden-Konzernen angeschwollenen Firmen auch noch unser Recht auf Selbstbestimmung in Geiselhaft nehmen. Und das, obwohl wir inzwischen nicht mehr nur befürchten, sondern definitiv wissen, dass hinter ihnen die Geheimdienste lauern, die in krimineller Weise unsere Daten missbrauchen.

Bei der Abwägung dieser menschlichen Güter gegen Begierden der Wirtschaft darf es keine kompromisslerische Haltung geben. Nur weil der virtuelle Raum der Daten und Netze abstrakter scheint und heute von vielen erst ansatzweise verstanden wird, darf hier nicht mit Lobbyisten geschachert werden. Ebenso wenig wie in der Frage der Sklaverei, für deren Fortsetzung Wirtschaftsunternehmen sicherlich auch zahlreiche ökonomische Argumente angeführt haben. Letztlich geht es um die Frage, ob die Wirtschaft der Gesellschaft dienen soll oder umgekehrt.

Bernets Film „Democracy“ präsentiert uns das EU-Datenschutzgesetz, dessen Umsetzung bis heute verschleppt wird, als grandiosen Sieg von Parlament und vernünftigem Kompromiss von Politik und Lobbyisten. Aber eher dokumentiert er wohl die dringende Reformbedürftigkeit unserer durch eine systemintern installierte Lobby-Diktatur zutiefst korrumpierte Gesetzgebungsprozesse.

(Eine gekürzte Version dieser Kinokritik erschien auf Telepolis.)

06/15/15

Netzphilosoph Michel Foucault

Thomas Barth

Westliche Rationalität sieht Foucault als im Netz einer Macht entstanden und verstrickt, die sich in unsere Diskurspraktiken einschreibt. Koloniale, patriarchale, klassistische Unterdrückung sind nur ihre leicht sichtbaren Blumen des Bösen, deren Rhizom, deren Wurzelwerk tief in unserer Kultur verborgen liegt.

Michel Foucault glänzte als Denker und Provokateur, als undogmatischer Linker und Gegenspieler Sartres. Er verstand es, sich erfolgreich einer disziplinierten Wissenschaft zu entziehen: Die Philosophie nannte ihn einen Historiker, Historiker sahen in ihm den Philosophen; Marxisten warfen ihm „infantile leftism“ vor, weil er, wie er selbst mutmaßte, sich weigerte, die obligatorischen Marx-Zitate in seine Schriften einzuflechten. Statt dessen nannte er Marx gern einen „berühmten Nach-Hegelianer“, dessen Reduktion des Menschen auf die Arbeit man vergessen solle.

Auch seine Bekenntnisse zu Nietzsche und Heidegger, den beiden gern als Nazi-Philosophen abgetanen Vordenkern postmoderner Aufklärungskritik, machten ihn verdächtig. (Nietzsche wird dabei wohl fälschlich verdächtigt, wohingegen Heidegger tatsächlich Antisemit im Sinne der Nazis war und in Nazi-Deutschland Karriere machte, was seine philosophischen Einsichten aber nicht völlig entwertet.) Foucaults schwer fassbarer, netzartiger Begriff von Macht ist kaum mit orthodox-marxistischen Vorstellungen kompatibel, weshalb der Denker der Kommunistischen Partei Frankreichs auch schnell den Rücken kehrte.
Die Biographie Foucaults ist reich an Brüchen und Verwerfungen persönlicher und politischer Natur. In zwölf Semestern Studium an der Pariser École normale supérieure brachte der Sohn eines Mediziners es auf drei Abschlüsse (Philosophie/Psychologie) sowie zwei Selbstmordversuche. Er lehrte und forschte dann 1955-59 in Schweden, Polen und Hamburg. 1961 erhielt er den Doktortitel mit „Wahnsinn und Gesellschaft“, eine Geschichte der Ausschließung der Irren im Zusammenhang der Entfaltung abendländischer Vernunft. Die Schrift brachte ihm, wie er sagte, noch 20 Jahre nach der Publikation wütende Briefe von Psychiatern ein. Sein nächstes großes Werk „Die Ordnung der Dinge“ machte ihn 1966 als strukturalistischen Gegenspieler Sartres berühmt. 1970 wird Foucault Professor für die Geschichte der Denksysteme am Collège de France, entwirft ein Programm für die Erforschung diskursiver und sozialer Ausschließungen. 1971 Gründungsmitglied der G.I.P. (Gruppe Gefängnisinformation), deren Arbeit mit Häftlingen zur Kritik an Zuständen im französischen Justizapparat bis hin zu Gefängnisrevolten führt.

1974 deckt Foucault mit „Überwachen und Strafen“ gemeinsame Wurzeln von Liberalismus und Einsperrung, von Freiheitsrechten und Disziplinarinstitutionen auf: Der Panoptismus, die Überwachung vieler durch wenige, erscheint als dunkle Seite der Aufklärung, welche die traditionelle Kritik von Staat und Ökonomie bislang ausgeblendet hatte. Anders als die Frankfurter Schule (Horkheimer/Adorno) sieht Foucault jedoch Widerstandspotentiale jenseits des gescheiterten marxistischen Projekts. 1976 in „Der Wille zum Wissen (Sexualität und Wahrheit 1)“ lokalisiert Foucault den zentralen Mechanismus einer „Bio-Macht“ in der Kontrolle menschlicher Sexualität, die das Subjekt in seinen Lüsten und Begierden wie die Bevölkerung in der Reproduktion erfasst.

Mikrophysik der Macht

Doch Foucault war nicht nur Wissenschaftler. Immer wieder zog es ihn zu Brennpunkten der Krise westlicher Zivilisation. 1978 berichtete er als Journalist aus Teheran über die erste erfolgreiche Revolution islamischer Fundamentalisten, die im Iran das CIA-gestützte Folterregime des Schahs besiegen: der Beginn der heutigen islamischen Bedrohung der USA. Vier Jahre später war er in Polen und unterstützte mit Hilfstransporten die Gewerkschaft Solidarnosch, die das Ende des „realen Sozialismus“ und der Blockkonfrontation einleitete. Ende der 70er-Jahre, bei Aufenthalten in der schwulen SM-Szene Kaliforniens (Foucault machte keinen Hehl aus seinen Neigungen, bezeichnete sie im Interview als zu gewöhnlich und banal, um sie dem Publikum vorzuenthalten), infizierte er sich vermutlich mit dem damals noch unbekannten HI-Virus. Er starb am 25.6.1984 an Aids. Seine beiden letzten, im selben Jahr erschienenen Bücher „Der Gebrauch der Lüste“ und „Die Sorge um sich“ (Sexualität und Wahrheit 2 u.3) werden als Versuch gedeutet, eine postmoderne Ethik der Selbstkonstituierung zu formulieren.

Anstelle der proletarischen Weltrevolution prognostizierte Foucault den „Tod des Menschen“ bzw. „des Subjekts“: Diese Thesen wurden von Sozialwissenschaftlern der Generation 68 Anfang der 90er-Jahre noch unverstanden bzw. anklagend deklamiert (als Beweis der Verrücktheit Foucaults), dann aber zunehmend kontrovers diskutiert. Für Foucault sind „Mensch“ und „Subjekt“ Formationen in der diskursiven Ordnung der Humanwissenschaften und damit Teil eines heute auf dem Rückzug befindlichen Macht-Wissens-Komplexes. Das Subjekt kann nicht mehr Ursprung der Erkenntnis einer Wahrheit sein, die „Objektivität“ als „intersubjektive Überprüfbarkeit“ definiert. Selbst dann nicht, wenn das erkennende Subjekt Karl Marx heißt.

Die von Foucault analysierte „Mikrophysik der Macht“ wirkt durch kleinste Elemente, sie wirkt als Netz, das die Familie, sexuelle Beziehungen, Wohnverhältnisse, Schule, Krankenhäuser, Psychiatrie, Gefängnisse etc. als Feld von Kräfteverhältnissen und Macht-Wissens-Techniken begreift. Die Macht ist mithin keineswegs, wie Marxisten glauben, im Besitz einer bestimmten Klasse angesiedelt; sie kann auch nicht einfach durch den Sturm auf ihr Zentrum erobert werden. Daher lässt sich Macht auch nicht einfach mit ökonomischer Macht gleichsetzen. Sie ist nicht „monolithisch“ und wird somit nicht von einem einzelnen Punkt aus kontrolliert. Damit wollte Foucault keineswegs traditionelle, etwa gewerkschaftliche Kämpfe gegen die ökonomische Macht unterdrückerischer Geldeliten für nutzlos erklären. Er weist aber darauf hin, dass weitere, weniger sichtbare Zwänge in anderen Machtmechanismen wirken.

Klassische linke Kritikfiguren von Ideologie, Gewalt und Unterdrückung greifen ebenfalls nicht hinsichtlich der Wirkungsweise von so verstandenen Machtverhältnissen. Foucault kritisiert den Ideologiebegriff, da er immer im potentiellen Gegensatz zu etwas steht, was Wahrheit wäre. „Wahrheit“ ist aber selbst ein diskursives Ausschlussprinzip, ein Machtmechanismus, den es zu reflektieren gilt (was von anderen Ansätzen gern in die Spezialdisziplinen z.B. der Wissenschaftssoziologie abgeschoben wird).

Die Macht und die Wahrheit

Im Gegensatz zur marxistischen Vorstellung von Ideologie gibt es für Foucault kein von der Macht abgetrenntes und mit einem (entweder falschen oder marxistischen) Bewusstsein ausgestattetes Subjekt. Statt dessen produziert die Macht Wissen vom Individuum, formt es und ist in seinen Vorstellungen z.B. von Freiheit und Unterdrückung, immer schon präsent. Machtverhältnisse brauchen daher nicht unbedingt Gewalt, vielmehr die Anerkennung des anderen als Subjekt mit einer normierten bzw. zu normalisierenden Individualität.

Sein Hauptaugenmerk gilt daher den Disziplinen und Instanzen, denen diese Normalisierung (meist mit dem Anspruch zu behandeln, zu helfen, sogar zu befreien) obliegt: Pädagogik, Psychologie, Psychiatrie, Medizin, Kriminologie, Justiz. Deren Umgang mit dem Subjekt, ihre Diskurse über den Menschen, die das Subjekt erst konstituieren, gilt es zu hinterfragen. Die dunkle Seite der Aufklärung sieht Foucault dabei gerade im „Humanismus“:

>Ich verstehe unter Humanismus die Gesamtheit der Diskurse, in denen man dem abendländischen Menschen eingeredet hat… Auch wenn du die Macht nicht ausübst, kannst du sehr wohl souverän sein. Ja, …je besser du dich der Macht unterwirfst, die über dich gesetzt ist, umso souveräner wirst du sein. Der Humanismus ist die Gesamtheit der Erfindungen, die um diese unterworfenen Souveränitäten herum aufgebaut worden ist…< Michel Foucault: Von der Subversion des Wissens, 1978, S.114

Foucault heute: Anti-Psychiatrie, kritische Kriminologie, Gouvernementalität

In Theorie und Praxis wirkt Foucault heute vor allem überall dort, wo Mechanismen sozialer Ausschließung wirken und Gruppen von Menschen als krank oder kriminell von der Gesellschaft einer Kontrolle oder Behandlung unterzogen werden. In der Anti-Psychiatrie (Ronald D. Laing, Thomas S. Szasz), mit der Foucault von Beginn an sympathisierte gibt es etwa ein deutsches Foucault-Tribunal zur Lage der Psychiatrischen Behandlung, während andere Mediziner und Psychologen ihrerseits hart mit seinem Ansatz ins Gericht gehen.

Besonders seltsam mutet die lange Abwehrhaltung gegenüber Foucault in einer Wissenschaft an, die sich „kritische Kriminologie“ nennt. Ihr Credo entsprach genau dem Foucaults: Analyse der gesellschaftlichen Mechanismen der Ausschließung, speziell von Kriminalisierten. Basis war meist der sozialkonstruktivistische „Labeling“-Ansatz. Der besagt, dass den sozial Ausgegrenzten Etiketten, soziale Stigmata (Labels), angehängt werden, kann aber leider nur schwer erklären, wie und warum das geschieht. Die „kritische Kriminologie“ sah im Hintergrund meist die marxistische Gesellschaftstheorie, nahezu als Synonym für Kritik, und konnte sich von Vorurteilen gegenüber Foucault nur schwer lösen. Diese vielleicht typische Rezeptionsgeschichte kann selbst als Beispiel von Ausschließung im Bereich der Wissenschaft gelten.

Eine erste auf der Gesellschaftskritik von Michel Foucault basierende kritisch-kriminologische Studie kam 1993 aus der Feder des Autors dieser Zeilen: „Soziale Kontrolle in der Informationsgesellschaft: Systemtheorie, Foucault und die Computerfreaks als Gegenmacht zum Panoptismus der Computer- und Multimedia-Kultur“, befasste sich mit der kriminalisierten Gruppe der Computer-Hacker und setzt sie in Bezug zu einer Genealogie der Informationsgesellschaft.[1] Von der taz wurde es mit der orthodox-marxistischen Kritik aufgenommen, die Computerhacker seien nicht als ökonomische Klasse zu betrachten, daher nicht als Gegenmacht zum globalen Überwachungsnetz denkbar.[2]

In der weiteren Foucault-Rezeption der kritischen Kriminologie zeigt sich heute eine Verlagerung des Schwerpunkts auf Foucaults Begriff der „Gouvernementalität“, auch „gouvernementalization“. Ein Begriff, der den Bezug von Macht-Wissen-Komplexen, die die Mentalität konstituieren, auf das Regieren, insbesondere auf Anbindung an den Staat zeigen soll: ein keineswegs neuer Zugang[3] zu Foucault, der marxistisch sozialisierten Geistern vermutlich leichter fällt. Und auch der heute dominierende Neoliberalismus ist somit trefflich mit Foucault zu kritisieren, vgl.
Cyberspace, Neoliberalismus und inverser Panoptismus
(T.Barth 1997)

Fußnoten:

[1] Als ich 1993 bei den im Hamburger Reformstudiengang „Jura 2“ angesiedelten Kriminologen die erste kritisch-kriminologische Studie vorlegte, die auf der Gesellschaftskritik von Michel Foucault basiert, waren die Reaktionen ambivalent. Die Arbeit „Soziale Kontrolle in der Informationsgesellschaft“ (Barth, Centaurus-Verlag 1997) wurde zwar in die Schriftenreihe „Hamburger Studien zur Kriminologie“ aufgenommen – jedoch nicht publiziert, sondern von Herausgebern und Hausverlag gute vier Jahre lang auf Eis gelegt. In diesen Jahren vollzog sich geradezu eine „Foucaultianische Wende“ der Kriminologen, wobei die „Soziale Kontrolle in der Informationsgesellschaft“ natürlich auf keiner Literaturliste auftauchte. Zweifel an der kritisch-kriminologischen Rezeption der Studie verfliegen jedoch z.B. bei Lektüre eines Textes von Professor Sebastian Scheerer „Zehn Thesen zur Zukunft des Gefängnisses – und acht über die Zukunft der sozialen Kontrolle“ -der frappierende Ähnlichkeiten zum Kapitel „Die Antiquiertheit der Einsperrung“ aus Barth 1993 (in der kriminologischen Schriftenreihe von Scheerers Institut publiziert erst 1997) aufweist.

[2] Eine revidierte und weiterentwickelte Fassung meiner inzwischen vergriffenen Studie (Centaurus, der Hausverlag der Kriminologen druckte nur 200 Exemplare) war geplant, konnte von mir jedoch nicht realisiert werden.

[3] Vgl. Smart, Barry, Michel Foucault, London, New York 1985 S.130 ff.