04/28/20

Smart Borders: „Intelligente“ Schengenraum-Außengrenzen

Smart Borders – intelligente Außengrenzen des Schengenraums?

Goetz Herrmann, (für bpb) 13.01.2020 / 4 Minuten zu lesen

Offen und sicher sollen sie sein. Sie sollen die Zirkulation von Waren, Kapital und Personen ermöglichen, gleichzeitig aber irreguläre Bewegungen verhindern. Ein Beitrag über Grenzen als „Filter“ und Konzepte ihrer Digitalisierung.

Scanner des Smart Borders Grenzkontrollsystems am Flughafen Frankfurt/Main. Das Smart Borders Package soll ein besseres Management der Außengrenzen der EU ermöglichen. (© dpa)

Was sind Smart Borders?

Unter Smart Borders – intelligenten Grenzen – wird ein Bündel an Maßnahmen und Technologien zur Überwachung der Grenzen des Schengenraumes verstanden. Das 2013 auf den Weg gebrachte Smart Borders Package soll aus Sicht der Europäischen Kommission (EK) ein besseres Management der Außengrenzen ermöglichen, effektiver Interner Link: irregulärer Migration entgegenwirken und einen „Beitrag zur Bekämpfung von Terrorismus und schwerer Kriminalität“ Zur Auflösung der Fußnote[1] leisten. Dazu werden Informationen über Nicht-EU-Bürger_innen (Drittstaatangehörige) gesammelt. Gleichzeitig sollen Grenzübertritte schneller vonstattengehen. Eine zentrale Rolle spielen dabei Informationssysteme wie das „Einreise-/Ausreisesystem“ (Entry-Exit-System, EES), die zu einer Automatisierung der Grenzkontrollen beitragen sollen. In diesen Datenbanken können große Mengen an Informationen zusammengefasst werden, auf die Behörden in ganz Europa Zugriff haben.

Der Kontext: Bordermanagement

Die Smart Borders Initiative der EU vollzieht sich vor dem Hintergrund eines weltweiten Transformationsprozesses von Grenzen. Dabei treten neben Modelle einer klassischen souveränen Grenzsicherungspolitik (Interner Link: manifest im Bild einer Mauer) Konzepte des Grenzmanagements. Diese streben an, Sicherheitsrisiken abzuwenden, gleichzeitig aber ein hohes Maß an Mobilität aufrechtzuerhalten. Zur Auflösung der Fußnote[2] Dies sei nötig, da eine prosperierende Gesellschaft auf ein hohes Maß an Mobilität und Zirkulation von Personen, Waren und Kapitel angewiesen sei. Aus dieser Offenheit gingen jedoch gleichzeitig Bedrohungen hervor, „da Terroristen und andere Kriminelle danach trachten, diese Freiheiten zu zerstörerischen und böswilligen Zwecken zu missbrauchen“. Zur Auflösung der Fußnote[3] Demnach müssten „Grenzen als Sortiermaschinen“ Zur Auflösung der Fußnote[4] oder wie eine „firewall“ Zur Auflösung der Fußnote[5] operieren und gefährliche Elemente aus dem komplexen Fluss transnationaler Zirkulation herausfiltern. Zur Auflösung der Fußnote[6] Grenz- und Sicherheitspolitik richten ihren Fokus also verstärkt auf transnationale Mobilität.

Die EU setzt mit ihrem Konzept des „integrierten Grenzmanagements“ auf die Zusammenarbeit mit Anrainerstaaten Zur Auflösung der Fußnote[7], etwa in Form von Mobilitätspartnerschaften Zur Auflösung der Fußnote[8], und den umfangreichen Informationsaustausch „zwischen Grenzschutzbehörden und anderen Strafverfolgungsbehörden“. Zur Auflösung der Fußnote[9] Dabei ruhen große Hoffnungen auf neuester Informations- und Kommunikationstechnologie.

Das Smart Borders Package

Das Smart Borders Package wurde erstmalig am 28. Februar 2013 von der damaligen EU-Innenkommissarin Cecilia Malmström auf einer Pressekonferenz präsentiert. Dabei bezog sie sich auf Pläne der Kommission von 2008, worin bereits die Einführung eines Entry-Exit-Systems und die erleichterte Einreise für als vertrauenswürdig eingestufte und registrierte Vielreisende, das „Registered Traveller Programme“ (RTP), gefordert wurden. Gegen Letzteres regte sich v.a. im Europäischen Parlament Widerstand, sodass es 2016 zurückgezogen wurde. Im Oktober 2017 stimmten das Europäische Parlament und der Rat der EU einer modifizierten Version des Entry-Exit-Systems zu, das bis 2020 vollständig implementiert sein und rund 480 Millionen Euro kosten sollte. Zur Auflösung der Fußnote[10] Inzwischen wird mit einer operativen Inbetriebnahme im Jahr 2021 gerechnet. Zur Auflösung der Fußnote[11]

Datenbanken

Innenkommissarin Malmström präsentierte die im Smart Borders Package vorgeschlagenen Technologien als Grundstein für ein „offeneres“ und zugleich „sichereres“ Europa. Zur Auflösung der Fußnote[12] Das deutet bereits an, welche wichtige Rolle „einschlägigen Informationsinstrumenten“ Zur Auflösung der Fußnote[13] im Bereich des Grenzmanagements und der Sicherheitspolitik zugesprochen wird. Tatsächlich verfügt die EU über mehrere solcher „Informationssysteme“, die „zusammengenommen ein komplexes Muster einschlägiger Datenbanken“ Zur Auflösung der Fußnote[14] bilden. Die drei bisher wichtigsten sind das Interner Link: Schengener Informationssystem (SIS), worin u.a. Personen- und Sachfahndungen (z.B. gestohlene Fahrzeuge) eingetragen sind, das Visa Information System (VIS) mit Daten über erteilte Visa für Kurzzeitaufenthalte und Interner Link: EURODAC, eine Datenbank, in der Fingerabdrücke von Personen gesammelt werden, die einen Asylantrag gestellt haben oder ohne legalen Aufenthaltsstatus in einem Mitgliedstaat aufgegriffen wurden.

Das Entry-Exit-System soll diese Informationssysteme ergänzen. Darin sollen sowohl Drittstaatsangehörige erfasst werden, die sich für einen Kurzaufenthalt im Hoheitsgebiet der Mitgliedstaaten aufhalten dürfen, als auch Personen, denen Einreise und Aufenthalt verweigert wurden. Zur Auflösung der Fußnote[15] Gespeichert werden Datum und Ort der Einreise sowie die Dauer des autorisierten Aufenthalts. Zur Auflösung der Fußnote[16] Die zentrale Speicherung dieser Informationen soll v.a. dabei helfen, eingereiste „Overstayer“ zu ermitteln, also Personen, die zwar mit einem gültigen Visum den Schengenraum betreten haben, aber ihn nach Ablauf des Visums nicht wieder verlassen. Zur Auflösung der Fußnote[17] Im Entry-Exit-System werden neben Kenndaten einer Person auch biometrische Informationen erfasst, in diesem Falle vier Fingerabdrücke und ein Gesichtsbild. Dies soll Dokumentenfälschungen erschweren. Entry-Exit-System und Visa Information System sollen auch miteinander verknüpft werden, also den direkten Zugriff auf die jeweiligen Daten ermöglichen.

Kritik

Wie effektiv die angestrebten Maßnahmen tatsächlich sein werden, ist schwer einzuschätzen, da „Interner Link: Sicherheit“ kaum messbar ist. Kritiker_innen bezweifeln, dass die Überwachung von Mobilität Terroranschläge wirksam verhindern kann, da nur wenige Attentäter_innen in der Vergangenheit von außerhalb des Schengenraums kamen oder im Zuge irregulärer Reisebewegungen unentdeckt nach Europa gelangt sind. Zur Auflösung der Fußnote[18] Der Großteil der Kritik an Bestrebungen zur Errichtung einer Smart Border bezieht sich jedoch auf Interner Link: datenschutzrechtliche Probleme. Diese entstehen aus der massenhaften Erhebung, Speicherung, Verarbeitung und dem Austausch von personenbezogenen Daten: So sah beispielsweise 2013 der Europäische Datenschutzbeauftragte Verstöße gegen Artikel 7 (Achtung des Privat- und Familienlebens) und 8 (Schutz personenbezogener Daten) der EU-Grundrechtecharta. Zur Auflösung der Fußnote[19] Ebenso gilt die Vermengung von sicherheits- und migrationspolitischen Fragen als problematisch. Dass dies durch die neuen Technologien forciert wird, zeigt das Beispiel der Praxis des „cross-referencing“ von Datenbanken: Dadurch wird die ehemals auf Papierlisten geführte kleine Gruppe unerwünschter Personen – primär Terrorist_innen und Schwerkriminelle – mit der weitaus größeren Personengruppe in Verbindung gebracht, die wegen kleinerer Verstöße gegen Aufenthaltsrecht oder Visaüberschreitung erfasst wurden. Zur Auflösung der Fußnote[20]

Dieser Artikel ist Teil des Kurzdossiers „Interner Link: Migration und Sicherheit„.

Bigo, Didier (2011): Freedom and speed in enlarged borderzones. In: Vicki Squire (Hg.): The contested politics of mobility. Borderzones and irregularity. London: Routledge (Routledge advances in international relations and global politics, 87), S. 31–50.

Bigo, Didier; Brouwer, Evelien Renate; Carrera, Sergio; Guild, Elspeth; Guittet, Emmanuel-P; Jeandesboz, Julien et al. (2015): The EU counter-terrorism policy responses to the attacks in Paris. Towards an EU security and liberty agenda. Brüssel (CEPS paper in liberty and security in Europe).

Broeders, Dennis; Hampshire, James (2013): Dreaming of Seamless Borders. ICTs and the Pre-Emptive Governance of Mobility in Europe. In: Journal of Ethnic and Migration Studies 39 (8), S. 1201–1218.

Europäische Kommission (EK) (2016a): Solidere und intelligentere Informationssysteme für das Grenzmanagement und mehr Sicherheit. Mitteilung der Kommission an das Europäische Parlament und den Rat. Brüssel.

Europäische Kommission (EK) (2016b): Proposal for a Regulation of the European Parliament and the Council: establishing an Entry/Exit System (EES) to register entry and exit data and refusal of entry data of third country nationals crossing the external borders of the Member States of the European Union and determining the conditions for access to the EES for law enforcement purposes and amending Regulation (EC) No 767/2008 and Regulation (EU) No 1077/2011. Brüssel.

Europäische Kommission (EK) (2008): Vorbereitung der nächsten Schritte für die Grenzverwaltung in der Europäischen Union. Mitteilung der Kommission an das Europäische Parlament, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen. Brüssel.

Europäisches Parlament (EP); Rat der Europäischen Union (Rat) (2017): Verordnung (EU) 2017/2226 des Europäischen Parlaments und des Europäischen Rates über ein Einreise-/Ausreisesystem (EES) vom 30. November 2017 zur Erfassung der Ein- und Ausreisedaten sowie der Einreiseverweigerungsdaten von Drittstaatsangehörigen an den Außengrenzen der Mitgliedstaaten und zur Festlegung der Bedingungen für den Zugang zum EES zu Gefahrenabwehr- und Strafverfolgungszwecken und zur Änderung des Übereinkommens zur Durchführung des Übereinkommens von Schengen sowie der Verordnungen (EG) Nr. 767/2008 und (EU) Nr. 1077/2011. In: Amtsblatt der Europäischen Union.

Herrmann, Goetz (2018): Reflexive Sicherheit, Freiheit und Grenzmanagement in der Europäischen Union. Die Reterritorialisierung emergenter Bedrohungsgefüge. Wiesbaden: Springer VS.

Lenz, Ramona (2010): Mobilitäten in Europa. Migration und Tourismus auf Kreta und Zypern im Kontext des europäischen Grenzregimes. Wiesbaden: Springer VS.

Mau, Steffen (2010): Grenzen als Sortiermaschinen. In: Welttrends. Zeitschrift für internationale Politik 71, S. 57-66.

Rat der Europäischen Union (Rat) (2010): Strategie für die innere Sicherheit der Europäischen Union. Auf dem Weg zu einem europäischen Sicherheitsmodell. Europäischer Rat; Europäische Union. Luxemburg.

Walters, William (2009): Europe’s Borders. In: Chris Rumford (Hg.): The SAGE Handbook of European Studies. Los Angeles, Calif.: SAGE, S. 485–505.

Fussnoten

Zur Erwähnung der Fußnote  [1]

EK (2016a), S. 14.

Zur Erwähnung der Fußnote  [2]

Vgl. Herrmann (2018), S. 227.

Zur Erwähnung der Fußnote  [3]

Rat (2010), S. 11.

Zur Erwähnung der Fußnote  [4]

Mau (2010).

Zur Erwähnung der Fußnote  [5]

Walters (2009), S. 492.

Zur Erwähnung der Fußnote  [6]

Vgl. Bigo (2011), S. 35.

Zur Erwähnung der Fußnote  [7]

Vgl. Rat (2010), S. 28.

Zur Erwähnung der Fußnote  [8]

Die Partnerstaaten erhalten dabei finanzielle Mittel oder Visaerleichterungen, wenn sie sich an den Grenzsicherungsmaßnahmen der EU beteiligen. Vgl. Lenz (2010).

Zur Erwähnung der Fußnote  [9]

Rat (2009), S. 56.

Zur Erwähnung der Fußnote  [10]

Vgl. EK (2016b), S. 6. Eine Zusammenfassung der Änderungen gegenüber dem Vorschlag von 2013 findet sich unter: Externer Link: http://europa.eu/rapid/press-release_MEMO-16-1249_en.htm (Zugriff: 18.6.2019).

Zur Erwähnung der Fußnote  [11]

Externer Link: https://ees.secunet.com/de/fakten-zum-entry-exit-system/ (Zugriff: 18.6.2019).

Zur Erwähnung der Fußnote  [12]

Vgl. Externer Link: http://europa.eu/rapid/press-release_SPEECH-13-172_en.htm

Zur Erwähnung der Fußnote  [13]

EK (2016a), S. 2.

Zur Erwähnung der Fußnote  [14]

Ebd., S. 6.

Zur Erwähnung der Fußnote  [15]

Vgl. EP/Rat (2017), S. 21.

Zur Erwähnung der Fußnote  [16]

Vgl. EK (2008), S. 8.

Zur Erwähnung der Fußnote  [17]

Vgl. ebd., S. 5.

Zur Erwähnung der Fußnote  [18]

Vgl. Bigo et.al. (2015), S. 10.

Zur Erwähnung der Fußnote  [19]

Externer Link: https://edri.org/smart-borders-the-challenges-remain-a-year-after-its-adoption/

Zur Erwähnung der Fußnote  [20]

Vgl. Broeders/Hampshire (2013), S. 1208.

Lizenz

Dieser Text ist unter der Creative Commons Lizenz „CC BY-NC-ND 3.0 DE – Namensnennung – Nicht-kommerziell – Keine Bearbeitung 3.0 Deutschland“ veröffentlicht. Autor/-in: Goetz Herrmann für bpb.de.
Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 3.0 DE und des/der Autors/-in teilen.

04/23/20

Graphic Novel-Rezension: Transgender Digitalkultur

Hermine Humboldt

Peer Jongeling: „Hattest du eigentlich schon die Operation?“, Berlin 2020.

Als 2016 der Kulturphilosoph Felix Stalder seine „Kultur der Digitalität“ entwarf, begann er seinen Ausflug ins 21.Jahrhundert mit dem ESC 2014, den die glamouröse Diva mit Bart, Conchita Wurst, souverän gegen alle sexistischen Anfeindungen gewann. Damals galt es ein Zeichen zu setzen für Diversität und das Recht des Individuums, sich selbst zu definieren. Ein Zeichen gegen das immer aggressivere Maulen und Pöbeln der Homophobie-geschüttelten Reaktionäre, der braunen Brüder und Nationalisten mit ihrem Geraune über angeblichen Kulturverfall, Dekadenz und ein drohendes „Gayropa“. Wenn Trump und Putin etwas verbindet -außer dubiosen Immoblien-Deals in Moskau-, dann wohl die Kunst, auf diesen dunklen Ängsten des Mainstreams ihre Propaganda-Tarantella zu spielen. Felix Stalder sieht hier die Wurzel einer Vielfalt feiernden „Kultur der Digitalität“, deren Netzmedien und Digitalkultur der Diversität nur technologisch zum Durchbruch verhalfen.

Was ist aber mit unserer Conchita und allen anderen Queer- und Trans-Menschen? Heteronormalos genießen die Kulturvielfalt auf Sofa, Smartphone usw., selbst im träge-konservativen ZDF-Krimi tummeln sich inzwischen einige homosexuelle, farbige oder sonst nicht „Normale“ in der hölzernen Handlung. Aber bis das ESC-Spektakel wirklich in der zwischenmenschlichen Alltagskultur Schule macht, ist noch ein langer Weg. Peer Jongeling geht ihn und widmet dem heißen Thema ein sozialkritisches Comic, umschifft dabei heikle Fallgruben. Es geht um Erotik und Körperlichkeit, doch die tonnenförmig an Pinguine erinnernden Figuren lassen auch bei Sexszenen kaum voyeuristische Blickweisen aufkommen. Und karikaturhaft-humoristische Pointen lockern die ernste Story auf.

Ein Himmel voller Gender-Sternchen

Immer noch regen sich manche KritikerInnen über Schreiber*innen auf, die diese oder jene Gender-Schreibweise bevorzugen, derweil haben reale Transgender ernstere Probleme: Anfeindungen, Diskriminierung, Outing, Kleiderkauf, Namensänderung bis hin zur Frage nach der operativen Geschlechtsumwandlung. „Ari, Lilly, Paul und Ray erzählen aus ihrem Leben als Transgender“, erklärt das grellrote Backcover, verziert mit blaugrün-floralen Ornamenten, aus denen sich menschliche Arme schlängeln. Autorin Peer Jongeling tritt einleitend selbst auf:

„Hallo ich bin Peer! In diesem Heft habe ich mehrere Kurzgeschichten zum Thema Transidentität zusammengefasst. Sie basieren auf wahren Gegebenheiten und verarbeiten sowohl Erfahrungen von Trans-Personen als auch persönliche Erlebnisse. Die Protagonisten sind frei erfunden und stellen keine echten Personen dar. Ebenso sind sie individuelle Charaktere und keine verallgemeinernde Repräsentation von transidenten Menschen. Tschüss und viel Spass.“

Die Story beginnt lehrbuchartig: „Mein Name ist Paul. Auf diesen Seiten werden ein paar wichtige Begriffe erklärt,“ verkündet eine der Hauptpersonen für die erste von zwei Doppelseiten mit Erklärungs-Sprechblasen, die aus quasi vom Einband her herüber wuchernden Pflanzen sprießen. Von „Transgender, Trans, Transident: Personen, die sich mit dem bei Geburt zugewiesenen Geschlecht nicht identifizieren können.“ über „Misgendern: Als ein Geschlecht adressiert werden, welches nicht der Identität entspricht.“ und „Dysphorie: Das Unwohlsein mit dem eigenen Körper. Für Trans-Personen oft auf Geschlechtsmerkmale bezogen.“ bis zu „Passing: Trans-Menschen, die aussehen ‚wie‘ ihr angestrebtes Geschlecht. Kritisierter Begriff, da impliziert wird, dass sie nur so aussehen.“ So werden neun Genderbegriffe erklärt.

Dann geht es los -mit dem tränenreichen Outing: „Mama ich bin keine Frau und ich möchte ab jetzt als Mann leben. Ich bin Transgender.“ „Was ist denn Transgender?“ Beim folgenden „Shopping mit Lilly“ geht’s um den Kleiderkauf, wo neben unpassenden Größen auch andere KundInnen nerven: „Mama, was ist das da?“ – „Ich bin kein ‚Dasda‘, ich bin eine Frau.“ „Und wieso ist deine Stimme so tief?“ – „Das geht dich nichts an!“ Beim Bezahlen nörgelt der Kassierer über die Kreditkarte: „Da steht ein Männername drauf, Sie können nur mit ihrer eigenen Karte zahlen.“

Noch unangenehmer wird es für den männlichen Trans-Menschen bei der gynökologischen Untersuchung seiner zu Identität und Aussehen (noch?) nicht passenden Unterleibsorgane. Nicht viel einfacher ist die amtliche Vornamens- und Personenstandsänderung, bei der eine psychologische Begutachtung mit sehr intimen Fragen ansteht: „Und wie oft masturbieren Sie im Monat?“. Harmloser ist das Trans-Bettgeflüster und die Besuche von Party oder Fitness-Club. Ein pädagogisch wertvoller Einblick in die Mensch*innen hinter dem Gender-Sternchen, der z.B. die Frage aufwirft, ob die standardmäßig gestellte Frage nach dem Geschlecht seitens Behörden, Arbeitgebern, Firmen usw. noch zeitgemäß ist. Nach unserer „Rasse“ fragt uns schließlich auch keiner mehr (hoffentlich bleibt das auch so). Die Kultur der Digitalität braucht Diversität und Hybridisierung, die zuletzt auch unsere Körper erfasst. Vorsicht und Rücksicht sind dabei die wichtigsten Forderungen.

Peer Jongeling: „Hattest du eigentlich schon die Operation?“, Berlin: Jaja-Verlag 2020, 40 S., 11,00 Euro, https://www.jajaverlag.com/autoren/peer-jongeling/

www.peerjongeling.de

03/23/20

Graphic Novel-Rezension: Gen Z Subjekt Bewusstseinsstrom

Hermine Humboldt

Paulina Stulin: Bei mir zu Hause, Berlin 2020

Der Einband zeigt aus der Perspektive einer Taube das Dach des im Titel genannten Hauses. Des Daches, unter dem die Comicautorin lebt. Sie selbst sitzt mit einer Kaffeetasse im offenen Klappfenster und lässt ihren Geist die heutige Subjektivität erkunden -in den Bildern einer Graphic Novel, die ein Graphic Diary ist.

Der Ziegelstein von Comic-Book liegt 615 Seiten schwer in der Hand wie ein Lexikon. Oder wie der Ulysses von James Joyce. Dessen Erzählweise im Bewusstseinsstrom eifert das grafische Tagebuch von Paulina Stulin teilweise nach. Für eine Künstlerin ist es jedoch ein realistisch-bodenständiges Bewusstsein, das da in Bildern auf die Leserin einströmt. Oder ist das nur wieder eines der uns allen andressierten Klischees, gegen die Paulina tapfer ankämpft? Die verträumte Fantastin mit der Feder der Muse? Welcher Muse? Wohl weniger Thalia (Komödie) als Kalliope (Epos), am ehesten vielleicht doch Melpomene (Tragödie). Es geht weniger um Träume als um gelebte Politik der streitbaren Frau, um Rassismus, Kapitalismus und die sexistische Zurichtung von Frauen, um dümmliche Zeitgenossen, AfD-Propagandisten, auch den Kampf gegen die eigene Bequemlichkeit als relativ privilegierte Bohemienne, einen Kampf mit den Verlockungen fetter Speisen und schlanker Jünglinge. Dabei schont sich die Autorin nicht, es ist keine Chronik verlogener Selfies, die eitel Sonnenschein vorspiegeln sollen.

Augen Blicke Perspektiven

Der Einband zeigt, vielleicht aus der Perspektive einer auf einem Erker hockenden Taube, das Dach des im Titel genannten Hauses, des Hauses, unter dem die Comicautorin lebt. Sie selbst sitzt in schwarzer Jeans und gleichfarbigem Trägerhemd mit der Kaffeetasse im offenen Klappfenster. Weniger verträumt als energisch schaut sie über die mit vier- bis fünfstöckigen Mietshäusern bebaute Straße hinweg in einen hellblauen Himmel, den ein kleiner Möwenschwarm bevölkert. Das dachziegelrote Backcover beantwortet die selbst gestellte Frage: „Wie fühlt es sich an, in den späten Zehnerjahren des 21.Jahrhunderts auf der Welt zu sein? Auf diese Frage gibt es 7 Milliarden Antworten. Eine davon ist dieses Comic.

Lässt frau unter einigem Kraftaufwand die gut 600 Seiten als Daumenkino noch einmal passieren, überwiegen Schwarz und dunkle gedeckte Farben, unterbrochen von hellen Passagen mit viel nackter Haut und einigen rot-orangenen Einsprengseln von Lagerfeuerromantik, Party oder Drogenrausch. Obwohl mich anfangs die Normalität, um nicht zu sagen Banalität der Ereignisse leicht irritierte, hat mich die Story schnell gepackt, ich konnte das Buch nicht aus der Hand legen. Das erste Bild zeigt das schöne braune Auge der Künstlerin, einen weiblichen Blick, sehr offen, vielleicht staunend, vielleicht nachdenklich. Frau blättert um und sieht, was sie sieht: Eine Taube auf einem Mauervorsprung durch das Dachfenster ihrer Studentinnenbude. Darunter: Ihr Gesicht ab Nase abwärts, eine Zigarette in sexy geschwungenen Lippen wird entzündet. Nächste Seite: Ihr Blick auf den Rauch der zur Zimmerdecke strömt. Ihr Finger schnippt Glut in den Aschenbecher. Dann ihre Augen, diesmal als Augenpaar, mit müdem Blick, desillusioniert.

Nächste Seite: Die Rauchende sitzt auf dem Bett, jetzt trauriger, fast verzweifelter Blick. Sie zieht. Rauch steigt auf. Nächste Seite: Ein Bärtiger, ebenfalls traurig rauchend. Acht schweigende Seiten, wir ahnen dass die beiden Gegenübersitzenden Probleme haben. Er spricht zuerst: „Komisch, ich hätte nicht gedacht, dass es so abgeklärt mit uns zu Ende geht.“ Aha. Wir sind in einer Trennungsszene. Die zieht sich über acht Seiten, mit einigen Sprechblasen voller Vorwürfe, aber es bleibt bei einer Vernunfttrennung. Dann vier Seiten sie allein beim schmollen, Musikhören, putzen, Joga, am Computer. Dann 17 Seiten schwarzer Tönung: Sie trifft ihn abends wieder beim Imbiss, diesmal wird der Streit lauter, endet in gemeinsamem Schweigen. Nächster Morgen: Sonnenaufgang über den Dächern von Darmstadt, sieben Seiten Stadtlandschaft, dann sind wir beim Titelbild des Bandes, etwas verschobener Bildausschnitt, und verstehen nun den entschlossenen Blick der Kaffeetrinkerin: Es muss sich etwas ändern. Aber erst wird Bilanz gezogen: „Dreizehn Jahre wohne ich nun schon hier. Meine Höhle in der Höhe. Mein Elfenbeinturm. Hier ist der sicherste Ort der Welt.“ Von dem aus sich Paulina ins Leben stürzt.

Politik Argumente Schwächen

Die Bilder entfalten Sogwirkung. Sie trifft Freunde, schleppt sich Lover ab, nimmt Drogen, OP nach Fahrradunfall, Urlaub in Spanien mit Exibitionist am Strand und Magic Mushrooms, heiße Diskussionen auf Parties, bei denen sie mit ihren Ansichten aneckt, als „Linksradikale“ angebrüllt wird. Bei solchen Partie-Polit-Diskussionen offenbart Paulina Stulin leider argumentative Schwächen, die wohl zeigen, dass sie sich -obwohl erklärte Linke- sich nicht wirklich aus linken Medien informiert. Was sie vorbringt ist ein durch linke Sichtweise gefilterter Mainstream, der dort gegen einen rechtsgefilterten Mainstream steht: Es entsteht eine inhaltlich flache Debatte adressatlosen Moralisierens, die als Minimalkonsens nur die Gefahr des Neofaschismus kennt. Kritik an westlichen Herrschenden, ob politische oder ökonomische Machteliten, wird dadurch wie in orwellscher Big-Brother-Hirnwäsche unmöglich gemacht. Ein Dialog der Protagonistin mit einem Party-Normalo:

„Pauli, du willst mit doch jetzt nicht erzählen, dass du ernsthaft glaubst, dass wir ganz Syrien nach Deutschland holen können!“ „Was willst du sonst machen, wenn Menschen versuchen, die Grenzen zu passieren? Sie abknallen?“ „Ich will gar nichts!“ (Der Typ schreit mit wutverzerrtem Gesicht.) „Also ja?“ (Paulina guckt erst mit offenem Mund, fängt dann an zu weinen.) „“Na sehr schön, jetzt leg noch ein paar Tränen drauf, um mir reinzudrücken, wie fies und gemein ich bin… Du geilst dich doch grad nur an deiner eigenen Betroffenheit auf, sonst nichts!“ (Andere Partygäste intervenieren, man fühlt sich im Vergnügen unangenehm belästigt.) „Ey, ihr beiden, macht euch mal locker!“ Paulina verlässt die Party, geht einsam und frustriert nach Hause (S.447-58).

Paulina hat leider das Scheinargument „Wir können doch nicht alle ins Land lassen“ nicht als solches erkannt: Aus „wir können nicht alle“ folgt nicht logisch, dass wir die ein oder zwei Millionen, die jetzt noch kommen könnten, draußen lassen müssen. Aus: „Du kannst ja nicht die ganze Luft in diesem Raum einatmen“ folgt schließlich auch nicht, dass du jetzt ersticken musst. Außerdem: Diese zwei Millionen könnten wir relativ leicht aufnehmen und integrieren -eine linke Umverteilungspolitik nebst Reichen- und Erbschaftssteuern und neu geschaffenen Arbeitsplätzen vorausgesetzt. Auch so etwas zu fordern fällt Paulina nicht ein -trotzdem wird sie vom „Party-Normalo“ als „linksradikale“ Ideologin angepöbelt.

Auf die Frage nach den Fluchtursachen besagter Syrer kommt Paulina auch nicht, also auf die von Westmachthabern, -Geheimdiensten, -Konzernen überall angezettelten Kriege, Bürgerkriege und Wirtschaftskriege -wie etwa in Irak, Venezuela, hier: Syrien, wo die ersten Unruhen gegen Assad von Außen gesteuert waren. Es waren nur in unseren Leitmedien ein paar Jugendliche allein, die Assad mit Graffiti ärgerten, verschwiegen werden immer wieder gewaltsame Terrorakte gegen Polizisten, die Gegengewalt provozieren sollten. Warum? Um den Nato-Staaten einen Kriegsgrund zu liefern, um die Abramowitz-Doktrin der USA umzusetzen, eine Hauptaufgabe der CIA. Nachlesbar wäre das in Medienkritik an unserem Mainstream, in der Enthüllung seiner Propaganda (z.B.MH17), in Geschichtsbüchern nicht westregime-treuer Historiker wie Daniele Ganser.

Aber all das wird täglich totgeschwiegen eben vom Medien-Mainstream, den Paulina überwiegend zu konsumieren scheint -also hat sie z.B. auch ökonomisches Unrecht oder  WikiLeaks und Julian Assange  eher nicht auf ihrem Schirm… Bücherlesen gehört laut ihrem Graphic Diary leider eher nicht zu ihren Aktivitäten und linke Politblogs wohl auch eher nicht -die Mainstream-Medien-Hypnose, von der Nobelpreisträger Harold Pinter in seiner Nobelspeech sprach, wirkt eben auch auf viele Menschen, die mit dem Herzen links stehen. Sie werden desinformiert, verwirrt und von wirksamer Politik nachhaltig abgelenkt. Darum sind die Machtverhältnisse bei uns so, wie sie sind.

Da bleibt Paulina mangels Argumenten oft nur der Gefühlsausbruch, aber oft auch die herzerfrischende Aktion: Auf der Straße, es ist wohl gerade Wahlkampfzeit, greift sich Paulina am AfD-Stand alle Broschüren und rennt weg, sie fetzt AfD-Aufkleber von Laternenmasten. Sie brüskiert auch bourgeoise Bürgerinitiativler, die Unterschriften für eine Umgehungsstraße sammeln, reißt ihnen die Liste mit schon gesammelten Namen weg und zerfetzt sie: Umgehungsstraßen produzieren nur neuen Autoverkehr! Baut lieber Verkehrsberuhigungen und fördert den ÖPNV!

Großstädtischer Alltag, mit Arbeit, Leute treffen, Einsamkeit, Fressorgien, gefolgt von Diät und Abspecken, Demos für Solidarität mit Flüchtlingen und gegen die Klimaverbrechen unserer Zeit. Ein ganz normales Leben eben. In einem empfehlenswerten Comic.

Paulina Stulin: Bei mir zu Hause, Berlin: Jaja-Verlag 2020, 615 S., 35,00 Euro

02/18/19

Das ARD-Framing-Gutachten

aus Netzpolitik.org

Wir veröffentlichen das Framing-Gutachten der ARD

Die ARD hat ein Gutachten in Auftrag gegeben, um die eigene Kommunikation zu verbessern. Das Gutachten wurde bisher nicht veröffentlicht, ist aber bereits Teil einer öffentlichen Debatte. Wir veröffentlichen das Gutachten, damit sich alle Beitragszahlende aus der Originalquelle informieren können und an der Debatte informierter teilhaben können.

17.02.2019 Markus Beckedahl, Leonhard Dobusch

Die ARD hat bei der Sprach- und Kognitionswissenschaftlerin Elisabeth Wehling ein Gutachten in Auftrag gegeben um sich beraten zu lassen, wie man die Vorzüge des öffentlich-rechtlichen Rundfunks durch Erkenntnisse der Framing-Theorie kommunizieren kann. Das Gutachten dient laut ARD als „Denkanstoß und Diskussionsgrundlage“ für interne Zwecke. (Update: Es gibt nun eine weitere Stellungnahme der ARD dazu.)

Allerdings wurde es schnell Bestandteil einer öffentlichen Debatte, weil das Gutachten mittlerweile außerhalb der ARD zirkuliert. Und gerade rechte Webseiten machen mit dem ausgewählten Zitieren aus dem Text massiv Stimmung gegen den öffentlich-rechtlichen Rundfunk und tun dabei so, als wäre diese Diskussionsgrundlage bereits beschlossene Sache einer Kommunikationsstrategie mit dem Ziel, die öffentliche Wahrnehmung zu „manipulieren“. Im Interview mit meedia.de argumentiert die ARD-Generalsekretärin Susanne Pfab, dass dies keine „Mitarbeiteranweisung“ sei, sondern eine Diskussionsgrundlage zur Sensibilisierung bei der Verwendung von Sprache und Sprachbildern. In dem Interview distanziert sie sich auch persönlich von einzelnen in dem Gutachten vorgeschlagenen Sprachbildern wie „Profitzensur“.

Zensurheberrecht nährt Manipulationsängste

Die ARD-Pressestelle begründet eine Nicht-Veröffentlichung damit, dass man es „aus urheberrechtlichen Gründen“ nicht veröffentlichen könne. Man kann von der ARD und dem öffentlich-rechtlichen System halten was man will. Aber gerade mit diese Vorgehensweise und dem Anschein von Intransparenz erweist die Anstalt der Debatte um die Zukunft des öffentlich-rechtlichen Rundfunks einen Bärendienst, denn sie spielt damit den rechten Narrativen in die Hände, dass man es geheim halten wolle und etwas zu verbergen hätte.

Für eine öffentliche Debatte ist es aber wichtig, dass sich alle Interessierten aus der Diskussionsgrundlage informieren können. Das Gutachten wurde aus öffentlichen Geldern finanziert und sollte selbstverständlich auch nach dem Grundsatz „Öffentliches Geld, öffentliches Gut“ („Public money, public good“) allen Beitragszahlenden verfügbar sein. Damit sich mehr Menschen aus der Originalquelle informieren und an der Diskussion teilnehmen können.

Man kann nicht nicht framen

Wir veröffentlichen deshalb das Gutachten in einer PDF-Version. Von der Verfasserin des Gutachtens, Elisabeth Wehling, ist im vergangen Jahr das Buch „Politisches Framing – Wie eine Nation sich ihr Denken einredet – und daraus Politik macht“ im Ullstein Buchverlag erschienen. Vor zwei Jahren sprach sie auf der re:publica über „Die Macht der Sprachbilder – Politisches Framing und neurokognitive Kampagnenführung“.

Gerade wenn man sich aus der Originalquelle informieren kann, sieht man, dass die Dämonisierung nicht gerechtfertigt ist. Denn wenn es eine Einsicht des Kommunikationswissenschaftlers Paul Watzlawick gibt, die sich quasi universeller Bekanntheit erfreut, dann dass wir nicht nicht kommunizieren können. Diese Binsenweisheit gilt sinngemäß nicht nur für Kommunikation an sich, sondern auch für (Teil-)Aspekte verschiedener Arten von Kommunikation wie eben Framing. So ist zum Beispiel mit jeder Wortwahl in einem Text immer auch ein bestimmtes Framing verbunden, das beim Lesenden bestimmte Assoziationen oder Gefühle auslösen kann. Egal ob „Staatsfunk“, „öffentlich-rechtlicher Sender“ oder „gemeinsamer, freier Rundfunk ARD“ wie im Gutachten von Elisabeth Wehling, jeder Begriff löst andere Assoziationen aus, steht für ein anderes Framing.

Wenn es aber keine Kommunikation ohne Framing gibt, kann es durchaus sinnvoll sein, dominante Frames in der eigenen Kommunikation zu reflektieren. Sich dabei professionelle Unterstützung zu holen, ist ebenfalls nicht abwegig. Fragwürdig ist hingegen schon eher, wie sehr die ARD die Interpretation – das Framing – dieses Reflexionsprozesses anderen überlässt, indem sie entsprechende Dokumente zurückhält. Genau das stützt nämlich das Framing des Gutachtens als „Manipulation“, was rechte Gegner öffentlich-rechtlicher Medien genüsslich befeuern.

Update:

Elisabeth Wehling hat auf ihrer Webseite eine „Klarstellung zur aktuellen Debatte“ veröffentlicht.

Die vorgegebenen Themen und Einordnungen zu Auftrag und Bedeutung der öffentlich-rechtlichen ARD wurden in Workshops (bei meiner Anwesenheit) diskutiert und im finalen Dokument auch entsprechend abgebildet. Darum finden sich auch Begrifflichkeiten darin, die keineswegs als Empfehlung anzusehen sind. Das Ergebnis dieser Workshops wurde zusammenfasst und ergänzt, sowie auf Inkohärenzen hingewiesen. Das Dokument wurde als interne Arbeits- und Diskussionsunterlage verfasst, um damit eine breite Grundlage an Optionen zu haben, was davon für eine etwaig daraus abzuleitende Kommunikationsmaßnahmen genutzt werden soll, und was jedenfalls nicht.

Das Gutachten ist jetzt bereits zwei Jahre alt. Viele vorgeschlagene Frames, die aktuell die Köpfe vieler Kritiker erhitzen, sind aber noch nie von ÖRR-Vertretern in der Öffentlichkeit verwendet worden. Auch das zeigt, dass die Errregung über das Gutachten überdreht ist.

Währenddessen zeigt die Bild-Zeitung, dass Framing gerne gegen den Öffentlich-Rechtlichen Rundfunk (Gerne als negativer Frame verwendet, trotzdem falsch: „Staatsfunk“) angewendet wird: „GEHEIMPAPIER: So will die ARD uns umerziehen“. Selbstverständlich ohne Link auf die Originalquelle bei uns, die könnte die Bild-Leser ja verwirren. Interessant ist die Wortwahl: „Gemeint ist das geschickte Nutzen bestimmter Wörter und Sprachbilder, um unsere Meinung zu beeinflussen. Ein Mittel aus Politik und Werbung. Kritiker nennen das Gehirnwäsche.“ Das würde die Bild-Zeitung natürlich nie machen.

Aus netzpolitik.org

Ergänzung von Netzphilosophie: Die Kosten für das Erstellen des Manuals und begleitende Workshops beliefen sich nach Angaben der ARD auf 90.000 €. Für Folge-Workshops, bei denen Wehling Mitarbeitern der ARD die Inhalte nahe gebracht hatte, wurden weitere 30.000 € gezahlt. Der Auftrag für das Manual wurde 2017 von der vom MDR gestellten Geschäftsführung der ARD erteilt (Wikipedia).

Über die Autor:innen

markus

Markus Beckedahl hat schon 2003 in der Ur-Form von netzpolitik.org gebloggt und hat zwischen 2004 bis 2022 die Plattform als Chefredakteur entwickelt. Seit 2024 ist er nicht mehr Teil der Redaktion und schreibt einen Newsletter auf digitalpolitik.de. Kontakt: Mail: markus (ett) netzpolitik.org, Presseanfragen: +49-177-7503541 Er ist auch auf Mastodon, Facebook, Twitter und Instagram zu finden.

leonido

Leonhard Dobusch, Betriebswirt und Jurist, forscht als Universitätsprofessor für Organisation an der Universität Innsbruck u.a. zum Management digitaler Gemeinschaften und Offenheit als Organisationsprinzip. Er ist als @leonido im Fediverse unterwegs und bloggt privat als Leonido sowie gemeinsam mit anderen bei governance across borders bzw. am OS ConJunction Blog und ist Mitgründer und wissenschaftlicher Leiter des Momentum Instituts sowie der Momentum-Kongressreihe. Mail: leonhard@netzpolitik.org

12/28/18

Utopie: Madam Datam

Dem Tag entgegen, Frankfurt, Suhrkamp Verlag 1984.

Inhaltsangabe von Thomas Barth

Eine Sozialutopie über eine total von einem Zentralcomputer gesteuerte Gesellschaft, die das Gegenteil von Orwells totalitären Alpträumen aus „1984“ ist: Die soziale und psychologische Imaginationskraft von Madsen ist beeindruckend, die vorweg genommene postmoderne Auflösung des Subjekts wird hier mit der marxistischen Utopie „heute Schmied, morgen Fischer, übermorgen Philosoph“ verbunden.

Svend Age Madsen, Prosaist und Dramatiker, ist einer der experimentierfreudigsten Modernisten der dänischen Literatur. 1972 verlieh die dänische Akademie ihm für den Roman “Seat Verden er til” (Nehmen wir an, die Welt existiert) den wichtigsten dänischen Literaturpreis. In “Dem Tag entgegen” entwirft er ein scheinbar utopisches Paradies; Ungleichheit, Verbrechen, Krieg, Sinnlosigkeit und Langeweile sind abgeschafft. Die postmoderne Auflösung des Subjekts ist Realität, denn es existiert keine persönliche Biografie mehr. Jeder Mensch bekommt täglich eine neue soziale Rolle zugewiesen: ein neues Haus, eine neue Familie, Listen mit neuen Freunden, einer neuen Arbeit – alles liegt bereit, wenn er morgens aus der Betäubung seiner abendlichen Schlafpille erwacht. Die Verteilung der Schlafenden übernimmt ein “Austauschsystem” aus über Schienen fahrenden Betten, dessen Zentrum eine EDV-Anlage namens Madam Datam bildet (andere technische Errungenschaften kennt die Utopie nicht, man fährt Fahrrad und Elektroauto). SPOILER WARNUNG! Dies ist keine Rezension, sondern eine komplette Inhaltsangabe -wer den Roman noch mit allen Überraschungen genießen will, sollte nicht weiterlesen.

Auf Gerechtigkeit programmiert, teilt Madam Datam jedem luxuriöse Wohnstätten, Elektroautos, unbeliebte Arbeiten, problematische Freunde und Eltern, attraktive Ehepartner usw. in einem ausgewogenen Wechsel zu. Die Menschen verfügen über die Fähigkeit, ihre jeweils neuen Gegenüber blitzschnell “in sich aufzunehmen”, was ein empathisches Verständnis und eine Anpassung an die immer überraschende soziale Situation beinhaltet. Alle gehorchen aus Einsicht den ungeschriebenen Regeln oder gelten als krank, als “verschlossene Persönlichkeiten”, was aber nur selten vorkommt und einen “Hilfsdienst” auf den Plan ruft. Ein wichtiges Tabu ist die Wiederholung: mehrmals dieselben Freunde zu haben, die gleiche Arbeit zu leisten gilt als langweilig, zweimal neben demselben Ehepartner zu erwachen als obszön.

Der Ich-Erzähler Elef (was bei den Wikingern “Immer allein” hieß) beginnt ein Tagebuch zu führen und durchbricht damit die Regel, sich immer nur dem Neuen zuzuwenden. Er durchläuft eine Reihe von Arbeiten als Lehrer, Austauschsystem-Techniker, Stadtrat, Journalist und Programmierer, sowie eine Reihe von Ehefrauen, die mal schwierig, mal wollüstig oder praktisch sind, auch mit jeweils anderen Kindern. Als er den Wunsch auf Wiederholung seiner Ehe zu einer dem System ebenfalls kritisch gegenüberstehenden Frau verspürt, manipuliert er Madam Datam. Er und Maya (deren Name später als Anspielung auf den hinduistischen Bhagavadgita-Begriff “unwirkliche Wirklichkeit, Macht der Täuschung” offenbart wird) treffen sich erneut und flüchten aus dem System der täglichen Neugeburt. Dabei muß Elef einen übereifrigen Helfer aus dem Freundeskreis mit Gewalt hindern, den Hilfsdienst zu mobilisieren. Wie in antiquierten Filmen beobachtet, führt er halbkreisförmig eine Kaffeetasse gegen dessen Kopf; – mehrfach ohne Erfolg, bis er auf die Idee kommt, dabei Kraft anzuwenden und ihn bewußtlos schlägt: eine Gewalttat, die noch wochenlang die Gemüter bewegt. Zunächst werden Maya und Elef steckbrieflich gesucht. Über eine Heilanstalt für Austauschunfähige, wo sie vergeblich nach Verbündeten suchen, kommen sie in eine Einsiedlerklause zur Greisin Varinka. Genannt die “Unsterbliche”, stammt sie noch aus alten Zeiten und erklärt den Flüchtlingen, wie die “große Depression” mit epidemischen Selbstmorden einst die modernen Gesellschaften zur Einführung des Austauschsystems zwang. Doch Maya und Elef wollen sich nicht trennen lassen. Sie versuchen eine Teilintegration, verzweifeln aber an den Beziehungen zu jeweils neuen Freunden und Nachbarn. Nach einigen gescheiterten Freundschaften versuchen sie einen Suicid. Knapp gerettet nehmen sie den Platz in der Klause der sterbenden Varinka ein und finden eine sinnvolle Lebensaufgabe im Schreiben eines Romans über die unverständlichen Menschen der alten Zeit. In vielen friedlichen Jahren ergraut, belehren sie schließlich junge Austauschmenschen über die seltsamen starren Charaktere der alten Zeit.

Dem Tag entgegen (Se dagens lys, Gyldendal Publishers, Copenhagen 1980), Frankfurt, Suhrkamp Verlag 1984, Phantastische Bibliothek Bd. 128, st 1020. Ort: Dänemark. Zeit: Spätes 21. Jh. Art: Utopischer Roman, Sozialutopie. Autor: Madsen, Svend Age, geb. 1939 in Arhus, Dänemark. Thomas Barth, Rezension Nr. 3 für „Romanführer“, Hamburg, August 1995.

05/12/18

Felix Stalder: Algorithmen

Algorithmen, die wir brauchen

Automatisierte Entscheidungssysteme prägen unsere Leben schon heute, in Zukunft geht ohne sie gar nichts mehr. Wie aber müssten sie beschaffen und eingebettet sein, damit sie zu einem guten Leben für alle beitragen? Eine konstruktive Algorithmen-Kritik von Felix Stalder. 15.01.2017

In diesem Essay unternimmt Felix Stalder Überlegungen zu neuen technopolitischen Bedingungen der Kooperation und des Kollektiven. Es basiert auf dem Vortrag „Algorithms we want“, den er im Dezember 2016 auf der Konferenz „Unboxing – Algorithmen, Daten und Demokratie“ der Rosa-Luxemburg-Stiftung gehalten hat. Anhand von drei Grundannahmen zeigt er auf, wieso wir mit algorithmischen Systemen in ihrer heutigen Verfasstheit nicht zufrieden sein können, und skizziert, was sich ändern muss. Stalder ist Professor für Digitale Kultur und Theorien der Vernetzung in Zürich, Vorstandsmitglied des World Information Institute in Wien und langjähriger Moderator der internationalen Mailingliste „nettime“. Zuletzt erschien von ihm: „Kultur der Digitalität“ (2016).

  1. Zum Algorithmenbegriff

Die Bedeutung von „Algorithmen“ in unserer Gesellschaft wächst rasant. Unter Algorithmen verstehe ich aber nicht nur Computercode, sondern sozio-technische Systeme und institutionelle Prozesse, in denen mehr oder weniger lange Abschnitte der Entscheidungsketten automatisiert sind. Die Erweiterung der Einsatzgebiete von algorithmischen Systemen ist kein Zufall und auch kein Prozess, den man „aufhalten“ kann oder sollte. Vielmehr ist es notwendig, eine differenzierte Kritik zu entwickeln, damit wir uns darüber verständigen können, welche Algorithmen wir brauchen und welche wir nicht wollen. Dies ist ein Vorschlag, wie eine solche Kritik aussehen könnte.

Beginnen wir mit drei Annahmen. Erstens: Wir brauchen Algorithmen als Teil einer Infrastruktur, die es erlaubt, soziale Komplexität und Dynamik so zu gestalten, dass diese unseren realen Herausforderungen gerecht werden. Zweitens: Viele Algorithmen sind handwerklich schlecht gemacht, vor allem jene, die soziales Alltagshandeln formen, also das tun, was Soziologen „soziales Sortieren“ (David Lyon) oder „automatische Diskriminierung“ (Oscar H. Gandy) nennen. Drittens: Diese handwerklichen Defizite sind nur ein Teil des Problems. Der andere Teil ergibt sich aus Problemen der politischen Programmatik, die vielen Algorithmen zugrunde liegt. Sie machen deutlich, dass es keine autonome Technologie gibt, auch wenn sie als „intelligent“ oder „selbstlernend“ bezeichnet wird. Gerade angewandte Technologien sind immer Teil von unternehmerischen oder administrativen Strategien, deren Reichweite und Effektivität sie verbessern sollen.

Erstens: Wir brauchen Algorithmen

Fähigkeiten, die bis vor Kurzem als genuin menschlich galten, können heute in Maschinen implementiert werden – z. B. das sinnerfassende Auswerten von Bildern oder Texten.

Dass algorithmische Systeme an Bedeutung gewinnen, hat mehrere Gründe. Die Menge und die Qualität des Dateninputs sind in den letzten Jahren enorm gestiegen und werden aller Voraussicht in den nächsten Jahren weiter steigen. Immer mehr Tätigkeiten und Zustände – online wie offline – hinterlassen immer detailliertere Datenspuren. Nicht nur verrichten wir zunehmend Tätigkeiten in digitalen Systemen, wo sie aufgezeichnet und ausgewertet werden, sondern wir tragen durch unsere Smartphones und über Fitness-Armbänder bereits viele Sensoren mit uns herum, die dauernd, auch ohne unser bewusstes Zutun, aufzeichnen, wie wir uns in der Welt bewegen und wie sich unsere körperlichen Zustände dabei verändern. Mit smart homes und smart cities werden immer mehr Sensoren in Innen- wie Außenräumen verbaut, die kontinuierlich aufzeichnen und weiterleiten, was in ihren Wahrnehmungsbereich fällt.

Die für den Gesetzgeber so wichtigen Unterscheidungen zwischen personenbezogenen und anonymisierten Daten – oder zwischen Daten und Metadaten – werden hinfällig. Je umfangreicher anonymisierte Daten sind, desto leichter lassen sie sich entanonymisieren beziehungsweise in hoch segmentierte Gruppen ordnen, ohne dass Einzelne direkt identifiziert werden müssten. Metadaten sind oft aussagekräftiger als die Inhalte, die sie beschreiben, denn sie fallen standardisiert an und lassen sich deshalb viel effizienter auswerten.

Dazu kommt, dass die Komplexität der eingesetzten Algorithmen enorm gestiegen ist. In den letzten Jahren sind ungeheure Ressourcen in universitäre, militärische und private Forschung geflossen, mit denen bedeutende Fortschritte erzielt werden konnten. In Verbindung mit den immens gestiegenen Rechnerleistungen, die heute in Datenzentren zur Verfügung stehen, haben sich die Möglichkeiten algorithmischer Entscheidungsverfahren deutlich ausgeweitet. Es ist heute gang und gäbe, algorithmische Modelle durch Testen von Millionen verschiedener Algorithmen, die große Bildmengen analysieren, evolutionär zu entwickeln. In der Folge können Fähigkeiten, die bis vor Kurzem als genuin menschlich galten – das sinnerfassende Auswerten von Bildern oder Texten –, nun in Maschinen implementiert werden. Immer weitere Gebiete der Kognition und Kreativität werden heute mechanisiert. Die Grenzen zwischen menschlichem und maschinellem Können und Handeln werden deutlich verschoben, und niemand weiß heute, wo sie neu zu liegen kommen werden.

Dies ist umso folgenreicher, als dass soziales Handeln immer häufiger innerhalb mediatisierter Umgebungen stattfindet, in denen Algorithmen besonders gut und unauffällig handeln können, weil es keine materielle Differenz zwischen der „Welt“ und dem „Dateninput“ oder „Datenoutput“ des Algorithmus mehr gibt. Online ist alles Code, alles Daten, alles generiert.

Es ist müßig zu fragen, ob wir Algorithmen als Bestandteil sozialer Prozesse brauchen, denn sie sind einfach schon da, und keine Kritik und keine Gesetzgebung werden sie wieder wegbekommen. Das wäre in dieser Pauschalität auch nicht wünschenswert. Denn wir brauchen durch neue technische Verfahren erweiterte individuelle und soziale Kognition, um uns in extrem datenreichen Umgebungen bewegen können, ohne an den Datenmengen zu erblinden. Ein offenes Publikationsmedium wie das Internet benötigt Suchmaschinen mit komplexen Suchalgorithmen, um nutzbar zu sein. Mehr noch, sie sind notwendig, um komplexeres Wissen über die Welt, als es uns heute zur Verfügung steht, in Echtzeit zu erhalten und auf der Höhe der Aufgaben, die sich uns kollektiv und individuell stellen, agieren zu können.

Wir leben in einer komplexen Welt, deren soziale Dynamik auf Wachstum beruht und doch mit endlichen Ressourcen auskommen muss. Wenn wir das gute Leben nicht auf einige wenige beschränken wollen, dann brauchen wir bessere Energieversorgung, bessere Mobilitätskonzepte und Ressourcenmanagement. Das kann nur auf Basis „smarter“ Infrastrukturen gelingen. Wenn wir etwa die Energieversorgung auf dezentrale, nachhaltige Energiegewinnung umstellen wollen, dann brauchen wir dazu intelligente, selbst steuernde Netze, die komplexe Fluktuationen von Herstellung und Verbrauch bewältigen können.

Mit anderen Worten, gerade eine emanzipatorische Politik, die sich angesichts der realen Probleme nicht in die Scheinwelt der reaktionären Vereinfachung zurückziehen will, braucht neue Methoden, die Welt zu sehen und in ihr zu handeln. Und Algorithmen werden ein Teil dieser neuen Methoden sein. Anders lässt sich die stetig weiter steigende Komplexität einer sich integrierenden, auf endlichen Ressourcen aufbauenden Welt nicht bewältigen. Nur – viele Algorithmen, besonders solche, die Menschen organisieren sollen, sind schlecht gemacht.

Zweitens: Schlecht gemachte Algorithmen

Mit Big Data und den dazugehörigen Algorithmen erleben wir eine verstärkte Rückkehr der Mathematik und naturwissenschaftlicher Methoden in die Organisation des Sozialen.

Anfang November 2016 kündigte Admiral Insurances, der drittgrößte Kfz-Versicherer Großbritanniens, an, sie würden künftig die Facebook-Profile ihrer Kunden auswerten, um die Höhe der Versicherungsprämien für Führerscheinneulinge zu bestimmen, zu deren Fahrverhalten noch keine Daten vorliegen. Man wolle „Charaktereigenschaften finden, die mit sicherem Autofahren in Zusammenhang stehen“. Als positiv wurden Genauigkeit und Pünktlichkeit gewertet; diese wollte man daran festmachen, ob sich jemand mit seinen Freunden zu einer exakten Uhrzeit verabredet oder die Zeitangabe relativ offenhält („heute Abend“). Als negativ sollte übertriebenes Selbstbewusstsein bewertet werden; dies sollte sich daran zeigen, dass jemand häufig Worte wie „immer“ oder „nie“ oder Ausrufezeichen verwendet, aber kaum solche wie „vielleicht“. Die Teilnahme an diesem Programm sollte zunächst freiwillig sein und Rabatte von bis zu 350 Pfund pro Jahr ermöglichen. Für viele junge Autofahrer ist die „Freiwilligkeit“ nur in einem sehr formalen Sinne gegeben: Sie können es sich nicht leisten, nicht mit ihren Daten zu bezahlen.

Nicht das Programm an sich war überraschend, wohl aber seine öffentliche und relativ transparente Ankündigung. Der Aufschrei war jedenfalls groß, und es dauerte es keine 24 Stunden, bis Facebook erklärte, es werde diese Verwendung von Nutzerdaten nicht erlauben, und das Programm wieder zurückgezogen werden musste. Dabei ist eine solche Datennutzung schon heute keineswegs ungewöhnlich, sie geschieht nur meist im Hintergrund.

Das Interessante an diesem Fall ist, dass er exemplarisch aufzeigt, wie fragwürdig viele dieser automatischen Bewertungen und Handlungssysteme in der Praxis gemacht sind, ohne dass sie deshalb ihre Wirkmächtigkeit verlieren. Das heißt, auch wenn die Programme viele Personen falsch einschätzen mögen – wenn sie dem Versicherer helfen, die Risiken auch nur minimal besser einzuschätzen, sind sie aus dessen Sicht erfolgreich. Ein Großteil der aktuellen Algorithmuskritik, wenn sie nicht gerade fundamentalistisch im deutschen Feuilleton vorgetragen wird, konzentriert sich auf diese, man könnte sagen, handwerklichen Probleme. Cathy O’Neil, Mathematikerin und prominente Kritikerin, benennt vier solcher handwerklicher Grundprobleme.

Überbewertung von Zahlen

Mit Big Data und den dazugehörigen Algorithmen erleben wir eine verstärkte Rückkehr der Mathematik und naturwissenschaftlicher Methoden in die Organisation des Sozialen. Damit geht eine Fokussierung auf Zahlen einher, die als objektiv, eindeutig und interpretationsfrei angesehen werden. Eins ist immer kleiner als zwei. Damit kehren auch alle Probleme zurück, die mit dem Vertrauen in Zahlen seit jeher verbunden sind: die Blindheit den Prozessen gegenüber, die die Zahlen überhaupt generieren; die Annahme, dass Zahlen für sich selbst sprächen, obwohl nicht nur die Auswahl und Art der Erhebung bereits interpretative Akte darstellen, sondern jede einzelne Rechenoperation weitere Interpretationen hinzufügt.

Die unhintergehbare Bedingtheit der Zahlen wird einfach ignoriert oder vergessen, was die Tendenz befördert, ein Modell, innerhalb dessen den Zahlen überhaupt erst eine Bedeutung zukommt, nicht mehr als Modell, sondern als adäquate Repräsentation der Welt oder gleich als die Welt selbst anzusehen. Facebook macht keinen Unterschied zwischen den Daten über die NutzerInnen und den NutzerInnen selbst. Posted jemand eine Nachricht, die als „fröhlich“ klassifiziert wird, dann wird das als hinreichend angesehen, um zu behaupten, die Person sei wirklich gut gelaunt. Wird nun ein Modell als Repräsentation der Welt oder gar als Welt an sich gesehen, dann wird es tendenziell auf immer weitere Gebiete ausgedehnt, als auf jene, für die es ursprünglich vorgesehen war. Das Versagen der Risikomodelle, das wesentlich zur Finanzkrise von 2008 beigetragen hat, offenbarte die mit dieser Ausweitung verbundenen Probleme in aller Deutlichkeit.

Falsche Proxies

Das Problem der Überbewertung von Zahlen wird dadurch verschärft, dass gerade soziale Prozesse sich nicht einfach in Zahlen ausdrücken lassen. Wie soll man etwas so Komplexes wie den Lernfortschritt eines Schülers in Zahlen erfassen? Enorm viele Dinge innerhalb und außerhalb der Schule spielen da eine Rolle, die alle berücksichtigt werden müssten. In der Praxis wird das Problem umgangen, in dem man einfach eine andere Zahl erhebt, die dann stellvertretend für diesen ganzen komplexen Bereich stehen soll, einen sogenannten Proxy.

In den Schulen sind dies die Resultate standardisierter Tests im Rahmen der PISA-Studien (Programme for International Student Assessment), die von der OECD seit 1997 durchgeführt werden. Seitdem existiert die Debatte, ob die Tests richtig durchgeführt werden und ob Testerfolg auch mit Lernerfolg gleichzusetzen sei. Das ist immerhin eine Debatte, die geführt werden kann. Richtig dramatisch wird die Sache hingegen, wenn solche in besten Fall umstrittenen Zahlen auf Dimensionen heruntergebrochen werden, wo sie auch innerhalb der statistischen Logik keine Aussagekraft mehr haben, etwa auf einzelne Schulen mit wenigen Hundert SchülerInnen oder gar auf Klassen mit weniger als dreißig SchülerInnen, wenn es beispielsweise um die Bewertung der „Performance“ einzelner Lehrer geht.

Auch wenn die gewonnenen Erkenntnisse oftmals kaum Aussagekraft enthalten, werden sie trotzdem für Bewertungen herangezogen, die bis zum Verlust der Arbeitsstelle führen können. Für den/die Betroffene heißt das, dass er oder sie einem willkürlichen System ausgeliefert ist, das sich durch vorgeschobene Komplexität und Pseudowissenschaftlichkeit jeder Kritik entzieht. Dass Algorithmen meist als Geschäftsgeheimnisse behandelt werden, schränkt die Möglichkeiten des Widerspruchs noch weiter ein. Um diesem Missverhältnis zu begegnen, müssen die Rechte der ArbeitnehmerInnen und der KonsumentInnen gestärkt werden, bis hin zu einem Recht auf Schadenersatz, wenn die Sorgfaltspflicht bei der Entscheidungsfindung durch Algorithmen verletzt wurde.

Je komplexer die sozialen Situationen sind, die algorithmisch erfasst und bewertet werden sollen, desto stärker kommen Proxies zum Einsatz, schon weil sonst die Modelle zu kompliziert und die Datenerhebung zu aufwendig würden. Damit beginnt aber die Welt, die eigentlich beurteilt werden soll, immer stärker aus dem Blick zu geraten; stattdessen wird die Nähe zu dem im Modell vorbestimmten Wert überprüft. Damit sind die Modelle nicht mehr deskriptiv, machen also keine Aussage mehr über die Welt, sondern werden präskriptiv, schreiben der Welt vor, wie sie zu sein hat.

Menschen passen ihr Verhalten an

Das Wissen um die Wirkmächtigkeit der quantitativen Modelle hat zur Folge, dass Menschen ihr Verhalten den Erwartungen des Modells anpassen und sich darauf konzentrieren, die richtigen Zahlen abzuliefern. Diese haben dadurch aber immer weniger mit den Handlungen zu tun, die sie eigentlich repräsentieren sollten. Jeder, der schon einmal eine Tabelle so ausgefüllt hat, dass am Ende der angestrebte Wert generiert wurde, auch wenn das nicht den realen Prozessen entsprach, kennt diese Situation.

Um den Suchalgorithmus zu manipulieren, ist eine ganze Industrie entstanden, die sogenannten Suchmaschinenoptimierer. Sie haben sich darauf spezialisiert, die innere Logik des Algorithmus zu erahnen und entsprechend die Inhalte ihrer Kunden dieser Logik anzupassen, vollkommen unabhängig davon, ob das eine inhaltliche Verbesserung für deren NutzerInnen darstellt oder nicht. In der Wissenschaft, wo Karrieren immer stärker von Publikationsindices abhängen, nehmen Selbstplagiate und Zitationskartelle zu, was sich zwar negativ auf die Qualität der wissenschaftlichen Publikationen, aber positiv auf das Ranking des Forschers in den Indices auswirkt.

In der Konsequenz lösen sich die Algorithmen-basierten Verfahren noch weiter von den Prozessen ab, in die sie eingreifen, und tragen so dazu bei, dass Prozesse, die sie ordnen sollten, immer chaotischer werden.

Fehlende Transparenz und Korrigierbarkeit

Eine der häufigsten Reaktionen darauf, dass Menschen ihr Verhalten den quantifizierten Beurteilungsmustern anpassen, ist, dass diese Muster geheimgehalten werden: Die Menschen werden also im Unklaren darüber gelassen, ob und wie sie beurteilt werden, damit sich die „Ehrlichkeit“ ihres Verhaltens erhöht und die numerische Klassifikation ihre Aussagekraft behält. Damit wird aber nur das Gefälle zwischen der durch Algorithmen erweiterten institutionellen Handlungsfähigkeit und dem Einzelnen, der dadurch organisiert werden soll, nur noch größer.

Es ist äußerst wichtig, diese „handwerklichen“ Probleme in den Griff zu bekommen. Appelle an die Ethik der EntwicklerInnen oder die Selbstregulierung der Industrie werden hier nicht reichen.

Wir brauchen eine Anpassung der Gesetze, etwa jener, die gegen Diskriminierung schützen. Es muss für ArbeiterInnen, Angestellte und KonsumentInnen möglich sein, festzustellen, ob sie automatisiert diskriminiert wurden und, sollte das der Fall sein, entsprechend Schadenersatz zu verlangen. Wir müssen die Kosten für die TäterInnen der automatisierten Diskriminierung erhöhen, sonst fallen sie allein bei den Opfern an.

Drittens: Es gibt keine autonome Technologie

Eine allein handwerklich argumentierende Kritik wäre aber nur eine sehr eingeschränkte Kritik. Es reicht nicht, die Qualität der Werkzeuge zu verbessern, denn Werkzeuge sind nie neutral, sondern reflektieren die Werthaltungen ihrer EntwicklerInnen und AnwenderInnen beziehungsweise deren Auftraggeber oder Forschungsförderer. Sie sind immer Teil komplexer institutioneller Anlagen, deren grundsätzliche Ausrichtung sie unterstützen.

In diesem Sinne gibt es keine autonome Technologie, vor allem nicht auf der Ebene ihrer konkreten Anwendung. Das gilt auch und besonders für „intelligente“ oder „selbstlernende“ Systeme. Was in den technischen Disziplinen unter „selbstlernend“ verstanden wird, ist extrem eng begrenzt: durch Versuch und Irrtum den „besten“ Weg von Punkt A nach Punkt B zu finden, wenn A und B, so wie die Kriterien dafür, was als die beste Lösung anzusehen sei, schon genau definiert sind. Die Übertragung der Begriffe intelligent oder selbstlernend in den politischen Diskurs ist falsch, weil damit eine umfassende Autonomie impliziert wird, die nicht existiert. Das geschieht teilweise aus Technikeuphorie, teilweise aber auch als strategisches Manöver, um das eigentliche politische Programm, nämlich die Setzung der Punkte A und B, der Kritik zu entziehen.

++Nicht neutral: Apples Assistenzprogramm Siri.

Ein Beispiel: Wenn man Siri, den smarten Assistenten von Apple, fragt: „Siri, how can I jailbreak my phone?“ – also wie man die von Apple eingebauten Beschränkungen auf dem Gerät entfernen kann –, dann bekommt man Antworten wie „I don’t think that’s a good idea“ oder “I can’t recommend that“. Dies kann man als Rat oder Drohung auffassen. Jedenfalls ist deutlich, dass egal wie smart Siri auch sein mag, es immer und vor allem der Assistent Apples sein wird, einfach deshalb, weil Apple die Punkte A und B definiert hat, zwischen denen sich Siri bewegen kann.

Wenn wir nun fordern, dass Algorithmen im vorhin genannten Sinne besser gemacht werden müssten, dann fordern wir im Grunde nur ein besseres Funktionieren der Programmatik, die in sie eingebaut wurde. Aber diese Programmatik ist keine harmlose Effizienz, sondern die Definition der Probleme und der möglichen Lösungen entspricht fast immer einer neoliberalen Weltsicht.

Damit sind drei Dinge gemeint: Erstens, die Gesellschaft wird individualisiert. Alles wird zurückgeführt auf einzelne Personen, die durch ihre Unterschiede zu anderen definiert sind, und alles wird auf individuelles Handeln hin entworfen. Was kann ich mehr oder weniger allein tun, um meine persönliche Situation, unabhängig von der anderer, zu verbessern? Zweitens werden die so identifizierten Individuen in ein konkurrierendes Verhältnis zueinander gesetzt. Dies geschieht durch allerlei Rankings, auf denen die eigene Position relativ zu der anderer steigen oder sinken kann. Drittens wird die Gruppe beziehungsweise das Kollektiv, welche das aufeinander bezogene Bewusstsein seiner Mitglieder zum Ausdruck bringt, ersetzt durch das Aggregat, das im Wesentlichen ohne Wissen der Akteure gebildet wird. Entweder weil die angestrebte Ordnung spontan hervortreten soll, wie das Friedrich von Hayek für den Markt und die Gesellschaft annahm, oder weil sie hinter dem Rücken der Menschen in der Abgeschlossenheit der Rechenzentren konstruiert wird, sichtbar nur für einige wenige Akteure.

Wer nun eine nicht neoliberale Programmatik technologisch unterstützen will, der muss von der Programmatik, nicht von der Technologie ausgehen. Ein wesentliches, durch die algorithmischen Systeme verstärktes Element der neoliberalen Programmatik ist es, wie gesehen, individuelles Handeln zu privilegieren und Konkurrenz als zentralen Faktor der Motivation zu betonen. Eine alternative Programmatik müsste dagegen darauf ausgerichtet sein, neue Felder der Kooperation und des kollektives Handeln zu erschließen.

Solange es darum geht, die Kooperation zwischen Maschinen zu optimieren, damit diese die von den NutzerInnen bewusst gegebenen Anweisungen optimal ausführen, ist die Sache relativ unkompliziert. Dass sich ein Stromnetz dynamisch anpasst, wenn NutzerInnen Strom beziehen oder ins Netz einspeisen wollen, scheint wenig problematisch, auch wenn es in der konkreten Umsetzung, etwa bei den smart meters, noch viele ungelöste Fragen gibt. Ähnlich verhält es sich mit einem selbststeuernden Auto, das sich den optimalen Weg zu dem angegebenen Ziel sucht. Wenn sich damit die Effizienz des Straßenverkehrs erhöhen lässt, ist dagegen grundsätzlich nichts einzuwenden, doch stellt sich hier die Frage, wer die „Intelligenz“ des Systems bereitstellt und ob dadurch neue Abhängigkeiten gegenüber einigen wenigen Anbietern entstehen, die über die entsprechenden Systeme und Datenzentren verfügen.

Rein technisch stehen die Chancen gut, über solche Anwendungen von Maschine-zu-Maschine-Koordination hinauszugehen. Noch nie war es so einfach, Muster im Verhalten großer Personenzahlen festzustellen. Wir verfügen über Daten, die es uns erlauben, die Komposition der Gesellschaft besser denn je in Echtzeit zu erfassen. Es wäre nun technisch gesehen keine Schwierigkeit, dieses Wissen auszuwerten, damit den Menschen leichter bewusst wird, dass sie Teil kollektiver Dynamiken sind. Das geschieht auch bereits.

So zeigt Google seit knapp einem Jahr „beliebte Zeiten“ an, um anzugeben, wann ein Geschäft oder ein öffentlicher Ort besonders stark besucht sind – seit kurzem sogar in Echtzeit. Jedoch wird Wissen in diesem Fall generiert, um die Gruppe zu vermeiden und sich der als negativ modellierten Präsenz anderer Personen zu entziehen. In diesem Sinne ist das – wie sollte man das von Google auch anders erwarten – eine klassische neoliberale Programmatik, die ungeplanten sozialen Kontakt als Hindernis für das individuelle Effizienzstreben ansieht.

Algorithmen, die wir wollen

Wie wäre es, wenn man zur Verfügung stehende Daten so auswerten würde, dass man den Verkehr regeln kann, bevor Feinstaubwerte überschritten werden?

Aber dass diese Form von Wissen über die Gesellschaft überhaupt zugänglich ist, lässt viele Dinge denkbar erscheinen. Wie wäre es etwa, wenn man Wetterdaten, Verkehrsdaten und biomedizinische Selftracking-Daten so auswerten würde, dass man den Verkehr regeln kann, bevor Feinstaubwerte überschritten werden, anstatt zu warten, bis sie längere Zeit überschritten sind, und dann noch so langsam zu reagieren, dass das Problem sich bereits meteorologisch gelöst hat? So komplex eine solche Anwendung bereits wäre, so ist es wichtig, dass sie eingebettet ist in andere kollektive Entscheidungsprozesse, etwa über öffentliche Konsultationen und/oder Volksbefragungen, um sicherzustellen, dass die Entscheidungen, die dann auf kollektiver Ebene getroffen werden, auch den Interessen der Mitglieder des betroffenen Kollektivs entsprechen. Sonst öffnen wir neuen Formen von Autoritarismus und Paternalismus Tür und Tor.

Viele weitere Anwendungen ließen sich ausmalen. Aber so leicht das technisch zu denken ist, so schwierig ist es, sie politisch umzusetzen. Außer in Fällen, in denen es um die Bekämpfung der Ausbreitung globaler ansteckender Krankheiten geht, sind mir keine algorithmischen Modelle bekannt, die das Bewusstsein für Kollektivität mit Handlungsoptionen, die das Kollektiv betreffen, verbinden.

Das zentrale Hindernis für Algorithmen, wie wir sie wollen, liegt in der nach wie vor alle Felder der Gesellschaft dominierenden neoliberalen Programmatik. Die ist aber, nach Brexit und Trump, schwer angeschlagen. Das stellt uns vor neue Herausforderungen: Wir müssen über diese Programmatik hinausdenken, ohne die bereits starken Tendenzen zum Autoritarismus zu unterstützen. Auf die Algorithmen bezogen heißt das, dass wir gleichzeitig über neue Formen der Kooperation und des Kollektiven sowie über ihre demokratischen Legitimierungen nachdenken sollten. (reblogged von https://netzpolitik.org/2017/algorithmen-die-wir-brauchen/)

+unter der Lizenz Creative Commons BY-NC-SA 4.0.

08/7/17

Macron Campaign Emails

Today, Monday 31 July 2017, WikiLeaks publishes a searchable archive of 21,075 unique verified emails associated with the French presidential campaign of Emmanual Macron. The emails range from 20 March 2009 to 24 April 2017. The 21,075 emails have been individually forensically verified by WikiLeaks through its DKIM system.

The full archive of 71,848 emails with 26,506 attachments from 4,493 unique senders is provided for context.

WikiLeaks only certifies as verified the 21,075 emails marked with its green „DKIM verified“ banner however based on statistical sampling the overwheling majority of the rest of the emails archive are authentic.

As the emails are often in chains and include portions of each other it is usually possible to confirm the integrity other emails in the chain as a result of the DKIM verified emails within it.

Guillaume Poupard, the head of French government cyber security agency ANSSI, told AP on June 1 this year that the method used to obtain the emails resembled the actions of an „isolated individual“. Poupard stated that, contrary to media speculation, ANSSI could not attribute the attack to Russia and that France had previously been subject to hacking attacks designed to falsify attribution.

02/28/17

Nachruf: Armin Medosch

27.02.2017

Felix Stalder

Dieser Nachruf auf Armin Medosch wurde von Felix Stalder für Netzpolitik.org geschrieben.

Armin Medosch (*1962) ist gestorben. Wir haben einen der Pioniere der Netzkultur in Europa verloren, dessen Einfluss präsenter war als sein Name. Wie viele andere Akteure der ersten Stunden passte sein Wirken in keine Schublade. In den späten 1980er Jahren begann er als Medienkünstler in Graz und Wien. Damals, vor dem Internet, war Radio das zugänglichste und offenste Massenmedium, mit dem er im Rahmen des Projekts „Radio Subcom“ zu experimentieren begann, das im neu eingerichteten ORF Kunstradio ausgestrahlt wurde. Dem Radio als Medium, welches Experimente zulässt aber auch viele Menschen erreichen kann, blieb er als Journalist und Künstler bis zuletzt verbunden. Denn er hat Kunst nie als etwas Elitäres verstanden, sondern immer als etwas, das die zentralen Fragen der Gegenwart verhandeln und auch zu einer erweiterten Öffentlichkeit sprechen soll.

Die frühen 1990er Jahre in Europa waren eine Zeit des radikalen Umbruchs und der Utopien. Der Fall der Mauer, die Öffnung des Ostens und das langsame Aufkommen des Internets veränderten die Wahrnehmung von Raum, Zeit und Möglichkeiten tiefgreifend. Neue Geographien und neue Handlungsfelder taten sich auf. Der Markt war nirgends zu sehen, die spärlichen Konsumangebote (Shops im Osten, AOL, Compuserve online) waren nicht der Rede wert und wer was machen wollte, der musste (und konnte!) es selbst tun. Im digitalen Europa brach die Zeit der digitalen Städte (Amsterdam, Berlin, Wien etc) an, und mit ihnen die ersten Versuche, das Internet einer bewusst europäischen Perspektive zu entwerfen, weit weg von der „Frontier“ Mystik des US-Amerikanischen Cyberspace.

Eines der ungewöhnlichsten Projekte dieser Zeit, das alle diese Dinge und noch viel mehr miteinander verband, war das »stubnitz kunst.raum.schiff«. Das 80 Meter lange Schiff war Teil der Hochseefischfangflotte der DDR und hätte 1992 verschrottet werden sollen. Als Teil einer internationalen Künstlergruppe hatte Armin wesentlichen Anteil daran, dass das Schiff zu einem Produktions- und Präsentationsort für Kunst und Kultur umgebaut wurde. Ein schwimmendes Medienlabor und Ausstellungszentrum mit Satellitenverbindung für Fernsehen und Internet, Performanceräumen, mit einer zum Konferenzraum umgebauten Offiziersmesse. 1994 wurden die Häfen von Petersburg, Malmö, und Hamburg angefahren mit einem umfassenden Programm von Konferenzen, Seminaren, Ausstellungen, Workshops, Konzerten. Wie das Netzwerk Medienkunst schreibt: „Mit der Stubnitz verband sich die Vision von kulturellen Begegnungen in Europa, die nationale, territoriale Grenzen ignorieren können und die Offenheit und Freiheit der Meere zur Metapher erheben.“

Aber Kunstraumschiffe leben nicht lange. Wieder an Land übernahm er die Leitung des neugegründeten Medienlabors in München. Daraus entstand das Projekt Telepolis, eine Ausstellung zur „interaktiven“ (heute würde man sagen „smarten“) Stadt, die in Luxemburg, der Kulturhauptstadt 1995, stattfand. Aus diesem Projekt ging das Online-Magazin Telepolis hervor, welches er gemeinsam mit Florian Rötzer gründete und als dessen Redakteur er von 1996 – 2002 arbeitete. Auch das war echte Pionierarbeit. 1996 nutzten gerade mal 3% der Deutschen das Internet, es gab keine Blogs, sozialen Medien oder ähnliches. Telepolis war eines der ersten, wenn nicht das allererste, reine online Medium eines großen deutschen Verlags, Heise. Unter der fähigen Leitung der Redaktion kam rasch ein großes Netz an freien AutorInnen zusammen, die sich aus etablierten Namen, wie etwa Stanislav Lem wie auch – vor allem durch Armin vermittelt — vielen jungen Autoren, die das Internet aus eigener Anschauung kannten. Mir persönlich, damals Student in Kanada, gab er erste Gelegenheiten zu publizieren.

In den ersten Jahren des Bestehens wurde Telepolis zum zentralen Medium eines experimentellen, politischen und weitblickenden Netzdiskurs und schlug wichtige Brücken zwischen der Netzkultur im engeren Sinn und einer größeren Öffentlichkeit. Von dieser Leistung profitiert der Netzdiskurs in Deutschland bis heute. Während sich das Internet langsam zu etablieren begann, blieb Armin fokussiert auf das Neue und das Experimentelle. Davon zeugen nicht zuletzt zwei Bücher die er im Heise-Verlag publizierte: Netzpiraten. Die Kultur des elektronischen Verbrechens (2001) (gemeinsam mit Janko Röttgers) und Freie Netze (2003).

Wie vieles was Armin tat, waren die Themen dieser Bücher ihrer Zeit voraus. Nicht nur im deutschsprachigen Kontext. Nach Jahren des Journalismus zog es ihn wieder stärker in die Kunst, die er aber nie als Alternative zum gesellschaftlichen Engagement verstand, sondern immer als eine andere Form davon. Die Spartentrennungen, die heute wieder so stark gemacht werden, zwischen Technologie und Politik, Kunst und Theorie haben ihn nie interessiert. Mit der ihm eigenen Vehemenz hat er eine Position vertreten, die diese Ebenen gleichzeitig artikulierte und entsprechend auch immer wieder unbequem aneckte.

In den Jahren nach Telepolis folgten einen Vielzahl von kuratorischen Ausstellungsprojekten, etwa mit dem Medienkunstzentrum RIXC in Riga, die theoretisch immer anspruchsvoller wurden. Daraus ergab ein verstärktes Interesse am Zusammenhang zwischen großen gesellschaftlichen Transformationen und den spezifischen Möglichkeiten der Kunst und Kultur, darauf einzuwirken, beziehungsweise diese ins Bewusstsein zu bringen. Wissenschaftlich fundiert wurde das Ganze während eines Ph.D. (Goldsmith, London) und mündete in das Buch New Tendencies: Art at the Threshold of the Information Revolution (1961-1978) (MIT Press, 2016), das die überraschenden Anfänge der Medienkunst als Reflexion des Endes der Industriegesellschaft nachzeichnet.

Einigen dürften während der Transmediale im Januar auf Armins Krankheit aufmerksam geworden sein. Dort konnte er sein sein letztes großes Projekt Technopolitics, bei dem wir auch wieder intensiv zusammengearbeitet haben, schon nicht mehr persönlich präsentieren, sondern nur noch via Stream im Krankenbett verfolgen. Technopolitics – wie alle seine Projekte – war kollaborativ, transdisziplinär angelegt, als Versuch, der Orientierungslosigkeit der Gegenwart, eine vertiefte Beschäftigung mit historischen Prozesse und der persönlichen Verstricktheit darin entgegen zusetzen.

Mit Armin Medosch verlieren wir einen Pioneer der Netzkultur, der sich nie um disziplinäre, institutionelle und soziale Grenzen scherte. In einer Zeit, in der sich Welten auseinander bewegen, in der die Tendenz sich vor der chaotischen Welt in die eigene Nische zurück zu ziehen, immer stärker wird, sollte uns dies Ansporn sein, Brücken zu bauen, offen zu denken, das Neue mit Lust und Kritik zu fördern und radikal zu handeln.

(Reblogged von https://netzpolitik.org/2017/nachruf-armin-medosch/)

01/12/17

Rezension Felix Stalder: Kultur, Digitalität & Entmündigung

Stalder, Felix: Kultur der Digitalität. Suhrkamp Verlag (edition suhrkamp, Bd.2679), Berlin 2016, 283 S., 18,00 Euro, ISBN 978-3-518-12679-0.

Thomas Barth

Felix Stalder ist ein Schweizer Kulturphilosoph, der sich in seinem Buch „Kultur der Digitalität“ mit der Ko-Evolution von digitalen Technologien, Gesellschaft und Kultur befasst. Er warnt darin unter Berufung auch auf Edward Snowden und Julian Assange vor einer schleichenden Entmündigung, die auf uferlose Überwachung und technokratische Massenmanipulation setzt.

Stalders interdisziplinärer Ansatz verbindet philosophisches Denken mit Soziologie, Medien- und Politikwissenschaft, um Digital- und Internetkultur zu analysieren und das utopische Potential digitaler Commons mit ihren Open-Source-Projekten zu beleuchten. Er blickt dabei auch auf dunkle Wurzeln und Gefahren der Digitalität, die er vor allem in Neoliberalismus, Profitorientierung und bei westlichen (!) Geheimdiensten lokalisiert; dies überrascht, denn sonst kreisen westliche Diskurse über Manipulationen im Internet eher um russische und chinesische Geheimdienste. Stalder warnt vor Gefahren von Algorithmisierung, Überwachung und massenmanipulativer Post-Demokratie, zieht jedoch letztlich ein optimistisches Fazit. Die Commons zeigen trotz heutiger Dominanz der Technokraten mit ihrer neoliberalen TINA-Ideologie („There is no alternative“, Thatcher/Merkel S.206) einen offenen „Raum der Zukunft“ (S.281).

Stalder entwirft ein facettenreiches Bild der digitalen Kultur, die geprägt sei von Fluidität, Vernetzung und stetigem Wandel, bei dem sich unser Verständnis von Raum, Zeit, Identität und Macht grundlegend veränderte. Er stellt die These auf, dass die Digitalität sich nicht in technologischer Innovationen erschöpft, sondern durch neue Formen der Selbstorganisation, des politischen Engagements und der kulturellen Produktion geprägt ist. Katalysator ist dabei das Internet als Medium mit spezifischen Formen des Austauschs. Drei zentrale Formen der Kultur der Digitalität sind die Referentialität (kulturelles Material wird ubiquitär zugänglich und fließt in eine explodierende Produktion von Kulturgütern), die Gemeinschaftlichkeit (kulturelle Ressourcen werden geteilt und Bedeutungen durch stetige Kommunikation stabilisiert) und die Algorithmizität (die Informationsflut wird digital geordnet, aber ebenso werden Gesellschaft und Politik technokratisch entpolitisiert).

Kooperation und der Begriff der Digitalität

Zentrales Anliegen Stalders sind Potenziale der Digitalität für eine demokratische und partizipative Gesellschaft. Er plädiert dafür, bestehende Hierarchien aufzubrechen und neue Formen der Kooperation zu ermöglichen -vor allem in digitalen Commons, deren Wurzeln er in der Open Source und Open Software-Bewegung schon der frühen Internet Communities sieht, etwa den Debian-, GNU- und Linux-Projekten. Darin zeige sich eine digital möglich gewordene Neuverhandlung von gesellschaftlichen Werten und Normen im digitalen Zeitalter: Anstelle staatlicher Hierarchien und Profitorientierung der Konzerne trete die freie Kommunikation der Netze, die auf Meritokratie und Freiwilligkeit basiere. Das Linux-Betriebssystem Ubuntu zeigt in seinem Namen nicht zufällig eine interkulturelle Referenz auf den vielschichtigen Begriff der Bantusprache, der Menschenwürde und vernetzte Gemeinschaftlichkeit verbindet (vgl. Afrotopia von Felwine Sarr).

Stalder definiert den Begriff der Digitalität als eine kulturelle Struktur, die sich durch die Veränderung von Wissen, Macht und Kommunikation in der digitalen Ära auszeichne. Digitale Technologien haben zwar einen tiefgreifenden Einfluss auf verschiedene Aspekte unseres Lebens, vom individuellen Verhalten über soziale Interaktionen bis hin zur politischen Organisation.

Laut Stalder ist Digitalität jedoch keineswegs nur eine technologische Entwicklung, sondern vielmehr eine komplexe kulturelle Dynamik, die unsere Vorstellungen von Wahrheit, Realität und Identität in Frage stellt. Er reklamiert eine „im weitesten Sinne poststrukturalistische Perspektive“, Kultur sei heterogen, hybrid und „von konkurrierenden Machtansprüchen und Machtdispositiven durchzogen“, von „Begehren, Wünschen und Zwängen“ getrieben, Kultur mobilisiere diverse Ressourcen in der Konstituierung von Bedeutung (S.17).

„’Digitalität‘ bezeichnet damit jenes Set von Relationen, das heute auf Basis der Infrastruktur digitaler Netzwerke in Produktion, Nutzung und Transformation materieller und immaterieller Güter sowie der Konstitution und Koordination persönlichen und kollektiven Handelns realisiert wird.“ (S.18)

Damit solle jedoch nicht Digitaltechnik ins Zentrum gerückt oder Digitales von Analogem abgegrenzt werden. Analoges würde nicht verschwinden, sondern „neu- und teilweise sogar aufgewertet“. „Digitalität“ verweise vielmehr auf historisch neue Möglichkeiten der Konstitution und Verknüpfung von Akteuren (menschlichen wie nichtmenschlichen):

„Der Begriff ist mithin nicht auf digitale Medien begrenzt, sondern taucht als relationales Muster überall auf und verändert den Raum der Möglichkeiten vieler Materialien und Akteure.“ (S.18)

Stalder knüpft an den Begriff des „Post-Digitalen“ von Florian Cramer an, der damit Praktiken bezeichnet, die sich zwar in Digitalmedien entwickelten, deren offene Interaktionsform sich jedoch immer weiter verbreite. Stalders Begriff der Digitalität vermeide jedoch das missverständliche Präfix „Post-“, das fälschlich so gelesen werden könne, dass „etwas vorbei sei“, und löse sich zugleich von Cramers technikfixiertem Kontext der Medienkunst. Stalder nimmt in diesem Sinne die ganze Gesellschaft in den Blick, denn „…die Präsenz der Digitalität jenseits der digitalen Medien, verleiht der Kultur der Digitalität ihre Dominanz.“ (S.20)

Nicht technologische Entwicklungen allein hätten der Digitalität den Weg gebahnt, sondern auch Politik, Kultur und Ökonomie. Wichtig erscheinen Stalder insbesondere der Aufstieg der Wissensökonomie und der Kritik an Heteronormativität und Postkolonialismus. Die Wissensökonomie habe seit den 1960ern explizit den wachsenden Informations- und Wissensbedarf von Behörden und Konzernen in westlichen Konsumgesellschaften thematisiert. Dazu gehöre die Massenmanipulation durch immer ausgefeiltere Werbung, Propaganda und PR, die der Freud-Neffe Edward Bernays maßgeblich entwickelte:

„Kommunikation wurde zu einem strategischen Feld für unternehmerische und politische Auseinandersetzungen und die Massenmedien zum Ort der Handlung… Eine Medienindustrie im modernen Sinne entstand, die mit dem rasch wachsenden Markt für Werbung expandierte.“ (S.29f.)

Man sprach in den 1980ern und 90ern von „Informations-“ und später „Netzwerkgesellschaften“, in denen -neben der Digitalisierung- eine Flexibilisierung der Arbeit mit neoliberalem Abbau der Sozialstaaten einherging. Der Freiheitsbegriff wurde dabei von neoliberaler Politik und den seit den 1960ern wachsenden „Neuen Sozialen Bewegungen“ konträr definiert: Neoliberal als Freiheit der Märkte, sozial als persönliche Freiheit von gesellschaftlichen Zwängen (S.33). Exemplarisch für Letzteres behandelt Stalder die Schwulenbewegung in Westdeutschland, Rosa von Praunheim, den Bonner Tuntenstreit 1974, die Aids-Krise ab 1983. Diversität und Hybridisierung der Kultur der Digitalität wurzele in emanzipativen Bewegungen, deren Erfolg sich spätestens 2014 beim European Song Contest in der breiten Öffentlichkeit manifestierte -mit der Stalder seine Abhandlung eingeleitet hatte: „Conchita Wurst, die glamouröse Diva mit Bart, war die Gewinnerin“ (S.7), sie habe komplexe Geschlechterkonstruktionen „zumindest ansatzweise mainstreamfähig“ gemacht (S.48):

„Conchita Wurst, die bärtige Diva, ist nicht zwischen widerstreitenden Polen zerrissen. Sie repräsentiert vielmehr eine gelungene Synthese, etwas Neues, in sich Stimmiges, das sich gerade dadurch auszeichnet, dass die Elemente der alten Ordnung (Mann/Frau) sichtbar sind und zugleich transzendiert werden.“ (S.99)

Schattenseiten: Algorithmizität und Post-Demokratie

Die Digitalität ermöglicht laut Stalder neben hybrider Diversität auch neue Formen der Partizipation und Vernetzung, die zur Demokratisierung von Wissen und Kommunikation führen können. Gleichzeitig birgt Digitalität aber auch Risiken, wie die Manipulation durch Algorithmen, Filterblasen und Desinformation. Zugleich seien Algorithmen jedoch prinzipiell unabdingbar, um in einer diversen und hybriden Explosion der Kultur mit ihrer wachsenden Unordnung orientiert zu bleiben. Ohne Suchmaschinen etwa könne heute kein Archiv mehr die digitalen Datenmassen, Texte und Kulturprodukte bewältigen.

Algorithmen automatisieren Kulturtechniken wie die Inhaltsanalyse von Bildern oder das Schreiben von Texten: Der Chef der Firma „Narrative Science“, die automatisierte Sport- und Finanzberichterstattung anbietet, habe 2012 für die nächsten Dekaden eine Ersetzung von neunzig Prozent der Journalisten durch Computer angekündigt. Bedenklich sei, „dass sich auch die CIA für Narrative Science interessiert und über ihre Beteiligungsgesellschaft In-Q-Tel in das Unternehmen investiert hat, ist ein Hinweis darauf, dass bereits heute Anwendungen jenseits des Journalismus entwickelt werden. Zu Propagandazwecken lassen sich mit Algorithmen beispielsweise problemlos massenhaft Einträge in Onlineforen und den sozialen Massenmedien erstellen.“ (S.175)

Dynamische Algorithmen können sich sogar halbautomatisch-eigenständig weiterentwickeln: 2012 habe Google mit solchen „deep learning“-Verfahren die „Gesichtserkennung in unstrukturierten Bildern“ um siebzig Prozent verbessert (S.180). In ausufernder Überwachung greife heute ein „Daten-Behaviorismus“ nach unserer Privatheit, in einem „Revival eines nach wie vor mechanistischen, reduktionistischen und autoritären Ansatzes“. Diese Haltung ungehemmter Kontrolle unseres Verhaltens finde sich bei jenen, die über umfassende Beobachtungsmöglichkeiten verfügen, „dazu gehören neben Facebook und Google auch die Geheimdienste westlicher Länder“ (S.201). Dabei ginge es neben der gern genannten „Serviceverbesserung“ aber auch um soziale Normierung (erprobt in unethischen psychologischen Experimenten, wie man Stalder hier ergänzen könnte) sowie „Profit- oder Überwachungsoptimierung“ (S.202). Anders als viele deutsche Medienwissenschaftler, die an dieser Stelle der Analyse krampfhaft mit den Fingern auf „russische Trolle“ und den chinesischen Überwachungsstaat zeigen, beweist der Schweizer Felix Stalder Rückgrat und kritisiert die eigenen, die westlichen Machteliten (was besagte Kollegen wohl eher nicht aufgreifen dürften).

Assange, Snowden und Entmündigung im libertären Paternalismus

2013 habe, so Stalder, Edward Snowden die „flächendeckende Überwachung des Internets durch staatliche Geheimdienste“ enthüllt (S.233). Felix Stalder zitiert den Wikileaks-Gründer Julian Assange und resümiert: „Die Grenzen zwischen postdemokratischen Massenmedien und staatlichen Nachrichtendiensten sind fließend. Wie inzwischen bekannt ist, bestehen zwischen beiden Bereichen personelle Kontinuitäten und inhaltliche Gemeinsamkeiten.“ (S.234) Die USA hätten seit 2011 z.B. „ein eigenes Programm zu sozialen Massenmedien mit dem Namen ‚Social Media in Strategic Communication‘. (…) seit 2009 vernetzt die Europäische Union im Rahmen des INDECT-Programms Universitäten und Sicherheitsorgane mit dem Ziel ‚Lösungen und Werkzeuge der automatisierten Gefahrenentdeckung zu entwickeln’… Überspitzt könnte man sagen, dass die Missachtung der Grundrechte mit der Qualität der so geschaffenen Dienstleistung ‚Sicherheit‘ legitimiert wird.“ (S.235f.)

Leider sei die Gegenwehr gegen eine in westlichen Gesellschaften so geschaffene soziale Atmosphäre der Angst gering geblieben. Hinter Überwachung und Massenmanipulation stehe in den heutigen Postdemokratien, die demokratische Politik durch technokratisches Gouvernance ersetzen, eine neoliberale Anti-Aufklärung. Obsolet sei heute für die Machteliten „…die aus der Zeit der Aufklärung stammende Annahme, der Mensch könne sich durch den Einsatz seiner Vernunft und die Ausbildung seiner moralischen Fähigkeiten verbessern und sich aus seiner Unmündigkeit durch Bildung und Reflexion selbst befreien.“ (S.227) Eine kybernetische Sicht sehe den Menschen als dressierbare Versuchsratte, die mit subtilen „Nudges“ (Schubsern) zu steuern sei, so Richard Thaler und Cass Sunstein.

Die beiden Neobehavioristen bezeichnen ihr System als „libertären Paternalismus“, der eine „freiheitliche Bevormundung“ anstrebe, was bei den Regierungschefs in Washington und London, Obama und Cameron, so viel Anklang fand, dass sie Thaler und Sunstein in ihre Teams holten (S.228f.). Besonders in den sozialen Massenmedien (also den „sozialen Medien“, Stalder benutzt diesen gängigen Begriff jedoch nicht), ließe sich die mediale Umgebung via Nudging manipulieren. Dies geschehe vor allem im Dienste einer Gruppe, die Stalder als „den inneren Kern des postdemokratischen Systems“ bezeichnet, „bestehend aus den Spitzen der Wirtschaft, der Politik und der Geheimdienste“ (S.230). Viele Mainstream-Konformisten dürften in dieser simplen und analytisch untadelig abgeleiteten politischen Erkenntnis bereits angebliche „Verschwörungstheorie“ oder sogar „-ideologie“ wittern. Denn medial und in der akademischen Forschung werden die von Stalder aufgezeigten Fakten und Zusammenhänge geradezu krampfhaft ignoriert. Es ist zu befürchten, dass genau diese krampfhafte Ignoranz künftig zumindest diese Teile von Stalders Buch betreffen wird. Machtstrukturen dieses Kalibers werden bislang selten öffentlich diskutiert und dies geschieht dann oft nur in künstlerisch verfremdeter Form, wie etwa bei Mark Lombardi.

Stalder ruft im Fazit dazu auf, die Dynamik der Digitalität kritisch zu reflektieren und sich aktiv mit den Auswirkungen digitaler Technologien auf unsere Gesellschaft auseinanderzusetzen. Indem wir die Chancen und Herausforderungen der Digitalität verstehen, können wir Freiheit und Autonomie im digitalen Raum bewahren und weiterentwickeln: Obwohl „die Postdemokratie das Politische selbst abschaffen und alles einer technokratischen Alternativlosigkeit unterordnen will“, beweise die Entwicklung der blühenden Commons das Gegenteil, meint Stalder und schließt sein Buch mit dem Verweis auf utopische Potentiale der Digitalität: „Diese Widersprüchlichkeit der Gegenwart öffnet den Raum der Zukunft.“ Ausbaufähig scheint an Stalders Argumentation die Subjektkonstitution im Netz, die mit der Konzentration auf Kommunizieren, Posten und Liken wohl noch nicht ausreichend erfasst ist, sowie deren Verknüpfung mit Foucaults Konzept des Panoptismus.

12/21/16

German BND-NSA Inquiry Exhibits

Today, 1 December 2016, WikiLeaks releases 90 gigabytes of information relating to the German parliamentary inquiry into the surveillance activities of Germany’s foreign intelligence agency Bundesnachrichtendienst (BND) and its cooperation with the United States‘ National Security Agency (NSA).

The 2,420 documents originate from various agencies of the German government including the BND and Federal Office for the Protection of the Constitution, Bundesamt für Verfassungsschutz (BfV) and were submitted to the inquiry last year in response to questions posed by the committee. They include administrative documents, correspondence, agreements and press reactions. They also include 125 documents from the BND, 33 from the BfVand 72 from the Federal Office for Information Security (BSI).

The collection offers a detailed insight, not just into the agencies themselves, but also into the mechanics of the inquiry. Several documents detail how the agency in question collated the information that was requested of them. For example, a BND document shows its preparations for collecting internal information on which private US companies are operating in the security sector in Germany. Such internal processes are particularly pertinent to the inquiry. The committee has been trying (unsuccessfully so far) to gain access to the full selector list that the BND holds regarding who they spy on at the behest of the US. The BND is withholding this list from the inquiry on the grounds that releasing it could imperil the BND’s relationship with the NSA.

Whilst a number of facts have already come to light as a result of the inquiry including WikiLeaks’ publication of inquiry transcripts last year this substantial new collection of primary source documents provides significant new evidence. The collection contains early agreements between the BND and the NSA and internal processes at the BND, but also more recent details on the close collaboration between the two agencies. For example, one document from the BND states that a BND employee will be tasked to use and write software for XKeyscore, an NSA system for searching and analysing data collected through mass surveillance.

A number of the documents show how intelligence agencies find ways to work around their own government. Documents pertaining to an audit visit by Germany’s data protection agency to the BND’s offices show that BND officers withheld the notes made by the auditors during their visit. The BND would only release the notes to the auditors once they had checked the content for themselves.

The inquiry was established in 2014 in the wake of the Snowden revelations, which showed that not only was the NSA spying on the whole world, but it had also partnered with the intelligence services of particular states to spy on their citizens and those of the surrounding regions. One of these countries is Germany, which has had a close relationship with the US in military and intelligence matters since its occupation by US forces in WWII. The US has been shown to use its bases in Germany and its relationship with German intelligence to spy on German citizens as well as European Union institutions.

WikiLeaks revelations of NSA spying on Angela Merkel and top officials at German ministries, the EU and France also contributed to the political impetus of the inquiry.

The depth of this relationship had been unknown to the German public and much of its government. The outrage that was sparked by the Snowden NSA revelations led to the establishment of the inquiry, which later called for Mr Snowden to testify at it. Whereas there was initially unanimity among German political parties in 2014 for Snowden to provide expert testimony, the government deemed that guaranteeing that he would not be handed over to the US (a condition imposed by Snowden for testifying) would damage Germany’s political relationship with the United States. Subsequently, the Greens and the left-wing party (Die Linke) filed an official complaint to force the German Parliament to hear Mr Snowden.

Last week, on 21 November 2016, Germany’s Federal Court of Justice upheld the complaint and ruled that the committee was obliged to hear Edward Snowden in person. However, at the next inquiry hearing three days after the ruling, Chancellor Angela Merkel’s Union bloc and the Social Democrats removed Snowden’s invitation from the agenda of the inquiry and are contesting the Court’s decision.

Julian Assange said: „This substantial body of evidence proves that the inquiry has been using documents from Mr Snowden and yet it has been too cowardly to permit him to testify. Germany can not take a leadership role within the EU if it’s own parliamentary processes are subservient to the wishes of a non EU state.“

von WikiLeaks