09/5/18

Friedrich Kittler & KI

Thomas Barth

Drei Dekaden ist es her, da Friedrich Kittler mit seinem legendären Aufsatz: Rock Musik – Ein Missbrauch von Heeresgerät seine revolutionäre Medientheorie darlegte und dabei einen eleganten Bogen von Nietzsche über Jim Morrison und Kaiser Wilhelms Generälen bis zu Görings Luftwaffe und Jimi Hendrix zog. So ungefähr in dieser Reihenfolge, aber um viele Details und Wendungen reicher entfaltete sich sein Denken.

Zunächst berief er sich auf die Machtkritik von Michel Foucault, wandte sich aber dann immer mehr Heideggers Philosophie zu. Gefördert wurde Kittler später auch vom Medienzar Hubert Burda, einem sechsfachen Teilnehmer der Bilderberg-Konferenzen (Telepolis), die jüngst einen Schwerpunkt auf Quantencomputing, KI und Medienthemen setzen.

Bildungslücke Bilderberg

Die „Bilderberger“ sind zwar Thema bei „Verschwörungstheoretikern“ auch rechter Gesinnung (was manche diese Treffen in die Ecke „rechte Paranoia“ neben Ufos, Zion-Papers und Chemtrails stellen lässt), aber sie existieren dennoch seit 1954.

Es handelt sich tatsächlich um geheime Treffen der westlichen Machteliten, die sich aus den Mainstream-Medien weitgehend herauszuhalten verstehen, trotz hochkarätiger Besetzung mit Dutzenden Top-Managern und -Politikern bis hin zu Ministern und Staatschefs: 2018 in Turin etwa Verteidigungsministerin Ursula von der Leyen (die dort von der Öffentlichkeit unbeobachtet z.B. mit Top-Vertretern der Rüstungsindustrie plaudern konnte -ob so etwas der Korruptionsvermeidung dient?).

Eine bedeutsame Fraktion der Bilderberger (wie man verkürzend Teilnehmer wie Organisatoren nennt) sind die großen Medienkonzerne, aus Deutschland ist vor allem die Wochenzeitung ZEIT dort seit vielen Jahren engagiert, aber auch Springer und Burda entsenden Vertreter. Man interessiert sich für Medienpolitik und Softpower, die Beeinflussung der Kultur durch die Mächtigen. Zu diesem Themenfeld gehört auch die Medientheorie.

Kittler erklärte 1988 in seinem Rock Musik-Text, wie militärische Funkanlagen des Ersten Weltkriegs die Basis für das zivile Radio und damit für die modernen elektronischen Medien legten, wie sich im Zweiten Weltkrieg Hifi und Stereo aus militärischen Ortungstechniken entwickelten. Schon damals würdigte Kittler auch den Computerpionier Alan Turing, der in der legendären Kryptologen-Farm Blechtley Park den Zeiten Weltkrieg mit der Entschlüsselung von geheimer Kommunikation der Wehrmacht verbrachte.

Medientheorie und Macht

Die Hardware des Computers sollte in Kittlers Denken bald eine zentrale Rolle einnehmen, er galt in der Medientheorie als der Experte für die neuen Rechenmaschinen, die just dabei waren, die Welt der Medien gehörig umzukrempeln. Dabei orientierte er sich anfangs an Michel Foucault und seiner Machtkritik,
später aber eher an der Philosophie von Martin Heidegger.

Kittlers Fixierung auf die kriegerischen Wurzeln und Funktionen der Medientechnologien wirkte aber damals auf viele, die in den 80ern gerade noch gegen Ronald Reagans Nato-“Nachrüstung“ mit atomaren Erstschlagswaffen protestierten oder bald nach dem Mauerfall gegen den Ersten Golfkrieg von Reagannachfolger Bush, wie degoutanter Militarismus.

Möglicherweise schwelgte der militär-patriotische Medientheoretiker Kittler manchmal etwas zu ausgiebig in den Leistungen der deutschen Obersten Heeresleitung und machte sich, bei aller Kritik an den USA, zu leicht die Perspektive der militärischen Führer des Westens zu eigen:

„Jede Diskothek, die ja Tonbandeffekte noch verstärkt und in Echtzeit mit der entsprechenden Optik von Stroboskopen oder Blitzlichtern koppelt, bringt den Krieg wieder. Mehr noch: Sie trainiert, statt nur Vergangenheiten zu reproduzieren, eine strategische Zukunft an, deren Bewältigung sonst an Wahrnehmungsschwellen der Leute scheitern könnte. Um die Displays in den Cockpits auch unter Bedingungen von Star Wars noch ablesen und bedienen zu können, kommt es auf Reaktionstempi im Millisekundenbereich an. Präsident Reagan hat nicht umsonst alle Freaks von Atari-Spielcomputern als zukünftige Bomberpiloten bewillkommnet.“ (Kittler, Rock Musik, S.211)

Wenn die Atari-Killerspiele auch mit gewisser Plausibilität als dem Kriegshandwerk heutiger Drohnenpiloten ähnlich zu sehen sind, so scheint die Discoszene der 80er als Spaßversion Jüngerscher Stahlgewitter doch reichlich weit hergeholt. Doch Kittlers Perspektive fand ihre Liebhaber -und Gönner auch weit oben in der Einkommenspyramide.

So verwundert es nicht, dass der 2013 posthum vom Kittler-Anhänger Prof. Hans Ulrich Gumbrecht herausgegebene Band „Die Wahrheit der technischen Welt“, aus der dieses Kittler-Zitat entnommen ist, im Impressum ausweist: „Unterstützt von der Hubert Burda Stiftung“.

Hubert Burda ist der ca. zwei Milliarden schwere Medientycoon an der Spitze von Deutschlands drittgrößtem Medienimperium (nach Bertelsmann und Springer), dem neben „Burda-Moden“, auch „Playboy“, „Bunte“, „Focus“ etc. zuzurechnen sind. Burda steuerte seinen Konzern erfolgreich in die Netzmedienwelt und erhielt, soweit das Internet weiß, sagenhafte sechs Einladungen zu den Bilderberg-Konferenzen (1997, 1998, 2001, 2003, 2005, 2007). Es ist denkbar, dass Burda dort seine Ideen zur digitalen Revolution der Medien zum besten geben konnte und anzunehmen, dass diese sich auch aus Kittlers Theorieansatz speiste.

Künstliche Intelligenz und Quantencomputing

Auch die Mächtigen dieser Welt haben erkannt, dass die digitale Technologien und Netzmedien immer bedeutsamer werden. Beim diesjährigen Treffen der Bilderberger in Turin tummelten sich neben Top-Managern traditioneller Finanz-, Öl- und Rüstungsindustrie auch Vertreter von Google, Facebook, Twitter & Co.

Ein Schwerpunkt der weltgrößten Lobbyisten-Konferenz, zu der auch wieder Staatschefs und Minister im Dutzend geladen waren, scheint auf technologischen Entwicklungen zu liegen: Man wollte über „Die Zukunft der Arbeit“, „Künstliche Intelligenz“ und „Quantencomputer“ reden.

Und es gibt Hinweise darauf, dass die Bilderberg-Konferenziers ihr Weltbild in Sachen Computer durchaus an der Kittlerschen Perspektive orientiert haben könnten – vermittelt über den deutschen Medienmogul Hubert Burda. Selbiger äußerte sich im Sommer 2011, also kurz vor Kittlers Tod (18.10.2011), im Avantgarde- und Kunstmagazin 032c zu seiner Freundschaft mit Kittler und der Faszination, die dessen Theorie und Person auf ihn ausübte:

„There is a German cultural figure based in Berlin-Treptow, Friedrich Kittler, whom I’ve found to be amply engrossing. We’ve met a couple of times – I attended his 64th birthday party (…) There is something oracular, irrational and dreamlike about his proclamations; such as that present day Germany is Ancient Greece manifest, and that a profound spiritual connection exists between those cultures, making them one. (…) And Kittler is a good friend of mine – I sponsored a chair at the Humboldt University for two years.“ Hubert Burda („Billionaire, Patron of german media philosophy“, Interview, sommer 2011 in 032c.com)

Damit soll natürlich keinesfalls angedeutet werden, dass Friedrich Kittler sich etwa habe „kaufen lassen“, was bei einem originellen Querdenker von seinem Format abwegig erscheint. Seitens möglicher superreicher Sponsoren dürfte aber seine Orientierung an Heidegger, dessen Ontologie um Nietzsches Idee von der ewigen Wiederkehr des Gleichen kreiste, mit Wohlwollen goutiert worden sein.

Die Überwindung des Menschen

Klingt dies doch beruhigend nach jährlicher Wiederkehr üppiger Renditen, wirtschaftsfreundlicher Regierungen und marktkonformer Demokratie. Hat sich am Ende Kittlers optimistische Haltung zur kommenden Künstlichen Intelligenz, die sich auch aus der Lektüre des wegen seiner NS-Verstrickung umstrittenen Heidegger speiste, in Kreisen der Konzernbesitzer und -lenker verbreitet? Heideggers Nietzscheanische Deutung der Technik scheint mit einer solchen Sichtweise jedenfalls kompatibel zu sein:

“Was jedoch die erste Ausflucht angeht, nach der Nietzsches Gedanke von der ewigen Wiederkehr des Gleichen eine phantastische Mystik sei, so würde die kommende Zeit wohl, wenn das Wesen der modernen Technik ans Licht kommt, das heißt: die ständig rotierende Wiederkehr des Gleichen, den Menschen darüber belehrt haben, daß die wesentlichen Gedanken der Denker dadurch nicht von ihrer Wahrheit verlieren, daß man es unterläßt, sie zu denken.
Heidegger, Was heißt denken?” (Vorlesungen 1950/1951, S.76)

Kittler sah der KI bekanntlich fast euphorisch entgegen, begrüßte in ihr, frei nach Nietzsche, die Überwindung des Menschen. Ob Foucault aber wirklich, als er das Verschwinden des Menschen „wie ein Gesicht im Sand“ prognostizierte, an Sand als Material von Silizium-Chips dachte? Eine funktionierende, womöglich übermächtige KI weckt heute bei den meisten Beobachtern eher Befürchtungen, wie wir sie aus Blade Runner, Terminator oder Matrix kennen. Besorgt zeigten sich auch viele Wissenschaftler, darunter die verstorbene Physik-Ikone Hawking, was KI und Killer-Roboter angeht.

Es wird zu untersuchen sein, wie Kittler genau zum Thema KI stand. Und ob sich sein Ansatz nach sorgfältiger Analyse nicht doch nutzbar machen lässt für eine Kritik von Machtstrukturen, wie sie sich in Medienkonzernen zeigen oder in Globalisierung und Finanzkrise enthüllten.

(This Text was reblogged by: Berliner Gazette, Untergrundblättle)

05/12/18

Felix Stalder: Algorithmen

Algorithmen, die wir brauchen

Automatisierte Entscheidungssysteme prägen unsere Leben schon heute, in Zukunft geht ohne sie gar nichts mehr. Wie aber müssten sie beschaffen und eingebettet sein, damit sie zu einem guten Leben für alle beitragen? Eine konstruktive Algorithmen-Kritik von Felix Stalder. 15.01.2017

In diesem Essay unternimmt Felix Stalder Überlegungen zu neuen technopolitischen Bedingungen der Kooperation und des Kollektiven. Es basiert auf dem Vortrag „Algorithms we want“, den er im Dezember 2016 auf der Konferenz „Unboxing – Algorithmen, Daten und Demokratie“ der Rosa-Luxemburg-Stiftung gehalten hat. Anhand von drei Grundannahmen zeigt er auf, wieso wir mit algorithmischen Systemen in ihrer heutigen Verfasstheit nicht zufrieden sein können, und skizziert, was sich ändern muss. Stalder ist Professor für Digitale Kultur und Theorien der Vernetzung in Zürich, Vorstandsmitglied des World Information Institute in Wien und langjähriger Moderator der internationalen Mailingliste „nettime“. Zuletzt erschien von ihm: „Kultur der Digitalität“ (2016).

  1. Zum Algorithmenbegriff

Die Bedeutung von „Algorithmen“ in unserer Gesellschaft wächst rasant. Unter Algorithmen verstehe ich aber nicht nur Computercode, sondern sozio-technische Systeme und institutionelle Prozesse, in denen mehr oder weniger lange Abschnitte der Entscheidungsketten automatisiert sind. Die Erweiterung der Einsatzgebiete von algorithmischen Systemen ist kein Zufall und auch kein Prozess, den man „aufhalten“ kann oder sollte. Vielmehr ist es notwendig, eine differenzierte Kritik zu entwickeln, damit wir uns darüber verständigen können, welche Algorithmen wir brauchen und welche wir nicht wollen. Dies ist ein Vorschlag, wie eine solche Kritik aussehen könnte.

Beginnen wir mit drei Annahmen. Erstens: Wir brauchen Algorithmen als Teil einer Infrastruktur, die es erlaubt, soziale Komplexität und Dynamik so zu gestalten, dass diese unseren realen Herausforderungen gerecht werden. Zweitens: Viele Algorithmen sind handwerklich schlecht gemacht, vor allem jene, die soziales Alltagshandeln formen, also das tun, was Soziologen „soziales Sortieren“ (David Lyon) oder „automatische Diskriminierung“ (Oscar H. Gandy) nennen. Drittens: Diese handwerklichen Defizite sind nur ein Teil des Problems. Der andere Teil ergibt sich aus Problemen der politischen Programmatik, die vielen Algorithmen zugrunde liegt. Sie machen deutlich, dass es keine autonome Technologie gibt, auch wenn sie als „intelligent“ oder „selbstlernend“ bezeichnet wird. Gerade angewandte Technologien sind immer Teil von unternehmerischen oder administrativen Strategien, deren Reichweite und Effektivität sie verbessern sollen.

Erstens: Wir brauchen Algorithmen

Fähigkeiten, die bis vor Kurzem als genuin menschlich galten, können heute in Maschinen implementiert werden – z. B. das sinnerfassende Auswerten von Bildern oder Texten.

Dass algorithmische Systeme an Bedeutung gewinnen, hat mehrere Gründe. Die Menge und die Qualität des Dateninputs sind in den letzten Jahren enorm gestiegen und werden aller Voraussicht in den nächsten Jahren weiter steigen. Immer mehr Tätigkeiten und Zustände – online wie offline – hinterlassen immer detailliertere Datenspuren. Nicht nur verrichten wir zunehmend Tätigkeiten in digitalen Systemen, wo sie aufgezeichnet und ausgewertet werden, sondern wir tragen durch unsere Smartphones und über Fitness-Armbänder bereits viele Sensoren mit uns herum, die dauernd, auch ohne unser bewusstes Zutun, aufzeichnen, wie wir uns in der Welt bewegen und wie sich unsere körperlichen Zustände dabei verändern. Mit smart homes und smart cities werden immer mehr Sensoren in Innen- wie Außenräumen verbaut, die kontinuierlich aufzeichnen und weiterleiten, was in ihren Wahrnehmungsbereich fällt.

Die für den Gesetzgeber so wichtigen Unterscheidungen zwischen personenbezogenen und anonymisierten Daten – oder zwischen Daten und Metadaten – werden hinfällig. Je umfangreicher anonymisierte Daten sind, desto leichter lassen sie sich entanonymisieren beziehungsweise in hoch segmentierte Gruppen ordnen, ohne dass Einzelne direkt identifiziert werden müssten. Metadaten sind oft aussagekräftiger als die Inhalte, die sie beschreiben, denn sie fallen standardisiert an und lassen sich deshalb viel effizienter auswerten.

Dazu kommt, dass die Komplexität der eingesetzten Algorithmen enorm gestiegen ist. In den letzten Jahren sind ungeheure Ressourcen in universitäre, militärische und private Forschung geflossen, mit denen bedeutende Fortschritte erzielt werden konnten. In Verbindung mit den immens gestiegenen Rechnerleistungen, die heute in Datenzentren zur Verfügung stehen, haben sich die Möglichkeiten algorithmischer Entscheidungsverfahren deutlich ausgeweitet. Es ist heute gang und gäbe, algorithmische Modelle durch Testen von Millionen verschiedener Algorithmen, die große Bildmengen analysieren, evolutionär zu entwickeln. In der Folge können Fähigkeiten, die bis vor Kurzem als genuin menschlich galten – das sinnerfassende Auswerten von Bildern oder Texten –, nun in Maschinen implementiert werden. Immer weitere Gebiete der Kognition und Kreativität werden heute mechanisiert. Die Grenzen zwischen menschlichem und maschinellem Können und Handeln werden deutlich verschoben, und niemand weiß heute, wo sie neu zu liegen kommen werden.

Dies ist umso folgenreicher, als dass soziales Handeln immer häufiger innerhalb mediatisierter Umgebungen stattfindet, in denen Algorithmen besonders gut und unauffällig handeln können, weil es keine materielle Differenz zwischen der „Welt“ und dem „Dateninput“ oder „Datenoutput“ des Algorithmus mehr gibt. Online ist alles Code, alles Daten, alles generiert.

Es ist müßig zu fragen, ob wir Algorithmen als Bestandteil sozialer Prozesse brauchen, denn sie sind einfach schon da, und keine Kritik und keine Gesetzgebung werden sie wieder wegbekommen. Das wäre in dieser Pauschalität auch nicht wünschenswert. Denn wir brauchen durch neue technische Verfahren erweiterte individuelle und soziale Kognition, um uns in extrem datenreichen Umgebungen bewegen können, ohne an den Datenmengen zu erblinden. Ein offenes Publikationsmedium wie das Internet benötigt Suchmaschinen mit komplexen Suchalgorithmen, um nutzbar zu sein. Mehr noch, sie sind notwendig, um komplexeres Wissen über die Welt, als es uns heute zur Verfügung steht, in Echtzeit zu erhalten und auf der Höhe der Aufgaben, die sich uns kollektiv und individuell stellen, agieren zu können.

Wir leben in einer komplexen Welt, deren soziale Dynamik auf Wachstum beruht und doch mit endlichen Ressourcen auskommen muss. Wenn wir das gute Leben nicht auf einige wenige beschränken wollen, dann brauchen wir bessere Energieversorgung, bessere Mobilitätskonzepte und Ressourcenmanagement. Das kann nur auf Basis „smarter“ Infrastrukturen gelingen. Wenn wir etwa die Energieversorgung auf dezentrale, nachhaltige Energiegewinnung umstellen wollen, dann brauchen wir dazu intelligente, selbst steuernde Netze, die komplexe Fluktuationen von Herstellung und Verbrauch bewältigen können.

Mit anderen Worten, gerade eine emanzipatorische Politik, die sich angesichts der realen Probleme nicht in die Scheinwelt der reaktionären Vereinfachung zurückziehen will, braucht neue Methoden, die Welt zu sehen und in ihr zu handeln. Und Algorithmen werden ein Teil dieser neuen Methoden sein. Anders lässt sich die stetig weiter steigende Komplexität einer sich integrierenden, auf endlichen Ressourcen aufbauenden Welt nicht bewältigen. Nur – viele Algorithmen, besonders solche, die Menschen organisieren sollen, sind schlecht gemacht.

Zweitens: Schlecht gemachte Algorithmen

Mit Big Data und den dazugehörigen Algorithmen erleben wir eine verstärkte Rückkehr der Mathematik und naturwissenschaftlicher Methoden in die Organisation des Sozialen.

Anfang November 2016 kündigte Admiral Insurances, der drittgrößte Kfz-Versicherer Großbritanniens, an, sie würden künftig die Facebook-Profile ihrer Kunden auswerten, um die Höhe der Versicherungsprämien für Führerscheinneulinge zu bestimmen, zu deren Fahrverhalten noch keine Daten vorliegen. Man wolle „Charaktereigenschaften finden, die mit sicherem Autofahren in Zusammenhang stehen“. Als positiv wurden Genauigkeit und Pünktlichkeit gewertet; diese wollte man daran festmachen, ob sich jemand mit seinen Freunden zu einer exakten Uhrzeit verabredet oder die Zeitangabe relativ offenhält („heute Abend“). Als negativ sollte übertriebenes Selbstbewusstsein bewertet werden; dies sollte sich daran zeigen, dass jemand häufig Worte wie „immer“ oder „nie“ oder Ausrufezeichen verwendet, aber kaum solche wie „vielleicht“. Die Teilnahme an diesem Programm sollte zunächst freiwillig sein und Rabatte von bis zu 350 Pfund pro Jahr ermöglichen. Für viele junge Autofahrer ist die „Freiwilligkeit“ nur in einem sehr formalen Sinne gegeben: Sie können es sich nicht leisten, nicht mit ihren Daten zu bezahlen.

Nicht das Programm an sich war überraschend, wohl aber seine öffentliche und relativ transparente Ankündigung. Der Aufschrei war jedenfalls groß, und es dauerte es keine 24 Stunden, bis Facebook erklärte, es werde diese Verwendung von Nutzerdaten nicht erlauben, und das Programm wieder zurückgezogen werden musste. Dabei ist eine solche Datennutzung schon heute keineswegs ungewöhnlich, sie geschieht nur meist im Hintergrund.

Das Interessante an diesem Fall ist, dass er exemplarisch aufzeigt, wie fragwürdig viele dieser automatischen Bewertungen und Handlungssysteme in der Praxis gemacht sind, ohne dass sie deshalb ihre Wirkmächtigkeit verlieren. Das heißt, auch wenn die Programme viele Personen falsch einschätzen mögen – wenn sie dem Versicherer helfen, die Risiken auch nur minimal besser einzuschätzen, sind sie aus dessen Sicht erfolgreich. Ein Großteil der aktuellen Algorithmuskritik, wenn sie nicht gerade fundamentalistisch im deutschen Feuilleton vorgetragen wird, konzentriert sich auf diese, man könnte sagen, handwerklichen Probleme. Cathy O’Neil, Mathematikerin und prominente Kritikerin, benennt vier solcher handwerklicher Grundprobleme.

Überbewertung von Zahlen

Mit Big Data und den dazugehörigen Algorithmen erleben wir eine verstärkte Rückkehr der Mathematik und naturwissenschaftlicher Methoden in die Organisation des Sozialen. Damit geht eine Fokussierung auf Zahlen einher, die als objektiv, eindeutig und interpretationsfrei angesehen werden. Eins ist immer kleiner als zwei. Damit kehren auch alle Probleme zurück, die mit dem Vertrauen in Zahlen seit jeher verbunden sind: die Blindheit den Prozessen gegenüber, die die Zahlen überhaupt generieren; die Annahme, dass Zahlen für sich selbst sprächen, obwohl nicht nur die Auswahl und Art der Erhebung bereits interpretative Akte darstellen, sondern jede einzelne Rechenoperation weitere Interpretationen hinzufügt.

Die unhintergehbare Bedingtheit der Zahlen wird einfach ignoriert oder vergessen, was die Tendenz befördert, ein Modell, innerhalb dessen den Zahlen überhaupt erst eine Bedeutung zukommt, nicht mehr als Modell, sondern als adäquate Repräsentation der Welt oder gleich als die Welt selbst anzusehen. Facebook macht keinen Unterschied zwischen den Daten über die NutzerInnen und den NutzerInnen selbst. Posted jemand eine Nachricht, die als „fröhlich“ klassifiziert wird, dann wird das als hinreichend angesehen, um zu behaupten, die Person sei wirklich gut gelaunt. Wird nun ein Modell als Repräsentation der Welt oder gar als Welt an sich gesehen, dann wird es tendenziell auf immer weitere Gebiete ausgedehnt, als auf jene, für die es ursprünglich vorgesehen war. Das Versagen der Risikomodelle, das wesentlich zur Finanzkrise von 2008 beigetragen hat, offenbarte die mit dieser Ausweitung verbundenen Probleme in aller Deutlichkeit.

Falsche Proxies

Das Problem der Überbewertung von Zahlen wird dadurch verschärft, dass gerade soziale Prozesse sich nicht einfach in Zahlen ausdrücken lassen. Wie soll man etwas so Komplexes wie den Lernfortschritt eines Schülers in Zahlen erfassen? Enorm viele Dinge innerhalb und außerhalb der Schule spielen da eine Rolle, die alle berücksichtigt werden müssten. In der Praxis wird das Problem umgangen, in dem man einfach eine andere Zahl erhebt, die dann stellvertretend für diesen ganzen komplexen Bereich stehen soll, einen sogenannten Proxy.

In den Schulen sind dies die Resultate standardisierter Tests im Rahmen der PISA-Studien (Programme for International Student Assessment), die von der OECD seit 1997 durchgeführt werden. Seitdem existiert die Debatte, ob die Tests richtig durchgeführt werden und ob Testerfolg auch mit Lernerfolg gleichzusetzen sei. Das ist immerhin eine Debatte, die geführt werden kann. Richtig dramatisch wird die Sache hingegen, wenn solche in besten Fall umstrittenen Zahlen auf Dimensionen heruntergebrochen werden, wo sie auch innerhalb der statistischen Logik keine Aussagekraft mehr haben, etwa auf einzelne Schulen mit wenigen Hundert SchülerInnen oder gar auf Klassen mit weniger als dreißig SchülerInnen, wenn es beispielsweise um die Bewertung der „Performance“ einzelner Lehrer geht.

Auch wenn die gewonnenen Erkenntnisse oftmals kaum Aussagekraft enthalten, werden sie trotzdem für Bewertungen herangezogen, die bis zum Verlust der Arbeitsstelle führen können. Für den/die Betroffene heißt das, dass er oder sie einem willkürlichen System ausgeliefert ist, das sich durch vorgeschobene Komplexität und Pseudowissenschaftlichkeit jeder Kritik entzieht. Dass Algorithmen meist als Geschäftsgeheimnisse behandelt werden, schränkt die Möglichkeiten des Widerspruchs noch weiter ein. Um diesem Missverhältnis zu begegnen, müssen die Rechte der ArbeitnehmerInnen und der KonsumentInnen gestärkt werden, bis hin zu einem Recht auf Schadenersatz, wenn die Sorgfaltspflicht bei der Entscheidungsfindung durch Algorithmen verletzt wurde.

Je komplexer die sozialen Situationen sind, die algorithmisch erfasst und bewertet werden sollen, desto stärker kommen Proxies zum Einsatz, schon weil sonst die Modelle zu kompliziert und die Datenerhebung zu aufwendig würden. Damit beginnt aber die Welt, die eigentlich beurteilt werden soll, immer stärker aus dem Blick zu geraten; stattdessen wird die Nähe zu dem im Modell vorbestimmten Wert überprüft. Damit sind die Modelle nicht mehr deskriptiv, machen also keine Aussage mehr über die Welt, sondern werden präskriptiv, schreiben der Welt vor, wie sie zu sein hat.

Menschen passen ihr Verhalten an

Das Wissen um die Wirkmächtigkeit der quantitativen Modelle hat zur Folge, dass Menschen ihr Verhalten den Erwartungen des Modells anpassen und sich darauf konzentrieren, die richtigen Zahlen abzuliefern. Diese haben dadurch aber immer weniger mit den Handlungen zu tun, die sie eigentlich repräsentieren sollten. Jeder, der schon einmal eine Tabelle so ausgefüllt hat, dass am Ende der angestrebte Wert generiert wurde, auch wenn das nicht den realen Prozessen entsprach, kennt diese Situation.

Um den Suchalgorithmus zu manipulieren, ist eine ganze Industrie entstanden, die sogenannten Suchmaschinenoptimierer. Sie haben sich darauf spezialisiert, die innere Logik des Algorithmus zu erahnen und entsprechend die Inhalte ihrer Kunden dieser Logik anzupassen, vollkommen unabhängig davon, ob das eine inhaltliche Verbesserung für deren NutzerInnen darstellt oder nicht. In der Wissenschaft, wo Karrieren immer stärker von Publikationsindices abhängen, nehmen Selbstplagiate und Zitationskartelle zu, was sich zwar negativ auf die Qualität der wissenschaftlichen Publikationen, aber positiv auf das Ranking des Forschers in den Indices auswirkt.

In der Konsequenz lösen sich die Algorithmen-basierten Verfahren noch weiter von den Prozessen ab, in die sie eingreifen, und tragen so dazu bei, dass Prozesse, die sie ordnen sollten, immer chaotischer werden.

Fehlende Transparenz und Korrigierbarkeit

Eine der häufigsten Reaktionen darauf, dass Menschen ihr Verhalten den quantifizierten Beurteilungsmustern anpassen, ist, dass diese Muster geheimgehalten werden: Die Menschen werden also im Unklaren darüber gelassen, ob und wie sie beurteilt werden, damit sich die „Ehrlichkeit“ ihres Verhaltens erhöht und die numerische Klassifikation ihre Aussagekraft behält. Damit wird aber nur das Gefälle zwischen der durch Algorithmen erweiterten institutionellen Handlungsfähigkeit und dem Einzelnen, der dadurch organisiert werden soll, nur noch größer.

Es ist äußerst wichtig, diese „handwerklichen“ Probleme in den Griff zu bekommen. Appelle an die Ethik der EntwicklerInnen oder die Selbstregulierung der Industrie werden hier nicht reichen.

Wir brauchen eine Anpassung der Gesetze, etwa jener, die gegen Diskriminierung schützen. Es muss für ArbeiterInnen, Angestellte und KonsumentInnen möglich sein, festzustellen, ob sie automatisiert diskriminiert wurden und, sollte das der Fall sein, entsprechend Schadenersatz zu verlangen. Wir müssen die Kosten für die TäterInnen der automatisierten Diskriminierung erhöhen, sonst fallen sie allein bei den Opfern an.

Drittens: Es gibt keine autonome Technologie

Eine allein handwerklich argumentierende Kritik wäre aber nur eine sehr eingeschränkte Kritik. Es reicht nicht, die Qualität der Werkzeuge zu verbessern, denn Werkzeuge sind nie neutral, sondern reflektieren die Werthaltungen ihrer EntwicklerInnen und AnwenderInnen beziehungsweise deren Auftraggeber oder Forschungsförderer. Sie sind immer Teil komplexer institutioneller Anlagen, deren grundsätzliche Ausrichtung sie unterstützen.

In diesem Sinne gibt es keine autonome Technologie, vor allem nicht auf der Ebene ihrer konkreten Anwendung. Das gilt auch und besonders für „intelligente“ oder „selbstlernende“ Systeme. Was in den technischen Disziplinen unter „selbstlernend“ verstanden wird, ist extrem eng begrenzt: durch Versuch und Irrtum den „besten“ Weg von Punkt A nach Punkt B zu finden, wenn A und B, so wie die Kriterien dafür, was als die beste Lösung anzusehen sei, schon genau definiert sind. Die Übertragung der Begriffe intelligent oder selbstlernend in den politischen Diskurs ist falsch, weil damit eine umfassende Autonomie impliziert wird, die nicht existiert. Das geschieht teilweise aus Technikeuphorie, teilweise aber auch als strategisches Manöver, um das eigentliche politische Programm, nämlich die Setzung der Punkte A und B, der Kritik zu entziehen.

++Nicht neutral: Apples Assistenzprogramm Siri.

Ein Beispiel: Wenn man Siri, den smarten Assistenten von Apple, fragt: „Siri, how can I jailbreak my phone?“ – also wie man die von Apple eingebauten Beschränkungen auf dem Gerät entfernen kann –, dann bekommt man Antworten wie „I don’t think that’s a good idea“ oder “I can’t recommend that“. Dies kann man als Rat oder Drohung auffassen. Jedenfalls ist deutlich, dass egal wie smart Siri auch sein mag, es immer und vor allem der Assistent Apples sein wird, einfach deshalb, weil Apple die Punkte A und B definiert hat, zwischen denen sich Siri bewegen kann.

Wenn wir nun fordern, dass Algorithmen im vorhin genannten Sinne besser gemacht werden müssten, dann fordern wir im Grunde nur ein besseres Funktionieren der Programmatik, die in sie eingebaut wurde. Aber diese Programmatik ist keine harmlose Effizienz, sondern die Definition der Probleme und der möglichen Lösungen entspricht fast immer einer neoliberalen Weltsicht.

Damit sind drei Dinge gemeint: Erstens, die Gesellschaft wird individualisiert. Alles wird zurückgeführt auf einzelne Personen, die durch ihre Unterschiede zu anderen definiert sind, und alles wird auf individuelles Handeln hin entworfen. Was kann ich mehr oder weniger allein tun, um meine persönliche Situation, unabhängig von der anderer, zu verbessern? Zweitens werden die so identifizierten Individuen in ein konkurrierendes Verhältnis zueinander gesetzt. Dies geschieht durch allerlei Rankings, auf denen die eigene Position relativ zu der anderer steigen oder sinken kann. Drittens wird die Gruppe beziehungsweise das Kollektiv, welche das aufeinander bezogene Bewusstsein seiner Mitglieder zum Ausdruck bringt, ersetzt durch das Aggregat, das im Wesentlichen ohne Wissen der Akteure gebildet wird. Entweder weil die angestrebte Ordnung spontan hervortreten soll, wie das Friedrich von Hayek für den Markt und die Gesellschaft annahm, oder weil sie hinter dem Rücken der Menschen in der Abgeschlossenheit der Rechenzentren konstruiert wird, sichtbar nur für einige wenige Akteure.

Wer nun eine nicht neoliberale Programmatik technologisch unterstützen will, der muss von der Programmatik, nicht von der Technologie ausgehen. Ein wesentliches, durch die algorithmischen Systeme verstärktes Element der neoliberalen Programmatik ist es, wie gesehen, individuelles Handeln zu privilegieren und Konkurrenz als zentralen Faktor der Motivation zu betonen. Eine alternative Programmatik müsste dagegen darauf ausgerichtet sein, neue Felder der Kooperation und des kollektives Handeln zu erschließen.

Solange es darum geht, die Kooperation zwischen Maschinen zu optimieren, damit diese die von den NutzerInnen bewusst gegebenen Anweisungen optimal ausführen, ist die Sache relativ unkompliziert. Dass sich ein Stromnetz dynamisch anpasst, wenn NutzerInnen Strom beziehen oder ins Netz einspeisen wollen, scheint wenig problematisch, auch wenn es in der konkreten Umsetzung, etwa bei den smart meters, noch viele ungelöste Fragen gibt. Ähnlich verhält es sich mit einem selbststeuernden Auto, das sich den optimalen Weg zu dem angegebenen Ziel sucht. Wenn sich damit die Effizienz des Straßenverkehrs erhöhen lässt, ist dagegen grundsätzlich nichts einzuwenden, doch stellt sich hier die Frage, wer die „Intelligenz“ des Systems bereitstellt und ob dadurch neue Abhängigkeiten gegenüber einigen wenigen Anbietern entstehen, die über die entsprechenden Systeme und Datenzentren verfügen.

Rein technisch stehen die Chancen gut, über solche Anwendungen von Maschine-zu-Maschine-Koordination hinauszugehen. Noch nie war es so einfach, Muster im Verhalten großer Personenzahlen festzustellen. Wir verfügen über Daten, die es uns erlauben, die Komposition der Gesellschaft besser denn je in Echtzeit zu erfassen. Es wäre nun technisch gesehen keine Schwierigkeit, dieses Wissen auszuwerten, damit den Menschen leichter bewusst wird, dass sie Teil kollektiver Dynamiken sind. Das geschieht auch bereits.

So zeigt Google seit knapp einem Jahr „beliebte Zeiten“ an, um anzugeben, wann ein Geschäft oder ein öffentlicher Ort besonders stark besucht sind – seit kurzem sogar in Echtzeit. Jedoch wird Wissen in diesem Fall generiert, um die Gruppe zu vermeiden und sich der als negativ modellierten Präsenz anderer Personen zu entziehen. In diesem Sinne ist das – wie sollte man das von Google auch anders erwarten – eine klassische neoliberale Programmatik, die ungeplanten sozialen Kontakt als Hindernis für das individuelle Effizienzstreben ansieht.

Algorithmen, die wir wollen

Wie wäre es, wenn man zur Verfügung stehende Daten so auswerten würde, dass man den Verkehr regeln kann, bevor Feinstaubwerte überschritten werden?

Aber dass diese Form von Wissen über die Gesellschaft überhaupt zugänglich ist, lässt viele Dinge denkbar erscheinen. Wie wäre es etwa, wenn man Wetterdaten, Verkehrsdaten und biomedizinische Selftracking-Daten so auswerten würde, dass man den Verkehr regeln kann, bevor Feinstaubwerte überschritten werden, anstatt zu warten, bis sie längere Zeit überschritten sind, und dann noch so langsam zu reagieren, dass das Problem sich bereits meteorologisch gelöst hat? So komplex eine solche Anwendung bereits wäre, so ist es wichtig, dass sie eingebettet ist in andere kollektive Entscheidungsprozesse, etwa über öffentliche Konsultationen und/oder Volksbefragungen, um sicherzustellen, dass die Entscheidungen, die dann auf kollektiver Ebene getroffen werden, auch den Interessen der Mitglieder des betroffenen Kollektivs entsprechen. Sonst öffnen wir neuen Formen von Autoritarismus und Paternalismus Tür und Tor.

Viele weitere Anwendungen ließen sich ausmalen. Aber so leicht das technisch zu denken ist, so schwierig ist es, sie politisch umzusetzen. Außer in Fällen, in denen es um die Bekämpfung der Ausbreitung globaler ansteckender Krankheiten geht, sind mir keine algorithmischen Modelle bekannt, die das Bewusstsein für Kollektivität mit Handlungsoptionen, die das Kollektiv betreffen, verbinden.

Das zentrale Hindernis für Algorithmen, wie wir sie wollen, liegt in der nach wie vor alle Felder der Gesellschaft dominierenden neoliberalen Programmatik. Die ist aber, nach Brexit und Trump, schwer angeschlagen. Das stellt uns vor neue Herausforderungen: Wir müssen über diese Programmatik hinausdenken, ohne die bereits starken Tendenzen zum Autoritarismus zu unterstützen. Auf die Algorithmen bezogen heißt das, dass wir gleichzeitig über neue Formen der Kooperation und des Kollektiven sowie über ihre demokratischen Legitimierungen nachdenken sollten. (reblogged von https://netzpolitik.org/2017/algorithmen-die-wir-brauchen/)

+unter der Lizenz Creative Commons BY-NC-SA 4.0.

01/26/18

Hastings -Mord Ex Machina: Der Big-Data-Tatort zum 34c3

Michael Hastings starb 2013 bei Autounfall (?) bevor er CIA-Direktor Brennan kritisieren konnte

Fernseh-Krimi bringt zwar Kritik zu Big Data, vergisst aber realen Todesfall  (US-Reporter Michael Hastings) und dämonisiert letztlich doch wieder die Hacker

von Thomas Barth

Spoilerfreie TV-Filmkritik nebst Essay über Hacker, Gefahren von Big Data und selbstfahrenden Autos sowie den mysteriösen Tod des US-Journalisten Michael Hastings, der CIA-Direktor Brennan kritisieren wollte (und schon den JSOC-General Stanley McChrystal mit einem Artikel zu Fall gebracht hatte).

Manche Besucher des 34. Chaos Communication Congress haben, just aus Leipzig heimgekehrt, beim Neujahrs-Tatort der ARD ihre Themen weiterverfolgen können. Wohl eher Zufall als cleveres Timing, vergaßen die Filmemacher einen durchaus möglichen Querverweis auf den Chaos Computer Club einzubauen. Doch die kritische Aufbereitung des Themas „autonomes Auto“ als Thriller im Big-Data-Milieu war prinzipiell lobenswert und dürfte in den PR-Abteilungen mancher Firma dieser Branche zu Herzrasen und Schweißausbrüchen geführt haben. Die Image-Beschädigung vor Millionenpublikum wieder wett zu machen, könnte einiges an Werbung und Lobbyisten-Arbeit kosten.

Die bildungsbürgerliche Süddeutsche (SZ) legt schon mal vor und bringt einen erregten Verriss: „Im „Tatort“ aus Saarbrücken geht es um Datendiebstahl und wie sich der auf die Privatsphäre auswirkt. Das ist ziemlich viel Kulturpessimismus zum Jahresauftakt.“ Nein. Ist es nicht. 15.000 Besucher (Rekord) des 34c3 würden dies vermutlich bestätigen. (Der Tatort „Mord Ex Machina“ ist noch bis Ende Januar in der ARD-Mediathek verfügbar.)

Mord Ex Machina: Der Plot

Düsterer Hacker knackt in dunklem Zimmer vor drei Bildschirmen einen Firmenrechner, soviel Klischee muss sein. Seine sexy Mithackerin Natascha wälzt sich derweil im Bett mit dem Justiziar des Big-Data-Unternehmens Conpact, Sebastian Feuerbach. Feuerbach hatte Streit mit seinem Freund und Geschäfts-Partner, dem „visionären“ Firmenboss Victor Rousseau, weil dieser ungehemmtes Big Data betreiben möchte -auch in hypermodernen, autonom fahrenden Autos. In einen dieser Prototypen steigt der virile Jurist und rauscht prompt durch die Leitplanke des Parkhochhauses.

Selbstmord oder Unfall? So rätselt Kommissar Stellbrink, kommt aber schnell darauf, dass dieses High-Tech-Mobil womöglich gehackt wurde. Doch das Hacker-Pärchen ist fein raus: Rousseau hatte sie engagiert, um nach Sicherheitslücken in seinem Firmennetz zu suchen. Nebenbei, erfährt man, sollte in die Bordcomputer der neuen Wagen eine Hintertür eingebaut werden, so dass die Firma Conpact alles mitschneiden kann, was die Dutzenden Kameras in und um den Wagen aufzeichnen. Brisant, denn die Bundesregierung ist der erste Kunde und will ihren Limousinenpark von Conpact auf autonomes Fahren umrüsten lassen…

Stellbrink muss sich durch hippe Firmenwelten, erotisch aufgeladene Beziehungen und eine terroristische Vergangenheit wühlen, um den Fall aufzuklären. Filmtitel und Idee ähneln zwar einem gleichnamigen Film der Sherlock-Verschnitt-Serie „Elementary“, aber besser gut geklaut als schlecht erfunden -und Tatort punktet mit ernsthafter Gesellschaftskritik am Phänomen Big Data.

Viele dubiose, kleine Firmen bevölkern den Datenmarkt. Doch beherrscht wird er von großen, international agierenden Konzernen, wie zum Beispiel Acxiom, Datalogix, Rapleaf, Core Logic oder PeekYou. Acxiom, einer der Branchenriesen, erwirtschaftet weltweit mehr als eine Milliarde US-Dollar pro Jahr und verwaltet über 15.000 Datenbanken für seine über 7000 Kunden. Der Konzern verfügt über 700 Millionen aktive Konsumentenprofile, darunter mehr als 40 Millionen aus Deutschland.“ c’t Digital gebrandmarkt – Wie Kundendaten gesammelt, gehandelt und genutzt werden

Der Hintergrund: Big Data und Cyberattacken

Spätestens seit Snowden wissen wir, dass Geheimdienste gerne solche Daten abschöpfen, sicher nicht nur aus Merkels Handy. Warum sollten Firmenbosse nicht auch selber zugreifen? Zumal wenn sie im Big Data-Business sind? Die Kritik an diesem Business wird von „Mord Ex Machina“ noch weiter getrieben: Der nicht sehr computer-affine Kommissar, der sich just nur mühsam auf einer Dating-Site bewegte, erfährt staunend vom Nutzer-Profiling, wo nach 68 „Likes“ auf Facebook seine Persönlichkeit nach dem „OCEAN“-Modell bewertet werden kann: Michal Kosinskis psychometrische Big-Data-Analyse machte 2016 Schlagzeilen, weil angeblich Trumps Wahlkampf und der Brexit mit so lancierter Werbung erfolgreich waren. Auch wenn dies übertrieben war -vor Datenklau und Profiling zu warnen ist sicher nicht falsch von den Tatort-Machern, zumal sie ihre Gesellschaftskritik filmisch überzeugend vermitteln: Einzelne Personen werden immer wieder sekundenlang eingefroren, vor verschwommenem Hintergrund unnatürlich scharf anvisiert: Wie unter dem Mikroskop von Netz-Profilern. Die SZ sieht das allerdings anders und nörgelt:

…und das Internet mal wieder ganz böse. Man sieht die Zuschauer auf dem Sofa förmlich mitschimpfen: „Ja, genau, dieses neumodische Internetzeug. Pfui!“ Angesichts dieser altbackenen, uninspirierten und kulturpessimistischen Heransgehensweise hilft alles nicht: Man muss einfach mit den Augen rollen. Und ganz tief seufzen. Nicht schon wieder. Carolin Gasteiger, SZ-Tatort-Fernsehkritik

NZZ mag „Tatort“ nicht: Zuviel Gesellschaftskritik statt Schusswaffengebrauch

Damit stellt sich die einst sozial-liberale SZ treu an die Seite der stramm-konservativen NZZ, die 2009 in ihrer wütenden Abrechnung mit den Tatort-Machern „Traurige Kommissare“, deren Gesellschaftskritik als „Feuilleton-Soziologie“ und „Gesinnungskitsch“ geißelt. Die Tatort-Helden hätten doch alle Probleme, so die NZZ, seien „Gutmenschen, Allesversteher und Betroffenheits-Betschwestern“ und würden zudem Schusswaffeneinsatz scheuen „wie der Teufel das Weihwasser“. Das ist sicher schlecht für die Schweizer Waffenindustrie, die bekanntlich die Verbrecher halb Europas mit Schießeisen versorgt. Aber wenn dann doch mal ein Till Schweiger im Rambo-Stil zur Knarre greift, ist es auch wieder nicht allen Recht zu machen: Die Zensurbehörde in Kiew monierte, dass dabei zu wenig Russen erschossen wurden. Die jüngste Kritik an Big Data und Roboter-Autos sollte dagegen weniger anecken, aber die SZ mault abschließend über die „altbackene“ Gesellschaftskritik:

„Jens Stellbrink zieht aus den verstörenden Erkenntnissen des Falles Konsequenzen: Der Kommissar löscht sein Online-Dating-Profil, holt einen Falke-Stadtplan aus der Schublade und wirft sein Smartphone vom Balkon. Das ist platt und verbohrt: Als könnte man den digitalen Entwicklungen und Herausforderungen so begegnen.“ SZ

Nikolai Kinski: netwars – gesellschaftskritisches multimedia project

Doch, liebe SZ, so leicht kann es manchmal sein: Smartphone weg und Profil löschen. Ach, hätte die SZ das „neumodische Internetzeug“ doch nur zu Recherchezwecken eingesetzt, dann hätte sie erfahren, dass die Kritik gar nicht so „altbacken“ sein kann, wenn sie etwa vom 34c3 geteilt wird. Oder dass der digital gemeuchelte Datenschützer Feuerbach nicht „platt und verbohrt“, sondern recht feinsinnig besetzt wurde: Der Darsteller Nikolai Kinski, ein Sohn Klaus Kinskis, lieh sein Konterfei zuvor dem preisgekrönten Netwars-Projekt (Grimme Online Award 2015).

Oder dass der kulturpessimistische Plot womöglich einen realen Vorläufer hatte: Den Fall des bei einem mysteriösen Autounfall getöteten CIA-Kritikers Michael Hastings. (Anm. Die SZ übte früher selber Digital-Kritik: In der Snowden-Hype durfte dort Daniel Ellsberg über die NSA als „Stasi von Amerika“ schimpfen).

Risiko Car-Hacking: Michael Hastings

Michael Hastings, kritischer US-Journalist, starb 2013 bei mysteriösem Unfall in neuem Mercedes als er aus Angst vor CIA untertauchen wollte (car hacking?)

Der erst 33-jährige Hastings starb 2013, was Fragen nach einem möglichen Hackerangriff auf sein Auto auslöste: Die Huffington Post warnte vor „conspiracy theories“; Wikileaks twitterte, der preisgekrönte Investigativ-Journalist Hastings hätte kurz vor dem Unfall versucht, die WikiLeaks-Juristin Jennifer Robinson zu kontaktieren; DER SPIEGEL will vom Thema car hacking nichts mitbekommen haben; USAtoday berichtete, Hastings hätte versucht, sich den Wagen seiner Nachbarin zu leihen, weil er fürchtete, an seinem Mercedes wäre herum gepfuscht worden; das Auto der Nachbarin wäre aber defekt gewesen -dann starb Hastings, der gerade an einer heißen Story zu CIA-Chef Brennan dran gewesen sein soll.

Michael Mahon Hastings (1980-2013) war ein US-amerikanischer Investigativjournalist und Schriftsteller. Er war Mitherausgeber des Rolling Stone und Korrespondent für BuzzFeed. Sein Artikel 2010 über den General, ehemaligen JSOC-Kommandeur und US-Oberbefehlshaber der NATO in Afghanistan, Stanley McChrystal, führte zu dessen umgehender Entlassung durch US-Präsident Barack Obama. Hastings arbeitete zuletzt, laut Aussage seiner Witwe Elise Jordan, an einer Geschichte über CIA-Director John O. Brennan, er fiel 2013 einem Autounfall zum Opfer, so der offizielle Polizeibericht. Allerdings zeichneten Kameras drei Explosionen auf, der Motorblock lag in erheblicher Entfernung. Es gab diverse weitere Indizien, Hinweise und auch Zeugenaussagen, unter anderem von WikiLeaks, Richard Clarke und dem „Buzz-Feed“-Chefredakteur Ben Smith, die insgesamt einen Mord wahrscheinlicher erscheinen lassen. (…)

Am Tag vor seinem Tod äußerte Hastings, sein Mercedes könnte manipuliert worden sein, und bat deshalb seine Freundin Jordanna Thigpen, ihm ihren Wagen zu leihen. Er fühle sich bedroht und wolle die Stadt verlassen. Stunden vor seinem Tod schrieb Hastings seinen Freunden und Arbeitskollegen in einer E-Mail das FBI würde seine Freunde befragen: „Ich bin an einer großen Geschichte dran und muss eine Weile vom Radar verschwinden.“ Die E-Mails wurden am 17. Juni 2013 gegen 14 Uhr verschickt. Gegen 4.20 Uhr des nächsten Dienstagmorgen, 18. Juni 2013, starb Hastings. Dem Polizeibericht nach saß er allein in seinem Mercedes C250 auf der nördlichen Highland Avenue in Hollywood, als er aus unbekannter Ursache die Kontrolle über das Fahrzeug verlor. Das Auto kam von der Straße ab, durchbrach eine Leitplanke und fuhr ungebremst mit hoher Geschwindigkeit gegen eine Palme. Der Mercedes explodierte in einem Feuerball, der Motorblock lag in auffällig großer Distanz vom Auto, und Hastings Leiche verbrannte so stark, dass der Gerichtsmediziner ihn erst zwei Tage später anhand seines Gebisses identifizieren konnte. Laut Polizeibericht war es ein selbst verschuldeter Autounfall, es konnten keine Beweise für eine Fremdeinwirkung festgestellt werden. Wikipedia (dt.)

Das FBI dementierte nach dem Todesfall, Hastings überwacht zu haben, was aber laut US-Wikipedia nicht stimmt. Die US-Behörden hatten ein Jahr zuvor begonnen, den kritischen Journalisten, einen Freund des TYT-Gründers Cenk Uygur, ins Visier zu nehmen. TYT (The Young Turk) ist ein kritisches US-Mediennetz, das den Mainstream-Medien die Stirn bietet und hierzulande kaum Beachtung findet (TYT zu Hastings Tod), aber mit dem kritischen US-TV (Amy Goodman) DEMOCRACY NOW! kooperiert, das zeitweise in deutschen Kabelnetzen übertragen wurde.

The FBI released a statement denying that Hastings was being investigated, at least not by their agency. This statement was incorrect as FBI had opened a file on Hastings as early as 2012 (see FBI files below). Wikipedia (engl.)

Diese in deutschen Medien auffällig selten erwähnte, beinahe totgeschiegene Geschichte zeigt: Man braucht womöglich kein komplett autonomes Fahrzeug, um jemanden digital zu verunfallen (wovor CCC-Hacker schon lange warnten). Die Anspielung auf Michael Hastings Tod haben die ARD-Filmemacher allerdings komplett übersehen (oder hatten sie Angst, den kaum bekannten Fall zu erwähnen?). Dabei liegt im eigenen Archiv eine NDR-Doku von 2014, bei der dieser Todesfall als mögliches Auto-Hack-Attentat angeführt wird, Titel: „Im Visier der Hacker – Wie gefährlich wird das Netz?“ (in der Mediathek der Öffentlichkeit nicht mehr zugänglich, aber im freien webarchive dokumentiert).

„Ein brennender Unfallwagen im nächtlichen Los Angeles. Ein Mercedes als Trümmerhaufen, Ursache unklar, keine Zeugen. In den Flammen stirbt der US-Journalist Michael Hastings. Er recherchierte gerade an einer neuen Enthüllung. Seine letzte Story hatte einen Elite-General die Militärkarriere gekostet. Der Daimler-Konzern sieht angeblich keinen Grund, der Sache nachzugehen. Doch in der NDR-Reportage über die Risiken der Welt von morgen hält es der langjährige US-Sicherheitskoordinator Richard Clarke für durchaus möglich, dass der Wagen von außen gehackt wurde.“ ARD-Mediathek (webarchiv)

Im Tatort grämt sich eine Kommissarin angesichts des Mordes per Auto-Elektronik: „In zehn Jahren werden wir jede Menge autonom fahrende Autos auf der Straße haben -wer sagt mir dann, was ein Unfall war und was nicht?“ Willkommen in der Gegenwart liebes Tatort-Team. Oder, mit der gern gehörten Abschlussformel des Chaos Communication Congress zum Jahresende: „Guten Rutsch ins Jahr 1984!“ (padeluun)

Dämonisierung der Hacker

Unerfreulich am Tatort-Plot ist schließlich, dass leider doch wieder ein paar Hacker kräftig dämonisiert werden. Denn im Verlauf der Ermittlungen taucht eine frühere Hackergruppe auf, die 2002 eine „ethisch motivierte“ Cyberattacke verübte. Die Hacker hätten auf die „Gefahren der Digitalisierung hinweisen“ wollen, in dem sie in der Nacht des 29.9.2002 alle Ampeln von Nancy auf „Grün“ schalteten. Trotz Vorwarnung gelang es den Behörden nicht, den Anschlag auf das Verkehrsleitsystem zu vereiteln (daran, die Ampeln einfach abzuschalten, hatte man offenbar nicht gedacht). Ergebnis: Vier Todesopfer und 48 Verletzte, für die unsere Hacker verantwortlich zeichnen.

Und nicht genug -der Tatort zeigt dramatische Zeitungstitel zum frei erfundenen Hacker-Terrorangriff: “Une cyberattaque sur le feux de circulation“, “Les terroristes de l’internet -le nouveau danger“, „Nancy Crash: Beide Eltern zerquetscht“, daneben ein weinendes Kindergesicht; dann Überblendung ins Gesicht einer Hackerin, aus deren Auge eine Träne rollt. Das ist etwas dick aufgetragen und außerdem: Ethisch motivierte Hacker hätten sich darauf beschränkt, die Ampeln alle auf Rot zu schalten, statt Menschenleben zu riskieren. Doch so kommen selbst die vernünftigsten Warnungen vor digitaler Gefahr natürlich viel dämonischer rüber.

Der Tatort „Mord Ex Machina“ ist noch bis Ende Januar in der ARD-Mediathek verfügbar.

Erschien zuerst auf https://inversepanopticon.wordpress.com/2018/01/23/mord-ex-machina-der-daten-tatort-zum-34c3/

09/22/17

SF-Rezension: Teppich-Starwars

Eschenbach, Andreas, Die Haarteppichknüpfer, Erstveröffentlichung im Franz Schneekluth Verlag 1995, München.

Rezension von Thomas Barth

Ort: Yahannochia, mittelalterliche Stadt in der fiktiven vergessenen Galaxis Gheera; Kaiserpalast, weit entfernt; Zeit: 80.000 Jahre nach dem Krieg des Kaiserreiches gegen die Gheera-Galaxis, ca. 30 Jahre nach dem Untergang des Kaiserreiches. Art: Utopischer Roman.

Andreas Eschenbach führt in seinem ersten Roman eine technologisch fortgeschrittene, sozial jedoch regressive Utopie vor, die einen komplex geschliffenen Plot in eine satirische Pointe führt. Ostvan ist Haarteppichknüpfer in Yahannochia, ein angesehener polygamer Berufsstand, der aus den Haaren seiner Frauen unglaublich komplizierte und kunstvolle Teppiche knüpft. Das Leben eines Knüpfers genügt gerade für einen einzigen Teppich, dessen Verkauf den Erlös für das Leben der nächsten Generation sichern muß, d.h. für die Familie des einzigen Sohnes (alle weiteren werden getötet). Ostvans Sohn jedoch will kein Haarteppichknüpfer werden. Gerüchte vom Tod des fernen unsterblichen Kaisers, für dessen Palast auf einem legendären Planeten die Teppiche angeblich bestimmt sind, haben ihn erreicht. Die strenge religiöse Verehrung des Kaisers macht ihn damit zum Ketzer, und Ostvan erschlägt ihn, als ihm ein neuer Sohn geboren wird. Parnag, Lehrer von Ostvans Sohn, hat ebenfalls von diesen Gerüchten gehört, nimmt jedoch nach dem Tod seines Schülers Abstand von seiner Häresie, bis er von der Landung des Fremden Nillian hört, der sich als Rebell bezeichnet. Nillian gehört zur Rebellenarmee, die den gottähnlichen Kaiser stürzte und nun versucht, die Kunde von ihrem Erfolg im gigantischen Reich zu verkünden, so auch auf Ostvans Planeten in der lange vergessenen Gherra-Galaxis. Parnag wird jedoch von den Anhängern der Tradition gesteinigt, Nillian gefangen genommen und zur Hauptstadt geschickt, wo regelmäßig Raumschiffe des Kaisers die Teppiche abtransportieren.

SPOILER WARNUNG! Dies ist keine Rezension, sondern eine komplette Inhaltsangabe -wer den Roman noch mit allen Überraschungen genießen will, sollte nicht weiterlesen.

Nillians Raumschiff untersteht dem Rat der Rebellen, die nun auf dem Zentralplaneten im Kaiserpalast herrschen. Dort ist man verwirrt über die Entdeckung einer ganzen Galaxis von Haarteppichknüpfern, die gewaltige Mengen dieser Kunstwerke herstellen, deren Funktion und Verbleib ungeklärt ist. Auch die schöne blonde Lamita, Historikerin der Rebellen im ehemals kaiserlichen Archiv, kann keine Antwort geben, zu verwirrend umfangreich ist das kubikkilometergroße Museum. Ihr Hausmeister, der bucklige Emparak, früher erster Archivar des Kaisers, könnte ihr helfen, doch ist er noch immer Royalist und wird auch nicht recht ernst genommen. So muß Jubad, der Führer der Rebellen, der einst den Kaiser tötete ohne Erklärung wieder an seine Regierungsaufgaben gehen. Jubad erinnert sich gut an den unsterblichen Kaiser Aleksandr, der ihn gefangen nahm, ihm seine Identität als Denksalar, legendärer Gründer der Rebellenbewegung, offenbarte und ihm die eigene Ermordung als Auftrag gab, er sei der Macht überdrüssig und wolle den Menschen die Freiheit zurückgeben. Lamita jedoch verliebt sich in Emparak, dieser wird zum Rebellentum bekehrt und löst das Rätsel: 80.000 Jahre zuvor hatte der Herrscher der Gherra-Galaxis den Vater von Aleksandr nach seiner Unterwerfung durch dessen Armee mit der kaiserlichen Kahlköpfigkeit verspottet. Dieser hatte rachsüchtig bestimmt, daß die ganze Galaxis dafür büßen müsse, indem sie mit ihren Haaren den Gheera-Planeten restlos bedecken müsse, wozu dieser auch noch in ein anderes Raumzeit-Kontinuum versetzt wurde. Die siegreiche Armee der Rebellen kann nun der grausamen Fron ein Ende machen, die letzten Kaisertruppen werden besiegt.

Autor: Eschenbach, Andreas, geb. 1959 in Ulm, Ingenieur für Luft- und Raumfahrttechnik, Stipendiat der Arno-Schmidt-Stiftung; Die Haarteppichknüpfer, Erstveröffentlichung im Franz Schneekluth Verlag 1995, München. Th.Barth, 8/1995 Rezension Nr. 4 für Romanführer, Hamburg, August 1995

Der Schneekluth-Verlag, der vor allem Belletristik verlegte, bestand ab 1949 und war ab 1967 in München. 2003 wurde er von der Verlagsgruppe Droemer-Knaur übernommen.

08/7/17

Macron Campaign Emails

Today, Monday 31 July 2017, WikiLeaks publishes a searchable archive of 21,075 unique verified emails associated with the French presidential campaign of Emmanual Macron. The emails range from 20 March 2009 to 24 April 2017. The 21,075 emails have been individually forensically verified by WikiLeaks through its DKIM system.

The full archive of 71,848 emails with 26,506 attachments from 4,493 unique senders is provided for context.

WikiLeaks only certifies as verified the 21,075 emails marked with its green „DKIM verified“ banner however based on statistical sampling the overwheling majority of the rest of the emails archive are authentic.

As the emails are often in chains and include portions of each other it is usually possible to confirm the integrity other emails in the chain as a result of the DKIM verified emails within it.

Guillaume Poupard, the head of French government cyber security agency ANSSI, told AP on June 1 this year that the method used to obtain the emails resembled the actions of an „isolated individual“. Poupard stated that, contrary to media speculation, ANSSI could not attribute the attack to Russia and that France had previously been subject to hacking attacks designed to falsify attribution.

02/28/17

Nachruf: Armin Medosch

27.02.2017

Felix Stalder

Dieser Nachruf auf Armin Medosch wurde von Felix Stalder für Netzpolitik.org geschrieben.

Armin Medosch (*1962) ist gestorben. Wir haben einen der Pioniere der Netzkultur in Europa verloren, dessen Einfluss präsenter war als sein Name. Wie viele andere Akteure der ersten Stunden passte sein Wirken in keine Schublade. In den späten 1980er Jahren begann er als Medienkünstler in Graz und Wien. Damals, vor dem Internet, war Radio das zugänglichste und offenste Massenmedium, mit dem er im Rahmen des Projekts „Radio Subcom“ zu experimentieren begann, das im neu eingerichteten ORF Kunstradio ausgestrahlt wurde. Dem Radio als Medium, welches Experimente zulässt aber auch viele Menschen erreichen kann, blieb er als Journalist und Künstler bis zuletzt verbunden. Denn er hat Kunst nie als etwas Elitäres verstanden, sondern immer als etwas, das die zentralen Fragen der Gegenwart verhandeln und auch zu einer erweiterten Öffentlichkeit sprechen soll.

Die frühen 1990er Jahre in Europa waren eine Zeit des radikalen Umbruchs und der Utopien. Der Fall der Mauer, die Öffnung des Ostens und das langsame Aufkommen des Internets veränderten die Wahrnehmung von Raum, Zeit und Möglichkeiten tiefgreifend. Neue Geographien und neue Handlungsfelder taten sich auf. Der Markt war nirgends zu sehen, die spärlichen Konsumangebote (Shops im Osten, AOL, Compuserve online) waren nicht der Rede wert und wer was machen wollte, der musste (und konnte!) es selbst tun. Im digitalen Europa brach die Zeit der digitalen Städte (Amsterdam, Berlin, Wien etc) an, und mit ihnen die ersten Versuche, das Internet einer bewusst europäischen Perspektive zu entwerfen, weit weg von der „Frontier“ Mystik des US-Amerikanischen Cyberspace.

Eines der ungewöhnlichsten Projekte dieser Zeit, das alle diese Dinge und noch viel mehr miteinander verband, war das »stubnitz kunst.raum.schiff«. Das 80 Meter lange Schiff war Teil der Hochseefischfangflotte der DDR und hätte 1992 verschrottet werden sollen. Als Teil einer internationalen Künstlergruppe hatte Armin wesentlichen Anteil daran, dass das Schiff zu einem Produktions- und Präsentationsort für Kunst und Kultur umgebaut wurde. Ein schwimmendes Medienlabor und Ausstellungszentrum mit Satellitenverbindung für Fernsehen und Internet, Performanceräumen, mit einer zum Konferenzraum umgebauten Offiziersmesse. 1994 wurden die Häfen von Petersburg, Malmö, und Hamburg angefahren mit einem umfassenden Programm von Konferenzen, Seminaren, Ausstellungen, Workshops, Konzerten. Wie das Netzwerk Medienkunst schreibt: „Mit der Stubnitz verband sich die Vision von kulturellen Begegnungen in Europa, die nationale, territoriale Grenzen ignorieren können und die Offenheit und Freiheit der Meere zur Metapher erheben.“

Aber Kunstraumschiffe leben nicht lange. Wieder an Land übernahm er die Leitung des neugegründeten Medienlabors in München. Daraus entstand das Projekt Telepolis, eine Ausstellung zur „interaktiven“ (heute würde man sagen „smarten“) Stadt, die in Luxemburg, der Kulturhauptstadt 1995, stattfand. Aus diesem Projekt ging das Online-Magazin Telepolis hervor, welches er gemeinsam mit Florian Rötzer gründete und als dessen Redakteur er von 1996 – 2002 arbeitete. Auch das war echte Pionierarbeit. 1996 nutzten gerade mal 3% der Deutschen das Internet, es gab keine Blogs, sozialen Medien oder ähnliches. Telepolis war eines der ersten, wenn nicht das allererste, reine online Medium eines großen deutschen Verlags, Heise. Unter der fähigen Leitung der Redaktion kam rasch ein großes Netz an freien AutorInnen zusammen, die sich aus etablierten Namen, wie etwa Stanislav Lem wie auch – vor allem durch Armin vermittelt — vielen jungen Autoren, die das Internet aus eigener Anschauung kannten. Mir persönlich, damals Student in Kanada, gab er erste Gelegenheiten zu publizieren.

In den ersten Jahren des Bestehens wurde Telepolis zum zentralen Medium eines experimentellen, politischen und weitblickenden Netzdiskurs und schlug wichtige Brücken zwischen der Netzkultur im engeren Sinn und einer größeren Öffentlichkeit. Von dieser Leistung profitiert der Netzdiskurs in Deutschland bis heute. Während sich das Internet langsam zu etablieren begann, blieb Armin fokussiert auf das Neue und das Experimentelle. Davon zeugen nicht zuletzt zwei Bücher die er im Heise-Verlag publizierte: Netzpiraten. Die Kultur des elektronischen Verbrechens (2001) (gemeinsam mit Janko Röttgers) und Freie Netze (2003).

Wie vieles was Armin tat, waren die Themen dieser Bücher ihrer Zeit voraus. Nicht nur im deutschsprachigen Kontext. Nach Jahren des Journalismus zog es ihn wieder stärker in die Kunst, die er aber nie als Alternative zum gesellschaftlichen Engagement verstand, sondern immer als eine andere Form davon. Die Spartentrennungen, die heute wieder so stark gemacht werden, zwischen Technologie und Politik, Kunst und Theorie haben ihn nie interessiert. Mit der ihm eigenen Vehemenz hat er eine Position vertreten, die diese Ebenen gleichzeitig artikulierte und entsprechend auch immer wieder unbequem aneckte.

In den Jahren nach Telepolis folgten einen Vielzahl von kuratorischen Ausstellungsprojekten, etwa mit dem Medienkunstzentrum RIXC in Riga, die theoretisch immer anspruchsvoller wurden. Daraus ergab ein verstärktes Interesse am Zusammenhang zwischen großen gesellschaftlichen Transformationen und den spezifischen Möglichkeiten der Kunst und Kultur, darauf einzuwirken, beziehungsweise diese ins Bewusstsein zu bringen. Wissenschaftlich fundiert wurde das Ganze während eines Ph.D. (Goldsmith, London) und mündete in das Buch New Tendencies: Art at the Threshold of the Information Revolution (1961-1978) (MIT Press, 2016), das die überraschenden Anfänge der Medienkunst als Reflexion des Endes der Industriegesellschaft nachzeichnet.

Einigen dürften während der Transmediale im Januar auf Armins Krankheit aufmerksam geworden sein. Dort konnte er sein sein letztes großes Projekt Technopolitics, bei dem wir auch wieder intensiv zusammengearbeitet haben, schon nicht mehr persönlich präsentieren, sondern nur noch via Stream im Krankenbett verfolgen. Technopolitics – wie alle seine Projekte – war kollaborativ, transdisziplinär angelegt, als Versuch, der Orientierungslosigkeit der Gegenwart, eine vertiefte Beschäftigung mit historischen Prozesse und der persönlichen Verstricktheit darin entgegen zusetzen.

Mit Armin Medosch verlieren wir einen Pioneer der Netzkultur, der sich nie um disziplinäre, institutionelle und soziale Grenzen scherte. In einer Zeit, in der sich Welten auseinander bewegen, in der die Tendenz sich vor der chaotischen Welt in die eigene Nische zurück zu ziehen, immer stärker wird, sollte uns dies Ansporn sein, Brücken zu bauen, offen zu denken, das Neue mit Lust und Kritik zu fördern und radikal zu handeln.

(Reblogged von https://netzpolitik.org/2017/nachruf-armin-medosch/)

01/12/17

Rezension Felix Stalder: Kultur, Digitalität & Entmündigung

Stalder, Felix: Kultur der Digitalität. Suhrkamp Verlag (edition suhrkamp, Bd.2679), Berlin 2016, 283 S., 18,00 Euro, ISBN 978-3-518-12679-0.

Thomas Barth

Felix Stalder ist ein Schweizer Kulturphilosoph, der sich in seinem Buch „Kultur der Digitalität“ mit der Ko-Evolution von digitalen Technologien, Gesellschaft und Kultur befasst. Er warnt darin unter Berufung auch auf Edward Snowden und Julian Assange vor einer schleichenden Entmündigung, die auf uferlose Überwachung und technokratische Massenmanipulation setzt.

Stalders interdisziplinärer Ansatz verbindet philosophisches Denken mit Soziologie, Medien- und Politikwissenschaft, um Digital- und Internetkultur zu analysieren und das utopische Potential digitaler Commons mit ihren Open-Source-Projekten zu beleuchten. Er blickt dabei auch auf dunkle Wurzeln und Gefahren der Digitalität, die er vor allem in Neoliberalismus, Profitorientierung und bei westlichen (!) Geheimdiensten lokalisiert; dies überrascht, denn sonst kreisen westliche Diskurse über Manipulationen im Internet eher um russische und chinesische Geheimdienste. Stalder warnt vor Gefahren von Algorithmisierung, Überwachung und massenmanipulativer Post-Demokratie, zieht jedoch letztlich ein optimistisches Fazit. Die Commons zeigen trotz heutiger Dominanz der Technokraten mit ihrer neoliberalen TINA-Ideologie („There is no alternative“, Thatcher/Merkel S.206) einen offenen „Raum der Zukunft“ (S.281).

Stalder entwirft ein facettenreiches Bild der digitalen Kultur, die geprägt sei von Fluidität, Vernetzung und stetigem Wandel, bei dem sich unser Verständnis von Raum, Zeit, Identität und Macht grundlegend veränderte. Er stellt die These auf, dass die Digitalität sich nicht in technologischer Innovationen erschöpft, sondern durch neue Formen der Selbstorganisation, des politischen Engagements und der kulturellen Produktion geprägt ist. Katalysator ist dabei das Internet als Medium mit spezifischen Formen des Austauschs. Drei zentrale Formen der Kultur der Digitalität sind die Referentialität (kulturelles Material wird ubiquitär zugänglich und fließt in eine explodierende Produktion von Kulturgütern), die Gemeinschaftlichkeit (kulturelle Ressourcen werden geteilt und Bedeutungen durch stetige Kommunikation stabilisiert) und die Algorithmizität (die Informationsflut wird digital geordnet, aber ebenso werden Gesellschaft und Politik technokratisch entpolitisiert).

Kooperation und der Begriff der Digitalität

Zentrales Anliegen Stalders sind Potenziale der Digitalität für eine demokratische und partizipative Gesellschaft. Er plädiert dafür, bestehende Hierarchien aufzubrechen und neue Formen der Kooperation zu ermöglichen -vor allem in digitalen Commons, deren Wurzeln er in der Open Source und Open Software-Bewegung schon der frühen Internet Communities sieht, etwa den Debian-, GNU- und Linux-Projekten. Darin zeige sich eine digital möglich gewordene Neuverhandlung von gesellschaftlichen Werten und Normen im digitalen Zeitalter: Anstelle staatlicher Hierarchien und Profitorientierung der Konzerne trete die freie Kommunikation der Netze, die auf Meritokratie und Freiwilligkeit basiere. Das Linux-Betriebssystem Ubuntu zeigt in seinem Namen nicht zufällig eine interkulturelle Referenz auf den vielschichtigen Begriff der Bantusprache, der Menschenwürde und vernetzte Gemeinschaftlichkeit verbindet (vgl. Afrotopia von Felwine Sarr).

Stalder definiert den Begriff der Digitalität als eine kulturelle Struktur, die sich durch die Veränderung von Wissen, Macht und Kommunikation in der digitalen Ära auszeichne. Digitale Technologien haben zwar einen tiefgreifenden Einfluss auf verschiedene Aspekte unseres Lebens, vom individuellen Verhalten über soziale Interaktionen bis hin zur politischen Organisation.

Laut Stalder ist Digitalität jedoch keineswegs nur eine technologische Entwicklung, sondern vielmehr eine komplexe kulturelle Dynamik, die unsere Vorstellungen von Wahrheit, Realität und Identität in Frage stellt. Er reklamiert eine „im weitesten Sinne poststrukturalistische Perspektive“, Kultur sei heterogen, hybrid und „von konkurrierenden Machtansprüchen und Machtdispositiven durchzogen“, von „Begehren, Wünschen und Zwängen“ getrieben, Kultur mobilisiere diverse Ressourcen in der Konstituierung von Bedeutung (S.17).

„’Digitalität‘ bezeichnet damit jenes Set von Relationen, das heute auf Basis der Infrastruktur digitaler Netzwerke in Produktion, Nutzung und Transformation materieller und immaterieller Güter sowie der Konstitution und Koordination persönlichen und kollektiven Handelns realisiert wird.“ (S.18)

Damit solle jedoch nicht Digitaltechnik ins Zentrum gerückt oder Digitales von Analogem abgegrenzt werden. Analoges würde nicht verschwinden, sondern „neu- und teilweise sogar aufgewertet“. „Digitalität“ verweise vielmehr auf historisch neue Möglichkeiten der Konstitution und Verknüpfung von Akteuren (menschlichen wie nichtmenschlichen):

„Der Begriff ist mithin nicht auf digitale Medien begrenzt, sondern taucht als relationales Muster überall auf und verändert den Raum der Möglichkeiten vieler Materialien und Akteure.“ (S.18)

Stalder knüpft an den Begriff des „Post-Digitalen“ von Florian Cramer an, der damit Praktiken bezeichnet, die sich zwar in Digitalmedien entwickelten, deren offene Interaktionsform sich jedoch immer weiter verbreite. Stalders Begriff der Digitalität vermeide jedoch das missverständliche Präfix „Post-“, das fälschlich so gelesen werden könne, dass „etwas vorbei sei“, und löse sich zugleich von Cramers technikfixiertem Kontext der Medienkunst. Stalder nimmt in diesem Sinne die ganze Gesellschaft in den Blick, denn „…die Präsenz der Digitalität jenseits der digitalen Medien, verleiht der Kultur der Digitalität ihre Dominanz.“ (S.20)

Nicht technologische Entwicklungen allein hätten der Digitalität den Weg gebahnt, sondern auch Politik, Kultur und Ökonomie. Wichtig erscheinen Stalder insbesondere der Aufstieg der Wissensökonomie und der Kritik an Heteronormativität und Postkolonialismus. Die Wissensökonomie habe seit den 1960ern explizit den wachsenden Informations- und Wissensbedarf von Behörden und Konzernen in westlichen Konsumgesellschaften thematisiert. Dazu gehöre die Massenmanipulation durch immer ausgefeiltere Werbung, Propaganda und PR, die der Freud-Neffe Edward Bernays maßgeblich entwickelte:

„Kommunikation wurde zu einem strategischen Feld für unternehmerische und politische Auseinandersetzungen und die Massenmedien zum Ort der Handlung… Eine Medienindustrie im modernen Sinne entstand, die mit dem rasch wachsenden Markt für Werbung expandierte.“ (S.29f.)

Man sprach in den 1980ern und 90ern von „Informations-“ und später „Netzwerkgesellschaften“, in denen -neben der Digitalisierung- eine Flexibilisierung der Arbeit mit neoliberalem Abbau der Sozialstaaten einherging. Der Freiheitsbegriff wurde dabei von neoliberaler Politik und den seit den 1960ern wachsenden „Neuen Sozialen Bewegungen“ konträr definiert: Neoliberal als Freiheit der Märkte, sozial als persönliche Freiheit von gesellschaftlichen Zwängen (S.33). Exemplarisch für Letzteres behandelt Stalder die Schwulenbewegung in Westdeutschland, Rosa von Praunheim, den Bonner Tuntenstreit 1974, die Aids-Krise ab 1983. Diversität und Hybridisierung der Kultur der Digitalität wurzele in emanzipativen Bewegungen, deren Erfolg sich spätestens 2014 beim European Song Contest in der breiten Öffentlichkeit manifestierte -mit der Stalder seine Abhandlung eingeleitet hatte: „Conchita Wurst, die glamouröse Diva mit Bart, war die Gewinnerin“ (S.7), sie habe komplexe Geschlechterkonstruktionen „zumindest ansatzweise mainstreamfähig“ gemacht (S.48):

„Conchita Wurst, die bärtige Diva, ist nicht zwischen widerstreitenden Polen zerrissen. Sie repräsentiert vielmehr eine gelungene Synthese, etwas Neues, in sich Stimmiges, das sich gerade dadurch auszeichnet, dass die Elemente der alten Ordnung (Mann/Frau) sichtbar sind und zugleich transzendiert werden.“ (S.99)

Schattenseiten: Algorithmizität und Post-Demokratie

Die Digitalität ermöglicht laut Stalder neben hybrider Diversität auch neue Formen der Partizipation und Vernetzung, die zur Demokratisierung von Wissen und Kommunikation führen können. Gleichzeitig birgt Digitalität aber auch Risiken, wie die Manipulation durch Algorithmen, Filterblasen und Desinformation. Zugleich seien Algorithmen jedoch prinzipiell unabdingbar, um in einer diversen und hybriden Explosion der Kultur mit ihrer wachsenden Unordnung orientiert zu bleiben. Ohne Suchmaschinen etwa könne heute kein Archiv mehr die digitalen Datenmassen, Texte und Kulturprodukte bewältigen.

Algorithmen automatisieren Kulturtechniken wie die Inhaltsanalyse von Bildern oder das Schreiben von Texten: Der Chef der Firma „Narrative Science“, die automatisierte Sport- und Finanzberichterstattung anbietet, habe 2012 für die nächsten Dekaden eine Ersetzung von neunzig Prozent der Journalisten durch Computer angekündigt. Bedenklich sei, „dass sich auch die CIA für Narrative Science interessiert und über ihre Beteiligungsgesellschaft In-Q-Tel in das Unternehmen investiert hat, ist ein Hinweis darauf, dass bereits heute Anwendungen jenseits des Journalismus entwickelt werden. Zu Propagandazwecken lassen sich mit Algorithmen beispielsweise problemlos massenhaft Einträge in Onlineforen und den sozialen Massenmedien erstellen.“ (S.175)

Dynamische Algorithmen können sich sogar halbautomatisch-eigenständig weiterentwickeln: 2012 habe Google mit solchen „deep learning“-Verfahren die „Gesichtserkennung in unstrukturierten Bildern“ um siebzig Prozent verbessert (S.180). In ausufernder Überwachung greife heute ein „Daten-Behaviorismus“ nach unserer Privatheit, in einem „Revival eines nach wie vor mechanistischen, reduktionistischen und autoritären Ansatzes“. Diese Haltung ungehemmter Kontrolle unseres Verhaltens finde sich bei jenen, die über umfassende Beobachtungsmöglichkeiten verfügen, „dazu gehören neben Facebook und Google auch die Geheimdienste westlicher Länder“ (S.201). Dabei ginge es neben der gern genannten „Serviceverbesserung“ aber auch um soziale Normierung (erprobt in unethischen psychologischen Experimenten, wie man Stalder hier ergänzen könnte) sowie „Profit- oder Überwachungsoptimierung“ (S.202). Anders als viele deutsche Medienwissenschaftler, die an dieser Stelle der Analyse krampfhaft mit den Fingern auf „russische Trolle“ und den chinesischen Überwachungsstaat zeigen, beweist der Schweizer Felix Stalder Rückgrat und kritisiert die eigenen, die westlichen Machteliten (was besagte Kollegen wohl eher nicht aufgreifen dürften).

Assange, Snowden und Entmündigung im libertären Paternalismus

2013 habe, so Stalder, Edward Snowden die „flächendeckende Überwachung des Internets durch staatliche Geheimdienste“ enthüllt (S.233). Felix Stalder zitiert den Wikileaks-Gründer Julian Assange und resümiert: „Die Grenzen zwischen postdemokratischen Massenmedien und staatlichen Nachrichtendiensten sind fließend. Wie inzwischen bekannt ist, bestehen zwischen beiden Bereichen personelle Kontinuitäten und inhaltliche Gemeinsamkeiten.“ (S.234) Die USA hätten seit 2011 z.B. „ein eigenes Programm zu sozialen Massenmedien mit dem Namen ‚Social Media in Strategic Communication‘. (…) seit 2009 vernetzt die Europäische Union im Rahmen des INDECT-Programms Universitäten und Sicherheitsorgane mit dem Ziel ‚Lösungen und Werkzeuge der automatisierten Gefahrenentdeckung zu entwickeln’… Überspitzt könnte man sagen, dass die Missachtung der Grundrechte mit der Qualität der so geschaffenen Dienstleistung ‚Sicherheit‘ legitimiert wird.“ (S.235f.)

Leider sei die Gegenwehr gegen eine in westlichen Gesellschaften so geschaffene soziale Atmosphäre der Angst gering geblieben. Hinter Überwachung und Massenmanipulation stehe in den heutigen Postdemokratien, die demokratische Politik durch technokratisches Gouvernance ersetzen, eine neoliberale Anti-Aufklärung. Obsolet sei heute für die Machteliten „…die aus der Zeit der Aufklärung stammende Annahme, der Mensch könne sich durch den Einsatz seiner Vernunft und die Ausbildung seiner moralischen Fähigkeiten verbessern und sich aus seiner Unmündigkeit durch Bildung und Reflexion selbst befreien.“ (S.227) Eine kybernetische Sicht sehe den Menschen als dressierbare Versuchsratte, die mit subtilen „Nudges“ (Schubsern) zu steuern sei, so Richard Thaler und Cass Sunstein.

Die beiden Neobehavioristen bezeichnen ihr System als „libertären Paternalismus“, der eine „freiheitliche Bevormundung“ anstrebe, was bei den Regierungschefs in Washington und London, Obama und Cameron, so viel Anklang fand, dass sie Thaler und Sunstein in ihre Teams holten (S.228f.). Besonders in den sozialen Massenmedien (also den „sozialen Medien“, Stalder benutzt diesen gängigen Begriff jedoch nicht), ließe sich die mediale Umgebung via Nudging manipulieren. Dies geschehe vor allem im Dienste einer Gruppe, die Stalder als „den inneren Kern des postdemokratischen Systems“ bezeichnet, „bestehend aus den Spitzen der Wirtschaft, der Politik und der Geheimdienste“ (S.230). Viele Mainstream-Konformisten dürften in dieser simplen und analytisch untadelig abgeleiteten politischen Erkenntnis bereits angebliche „Verschwörungstheorie“ oder sogar „-ideologie“ wittern. Denn medial und in der akademischen Forschung werden die von Stalder aufgezeigten Fakten und Zusammenhänge geradezu krampfhaft ignoriert. Es ist zu befürchten, dass genau diese krampfhafte Ignoranz künftig zumindest diese Teile von Stalders Buch betreffen wird. Machtstrukturen dieses Kalibers werden bislang selten öffentlich diskutiert und dies geschieht dann oft nur in künstlerisch verfremdeter Form, wie etwa bei Mark Lombardi.

Stalder ruft im Fazit dazu auf, die Dynamik der Digitalität kritisch zu reflektieren und sich aktiv mit den Auswirkungen digitaler Technologien auf unsere Gesellschaft auseinanderzusetzen. Indem wir die Chancen und Herausforderungen der Digitalität verstehen, können wir Freiheit und Autonomie im digitalen Raum bewahren und weiterentwickeln: Obwohl „die Postdemokratie das Politische selbst abschaffen und alles einer technokratischen Alternativlosigkeit unterordnen will“, beweise die Entwicklung der blühenden Commons das Gegenteil, meint Stalder und schließt sein Buch mit dem Verweis auf utopische Potentiale der Digitalität: „Diese Widersprüchlichkeit der Gegenwart öffnet den Raum der Zukunft.“ Ausbaufähig scheint an Stalders Argumentation die Subjektkonstitution im Netz, die mit der Konzentration auf Kommunizieren, Posten und Liken wohl noch nicht ausreichend erfasst ist, sowie deren Verknüpfung mit Foucaults Konzept des Panoptismus.

12/21/16

German BND-NSA Inquiry Exhibits

Today, 1 December 2016, WikiLeaks releases 90 gigabytes of information relating to the German parliamentary inquiry into the surveillance activities of Germany’s foreign intelligence agency Bundesnachrichtendienst (BND) and its cooperation with the United States‘ National Security Agency (NSA).

The 2,420 documents originate from various agencies of the German government including the BND and Federal Office for the Protection of the Constitution, Bundesamt für Verfassungsschutz (BfV) and were submitted to the inquiry last year in response to questions posed by the committee. They include administrative documents, correspondence, agreements and press reactions. They also include 125 documents from the BND, 33 from the BfVand 72 from the Federal Office for Information Security (BSI).

The collection offers a detailed insight, not just into the agencies themselves, but also into the mechanics of the inquiry. Several documents detail how the agency in question collated the information that was requested of them. For example, a BND document shows its preparations for collecting internal information on which private US companies are operating in the security sector in Germany. Such internal processes are particularly pertinent to the inquiry. The committee has been trying (unsuccessfully so far) to gain access to the full selector list that the BND holds regarding who they spy on at the behest of the US. The BND is withholding this list from the inquiry on the grounds that releasing it could imperil the BND’s relationship with the NSA.

Whilst a number of facts have already come to light as a result of the inquiry including WikiLeaks’ publication of inquiry transcripts last year this substantial new collection of primary source documents provides significant new evidence. The collection contains early agreements between the BND and the NSA and internal processes at the BND, but also more recent details on the close collaboration between the two agencies. For example, one document from the BND states that a BND employee will be tasked to use and write software for XKeyscore, an NSA system for searching and analysing data collected through mass surveillance.

A number of the documents show how intelligence agencies find ways to work around their own government. Documents pertaining to an audit visit by Germany’s data protection agency to the BND’s offices show that BND officers withheld the notes made by the auditors during their visit. The BND would only release the notes to the auditors once they had checked the content for themselves.

The inquiry was established in 2014 in the wake of the Snowden revelations, which showed that not only was the NSA spying on the whole world, but it had also partnered with the intelligence services of particular states to spy on their citizens and those of the surrounding regions. One of these countries is Germany, which has had a close relationship with the US in military and intelligence matters since its occupation by US forces in WWII. The US has been shown to use its bases in Germany and its relationship with German intelligence to spy on German citizens as well as European Union institutions.

WikiLeaks revelations of NSA spying on Angela Merkel and top officials at German ministries, the EU and France also contributed to the political impetus of the inquiry.

The depth of this relationship had been unknown to the German public and much of its government. The outrage that was sparked by the Snowden NSA revelations led to the establishment of the inquiry, which later called for Mr Snowden to testify at it. Whereas there was initially unanimity among German political parties in 2014 for Snowden to provide expert testimony, the government deemed that guaranteeing that he would not be handed over to the US (a condition imposed by Snowden for testifying) would damage Germany’s political relationship with the United States. Subsequently, the Greens and the left-wing party (Die Linke) filed an official complaint to force the German Parliament to hear Mr Snowden.

Last week, on 21 November 2016, Germany’s Federal Court of Justice upheld the complaint and ruled that the committee was obliged to hear Edward Snowden in person. However, at the next inquiry hearing three days after the ruling, Chancellor Angela Merkel’s Union bloc and the Social Democrats removed Snowden’s invitation from the agenda of the inquiry and are contesting the Court’s decision.

Julian Assange said: „This substantial body of evidence proves that the inquiry has been using documents from Mr Snowden and yet it has been too cowardly to permit him to testify. Germany can not take a leadership role within the EU if it’s own parliamentary processes are subservient to the wishes of a non EU state.“

von WikiLeaks

12/19/16

Sloterdijk: Transhumaner Patriarch & weiblicher Orgasmus

Heike Hartsock

Was geschieht, wenn ein gut vernetzter Patriarch, der sich durch Vortäuschen einer kritischen Haltung eine Professur für Philosophie ergatterte, im Medienbereich Fernseh-Glamour mit brüderlichen Beziehungen zu renommierten Wissenschaftsverlagen sicherte? Er schreibt natürlich ein reaktionäres Buch nach dem anderen und warum auch nicht mal einen mittelmäßigen Roman?

Im September 2016 publizierte der berühmte TV-Philosoph Peter Sloterdijk, der mit seiner „Kritik der zynischen Vernunft“ Furore machte, seinen Wissenschafts-Roman „Das Schelling-Projekt“ im namhaften Suhrkamp-Verlag. Wobei Suhrkamp evtl. zunehmend Ansehen einbüßt, weil dort jeder reaktionäre Erguss als Geniestreich gefeiert und umgehen gedruckt wird, den ihr wortgewandter Star-Autor manisch hervorblubbert.

Der (autobiographische?) Schelling-Text feiert einen Protagonisten, der unter dem Namen „Peer Sloterdijk“ auftritt. Peer und seine korrupten Wissenschaftler-Freunde konzipieren per E-Mail-Austausch einen Antrag für ein Forschungsprojekt, den sie an die Deutsche Forschungsgemeinschaft (DFG) stellen werden, Thema ist die Evolution des weiblichen Orgasmus. Um den Antrag philosophisch erscheinen zu lassen und so die Gutachter zu täuschen, fingieren die Antragsteller einen Zusammenhang des Projekts mit der Naturphilosophie Friedrich Wilhelm Joseph Schellings. Die Gutachter durchschauen jedoch das Manöver und lehnen das Projekt ab (das ist der wahrhaft phantastische Teil: Die DFG hätte so ein Projekt vermutlich eher mit Geld überschüttet).

Metaphysik als männliches Projekt

Peter Sloterdijks „Das Schelling-Projekt“ (2022) unternimmt den Versuch, Friedrich Wilhelm Joseph Schellings Philosophie als Schlüssel zu einer „neuen Metaphysik“ zu reaktivieren. Sloterdijk liest Schelling als Denker der „absoluten Freiheit“ und der „schöpferischen Potenz“, die sich in Kunst, Mythos und spekulativer Philosophie manifestiert. Doch während Sloterdijk Schellings Werk als radikalen Bruch mit der aufklärerischen Vernunft feiert, reproduziert er selbst eine Reihe problematischer Exklusionsmechanismen, die aus feministischer Perspektive kritisch zu hinterfragen sind.

Sloterdijks „Relektüre Schellings“ bleibt in einer Tradition verhaftet, die Metaphysik und schöpferische Potenz als genuin männliche Domänen konstruiert. Schellings Philosophie, die Sloterdijk aufgreift, ist geprägt von einer romantischen Vorstellung des „Absoluten“ als einer schöpferischen, sich selbst setzenden Kraft – ein Motiv, das historisch eng mit männlichen Genie-Kulten verbunden ist. Sloterdijk übernimmt diese Perspektive unkritisch und ignoriert dabei, dass Schellings Denken (wie das vieler deutscher Idealisten) das Weibliche oft nur als „Anderes“, als passives Prinzip oder als „Natur“ kennt, das dem aktiven, schöpferischen Geist gegenübersteht.

Feministische Philosophinnen wie Luce Irigaray oder Judith Butler haben gezeigt, wie solche Dualismen (Aktiv/Passiv, Geist/Natur, Kultur/Frau) die Abwertung des Weiblichen und die Ausgrenzung von Frauen aus dem Bereich des „wahren“ Philosophierens legitimieren. Sloterdijk reproduziert diese Logik, indem er Schellings „schöpferische Freiheit“ als universelles Prinzip feiert, ohne zu fragen, wer historisch von dieser Freiheit ausgeschlossen wurde – und wer es bis heute ist.

Auffällig ist, dass Sloterdijk in seinem „Schelling-Projekt“ feministische Theorien nicht einmal als mögliche Gegenpositionen erwähnt. Während er sich ausführlich mit männlichen Denkern wie Heidegger, Nietzsche oder Hegel auseinandersetzt, fehlt jede Reflexion über die Geschlechterordnung, die Schellings (und Sloterdijks eigene) Philosophie strukturiert. Dabei hätte gerade eine feministische Lektüre Schellings aufzeigen können, wie dessen Philosophie der „absoluten Identität“ die Differenz – und damit auch die Geschlechterdifferenz – zu negieren sucht, anstatt sie als produktive Kategorie zu denken.

Feministische Philosophinnen wie Rosi Braidotti oder Donna Haraway haben gezeigt, dass eine Philosophie, die Differenz und Hybridität ernst nimmt, nicht auf die Idee einer „reinen“, schöpferischen Subjektivität zurückgreifen kann. Stattdessen müsste sie die Verwobenheit von Körpern, Technologien und sozialen Machtverhältnissen in den Blick nehmen – ein Ansatz, der in Sloterdijks Werk keine Rolle spielt.

Sloterdijks Fokus auf das „schöpferische Subjekt“ ist nicht nur geschlechterblind, sondern auch klassistisch und rassistisch konnotiert. Historisch war der Begriff des „Schöpferischen“ eng mit dem bürgerlichen, weißen, männlichen Künstlergenie verbunden – eine Figur, die Sloterdijk unkritisch glorifiziert. Feministische Kunst- und Kulturtheorien (etwa bei Griselda Pollock oder bell hooks) haben jedoch gezeigt, dass „Schöpfung“ immer auch eine Frage der Zugänge und Privilegien ist: Wer darf als schöpferisch gelten? Wer wird als „Künstler“, als „Philosoph“, als „Denker“ anerkannt – und wer nicht? Sloterdijks „Schelling-Projekt“ ignoriert diese Fragen und reproduziert damit eine Philosophie, die sich als universell gibt, aber in Wahrheit nur eine sehr spezifische (männliche, weiße, bürgerliche) Perspektive verallgemeinert.

Angriff auf Gender-Diskurse

Da Sloterdijk wenig Mühe an eine literarische Gestaltung des Textes verwandte, wurde sein Text eher als politische Stellungnahme verstanden: als Angriff auf Gender-Diskurse. Die Schriftstellerin Elke Schmitter nannte Sloterdijks Buch in ihrer Rezension für den Spiegel als anti-feministisches Pamphlet, das nur notdürftig als Roman getarnt sei (ihre bzw. die redaktionelle Überschrift: „Die Frau als Herrenwitz“).

Schon 1991 hatte Sloterdijk transhumane Züchtungsfantasien, wollte den „Altmenschen“ durch Selektion zur Strecke bringen, so Thomas Assheuer 1999. In von ihm herausgegebenen „Berichten zur Lage der Zukunft“, die in der renommierten edition Suhrkamp erschienen, wolle Sloterdijk das „alteuropäische weltanschauliche Erbe“ abräumen. Sloterdijk trat für einen „Biologismus“ ein, der „auf eine intelligente Menschheit im ganzen zielt“, aber angeblich „nicht auf eine neurobiologische Apartheid oder eine Klassenherrschaft der Intelligenzmutanten über die Altmenschen heutigen Typs“.

Dann kamen seine „Regeln für den Menschenpark. Ein Antwortschreiben zu Heideggers Brief über den Humanismus“ (Suhrkamp 1999). Sloterdijk will darin Heidegger materialistisch umdeuten und damit Heideggers Metaphysik eine modernere Variante des Denkens einflößen. Dann fügt er eine Idee in der Tradition Nietzsches dazu: Der Mensch habe schon immer ein Züchtungsprojekt betrieben und dies unter dem Deckmantel der Humanität verborgen. Diese inhaltlichen Details wurden damals als eine Spitze gegen die Kritische Theorie gedeutet. Sloterdijk habe seinem gehoben-bildungsbürgerlichen Suhrkamp-Publikum im Gewand der Kritischen Theorie reaktionäre politische Thesen untergejubelt: ein Plädoyer für eine positive Eugenik (im Sinne Francis Galtons). Assheuer:

„Auf welche Fundamente dieser Züchtungs-„Humanismus“ gebettet ist, führt Sloterdijks monumentales, auf drei Bände angelegtes Sphären-Projekt im Suhrkamp-Verlag vor Augen. Es lebt, an der Grenze zum Totalitären, von der Idee, in unseren postnatalen Verhältnissen müsse die pränatale Symbiose wiederhergestellt werden – die ursprüngliche Geborgenheit, das behütete Wohnen in der „Blase“, die „Klausur in der Mutter“.“

Patriarchen und ihre Mutter-Probleme! Vielleicht werden transhumane Menschenzüchter ja zukünftig in künstlichen Gebärmüttern der von Donna Haraway angekündigten Cyborg ausgetragen…

Thomas Assheuer, Das Zarathustra-Projekt: Der Philosoph Peter Sloterdijk fordert eine gentechnische Revision der Menschheit, ZEIT 1999, http://www.oocities.org/hoefig_de/LKPhilo/Jahrg11/Das_Zarathustra_Projekt.htm

12/10/16

Rezension: Hartmut Rosa „Resonanz“

Gerd Peter Tellurio

Hartmut Rosa: Resonanz. Eine Soziologie der Weltbeziehung bietet eine fundierte, zugleich poetisch-schärfende Analyse der modernen Lebensbedingungen. Das Backcover umreißt mit dem programmatischen Satz „Resonanz bleibt das Versprechen der Moderne, Entfremdung aber ist ihre Realität“ das Problemfeld. Der zentrale Begriff der Resonanz wird als künstlerischer, politischer und alltäglicher Modus der Beziehung zur Welt entfaltet. Nicht bloß Verstehen oder Beherrschen, sondern eine wechselseitige, befreiende Schwingung zwischen Subjekt und Umwelt ist angesprochen. Rosa kritisiert auch in diesem Buch die „Beschleunigungsgesellschaft“ als eine Gesellschaft, die Effekte der Vernetzung, die Produktivkraft von Zeitdruck und ständige Verfügbarkeit ausnutzt, um Effizienz zu generieren. Resonanz ist demgegenüber eine Form des Sich-Ansprechens, Sich-Überraschens und Sich-Mitteilens, die Erfahrung von Relevanz, Zugehörigkeit und Sinn stiftet.

Eine Soziologie des guten Lebens

Wenn Beschleunigung das Problem ist, dann ist Resonanz vielleicht die Lösung. So lautet die Kernthese des Buches von Hartmut Rosa, das als Gründungsdokument einer Soziologie des guten Lebens gelesen werden kann. Anstatt Lebensqualität in der Währung von Ressourcen, Optionen und Glücksmomenten zu messen, müssen wir unseren Blick auf die Beziehung zur Welt richten, die dieses Leben prägt. Dass diese Beziehung immer häufiger gestört ist, hat viel mit der Steigerungslogik der Moderne zu tun, und zwar auf individueller wie kollektiver Ebene. „Beschleunigung“ und „Entfremdung“ sind Begriffe, die zahlreiche Phänomene der gesellschaftlichen Entwicklung der letzten zweihundert Jahre erklären können. Rosa nimmt die großen Krisen der Gegenwart in den Blick und weist einer resonanztheoretischen Erneuerung der Kritischen Theorie den Weg.

Entfremdung wird nicht nur individuell erlebt, denn Institutionen, Arbeitswelten, digitale Medien und urbane Strukturen tragen dazu bei, dass sich Menschen wie Zahnräder in einem größeren System fühlen. Rosa fordert, Entfremdung nicht nur als individuelles Misslingen, sondern als strukturelles Phänomen zu sehen. Lösungsansätze müssen daher rhythmisierende, resonanzförderliche Praktiken umfassen. Gegen Entfremdung plädiert Rosa für eine „Resonanzordnung“ oder eine Gesellschaft, in der Zeitpolitik, räumliche Gestaltung, Bildung und Kultur Räume schaffen, in denen Menschen wieder sinnstiftend, verbunden und aufmerksam leben können. Die Gegenstrategie ist eine Struktur der Resonanz – Räume, Zeiten und Praktiken, die Nähe, Verbindlichkeit und sinnstiftende Verknüpfungen ermöglichen. Dabei plädiert Roas nicht für eine simple „Entschleunigung“ als Lösung des Problems, dies verkenne die Dynamik der Moderne: „Man kann (…) den Beschleunigungsprozess auch verstehen als unaufhebbare Eskalationstendenz, die ihre Ursache darin hat, dass sich die gesellschaftliche Formation der Moderne nur dynamisch stabilisieren kann.“ (Rosa, S.13) Die Menschen der Moderne bleiben in ihrem Leben nicht unberührt von der Beschleunigung, denn ihr Dasein, ihre Fähigkeit zur Resonanz wird zunehmend gestört und untergraben:

„Diese systematische Eskalationstendenz verändert aber die Art und Weise, in der Menschen in die Welt gestellt sind, sie ändert das menschliche Weltverhältnis in grundlegender Form. Dynamisierung in diesem Steigerungssinn bedeutet, dass sich unsere Beziehung zum Raum und zur Zeit, zu den Menschen und zu den Dingen, mit denen wir umgehen, und schließlich zu uns selbst, zu unserem Körper und unseren psychischen Dispositionen, fundamental verändert.“ (Rosa, S.14)

Resonanz als Gegenmodell zu Distanz und Verflüchtigung

Die vier Teile des Buches behandeln 1. Grundelementen menschlicher Weltbeziehung, 2.Resonanzsphären und Resonanzachsen, 3.die Moderne als Zeit des Weltverstummens und 4. eine kritischen Theorie der Weltbeziehung. Ausgangspunkt ist die Diagnose einer entzauberten, entfremdeten Moderne; darauf aufbauend entfaltet Rosa das Konzept der Resonanz als Gegenmodell zu Distanz und Verflüchtigung; schließlich entwickelte er Kriterien und Formen, wie Resonanz in Alltag, Politik, Bildung und Kultur geübt werden kann (vgl. Inhaltsverzeichnis/Einleitung des Buches).

Rosa argumentiert, dass moderne Gesellschaften durch zunehmende Temporalität und Beschleunigung gekennzeichnet sind, sich manifestierend in Technologie, Arbeit, Kommunikation, Mobilität. Diese Beschleunigung erzeugt ein permanentes Gefühl des Verdrängens und der Zeitnot, wodurch Individuen sich entfremden von sich selbst, anderen Menschen und der Welt. Motiv der Moderne ist das Versprechen einer umfassenden Weltbeherrschung, die auch das Glück des Subjekts garantieren müsste. Jedoch sieht Rosa, dass die Beherrschung des Anderen letztendlich kein Glück hervorbringt, sondern ins Gegenteil umschlägt. Herrschaft, Effizienz, Kontrolle usw. verhindern Gelassenheit oder Loslassen und hier liegen die Potenziale der Resonanz. So bilden die Achsen der Resonanz in ihren positiven Ausprägungen Gegengifte gegen eine umfassende Sinnentleerung der Welt, die durch Planung, Kontrolle und Herrschaft nicht herstellbar sind. Horizontale Resonanzachsen wären dabei die „Familie als Resonanzhafen in stürmischer See“, Freundschaft und die Politik mit ihren Stimmen der Demokratie; Diagonale Resonanzachsen umfassen die Objektbeziehungen zu den Dingen, die Arbeit, weil dort „das Material zu antworten beginnt“, die Schule als Resonanzraum sowie Sport und Konsum als „Versuche, sich zu spüren“; Vertikale Resonanzachsen nennt Rosa schließlich die „Verheißung der Religion“, die „Stimme der Natur“, die „Kraft der Kunst“ und den „Mantel der Geschichte“.

Individuen im Netzwerk der Normen

Entfremdung entsteht laut Rosa, wenn Beziehungen zu Menschen, Orten und Dingen nicht mehr in einer sinnhaften, resonanten Weise erlebt werden. Resonanz bedeutet hier eine gelingende, wechselseitige, lebendige Verbindung. In einer beschleunigten Welt bricht diese Qualität oft ab, weil Aufmerksamkeit zerfällt, Nähe zu den Mitmenschen abnimmt und Dinge nur noch als Mittel dienen. Entfremdung sieht Rosa somit nicht primär als Leiden einzelner Subjekte, sondern als Fehlverhältnisse in den Bezügen zu Zeit, Ort, anderen Menschen und Dingen. Es geht um die Qualität der Verbindungen, nicht nur um innere Zustände. Er argumentiert, dass moderne Gesellschaften durch strukturelle Beschleunigung soziale Räume auf Distanz halten. Dinge, Ereignisse und Menschen sind ständig „in der Nähe“ (technisch, logistischer, informationeller Zugriff), doch diese Nähe verhindert echte Resonanz (echtes Verstehen, Anteilnahme, Zugehörigkeit). Durch Globalisierung, Verwaltung, Marktlogik und Bürokratie werden Lebenswelten fragmentiert.

Individuen erleben sich in einem Netzwerk von Erwartungen, Normen und Funktionslogiken, die Distanz statt Verknüpfung herstellen. Rosa kritisiert eine Orientierung an Verfügbarkeit, Effizienz und Kontrolle. Stattdessen fordert er eine Öffnung für andere, zuhörende Begegnungen, in denen sich Menschen gegenseitig zu sich hingezogen fühlen und sich gemeinsam von der Welt ansprechen lassen. Die Entfremdung wird weder rein subjektiv (nur individuelles Unwohlsein) noch ausschließlich systemisch (nur Strukturen) erklärt. Er betont die Wechselwirkung: Strukturen beeinflussen Subjekte, Subjekte wiederum verändern Strukturen, wodurch sich ein „Krisenpfad“ öffnet oder geschlossen bleibt. Gegen Entfremdung plädiert Rosa für eine Praxis der Resonanz – aufmerksam zu sein, sich auf andere einzulassen, Zeit und Raum für gemeinschaftliche Sinnstiftung. Das bedeutet auch politische und kulturelle Rahmenbedingungen, die solche Begegnungen ermöglichen (z. B. kommunale Räume, gemeinschaftliche Rituale, Bildungskulturen).

Kritik

Anton Schlittmaier, Professor für Philosophie und Grundlagen der Sozialen Arbeit an der Dualen Hochschule Sachsen, kritisiert an Rosa, das „In-Resonanz-Sein“ sei möglicherweise ein „Wohlfühlkonzept“, denn es sei ein immanentes Konzept von Glück. Auch der Bezug zur Transzendenz wird sozialwissenschaftlich als Vorstellung eines Bezugs zu einer antwortenden Welt gesehen. So würde vorausgesetzt, dass die Transzendenz immer nur eine Vorstellung sei. Dies widerspricht aus Schlittmaiers Sicht Konzepten, die Rosa im Sinne seiner eigenen Argumentation anführt, etwa dem von Martin Heidegger. Das Sein ist sei bei Heidegger gerade nicht das nur gedachte Sein, sondern das Unverfügbare: Das Sein, „das mich in die Verantwortung ruft, wobei diese Verantwortung definitiv nicht nur etwas ist, was ich mir als Subjekt ausgedacht habe.“ Anderen zu helfen, als durchaus erstrebenswertes und sinngebendesLebensziel, könne z.B. zu extremen Einbußen im Wohl-Sein führen. In diesem Zusammenhang habe Immanuel Kant gelehrt, dass wir auf eine ausgleichende Gerechtigkeit (im Sinne von Wohl-Sein als Lohn für Moralität) zwar hoffen können, es jedoch keinerlei Garantie dafür gibt. Bei Rosa gewinne man jedoch den Eindruck, „dass alles, was man richtigerweise tut, immer gleich durch das Glück des In-Resonanz-Seins entschädigt wird“. Dies verdecke eine Tendenz zum Hedonismus mit einer postulierten Übereinstimmung zwischen dem Guten und dem Glück. Schlittmaiers Kritik ist nicht ganz von der Hand zu weisen, doch knüpft Rosa an traditionelle Vorstellungen einer Tugendethik an, die er um originelle Aspekte der Resonanz ergänzt und auf die moderne Welt anwendet. Und sein bei Adorno entliehenes Eingangszitat verweist auf die Kraft der Ästhetik für Hoffnung auf Verwandlung (Zitat hier stark gekürzt, zuvor voran gestellt wurde noch ein Zitat von Heinrich Heine):

„Nichts kann unverwandelt gerettet werden, nichts, das nicht das Tor seines Todes durchschritten hätte. Ist Rettung der innerste Impuls jeglichen Geistes, so ist keine Hoffnung als die der vorbehaltlosen Preisgabe: des zu Rettenden wie des Geistes, der hofft. (…) Was von endlichen Wesen über Transzendenz gesagt wird, ist deren Schein, jedoch, wie Kant wohl gewahrte, ein notwendiger. Daher hat die Rettung des Scheins, Gegenstand der Ästhetik, ihre unvergleichliche metaphysische Relevanz.“

Theodor W. Adorno, Negative Dialektik

Fazit

Kurz gesagt: Entfremdung wird bei Rosa als Dynamik der Distanz durch Beschleunigung, Bürokratisierung und Funktionslogiken verstanden, die echte Verbindung und Zugehörigkeit verhindern. Die Gegenentschrift ist eine Praxis der Resonanz: offen sein für andere, Zeiten schaffen für Gelassenheit und gemeinsames Sinn-Stiften. Für Kritik und eine neue theoretische Perspektive auf Gesellschaft und Subjektivität bietet das Buch damit zahlreiche Anknüpfungspunkte: Es reflektiert über die Qualität unserer Beziehungen, über Zeitgestaltung, über die Bedeutung von Gemeinschaft und über die Rolle von Ästhetik und Sinnstiftung in der Gegenwartsgesellschaft. Als Fazit bleibt also ein philosophischer Diskurs und die Utopie, Resonanz praktisch zu gestalten, etwa durch achtsame Kommunikation, kulturelle Praxis, politische Bildung und persönliche Lebensführung. Wer eine scharfe Diagnose der Moderne sowie eine normative Vision für eine menschlichere Welt sucht, wird in Rosas „Resonanz“ eine anregende, oft inspirierende Lektüre finden.

Hartmut Rosa: Resonanz. Eine Soziologie der Weltbeziehung. Suhrkamp Verlag (Berlin) 2016. 500 Seiten, 32,95 EUR. ISBN 978-3-518-58626-6. 

Hartmut Rosa (*1965) promovierte 1997 bei Herfried Münkler und Axel Honneth und ist Professor für Allgemeine und Theoretische Soziologie an der Friedrich-Schiller-Universität Jena sowie Direktor des Max-Weber-Kollegs in Erfurt. Bei Suhrkamp erschienen: Beschleunigung und Entfremdung. Entwurf einer kritischen Theorie spätmoderner Zeitlichkeit (2013) und Beschleunigen wir die Resonanz! Bildung und Erziehung im Anthropozän. Gespräche mit Nathanaël Wallenhorst. Aus dem Französischen von Christine Pries, Suhrkamp, Berlin 2024.