12/11/23

Katharina Hoppe: Donna Haraway

Katharina Hoppe: Donna Haraway zur Einführung. Junius Verlag (Hamburg) 2022

Buchkritik von Thomas Barth

Die Ansätze der feministischen Wissens- und Wissenschaftstheoretikerin Donna Haraway finden seit den 1980er-Jahren wachsende Resonanz. Ihr Essay A Cyborg Manifesto: Science, Technology, and Socialist-Feminism in the Late Twentieth Century“ gilt als eines der einflussreichsten Werke der feministischen Theorie und prägte auch Debatten rund um Mensch und Technik. Zentrale Thesen ihres Werks sind aus kultur- und sozialwissenschaftlichen Debatten kaum mehr wegzudenken, ebenso von ihr geschaffene Begriffe und erhobene Forderungen: Haraways Kritik am patriarchalen Biologismus (nicht nur) in der Primatenforschung, ihre Epistemologie Situierten Wissens, ihre technofeministische Figur der Cyborg (1985) oder ihr jüngster Aufruf, sich mit unterschiedlichen Spezies verwandt zu machen, der als Gegenmodell zur Bewegung des Transhumanismus gelesen werden kann. Haraways Texte werden von Feminist*innen, Anthropolog*innen, in der Umweltbewegung und in künstlerischen Kontexten rezipiert. Das vorliegende Taschenbuch bietet eine systematische Einführung in Haraways Werk und zeigt theoretische Perspektiven und Grenzen auf.

Donna Haraway sei heute eine schillernde Referenz in der Theorienlandschaft, so einleitend Katharina Hoppe. Der Kern von Haraways Projekt liege darin, eine Theorie auszuarbeiten, die nicht-menschliches Anderes systematisch miteinbezieht und ihm einen politischen, epistemologischen und ethischen Stellenwert einräumt. Vor dem Hintergrund der heute immer dramatischeren Umweltprobleme, von der Klima-Katastrophe über Arten- und Waldsterben bis zur Versauerung der Ozeane, gewinne Haraway eine besondere Relevanz. Ihre Anti-Dogmatik, die Fülle der aus dieser Haltung resultierenden Zugänge zur Gegenwart und ihre originellen Begriffsvorschläge hätten sie zu einer der meistzitierten feministischen Theoretiker*innen gemacht. Allerdings gestalte sich die Rezeption ihres Werks nach wie vor selektiv, einzelne Texte wie das Cyborg-Manifest und Situiertes Wissen würden immer wieder zitiert, aber selten vertiefend ins Verhältnis mit dem Gesamtwerk gesetzt.

Bereits seit den 1980er Jahren hinterfrage Haraway anthropozentrische Denkformen, theoretisiere die Eigensinnigkeit von Natur und denke darüber nach, was es überhaupt heißt und heißen könnte, »Mensch« zu sein. Dabei rücke Haraway sozio-materielle und biologische, natürliche und kulturelle Prozesse ins Zentrum der Betrachtungen und zeige auf, dass diese sich nicht voneinander trennen lassen. Unsere Existenz sei aus post-anthropozentrischer Sicht als „biosozial“ zu begreifen und i.d.S. durchdrungen von heterogenen Anderen. Haraways Ansatz erfordere eine Öffnung der Kultur- und Sozialwissenschaften, die unhinterfragte Prämissen in Forschung und Theoriebildung produktiv irritieren könne.

Disziplinäre Grenzen wären für Haraway Konstruktionen, die unterlaufen werden können und sollten, so Hoppe. Dies spiegle sich in Haraways Biografie, die Ende der 1960er Jahre zunächst Zoologie, Philosophie und englische Literatur studierte, bevor sie in Yale zu „metaphorischen Verschiebungen in den Konzepten der Embryologie im 20. Jahrhundert“ promovierte. 1980 übernahm Haraway eine Professur an der University of California Santa Cruz im interdisziplinären Programm „History of Consciousness“, ausgewiesen für Feministische Theorie – als erste Professur mit diesem Schwerpunkt in den USA. Denken und Schreiben seien für Haraway Praktiken mit jeweils spezifischen, situierten Konsequenzen. Daher sei Wissenschaft für sie eine politische und ethische Angelegenheit, die Fragen aufwerfe: „Wie können wir die Effekte der eigenen Wissensproduktion verstehen und mit ihnen leben? Wie können wir neugierig bleiben? Wie gelingt es, Tod, Sterblichkeit und Destruktion nicht zu negieren und dennoch nicht zynisch zu werden?“ (S. 11)

Primaten, Cyborgs, Hunde, Kritter

In vier Kapiteln folgt Hoppe chronologisch jeweils einer wichtigen Figuration in Haraways Werkgeschichte, Primaten, Cyborgs, Hunde (als Companion Species) und Kritter.

  1. Primaten – Erfindet die Natur neu!
  2. Cyborgs – Cyborgs fürs weltliche Überleben!
  3. Hunde – Der Hund ist mein Ko-Pilot
  4. Kritter – Macht euch verwandt, nicht Babys!

Das erste Kapitel befasst sich mit Haraways wissenschaftstheoretischen und -historischen Thesen: Im Zentrum stehen ihre Arbeiten zur Primatologie mit der Kernfiguration des Primaten. Der Imperativ „Erfindet die Natur neu!“ verweise auf ihr werkübergreifendes Ziel, Natur in ihren historisch spezifischen Artikulationen zu analysieren. Natur sei dabei als aktiv an der Wissensproduktion und Konfiguration der Welt beteiligt zu verstehen. Neben ihrer Studie „Primate Visions. Gender, Race, and Nature in the World of Modern Science“ (1989) gehöre in diesen Zusammenhang auch ihr viel zitierter Text „Situiertes Wissen. Die Wissenschaftsfrage im Feminismus und das Privileg einer partialen Perspektive“ (1988), der einen feministischen Objektivitätsbegriff entwickelt. Ihre Subjekt- und Identitätskritik beziehe Haraway dabei auf Foucault und hinterfrage den vermeintlich „göttlichen“ Blick „von nirgendwo auf die Welt“ des sich für objektiv haltenden Wissenschaftlers (S. 38).

Das zweite Kapitel beschäftigt sich mit Haraways wohl bekanntester Figuration, der Cyborg, prominent eingeführt in ihrem „Manifest für Cyborgs“ (1985). Haraway greife das Bild des kybernetischen Organismus auf, um es sich feministisch anzueignen. So entstehe eine politische Theorie des notwendig heterogenen und durchlässigen Subjekts, das die zunehmend technologisierte Welt zum feministischen Thema macht. Haraway prägte auch mit ihrer sperrigen Monografie „Modest_Witness@ Second_Millenium. FemaleMan© _Meets_Onco Mouse TM. Feminism and Technoscience“ (1997) die feministische Auseinandersetzung mit Technologie und Wissenschaft. Nur ein teilweise affirmativer Blick könne „dem Glauben an besser lebbare Welten Möglichkeiten aufbrechen“ (S. 87).

Das dritte Kapitel rückt Haraways Arbeiten seit der Jahrtausendwende in den Fokus, wo sie sich zunächst den Beziehungen zwischen Menschen und Hunden bzw. der „Figuration Hund“ zuwendet. Aus der Analyse der Ko-Konstitution und Ko-Evolution von Menschen und Hunden gewinnt Haraway ihr Konzept der Gefährt*innenspezies (Companion Species). Es entwickelt die relational-ontologische Sichtweise, dass Entitäten welcher Art auch immer erst aus Beziehungen hervorgehen. Ihr Slogan „Der Hund ist mein Ko-Pilot“ verweist dabei auf eine enge Kopplung ihrer These gemeinsamen Werdens unterschiedlicher Spezies und einer Ethik, die diese Verwiesenheit aufeinander betont – im Anschluss an die Ethiken des Anderen von Emmanuel Levinas und Jacques Derrida sowie feministische Care-Ethiken.

Das vierte Kapitel greift u.a. Haraways Werk „Unruhig bleiben. Die Verwandtschaft der Arten im Chthuluzän“ (2016) mit ihrer Figuration der „Kritter“ auf, womit menschliche und mehr-als-menschliche Akteure gemeint sind. In diesen entwirft sie mit dem „Chthuluzän“ u.a. ein Gegen-Narrativ zum apokalyptischen Narrativ des „Anthropozäns“. In Form von fantastischen Erzählungen sollen speziesübergreifende Handlungsspielräume und Transformationen aufgezeigt werden. Der umstrittene Slogan „Macht euch verwandt, nicht Babys!“ verweise auf die Notwendigkeit, die speziesübergreifende Verwandtschaft, die menschliches Leben ausmacht, auch zu gestalten. Diese Strategien führe Haraway als Intervention gegen das ihr zufolge problematische Wachstum der Weltbevölkerung an, was Katharina Hoppes besondere Kritik weckt: Hinter Gesten Haraways verberge sich normativ nicht ausgewiesene Verallgemeinerung, nötig wäre dagegen: „Eine kritische Verortungsleistung, dass nicht die Zahl der Menschen >an sich< das Problem ist, sondern wie >wir< leben…“ (S. 190). Auch der normative Gehalt ihrer Thesen zur relationalen Bestimmtheit des Menschen sei „nicht immer deutlich bzw. wird er in der Rezeption… verkürzt“ (S. 191).

Diskussion

Katharina Hoppe macht deutlich, wie Haraways Kritik auf Positionen des Transhumanismus zielt, der etwa bei Nick Bostrom mit „übersteigertem Technikoptimismus“ eine Überwindung „der menschlichen Bindung an die Erde“ anstrebe (S. 127). Deren Optimierung der humanen zur transhumanen Existenz durch göttliche Macht, Unsterblichkeit und Eroberung des Universums stehe bei Haraway die Anerkennung menschlicher Verwundbarkeit und Abhängigkeit von irdischem Leben gegenüber. Hoppe verdeutlicht durch ihre Strukturierung von Haraways Werk mittels wichtiger Figurationen, dass Faktisches und Fiktives, Materielles und Diskursives bei ihr in einem konstitutiven Zusammenhang stehen. Die Figurationen können als empirische Gegenstände, als „performative Bilder“ verstanden werden, als „kondensierte Landkarten für umstrittene Welten“. Dies ist die Gegenposition zu einem naiven Realismus bzw. Biologismus, der Welt und Natur einfach als uns äußerlich voraussetzt und sie, insbesondere im Fall der Transhumanisten, diskursiv und technologisch zu unterwerfen trachtet. Figurationen sind auf dieser Ebene Verdichtungen materieller und diskursiver Praktiken, die Beziehungen konstituieren. Der Begriff der Figuration formuliert das Konstituieren, ohne dabei einen radikalen Sozialkonstruktivismus zu vertreten, der dem Sozialen oder der Sprache eine produzierende Übermacht zuschreiben würde.

Fazit: Das größtenteils gut lesbare Einführungsbuch wird dem hohen Anspruch der Junius-Reihe insofern gerecht, als es gesellschaftliche und politische Bezüge mit einer kritischen Werkschau verbindet. Hoppe überzeugt durch ihre Strukturierung von Haraways Werk entlang bedeutsamer Figuren und Figurationen. Sie zeigt, wie in Haraways Figuren Fakt und Fiktion, Materialität und Diskurs in einer Weise zusammenfließen, die marxistische, postmoderne und feministische Ansätze in kritischer wie utopischer Absicht vereinen kann und verschiedenste Geisteswissenschaften befruchtet.

Katharina Hoppe: Donna Haraway zur Einführung. Junius Verlag (Hamburg) 2022. 226 Seiten. ISBN 978-3-96060-333-7. D: 15,90 EUR, A: 16,40 EUR

Katharina Hoppe ist wissenschaftliche Mitarbeiterin am Institut für Soziologie der Goethe-Universität Frankfurt. Forschungsschwerpunkte: soziologische, politische und feministische Theorie sowie Wissenschaftsforschung und Soziologie sozialer Ungleichheit. Sie publizierte 2021 „Die Kraft der Revisionen. Epistemologie, Politik und Ethik bei Donna Haraway“ und wurde von der renommierten, 1978 als sozialistische Initiative gestarteten Junius-Einführungsreihe eingeladen, die dort kritisch begleiteten Kulturwissenschaften um eine wichtige feministische Perspektive zu erweitern. Die Niederschrift wurde vom Hamburger DFG-Kolleg „Zukünfte der Nachhaltigkeit“ gefördert.

05/12/18

Felix Stalder: Algorithmen

Algorithmen, die wir brauchen

Automatisierte Entscheidungssysteme prägen unsere Leben schon heute, in Zukunft geht ohne sie gar nichts mehr. Wie aber müssten sie beschaffen und eingebettet sein, damit sie zu einem guten Leben für alle beitragen? Eine konstruktive Algorithmen-Kritik von Felix Stalder. 15.01.2017

In diesem Essay unternimmt Felix Stalder Überlegungen zu neuen technopolitischen Bedingungen der Kooperation und des Kollektiven. Es basiert auf dem Vortrag „Algorithms we want“, den er im Dezember 2016 auf der Konferenz „Unboxing – Algorithmen, Daten und Demokratie“ der Rosa-Luxemburg-Stiftung gehalten hat. Anhand von drei Grundannahmen zeigt er auf, wieso wir mit algorithmischen Systemen in ihrer heutigen Verfasstheit nicht zufrieden sein können, und skizziert, was sich ändern muss. Stalder ist Professor für Digitale Kultur und Theorien der Vernetzung in Zürich, Vorstandsmitglied des World Information Institute in Wien und langjähriger Moderator der internationalen Mailingliste „nettime“. Zuletzt erschien von ihm: „Kultur der Digitalität“ (2016).

  1. Zum Algorithmenbegriff

Die Bedeutung von „Algorithmen“ in unserer Gesellschaft wächst rasant. Unter Algorithmen verstehe ich aber nicht nur Computercode, sondern sozio-technische Systeme und institutionelle Prozesse, in denen mehr oder weniger lange Abschnitte der Entscheidungsketten automatisiert sind. Die Erweiterung der Einsatzgebiete von algorithmischen Systemen ist kein Zufall und auch kein Prozess, den man „aufhalten“ kann oder sollte. Vielmehr ist es notwendig, eine differenzierte Kritik zu entwickeln, damit wir uns darüber verständigen können, welche Algorithmen wir brauchen und welche wir nicht wollen. Dies ist ein Vorschlag, wie eine solche Kritik aussehen könnte.

Beginnen wir mit drei Annahmen. Erstens: Wir brauchen Algorithmen als Teil einer Infrastruktur, die es erlaubt, soziale Komplexität und Dynamik so zu gestalten, dass diese unseren realen Herausforderungen gerecht werden. Zweitens: Viele Algorithmen sind handwerklich schlecht gemacht, vor allem jene, die soziales Alltagshandeln formen, also das tun, was Soziologen „soziales Sortieren“ (David Lyon) oder „automatische Diskriminierung“ (Oscar H. Gandy) nennen. Drittens: Diese handwerklichen Defizite sind nur ein Teil des Problems. Der andere Teil ergibt sich aus Problemen der politischen Programmatik, die vielen Algorithmen zugrunde liegt. Sie machen deutlich, dass es keine autonome Technologie gibt, auch wenn sie als „intelligent“ oder „selbstlernend“ bezeichnet wird. Gerade angewandte Technologien sind immer Teil von unternehmerischen oder administrativen Strategien, deren Reichweite und Effektivität sie verbessern sollen.

Erstens: Wir brauchen Algorithmen

Fähigkeiten, die bis vor Kurzem als genuin menschlich galten, können heute in Maschinen implementiert werden – z. B. das sinnerfassende Auswerten von Bildern oder Texten.

Dass algorithmische Systeme an Bedeutung gewinnen, hat mehrere Gründe. Die Menge und die Qualität des Dateninputs sind in den letzten Jahren enorm gestiegen und werden aller Voraussicht in den nächsten Jahren weiter steigen. Immer mehr Tätigkeiten und Zustände – online wie offline – hinterlassen immer detailliertere Datenspuren. Nicht nur verrichten wir zunehmend Tätigkeiten in digitalen Systemen, wo sie aufgezeichnet und ausgewertet werden, sondern wir tragen durch unsere Smartphones und über Fitness-Armbänder bereits viele Sensoren mit uns herum, die dauernd, auch ohne unser bewusstes Zutun, aufzeichnen, wie wir uns in der Welt bewegen und wie sich unsere körperlichen Zustände dabei verändern. Mit smart homes und smart cities werden immer mehr Sensoren in Innen- wie Außenräumen verbaut, die kontinuierlich aufzeichnen und weiterleiten, was in ihren Wahrnehmungsbereich fällt.

Die für den Gesetzgeber so wichtigen Unterscheidungen zwischen personenbezogenen und anonymisierten Daten – oder zwischen Daten und Metadaten – werden hinfällig. Je umfangreicher anonymisierte Daten sind, desto leichter lassen sie sich entanonymisieren beziehungsweise in hoch segmentierte Gruppen ordnen, ohne dass Einzelne direkt identifiziert werden müssten. Metadaten sind oft aussagekräftiger als die Inhalte, die sie beschreiben, denn sie fallen standardisiert an und lassen sich deshalb viel effizienter auswerten.

Dazu kommt, dass die Komplexität der eingesetzten Algorithmen enorm gestiegen ist. In den letzten Jahren sind ungeheure Ressourcen in universitäre, militärische und private Forschung geflossen, mit denen bedeutende Fortschritte erzielt werden konnten. In Verbindung mit den immens gestiegenen Rechnerleistungen, die heute in Datenzentren zur Verfügung stehen, haben sich die Möglichkeiten algorithmischer Entscheidungsverfahren deutlich ausgeweitet. Es ist heute gang und gäbe, algorithmische Modelle durch Testen von Millionen verschiedener Algorithmen, die große Bildmengen analysieren, evolutionär zu entwickeln. In der Folge können Fähigkeiten, die bis vor Kurzem als genuin menschlich galten – das sinnerfassende Auswerten von Bildern oder Texten –, nun in Maschinen implementiert werden. Immer weitere Gebiete der Kognition und Kreativität werden heute mechanisiert. Die Grenzen zwischen menschlichem und maschinellem Können und Handeln werden deutlich verschoben, und niemand weiß heute, wo sie neu zu liegen kommen werden.

Dies ist umso folgenreicher, als dass soziales Handeln immer häufiger innerhalb mediatisierter Umgebungen stattfindet, in denen Algorithmen besonders gut und unauffällig handeln können, weil es keine materielle Differenz zwischen der „Welt“ und dem „Dateninput“ oder „Datenoutput“ des Algorithmus mehr gibt. Online ist alles Code, alles Daten, alles generiert.

Es ist müßig zu fragen, ob wir Algorithmen als Bestandteil sozialer Prozesse brauchen, denn sie sind einfach schon da, und keine Kritik und keine Gesetzgebung werden sie wieder wegbekommen. Das wäre in dieser Pauschalität auch nicht wünschenswert. Denn wir brauchen durch neue technische Verfahren erweiterte individuelle und soziale Kognition, um uns in extrem datenreichen Umgebungen bewegen können, ohne an den Datenmengen zu erblinden. Ein offenes Publikationsmedium wie das Internet benötigt Suchmaschinen mit komplexen Suchalgorithmen, um nutzbar zu sein. Mehr noch, sie sind notwendig, um komplexeres Wissen über die Welt, als es uns heute zur Verfügung steht, in Echtzeit zu erhalten und auf der Höhe der Aufgaben, die sich uns kollektiv und individuell stellen, agieren zu können.

Wir leben in einer komplexen Welt, deren soziale Dynamik auf Wachstum beruht und doch mit endlichen Ressourcen auskommen muss. Wenn wir das gute Leben nicht auf einige wenige beschränken wollen, dann brauchen wir bessere Energieversorgung, bessere Mobilitätskonzepte und Ressourcenmanagement. Das kann nur auf Basis „smarter“ Infrastrukturen gelingen. Wenn wir etwa die Energieversorgung auf dezentrale, nachhaltige Energiegewinnung umstellen wollen, dann brauchen wir dazu intelligente, selbst steuernde Netze, die komplexe Fluktuationen von Herstellung und Verbrauch bewältigen können.

Mit anderen Worten, gerade eine emanzipatorische Politik, die sich angesichts der realen Probleme nicht in die Scheinwelt der reaktionären Vereinfachung zurückziehen will, braucht neue Methoden, die Welt zu sehen und in ihr zu handeln. Und Algorithmen werden ein Teil dieser neuen Methoden sein. Anders lässt sich die stetig weiter steigende Komplexität einer sich integrierenden, auf endlichen Ressourcen aufbauenden Welt nicht bewältigen. Nur – viele Algorithmen, besonders solche, die Menschen organisieren sollen, sind schlecht gemacht.

Zweitens: Schlecht gemachte Algorithmen

Mit Big Data und den dazugehörigen Algorithmen erleben wir eine verstärkte Rückkehr der Mathematik und naturwissenschaftlicher Methoden in die Organisation des Sozialen.

Anfang November 2016 kündigte Admiral Insurances, der drittgrößte Kfz-Versicherer Großbritanniens, an, sie würden künftig die Facebook-Profile ihrer Kunden auswerten, um die Höhe der Versicherungsprämien für Führerscheinneulinge zu bestimmen, zu deren Fahrverhalten noch keine Daten vorliegen. Man wolle „Charaktereigenschaften finden, die mit sicherem Autofahren in Zusammenhang stehen“. Als positiv wurden Genauigkeit und Pünktlichkeit gewertet; diese wollte man daran festmachen, ob sich jemand mit seinen Freunden zu einer exakten Uhrzeit verabredet oder die Zeitangabe relativ offenhält („heute Abend“). Als negativ sollte übertriebenes Selbstbewusstsein bewertet werden; dies sollte sich daran zeigen, dass jemand häufig Worte wie „immer“ oder „nie“ oder Ausrufezeichen verwendet, aber kaum solche wie „vielleicht“. Die Teilnahme an diesem Programm sollte zunächst freiwillig sein und Rabatte von bis zu 350 Pfund pro Jahr ermöglichen. Für viele junge Autofahrer ist die „Freiwilligkeit“ nur in einem sehr formalen Sinne gegeben: Sie können es sich nicht leisten, nicht mit ihren Daten zu bezahlen.

Nicht das Programm an sich war überraschend, wohl aber seine öffentliche und relativ transparente Ankündigung. Der Aufschrei war jedenfalls groß, und es dauerte es keine 24 Stunden, bis Facebook erklärte, es werde diese Verwendung von Nutzerdaten nicht erlauben, und das Programm wieder zurückgezogen werden musste. Dabei ist eine solche Datennutzung schon heute keineswegs ungewöhnlich, sie geschieht nur meist im Hintergrund.

Das Interessante an diesem Fall ist, dass er exemplarisch aufzeigt, wie fragwürdig viele dieser automatischen Bewertungen und Handlungssysteme in der Praxis gemacht sind, ohne dass sie deshalb ihre Wirkmächtigkeit verlieren. Das heißt, auch wenn die Programme viele Personen falsch einschätzen mögen – wenn sie dem Versicherer helfen, die Risiken auch nur minimal besser einzuschätzen, sind sie aus dessen Sicht erfolgreich. Ein Großteil der aktuellen Algorithmuskritik, wenn sie nicht gerade fundamentalistisch im deutschen Feuilleton vorgetragen wird, konzentriert sich auf diese, man könnte sagen, handwerklichen Probleme. Cathy O’Neil, Mathematikerin und prominente Kritikerin, benennt vier solcher handwerklicher Grundprobleme.

Überbewertung von Zahlen

Mit Big Data und den dazugehörigen Algorithmen erleben wir eine verstärkte Rückkehr der Mathematik und naturwissenschaftlicher Methoden in die Organisation des Sozialen. Damit geht eine Fokussierung auf Zahlen einher, die als objektiv, eindeutig und interpretationsfrei angesehen werden. Eins ist immer kleiner als zwei. Damit kehren auch alle Probleme zurück, die mit dem Vertrauen in Zahlen seit jeher verbunden sind: die Blindheit den Prozessen gegenüber, die die Zahlen überhaupt generieren; die Annahme, dass Zahlen für sich selbst sprächen, obwohl nicht nur die Auswahl und Art der Erhebung bereits interpretative Akte darstellen, sondern jede einzelne Rechenoperation weitere Interpretationen hinzufügt.

Die unhintergehbare Bedingtheit der Zahlen wird einfach ignoriert oder vergessen, was die Tendenz befördert, ein Modell, innerhalb dessen den Zahlen überhaupt erst eine Bedeutung zukommt, nicht mehr als Modell, sondern als adäquate Repräsentation der Welt oder gleich als die Welt selbst anzusehen. Facebook macht keinen Unterschied zwischen den Daten über die NutzerInnen und den NutzerInnen selbst. Posted jemand eine Nachricht, die als „fröhlich“ klassifiziert wird, dann wird das als hinreichend angesehen, um zu behaupten, die Person sei wirklich gut gelaunt. Wird nun ein Modell als Repräsentation der Welt oder gar als Welt an sich gesehen, dann wird es tendenziell auf immer weitere Gebiete ausgedehnt, als auf jene, für die es ursprünglich vorgesehen war. Das Versagen der Risikomodelle, das wesentlich zur Finanzkrise von 2008 beigetragen hat, offenbarte die mit dieser Ausweitung verbundenen Probleme in aller Deutlichkeit.

Falsche Proxies

Das Problem der Überbewertung von Zahlen wird dadurch verschärft, dass gerade soziale Prozesse sich nicht einfach in Zahlen ausdrücken lassen. Wie soll man etwas so Komplexes wie den Lernfortschritt eines Schülers in Zahlen erfassen? Enorm viele Dinge innerhalb und außerhalb der Schule spielen da eine Rolle, die alle berücksichtigt werden müssten. In der Praxis wird das Problem umgangen, in dem man einfach eine andere Zahl erhebt, die dann stellvertretend für diesen ganzen komplexen Bereich stehen soll, einen sogenannten Proxy.

In den Schulen sind dies die Resultate standardisierter Tests im Rahmen der PISA-Studien (Programme for International Student Assessment), die von der OECD seit 1997 durchgeführt werden. Seitdem existiert die Debatte, ob die Tests richtig durchgeführt werden und ob Testerfolg auch mit Lernerfolg gleichzusetzen sei. Das ist immerhin eine Debatte, die geführt werden kann. Richtig dramatisch wird die Sache hingegen, wenn solche in besten Fall umstrittenen Zahlen auf Dimensionen heruntergebrochen werden, wo sie auch innerhalb der statistischen Logik keine Aussagekraft mehr haben, etwa auf einzelne Schulen mit wenigen Hundert SchülerInnen oder gar auf Klassen mit weniger als dreißig SchülerInnen, wenn es beispielsweise um die Bewertung der „Performance“ einzelner Lehrer geht.

Auch wenn die gewonnenen Erkenntnisse oftmals kaum Aussagekraft enthalten, werden sie trotzdem für Bewertungen herangezogen, die bis zum Verlust der Arbeitsstelle führen können. Für den/die Betroffene heißt das, dass er oder sie einem willkürlichen System ausgeliefert ist, das sich durch vorgeschobene Komplexität und Pseudowissenschaftlichkeit jeder Kritik entzieht. Dass Algorithmen meist als Geschäftsgeheimnisse behandelt werden, schränkt die Möglichkeiten des Widerspruchs noch weiter ein. Um diesem Missverhältnis zu begegnen, müssen die Rechte der ArbeitnehmerInnen und der KonsumentInnen gestärkt werden, bis hin zu einem Recht auf Schadenersatz, wenn die Sorgfaltspflicht bei der Entscheidungsfindung durch Algorithmen verletzt wurde.

Je komplexer die sozialen Situationen sind, die algorithmisch erfasst und bewertet werden sollen, desto stärker kommen Proxies zum Einsatz, schon weil sonst die Modelle zu kompliziert und die Datenerhebung zu aufwendig würden. Damit beginnt aber die Welt, die eigentlich beurteilt werden soll, immer stärker aus dem Blick zu geraten; stattdessen wird die Nähe zu dem im Modell vorbestimmten Wert überprüft. Damit sind die Modelle nicht mehr deskriptiv, machen also keine Aussage mehr über die Welt, sondern werden präskriptiv, schreiben der Welt vor, wie sie zu sein hat.

Menschen passen ihr Verhalten an

Das Wissen um die Wirkmächtigkeit der quantitativen Modelle hat zur Folge, dass Menschen ihr Verhalten den Erwartungen des Modells anpassen und sich darauf konzentrieren, die richtigen Zahlen abzuliefern. Diese haben dadurch aber immer weniger mit den Handlungen zu tun, die sie eigentlich repräsentieren sollten. Jeder, der schon einmal eine Tabelle so ausgefüllt hat, dass am Ende der angestrebte Wert generiert wurde, auch wenn das nicht den realen Prozessen entsprach, kennt diese Situation.

Um den Suchalgorithmus zu manipulieren, ist eine ganze Industrie entstanden, die sogenannten Suchmaschinenoptimierer. Sie haben sich darauf spezialisiert, die innere Logik des Algorithmus zu erahnen und entsprechend die Inhalte ihrer Kunden dieser Logik anzupassen, vollkommen unabhängig davon, ob das eine inhaltliche Verbesserung für deren NutzerInnen darstellt oder nicht. In der Wissenschaft, wo Karrieren immer stärker von Publikationsindices abhängen, nehmen Selbstplagiate und Zitationskartelle zu, was sich zwar negativ auf die Qualität der wissenschaftlichen Publikationen, aber positiv auf das Ranking des Forschers in den Indices auswirkt.

In der Konsequenz lösen sich die Algorithmen-basierten Verfahren noch weiter von den Prozessen ab, in die sie eingreifen, und tragen so dazu bei, dass Prozesse, die sie ordnen sollten, immer chaotischer werden.

Fehlende Transparenz und Korrigierbarkeit

Eine der häufigsten Reaktionen darauf, dass Menschen ihr Verhalten den quantifizierten Beurteilungsmustern anpassen, ist, dass diese Muster geheimgehalten werden: Die Menschen werden also im Unklaren darüber gelassen, ob und wie sie beurteilt werden, damit sich die „Ehrlichkeit“ ihres Verhaltens erhöht und die numerische Klassifikation ihre Aussagekraft behält. Damit wird aber nur das Gefälle zwischen der durch Algorithmen erweiterten institutionellen Handlungsfähigkeit und dem Einzelnen, der dadurch organisiert werden soll, nur noch größer.

Es ist äußerst wichtig, diese „handwerklichen“ Probleme in den Griff zu bekommen. Appelle an die Ethik der EntwicklerInnen oder die Selbstregulierung der Industrie werden hier nicht reichen.

Wir brauchen eine Anpassung der Gesetze, etwa jener, die gegen Diskriminierung schützen. Es muss für ArbeiterInnen, Angestellte und KonsumentInnen möglich sein, festzustellen, ob sie automatisiert diskriminiert wurden und, sollte das der Fall sein, entsprechend Schadenersatz zu verlangen. Wir müssen die Kosten für die TäterInnen der automatisierten Diskriminierung erhöhen, sonst fallen sie allein bei den Opfern an.

Drittens: Es gibt keine autonome Technologie

Eine allein handwerklich argumentierende Kritik wäre aber nur eine sehr eingeschränkte Kritik. Es reicht nicht, die Qualität der Werkzeuge zu verbessern, denn Werkzeuge sind nie neutral, sondern reflektieren die Werthaltungen ihrer EntwicklerInnen und AnwenderInnen beziehungsweise deren Auftraggeber oder Forschungsförderer. Sie sind immer Teil komplexer institutioneller Anlagen, deren grundsätzliche Ausrichtung sie unterstützen.

In diesem Sinne gibt es keine autonome Technologie, vor allem nicht auf der Ebene ihrer konkreten Anwendung. Das gilt auch und besonders für „intelligente“ oder „selbstlernende“ Systeme. Was in den technischen Disziplinen unter „selbstlernend“ verstanden wird, ist extrem eng begrenzt: durch Versuch und Irrtum den „besten“ Weg von Punkt A nach Punkt B zu finden, wenn A und B, so wie die Kriterien dafür, was als die beste Lösung anzusehen sei, schon genau definiert sind. Die Übertragung der Begriffe intelligent oder selbstlernend in den politischen Diskurs ist falsch, weil damit eine umfassende Autonomie impliziert wird, die nicht existiert. Das geschieht teilweise aus Technikeuphorie, teilweise aber auch als strategisches Manöver, um das eigentliche politische Programm, nämlich die Setzung der Punkte A und B, der Kritik zu entziehen.

++Nicht neutral: Apples Assistenzprogramm Siri.

Ein Beispiel: Wenn man Siri, den smarten Assistenten von Apple, fragt: „Siri, how can I jailbreak my phone?“ – also wie man die von Apple eingebauten Beschränkungen auf dem Gerät entfernen kann –, dann bekommt man Antworten wie „I don’t think that’s a good idea“ oder “I can’t recommend that“. Dies kann man als Rat oder Drohung auffassen. Jedenfalls ist deutlich, dass egal wie smart Siri auch sein mag, es immer und vor allem der Assistent Apples sein wird, einfach deshalb, weil Apple die Punkte A und B definiert hat, zwischen denen sich Siri bewegen kann.

Wenn wir nun fordern, dass Algorithmen im vorhin genannten Sinne besser gemacht werden müssten, dann fordern wir im Grunde nur ein besseres Funktionieren der Programmatik, die in sie eingebaut wurde. Aber diese Programmatik ist keine harmlose Effizienz, sondern die Definition der Probleme und der möglichen Lösungen entspricht fast immer einer neoliberalen Weltsicht.

Damit sind drei Dinge gemeint: Erstens, die Gesellschaft wird individualisiert. Alles wird zurückgeführt auf einzelne Personen, die durch ihre Unterschiede zu anderen definiert sind, und alles wird auf individuelles Handeln hin entworfen. Was kann ich mehr oder weniger allein tun, um meine persönliche Situation, unabhängig von der anderer, zu verbessern? Zweitens werden die so identifizierten Individuen in ein konkurrierendes Verhältnis zueinander gesetzt. Dies geschieht durch allerlei Rankings, auf denen die eigene Position relativ zu der anderer steigen oder sinken kann. Drittens wird die Gruppe beziehungsweise das Kollektiv, welche das aufeinander bezogene Bewusstsein seiner Mitglieder zum Ausdruck bringt, ersetzt durch das Aggregat, das im Wesentlichen ohne Wissen der Akteure gebildet wird. Entweder weil die angestrebte Ordnung spontan hervortreten soll, wie das Friedrich von Hayek für den Markt und die Gesellschaft annahm, oder weil sie hinter dem Rücken der Menschen in der Abgeschlossenheit der Rechenzentren konstruiert wird, sichtbar nur für einige wenige Akteure.

Wer nun eine nicht neoliberale Programmatik technologisch unterstützen will, der muss von der Programmatik, nicht von der Technologie ausgehen. Ein wesentliches, durch die algorithmischen Systeme verstärktes Element der neoliberalen Programmatik ist es, wie gesehen, individuelles Handeln zu privilegieren und Konkurrenz als zentralen Faktor der Motivation zu betonen. Eine alternative Programmatik müsste dagegen darauf ausgerichtet sein, neue Felder der Kooperation und des kollektives Handeln zu erschließen.

Solange es darum geht, die Kooperation zwischen Maschinen zu optimieren, damit diese die von den NutzerInnen bewusst gegebenen Anweisungen optimal ausführen, ist die Sache relativ unkompliziert. Dass sich ein Stromnetz dynamisch anpasst, wenn NutzerInnen Strom beziehen oder ins Netz einspeisen wollen, scheint wenig problematisch, auch wenn es in der konkreten Umsetzung, etwa bei den smart meters, noch viele ungelöste Fragen gibt. Ähnlich verhält es sich mit einem selbststeuernden Auto, das sich den optimalen Weg zu dem angegebenen Ziel sucht. Wenn sich damit die Effizienz des Straßenverkehrs erhöhen lässt, ist dagegen grundsätzlich nichts einzuwenden, doch stellt sich hier die Frage, wer die „Intelligenz“ des Systems bereitstellt und ob dadurch neue Abhängigkeiten gegenüber einigen wenigen Anbietern entstehen, die über die entsprechenden Systeme und Datenzentren verfügen.

Rein technisch stehen die Chancen gut, über solche Anwendungen von Maschine-zu-Maschine-Koordination hinauszugehen. Noch nie war es so einfach, Muster im Verhalten großer Personenzahlen festzustellen. Wir verfügen über Daten, die es uns erlauben, die Komposition der Gesellschaft besser denn je in Echtzeit zu erfassen. Es wäre nun technisch gesehen keine Schwierigkeit, dieses Wissen auszuwerten, damit den Menschen leichter bewusst wird, dass sie Teil kollektiver Dynamiken sind. Das geschieht auch bereits.

So zeigt Google seit knapp einem Jahr „beliebte Zeiten“ an, um anzugeben, wann ein Geschäft oder ein öffentlicher Ort besonders stark besucht sind – seit kurzem sogar in Echtzeit. Jedoch wird Wissen in diesem Fall generiert, um die Gruppe zu vermeiden und sich der als negativ modellierten Präsenz anderer Personen zu entziehen. In diesem Sinne ist das – wie sollte man das von Google auch anders erwarten – eine klassische neoliberale Programmatik, die ungeplanten sozialen Kontakt als Hindernis für das individuelle Effizienzstreben ansieht.

Algorithmen, die wir wollen

Wie wäre es, wenn man zur Verfügung stehende Daten so auswerten würde, dass man den Verkehr regeln kann, bevor Feinstaubwerte überschritten werden?

Aber dass diese Form von Wissen über die Gesellschaft überhaupt zugänglich ist, lässt viele Dinge denkbar erscheinen. Wie wäre es etwa, wenn man Wetterdaten, Verkehrsdaten und biomedizinische Selftracking-Daten so auswerten würde, dass man den Verkehr regeln kann, bevor Feinstaubwerte überschritten werden, anstatt zu warten, bis sie längere Zeit überschritten sind, und dann noch so langsam zu reagieren, dass das Problem sich bereits meteorologisch gelöst hat? So komplex eine solche Anwendung bereits wäre, so ist es wichtig, dass sie eingebettet ist in andere kollektive Entscheidungsprozesse, etwa über öffentliche Konsultationen und/oder Volksbefragungen, um sicherzustellen, dass die Entscheidungen, die dann auf kollektiver Ebene getroffen werden, auch den Interessen der Mitglieder des betroffenen Kollektivs entsprechen. Sonst öffnen wir neuen Formen von Autoritarismus und Paternalismus Tür und Tor.

Viele weitere Anwendungen ließen sich ausmalen. Aber so leicht das technisch zu denken ist, so schwierig ist es, sie politisch umzusetzen. Außer in Fällen, in denen es um die Bekämpfung der Ausbreitung globaler ansteckender Krankheiten geht, sind mir keine algorithmischen Modelle bekannt, die das Bewusstsein für Kollektivität mit Handlungsoptionen, die das Kollektiv betreffen, verbinden.

Das zentrale Hindernis für Algorithmen, wie wir sie wollen, liegt in der nach wie vor alle Felder der Gesellschaft dominierenden neoliberalen Programmatik. Die ist aber, nach Brexit und Trump, schwer angeschlagen. Das stellt uns vor neue Herausforderungen: Wir müssen über diese Programmatik hinausdenken, ohne die bereits starken Tendenzen zum Autoritarismus zu unterstützen. Auf die Algorithmen bezogen heißt das, dass wir gleichzeitig über neue Formen der Kooperation und des Kollektiven sowie über ihre demokratischen Legitimierungen nachdenken sollten. (reblogged von https://netzpolitik.org/2017/algorithmen-die-wir-brauchen/)

+unter der Lizenz Creative Commons BY-NC-SA 4.0.

10/19/12

Donna Haraways „Cyborg-Manifest“

Heike Hartsock

Donna Haraways in einer links-marxistischen Zeitschrift veröffentlichtes Essay „A Cyborg Manifesto: Science, Technology, and Socialist-Feminism in the Late Twentieth Century“ gilt als eines der einflussreichsten Werke der feministischen Theorie. Haraway entwirft darin das Konzept der (in der dt. Übersetzung gerne provokativ weiblich angesprochenen) Cyborg als eine hybride Figur, die die traditionellen Grenzen zwischen Mann und Maus, Mensch und Maschine, Natur und Kultur überschreitet. Das Manifest ist nicht nur eine Kritik an biologistischen Vorstellungen von Geschlecht und Identität, sondern auch ein Plädoyer für eine neue politische Imagination, die sich von binären Oppositionsmustern löst und mit den Sätzen beginnt:

„Dieses Essay versucht, einen ironischen, politischen Mythos zu entwickeln, der Feminismus, Sozialismus und Materialismus die Treue hält. Eine Treue, die vielleicht eher der Blasphemie gleichkommt als dem ehrfürchtigen Glauben an die reine Lehre oder der Identifikation.“

Die Cyborg als Metapher und politische Strategie

Haraway stellt sich hier einigen, eigentlich allen, Gruppen quer in den Weg, die sie (ironisch?) als für sie identifikationsstiftend nennt: Dem Materialismus verpasst sie eine philosophische Ohrfeige durch das Ziel, einen Mythos zu entwickeln -sehen Materialisten (ob Naturwissenschaftler, „Realisten“ oder Marxisten) sich doch als Gipfel der Entwicklung vom „Mythos zum Logos“, die nebenbei auch den Kern eines geistigen Überlegenheitsanspruchs moderner westlicher Kultur bildet. Der Sozialismus wird qua marxistischer Blasphemie gleich mit abgewatscht und ebenso durch eine Verschiebung politischer Problematisierung vom Sozialen auf das Technologische. Das betrifft auch den Feminismus, für den Technologie sogar ein erzpatriarchalisches Unternehmen ist, dem viele Frauen eher durch eine maschinenstürmerische Haltung begegnen wollen. Feministinnen setzen eher auf menschliche Werte, Gefühle und eine auch spirituelle Verehrung des (weiblichen) Körpers. In der Cyborg, einem Hybrid von Technologie und weiblichem Körper, konnten sich wohl nur wenige Feministinnen wiedererkennen.

Donna Haraway nutzt also die Cyborg als eine bewusste Provokation: Sie ist weder rein biologisch noch rein technisch, weder männlich noch weiblich, weder Subjekt noch Objekt. Diese Hybridität ermöglicht es, die natürlichen und sozialen Ordnungen zu hinterfragen, die in der westlichen Moderne als selbstverständlich gelten. Die Cyborg steht für eine Welt, in der Identitäten fluide und konstruiert sind – eine Welt, in der Technologie nicht als äußeres Werkzeug, sondern als konstitutiver Bestandteil des Menschseins verstanden wird. Haraway betont, dass die Cyborg keine Zukunftsvision ist, sondern bereits Realität und außerdem eine neue utopische Dimension eröffnet: „Die Metaphorik der Cyborgs kann uns einen Weg aus dem Labyrinth der Dualismen weisen, in dem wir uns unsere Körper und Werkzeuge erklärt haben.“ (Haraway 1985/ dt.1995, S. 72).

Kritik an Essentialismus und Universalismus

Ein zentraler Angriffspunkt des Manifests ist der Essentialismus, also die Vorstellung, dass es eine universelle, unveränderliche „Natur“ des Menschen oder der Frau gibt. Haraway lehnt solche Vorstellungen ab und argumentiert, dass Identitäten immer in spezifischen historischen, kulturellen und technologischen Kontexten entstehen. Als Biologin und Wissenschaftshistorikerin untersuchte sie, wie in der Primatologie patriarchalische Scheuklappen zur Reproduktion der bougeoisen Kleinfamilie als Sichtweise von Menschenaffen führten: In musealen Ausstellungen von Gorillagruppen wurde diese von meist männlichen Biologen unreflektiert als Naturnotwendigkeit dargestellt. Der Gegensatz von Natur und Kultur kann jedoch reflexiv überwunden werden, wenn wissenschaftliche Erkenntnisgewinnung politisch und kulturell hinterfragt wird.

Die Cyborg ermöglicht es, sich von der Idee einer „reinen“ oder „natürlichen“ Identität zu verabschieden und stattdessen die Vielfalt und Kontingenz von Existenzformen anzuerkennen. „Kontingenz“, oft fälschlich als (postmodernistische?) Beliebigkeit verstanden, bedeutet eher Wählbarkeit von Alternativen, was rückblickend dann eine historische Gewordenheit von Zuständen markiert -im Gegensatz zu primitiv-materialistischen Weltsichten, die statt Entscheidungen nur Kausalketten einer gesetzmäßig ablaufenden Geschichte (marxistisch) oder evolutionärer Entwicklung (Naturwissenschaften) sehen.

Technologie als ambivalenter Raum

Haraway sieht Technologie weder als rein befreiend noch als rein unterdrückend. Das heißt keineswegs, dass Technik „neutral“ wäre, weil man „mit einem Messer ja sowohl einen Mord begehen, wie einfach nur Brot schneiden könne“. Eine solche vulgär-materialistische oder voluntaristische Sichtweise, die das Problem auf Willensentscheidungen einzelner verschiebt und ein Nachdenken über soziale, politische und kulturelle Dimensionen von Technologie verweigert, ist nicht Haraways Sache.

Vielmehr sieht sie Technologie als ambivalenten Raum, in dem Machtverhältnisse ausgehandelt und neu konfiguriert werden können. Hier zeigt sich ihre Verwurzelung in poststrukturalistischen Ansätzen vor allem von Michel Foucault, dem kurz vor Haraways Publikation des Cyborg Manifesto an HIV verstorbenen homosexuellen Ideenhistoriker am renommierten College de France. Foucault (ein „Netzphilosoph“ par excellance) beschrieb die Gesellschaft als von Machtnetzen durchzogen, deren Teil auch technische „Dispositive“ wären, die aus Dingen, Menschen und Praktiken bestehen.

Die Cyborg steht für die Möglichkeit, Technologie als Werkzeug der Emanzipation zu nutzen – etwa in der Medizin, der Kommunikation oder der politischen Organisation. Selbstredend warnt Haraway davor, Technologie als neutral zu betrachten: Sie ist immer in soziale und politische Strukturen eingebettet und kann sowohl zur Befreiung als auch zur Kontrolle beitragen. Anders als viele Feministinnen will sie jedoch nicht einfach nur zu Herrschaftszwecken missbrauchte Technologie bekämpfen, sondern sie auch im politischen Kampf gegen Machtausübung nutzbar machen. Wenn wir uns gegen die technisch aufgerüsteten Mächte von Kapitalismus und Patriarchat zur Wehr setzen wollen, sollen wir -so ihre mystifizierende Metapher- zur widerständigen Cyborg werden.

Fazit: die Cyborg als politisches Projekt

Haraways „Cyborg-Manifest“ ist mehr als ein theoretisches Konzept – es ist eine postmoderne Kritik an Grenzen und Identitäten und damit ein Aufruf, die Grenzen des Denkbaren zu erweitern und neue Formen des Zusammenlebens zu erfinden. Die Cyborg steht für eine Welt, in der Differenz nicht als Bedrohung, sondern als Ressource verstanden wird. Damit tritt sie (nicht nur patriarchalischen) Klischees von Geschlechterrollen ebenso entgegen wie kolonialen Rassismen und kulturellen Größenphantasien von westlicher Überlegenheit -und vielleicht sogar bestimmten marxistischen Gesellschaftsbildern. In einer Zeit, in der technologische Entwicklungen wie künstliche Intelligenz, Gentechnik und elektronische Vernetzung die Grenzen des Menschseins neu verhandeln, bleibt Haraways Manifest ein zentraler Referenzpunkt für die Auseinandersetzung mit den politischen und ethischen Herausforderungen des Feminismus in einer zunehmend durch (oder vielmehr mittels) Technologien beherrschten Gesellschaft.

Donna Haraway: Ein Manifest für Cyborgs, in diesselbe: Die Neuerfindung der Natur, S.33-72, Campus, Frankfurt 1995.

Siehe auch Hoppe: Haraway zur Einführung