03/7/24

Digitale Mündigkeit

Leena Simon

Computer sind komplex. Sie bis ins letzte Detail zu verstehen, grenzt an Unmöglichkeit. Doch wer Wert auf ein freies und selbstbestimmtes Leben legt, kommt um ein Mindestmaß an Computerverständnis nicht umhin. Denn die Digitalisierung würfelt unsere Gesellschaft ganz schön durcheinander. Damit wir für die technischen Entwicklungen als Gesellschaft Verantwortung übernehmen können, sollten wir unabhängig davon entscheidungsfähig sein. Um mündig zu sein ist es nicht nötig, alles immer und in jedem Augenblick perfekt zu machen. Digitale Mündigkeit bedeutet Verantwortung für das eigene Handeln im digitalen Raum selbst zu tragen.

Was ist digitale Mündigkeit?

„Mündigkeit“ ist zunächst ein Rechtsbegriff. Er bedeutet, dass ein Mensch verantwortlich für sein Leben ist. Historisch leitet er sich ab von altdeutsch Munt, der Bezeichnung für die Verantwortung des früheren Hausherren über seine Frau, Kinder und Gesinde. Mündig konnten damals nur Männer werden, nämlich dann, wenn sie aus der Munt des Vaters heraustraten und für ihr eigenes Leben Verantwortung übernahmen. Frauen gingen über von der Munt des Vaters in die Munt des Ehemannes. Heute ist Mündigkeit vor allem ein rechtlicher Status, der einem Menschen z.B. das Wahlrecht oder das Recht, die Ehe einzugehen, zuspricht.

Mündig sein bedeutet Verantwortung für das eigene Leben zu tragen.

Neben der rechtlichen Bedeutung gibt es auch eine philosophische Definition von Mündigkeit. Immanuel Kant griff den rechtlichen Begriff auf und wendete ihn auf eine ganze Gesellschaft an. Er vergleicht die Geschichte der Menschheit mit dem Heranreifen eines Kindes. Damit legte die Aufklärung die Grundlagen der modernen Demokratie.

Wir tragen also doppelte Verantwortung: Für unser eigenes Leben und für den Fortbestand unserer Gemeinschaft. Dieser Verantwortung müssen wir uns bewusst sein, vor allem dann, wenn wir uns im Internet bewegen. Denn wir tragen ebenfalls Verantwortung für den Fortbestand unserer Kommunikationsgemeinschaft..

Doch Kant warnte damals schon, dass es nicht möglich sei, ad hoc mündig zu werden, wenn man zuvor noch gar nicht frei war. Mündigkeit ist Übungssache. Auch in der digitalen Welt: Menschen werden mit unfreier und komplizierter Software konfrontiert, die ihnen gar nicht die Möglichkeit bietet, deren Funktionsweise zu studieren. Der Umgang mit dem Computer wird oft nur minimal und oberflächlich antrainiert und später nicht mehr hinterfragt.

Heimliche Entmündigung

Meist nehmen wir gar nicht mehr so deutlich wahr, wo und wie wir überall entmündigt werden. Wenn wir einen Kredit nicht erhalten, weil uns eine Datenbank (anhand der statistischen Eigenschaften unserer Nachbarn) als nicht zuverlässig eingestuft hat, oder einen Job nicht antreten dürfen, weil wir vermeintlich Asthmatiker sind (dabei hatten wir nur für den Vater die Medikamente gekauft): Wir kennen diese Gründe nicht und können daher nicht beurteilen, wie sehr die weltweite Datensammlung schon unseren Alltag beeinflusst. Wie soll man da noch Verantwortung für das eigene Leben übernehmen?

Die Filterblase

Um im großen Datendickicht den Überblick zu wahren, wird im Internet – auch zu unserem Nutzen – vieles für uns personalisiert. Beispielsweise die Suchergebnisse, werden von der Suchmaschine auf uns optimiert. Das ist praktisch, denn so findet man viel schneller das, was man wirklich sucht. Doch es ist auch problematisch, da wir meist nur stets das angezeigt bekommen, was wir schon kennen.

Eli Pariser nennt das die „Filterblase“. Treffer, die unsere Gewohnheiten angreifen, oder eine Gegenposition zu unserer Meinung darstellen, sehen wir immer seltener. Und so bewegen wir uns mehr und mehr in einer Umgebung, die nur scheinbar neutral die Realität darstellt: In Wirklichkeit befinden wir uns in einer Blase, die uns die eigene Weltvorstellung als allgemeingültig vorspielt. Und das ist Gift für einen freien Geist, der sich ständig hinterfragen und neu ausrichten können möchte. In Konflikten liegt großes Wachstumspotential, um das wir uns berauben, wenn wir vor lauter Bequemlichkeit andere Meinungen einfach ausblenden.

Verantwortungsbewusstsein

Gegen Personalisierung und heimliche Entmündigung können wir uns zunächst nicht wehren. Daher ist es besonders wichtig, sich diese Phänomene stets ins Bewusstsein zu rufen. Wer sich dabei erwischt, ein Google-Ergebnis unterbewusst als „neutrale Suche“ verbucht zu haben, ist schon einen Schritt weiter, als wer noch immer glaubt, sie sei tatsächlich neutral.

Der erste und wichtigste Schritt in die digitale Mündigkeit ist Verantwortungsbewusstsein. Verantwortung tragen bedeutet nicht, immer alles richtig zu machen, sondern die richtigen Fragen zu stellen und sich mit den Konsequenzen des eigenen Handelns zu konfrontieren. Machen Sie sich stets bewusst, wie viel Ihnen nicht bewusst ist und verhalten Sie sich entsprechend. Unterstützen und schützen Sie Strukturen, die Transparenz und Offenheit ermöglichen, und hinterfragen Sie Strukturen, die Ihnen vorschreiben wollen, was Sie tun oder denken sollen. Üben Sie sich in Eigenwilligkeit, wenn Ihnen Technik Vorschriften machen möchte. Besonders wichtig dabei: Üben Sie, auch Menschen oder Systeme zu hinterfragen, denen Sie vertrauen. Das ist besonders schwer, aber genau hier sind sie besonders leicht hinters Licht zu führen.

Leena Simon: Digitale Mündigkeit. Wie wir mit einer neuen Haltung die Welt retten können, 336 Seiten, Hardcover, 32,00 EUR, ISBN: 978-3-934636-49-1

Dieses Buch weist Wege in die digitale Mündigkeit und liefert das Rüstzeug zum kritischen Denken und Handeln. Denn mit Mut, Entschlossenheit und Übung können wir wieder mündig sein. Dann finden wir auch die Lösungen für die Herausforderungen unserer Zeit. Online bestellen oder mit der ISBN: 978-3-934636-49-1 im Buchhandel bestellen. Buchvorstellung im Blog von Digitalcourage.

Dieser Beitrag wurde nach CC by sa 4.0 rebogged von https://muendigkeit.digital/

11/15/23

Brüssel: Aktivistischer Besuch

Petition gegen die Chatkontrolle überreicht

Konstantin Macher

Wir waren im Oktober mit Aktivist.innen der Kampagne „Stop Scanning Me“ aus 13 europäischen Ländern in Brüssel und haben Europaabgeordneten Unterschriften gegen die Chatkontrolle überreicht.

Stop Scanning Me-Kampagne

Im Rahmen der „Stop Scanning Me“-Kampagne (Übersetzt in etwa: Hört auf, mich zu scannen) hat unser europäischer Dachverband EDRi (European Digital Rights) die Reise von Freiwilligen aus ganz Europa zu einer Aktion im Europäischen Parlament ermöglicht. Drei Tage lang trafen sich Aktivist.innen aus Griechenland, Italien, der Tschechischen Republik, Österreich, Schweden, Finnland, Norwegen, Portugal, Dänemark, Rumänien, Deutschland, Spanien und Frankreich mit Abgeordneten des Europäischen Parlaments. Wir sprachen über die Chatkontrolle (sogenannte CSA-Verordnung) und die schwerwiegenden Folgen, welche das vorgeschlagene Überwachungsgesetz für Menschen haben würde.

Zivilgesellschaft in Brüssel

Die Diskussionen im Oktober fanden vor dem Hintergrund der Veröffentlichung einer investigativen Recherche von europäischen Medienhäusern statt. Journalist.innen hatten aufgedeckt, dass Teile der Europäischen Kommission mit ihrem Gesetzesvorschlag zur Chatkontrolle Interessen einer KI-Lobby vertreten haben. Wenig später wurde außerdem bekannt, dass die für die Chatkontrolle zuständige EU-Innenkommissarin versucht hat, Druck auf kritische Regierungen auszuüben. Dafür soll sie Menschen anhand ihrer religiösen und politischen Ansichten auf Sozialen Medien gezielt mit Desinformation ins Visier genommen haben, um die öffentliche und politische Meinung in den Mitgliedstaaten zu manipulieren, in denen sich die Regierungen dem Gesetz widersetzen.

Angesichts dieser schockierenden Enthüllungen und vor der Abstimmung des Ausschusses für bürgerliche Freiheiten (LIBE) des Europäischen Parlaments über den Chatkontrolle-Vorschlag war es besonders wichtig, der Zivilgesellschaft eine Stimme in Brüssel zu geben. Aus diesem Grund hat unser Dachverband EDRi einer Gruppe von Menschen ermöglicht, nach Brüssel zu kommen, um ihre Bedenken zu diesem Gesetz direkt mit ihren gewählten Abgeordneten zu diskutieren. Mit dabei waren sowohl erfahrene, als auch neue Aktivist.innen, die sich gemeinsam bei den Abgeordneten für den Schutz unserer Grundrechte eingesetzt haben.

Dabei gelang es unserer Gruppe, sich mit mehreren Dutzend Abgeordneten des Europäischen Parlaments zu treffen. Viele der Abgeordneten zeigten sich alarmiert über die Risiken der Chatkontrolle und über die enthüllten Skandale der zuständigen Innenkommissarin Ylva Johansson.

Neben den Advocacy-Treffen, die wir mit den Abgeordneten des Europäischen Parlaments hatten, überreichten wir und die anderen Aktivist.innen die über 200.000 Unterschriften von Menschen, welche die Chatkontrolle ablehnen. Die Unterschriften wurden durch mehrere Petitionen gesammelt, z.B. in Europa von EDRi und in Deutschland von uns gemeinsam mit Campact. Darin bringen viele Menschen ihre Sorgen zur Gefahr durch die Chatkontrolle zum Ausdruck und fordern, Verschlüsselung zu schützen.
Zu den Abgeordneten, die die Unterschriften entgegennahmen und ihre Unterstützung für Verschlüsselung zum Ausdruck brachten, zählten Saskia Bricmont (Grüne/EFA), Patrick Breyer (Piratenpartei, Grüne/EFA), Tiemo Wolken (S&D) Birgit Sippel (S&D) und Alex Agius Saliba (S&D).

reblogged von https://digitalcourage.de/blog/2023/chatkontrolle-petition-bruessel

Mehr zur Chatkontrolle auf unserer Themenseite

08/30/23
Total vernetzt - Nur wer sich anschließt wird nicht ausgeschlossen.

Rezension: Braches-Chyrek u.a. (Hg.): Handbuch Kindheit, Technik und das Digitale

Thomas Barth
Was bedeuten die rasanten medialen und digitalen Transformationen für das Leben von Kindern? Diese Frage wurde „in der deutschsprachigen Kindheitsforschung bislang wenig untersucht“ (Klappentext). Das Handbuch thematisiert zentrale Zusammenhänge und interdisziplinäre Diskurse über Gesellschaft, Technik und Kindheit mit dem Ziel, emanzipatorische Bildungs- und Lernprozesse zu fördern.
Die Herausgeber*innen kommen aus den Bereichen Pädagogik, Sozialpädagogik und Soziologie, ebenso die meisten der insgesamt 26 Beiträger*innen unter denen acht aus Digitalisierungs- oder Medienwissenschaften stammen. Charlotte Röhner und Heinz Sünker, beide emiritiert, sind Nestor*innen der deutschen Kindheitsforschung, Sünker ist zudem Adorno-Experte und sein Blick auf das Digitale geprägt von der Kritischen Theorie der freudomarxistischen Frankfurter Schule. Überwiegend aus dieser kritischen Perspektive diskutiert der erste von vier Teilen des Bandes „Technik und Gesellschaft“, also die sozialen, kulturellen, pädagogischen und politischen Folgen der Digitalisierung. „Welche neuen Zugriffsmöglichkeiten auf kindliche Subjektivität ergeben sich aus der Techniknutzung und welche Widerstandspotentiale (Adorno, Erziehung zur Mündigkeit)? Welche veränderten Konzeptualisierungsansätze von Kindheitspolitik ergeben sich?“ (Verlagstext).
Soziale Aufgaben wie Wert schätzen, Bindung schaffen, Trennung verarbeiten, Grenzen setzen, Identität und Autonomie gewinnen, sie alle unterliegen durch allgegenwärtige Digitalmedien neuen Risiken, etwa prekärer Datensicherheit, leicht zugänglichen jugendgefährdenden Inhalten oder Cybermobbing. Doch das Handbuch thematisiert auch neue Chancen der Digitalmedien. Im zweiten Teil „Digitalisierung und Mediatisierung von Kindheit“ wird die Sozialisation und Kinder als Akteur*innen thematisiert. Der dritte Teil „Digitales Konstruieren, Spielen und Handeln“ legt den Fokus auf die früher meist negativ bewerteten Computer-, Video- und heute auch Online-Spiele, sucht nach kreativen Potentialen, warnt aber auch, etwa vor unreflektiertem Konsum gewalthaltiger Spiele. Der letzte Teil „Digitalisierung und digitale Bildung in Institutionen“ nimmt Probleme und Lösungsansätze in Kitas und Schulen des Elementar- und Primarbereichs in den Blick.
Technologie, Adoption und Pflegefamilien
Prof. Rita Braches-Chyrek war 2010 Mitherausgeberin des Bandes „Kindheit in Pflegefamilien“, doch dieser Aspekt der Kindheitsforschung klingt im vorliegenden Handbuch nur in zwei Beiträgen an: 1. Die Afrikanistin Konstanze N‘Guessan streift mit „Verwandtschaft und Kindheit im Zeitalter assistierter Reproduktion – Einblicke in die ethnographische Erforschung des doing family“ das Thema Adoption und Islam. 2. Der Beitrag „Beobachtung der Beobachteten: Technologie, Schutz und Fürsorge an einem Tag im Leben von Jasmine“ von Rachel Thomson und Ester McGeeney, berichtet aus einer „alternativen Erziehungseinrichtung für Jugendliche, die keinen Zugang zur Regelschule haben“; sie beobachten dort den Medienalltag der fünfzehnjährigen Mutter Jasmine, die in einer Pflegefamilie untergebracht ist (s.u.2.).
1. Verwandtschaft, Kindheit und Technologie
Der Beitrag von N‘Guessan ist der einzige des Bandes, der nicht von digitalen Medien handelt -dafür aber biotechnologische Bezüge zum Transhumanismus aufweist, indem dessen Biologismus auf den Boden der sozialen, kulturellen und psychologischen Tatsachen zurückgeholt wird. Im Fokus stehen medizinische Technologien der assistierten Reproduktion und die kulturelle Herstellung von Verwandtschaft und Familie in verschiedenen Kulturen. Ihre Ausgangsfragen sind: „Was ist Familie und wer gehört dazu? Welche Dimensionen hat Eltern-Sein und wie wird Abstammung kulturell konzeptualisiert?“ Solche Fragen stellt die Ethnologie der „New Kinship Studies“, die seit den 1980er-Jahren die Verwandtschaftsforschung „von der Biologie befreit, die durch euroamerikanische Prägung entstanden sei.“
Verwandtschaft wird und wurde immer kulturell gemacht -und dieser Entstehungsprozess oft mit Biologismen wie „Blut ist dicker als Wasser“ verborgen, was oft schon den Status von Adoptivkindern kompliziert habe. Neue Reproduktionstechniken (NRT) lassen die biologische Simplifizierung heute vielerorts ins Schwimmen geraten. Denn es sind dabei nicht nur zwei, sondern bis zu fünf Personen im engeren Kreis einer konstruierbaren Elternschaft vorhanden: Mutter, Vater, Eispenderin, Samenspender und Leihmutter. Dazu kämen im weiteren Umfeld noch diverse Medizintechniker*innen, die etwa mit ihren Händen unter dem Mikroskop die Eizelle besamen. „NRT und Adoption konstituieren einen Möglichkeitsraum, auf den sich unterschiedlichste Akteur*innen in ihren Überlegungen und Praxen beziehen. Durch die Linse der NRT lässt sich Verwandtschaft als Ergebnis von Handlungen verstehen.“
Konstanze N‘Guessan erläutert an diversen afrikanischen und islamischen Kulturen Praktiken des Verwandt-Machens -und ist mit dieser interkulturellen Perspektive in diesem Handbuch einmalig. Wir erfahren von einem „Unfruchtbarkeitsgürtel“ in Zentral- und Südafrika, wo NRT trotz der hohen Kosten stark gefragt sind und auf andere als die euroamerikanischen Verwandtschafts-Praktiken treffen. In matrinlinearen Gesellschaften, etwa den Macao in Mozambik, können Vaterpflichten und -privilegien auf den Mutterbruder übergehen; in anderen Kulturen gibt es die „Geist- oder Frauenheirat“, wo Vater- bzw. Schwangerschaft durch Zahlung eines Brautpreises auf einen Ahnen oder eine Frau übertragen werden.
In islamischen Kulturen ist entscheidend, ob diese schiitisch oder sunnitisch sind: Bei Sunniten kann schon die Adoption verboten sein, im weniger restriktiven Schiismus bleiben Adoptivkinder zumindest von der patrilinearen Erbfolge ausgeschlossen; seit einer permissiven Fatwa von Ayatolla Khomeini sind in Iran und Libanon NRT-Kinder erlaubt und Adoptierten gleichgestellt. „Die Frage, wie ‚fremde‘ Kinder durch soziale Praktiken und diskursive Rahmungen der Familie zugehörig gemacht werden stellt sich nicht nur bei NRT-Kindern, sondern immer“, so N‘Guessan, denn Verwandtschaft sei eine „biologisch wie sozial unterdeterminierte, gestaltungsoffene wie gestaltungsnotwendige soziale Ordnung“.
2.Technologie, Schutz und Fürsorge
Thomson und McGeeney stehen mit ihrem britischen „Kinderalltagsprojekt“ in der Tradition materialistisch-feministischer Methodologie, die ihre Forschungstätigkeit eingehend selbstkritisch reflektiert und nach Möglichkeiten „nachhaltigerer Sorge-Relationalitäten“ sucht:
„Die digitalen Medien haben ganz eigene Möglichkeiten geschaffen, die auch neue Arten von erzieherischer Führung erfordern und neue Gebiet ethischer Untersuchungen eröffnen. (…) Junge Menschen in staatlicher Obhut wurden als eine besondere Risikogruppe identifiziert, einschließlich des Risikos in Bezug auf digitale Kulturen… besonders in den Bereichen Adoption und Pflegefamilien kämpfen Sozialarbeiter*innen darum, die Kinder vor der Aufnahme oder der Fortsetzung von Kontakten mit ihren leiblichen Eltern zu bewahren, wenn diese gerichtlich eingeschränkt worden war.“
Digitale Medien, besonders das allgegenwärtige Smartphone, erschweren diese Aufgabe, denn Kinder und Jugendliche verstehen es, sich der Kontrolle zu entziehen. Im Fall der einen Tag wissenschaftlich beobachteten Jasmine wird klar, dass auch sie und ihre Mitschüler*innen die ihnen auferlegten Regeln für den Mediengebrauch zu unterlaufen wissen: „Die ‚Ein-Tag-im-Leben-Methode‘ hat uns diese Art der dichten, affektiven Geometrien einfangen lassen.“ Die Forscher*innen erfahren, wie vermutlich Instagram und Snapchat von minderjährigen Müttern verwendet werden, um Babyfotos zu posten -schon deren Aufnahme wird von der Einrichtung eigentlich untersagt.
Die Konfliktsituation wird von Thomson und McGeeney aus beiden Perspektiven reflektiert: Die Schutzbefohlenen müssen einerseits „beobachtet, überwacht, geschützt und zensiert werden“, andererseits gibt es auch eine „Kinderöffentlichkeit“ mit „den Imperativen: gesehen werden, sichtbar sein, teilhaben in/an einer digitalen Kultur“. Die Autor*innen stellen fest, dass in dieser neuen Kultur „neue Arten der Subjektivität“ entstehen. „Im Kontext einer Aufmerksamkeitsökonomie können wir das Bedürfnis junger Menschen, gekannt und gesehen zu werden, nicht einfach ignorieren“. Jugendliche Medienpraxis unreflektiert „unterdrücken“ zu wollen, halten die beiden Forscher*innen „für irregehend“.
Der emanzipative Ansatz ist bei Thomson und McGeeney deutlich, doch bei der Reflexion des „Neuen“ an der „neuen Subjektivität“ ist noch Luft nach oben. Denken wir an eine 1950er-Jahre-Werbung für Dosen-Ananas: „Toast Hawaii! Da werden Ihre Nachbarn staunen!“ Foodporn auf Instagram posten ist vielleicht nur überkommene Subjektivierung in digitalisierter Werbeästhetik, die kunstvolle Beleuchtung und Belichtung von damals wird heute durch einen das Foto farblich aufpeppenden digitalen „Filter“ ersetzt.
Fazit
Die emanzipatorische Haltung ist löblich, doch leider gelingt der Transfer der Medienkritik von Adorno ff. auf die Digitalisierung durch die Bank nur ungenügend. Die zweifelhafte Referenz von Heidegger als Paten der Technikkritik überzeugt ebenso wenig wie der gelegentliche, hilflos wirkende Verweis auf neueste Ansätze wie Shoshana Zuboffs „Überwachungskapitalismus“. Dabei wäre bei Kenntnis der kritischen Diskurse zu Computer- und Internetkultur gar nicht nötig, das Rad neu zu erfinden: Der Adorno-Experte Mark Poster etwa kombiniert seit 30 Jahren Freudomarxismus mit postmodernen Ansätzen, etwa den Heidegger implizit weiterführenden Theorien von Michel Foucault, bei seiner Digitalmedienkritik.
Den meisten Beiträgen scheinen auch tiefer gehende Kenntnisse der technologischen und politischen Hintergründe der Digitalisierung zu fehlen, mit den beiden Ausnahmen des Professors für Digital Humanities (Sussex) David M. Berry und des Diplom-Informatikers Marius Melzer, der beim Chaos Computer Club ein Schülerprojekt betreibt. Bei Melzer bleibt die Warnung vor Manipulation im Internet nicht vage, sondern er führt konkret die wohl dramatischste Auseinandersetzung auf diesem Gebiet an:
„Das Beispiel Julian Assange zeigt dies deutlich: Die nach heutigem Wissensstand fingierten Vergewaltigungsvorwürfe (Melzer 2020) führten dazu, dass die vorhergegangene Wikileaks-Veröffentlichung „Collateral Murder“, die zeigte wie US-Soldaten im Irakkrieg lachend aus einem Hubschrauber auf Zivilisten und Journalisten feuerten, in Vergessenheit geriet.“ (S.114)
Die mit nur einem Satz allzu sparsame Erwähnung dieser digitalen Medienschlacht um die (nicht nur Medien-) Geschichte schreibende Enthüllungsplattform Wikileaks brachte einen gravierenden Fehler: In der Literaturliste wurde beim Quellennachweis der Vorname von N.Melzer offenbar zu M.Melzer fehlkorrigiert. Man nahm wohl ein Selbstzitat von Marius Melzer an und kannte nicht den wirklich zitierten weltberühmten Autor Nils Melzer, den UNO-Folterbeauftragten und Schweizer Professor für Völkerrecht. Nils Melzer hatte die gegenwärtige Folter des Wikileaks-Gründers Julian Assange angeprangert, den er als Opfer einer perfiden Intrige sieht. Er hatte in schockierenden Artikeln und seinem Buch „Der Fall Assange“ detailliert enthüllt, wie mutmaßlich Geheimdienste die Regierungen der USA und Großbritanniens sowie die schwedische Justiz den politisch verfolgten Assange als Vergewaltiger abgestempelt hatten. Diese Fakten wurden in westlichen Medien jedoch weitgehend vertuscht, was den Irrtum von Verlag, Lektoren und Korrekturat begründen dürfte. Somit wird dieses Handbuch selbst zu einem Beispiel gelungener Medienmanipulation im Digitalzeitalter.

Rita Braches-Chyrek, Jo Moran-Ellis, Charlotte Röhner, Heinz Sünker (Hrsg.): Handbuch Kindheit, Technik und das Digitale. Verlag Barbara Budrich GmbH (Opladen, Berlin, Toronto) 2021. 422 S., 69,90 Euro.

09/1/22
CC-by-sa-Gnsin

Transhumanismus, Triefnase & Digitalisierung

Thomas Barth

Transhumanistische Aktivisten und Philosophen schwelgen in Visionen einer digitalen Zukunft. Das Paradies soll uns spätestens nach dem Upload in die Virtual Reality einer bewohnbaren Cloud erwarten, wenn unser Geist sich digitalisiert selbst simulierend im Himmelreich der Matrix wiederfindet. Doch hienieden warten einstweilen noch ein paar Hindernisse, besonders hierzulande, wo selbst das stinknormale Internet dem 16 bleierne Jahre währenden Merkel-Staat als „Neuland“ galt.

Das irdische Elend der Digitalisierung wie auch die Schwächen des cishumanen Mängelwesens Mensch zeigten sich am 4. Oktober 2019 im Tagungszentrum der Diözese Rottenburg-Stuttgart. Die Kirche wollte den Transhumanismus erörtern und hatte neben dem Theologen Hoff dafür den Religionsphilosophen Professor Göcke und den „bekanntesten deutschsprachigen Transhumanisten“ Professor Sorgner eingeladen. Pech war, Sorgner kam stark vergrippt, Göcke stark verspätet, weil mit der offenbar fehldigitalisierten Deutschen Bahn.

Was ist der Mensch?

Was ist der Mensch? Was soll er glauben, worauf soll er hoffen? Diese Fragen bewegen Denker und Philosophen, Theologen wie Transhumanisten: „Der Transhumanismus geht davon aus, dass sich der Mensch als ein Produkt der biologischen Evolution auch selbstständig technisch bis hin zu einem neuen Mensch-Maschine-Wesen oder einer Cyberspace-Entität weiterentwickeln kann und sollte.

Der durchaus transhuman geneigte Göcke beginnt so die Einleitung zu seinem Buch „Designobjekt Mensch: Die Agenda des Transhumanismus auf dem Prüfstand“. Da kommt digitale Technologie wie gerufen, etwa als Hirn-Chip, als Big-Gene-Data, KI oder in fernerer Zukunft als virtueller Lebensraum ganz entkörperlichter Menschen (brain uploading). Bedeutsamer Zankapfel der Digitalisierung ist der Datenschutz, der nach Meinung Prof.Sorgners leider auch transhumanem Streben nach kybernetischer wie genetischer Verbesserung des Menschen im Weg steht.

Big-Data-Firmen lieben die Transhumanisten, wie etwa die Super-KI-Forscher des Machine Intelligence Research Institute , mehr als Datenschützer. Google etwa hat mit Ray Kurzweil einen prominenten Transhumanisten zum Forschungsdirektor gemacht, Tesla-Milliardär Elon Musk will mit seiner neuen Firma Neuralink Hirnimplantate entwickeln. Bei Facebook treibt Mark Zuckerberg persönlich transhumane Projekte voran, etwa die Worterkennung per Hirnscan. Das dabei angestrebte Brain-Diktaphon würde nebenbei dem maschinellen Gedankenlesen etwas näher kommen, das der NSA bei ihrer Totalüberwachung noch schmerzlich fehlt. Auch deutsche Transhumane scheinen Belangen der IT-Wirtschaft nicht abgeneigt, wie die Diözese Rottenburg auf oben erwähnter Tagung feststellen konnte.

Prof. Sorgner ließ es sich dort nicht nehmen, die Debatte mit einem Bonmot der IT-Industrie zu bereichern: „Daten sind das neue Öl!“ Unter dieser Parole hatte die Industrielobby bekanntlich versucht, die neue EU-Datenschutzverordnung zu torpedieren, wie eine Polit-Dokumentation zeigte. Aus Angst davor, die EU könnte von China digital abgehängt werden, tritt Sorgner dafür ein, ein europäisches Social-Credit-System nach chinesischem Vorbild einzuführen, inklusive einer personalisierten Dauerüberwachung der kompletten EU-Bevölkerung:

Warum es für uns keine realistische Position ist, die Datenerfassung zu unterlassen: Der zentrale politische Grund für eine umfassende Datensammlung ist, dass wir in einer globalisierten Welt leben und das Daten das ‚Neue Öl‘ sind, wie viele Experten betonen: Öl bedeutet Macht und finanzielles Florieren. Angesichts dieser Erkenntnis ist es keine realistische Option, keine personalisierten Daten zu sammeln… In China wird ab 2020 ein Sozialkreditsystem flächendeckend angewendet werden. Die Menge an digitalen Daten, die auf diese Weise erhoben wird, ist kaum zu unterschätzen. Je mehr digitale Daten verfügbar sind, desto mehr Macht und Geld kann realisiert werden. Europa dagegen hat Datenschutzbestimmungen institutionalisiert, die einer hilfreichen Erfassung digitaler Daten entgegenstehen.“ Prof. Stefan Lorenz Sorgner 

Damit wäre Sorgner wohl ein transhumaner Extremist, sogar aus Sicht der 2015 gegründeten Transhumanistischen Partei Deutschlands (TPD). Die pocht in den Leitlinien ihres Parteiprogramms Version 2.0 gleich an erster Stelle auf die Grundrechte der Menschenwürde und der informationellen Selbstbestimmung. Sorgner übergeht dagegen in seinem Redebeitrag den möglichen Einwand, dass blinde Gier nach Macht und Geld geradewegs in einen digitalen Totalitarismus führen könnte. Auch an seinem Buch mit dem reißerischen Titel „Transhumanismus: ‚Die gefährlichste Idee der Welt‘!?“ (2016), fällt auf, dass kaum Bedenken, Zweifel oder Kritik an Technologien vorkommen. Dabei haben insbesondere Eingriffe in das menschliche Gehirn eine dunkle Geschichte -man denke an Militär- und Geheimdienst-Projekte wie das Zimbardo-Experiment, LSD-Forschung, Gehirnwäsche oder MKUltra. Der Transhumanismus muss sich außerdem angesichts lobbyistischer Verfilzungen und enormer Geldsummen, die auf dem Spiel stehen, auch fragen, wer und warum ihn finanziert.

Thomas Hobbes und Bioshock

Hinter Sorgners transhumanem Bejahen des technischen Fortschritts, das geradezu von einer Euphorie in die nächste taumelt, verbirgt sich jedoch ein zutiefst pessimistisches Menschenbild: Der „Mensch als des Menschen Wolf“ des Frühaufklärers Thomas Hobbes, wie man es im „Bioshock“-Computerspiel in einer transhumanen Welt der Gen-Mutanten nachspielen kann. Dort werden individuell gestaltete Menschen zu einander bekriegenden Monstren in einer Gesellschaft, die nach den darwinistisch-libertären Grundsätzen von Ayn Rand konzipiert ist (so Weber in Weber/Zoglauer 2015 S.55,69).

Als Begründer der modernen politischen Philosophie empfahl Hobbes zur Überwindung der angeblich menschlichen Gewaltnatur den frühtotalitären Absolutismus eines staatlichen Leviathans. Angesichts einer Welt voller psychopathischer Wolfsmenschen ist eine an Ethik orientierte Lebenshaltung natürlich nicht ratsam, meint offenbar Sorgner, wenn er sagt:

Moralischer zu sein hingegen, ist ggf. nicht der zentrale Wunsch vieler Menschen. Überspitzt formuliert liegt dies meiner Meinung nach darin begründet, dass Moralität in der Regel im Interesse der nicht-moralischen Menschen ist und moralische Menschen eher ausgenutzt, ausgebeutet und unterdrückt werden.“ Sorgner 2016, S.62

Kritisch sieht Sorgner daher eine von manchen Transhumanisten geforderte gesetzliche Verpflichtung zum „moralischen Enhancement“ (und das ist fast die einzige Technikkritik im ganzen Buch). Dabei ist hier nicht ethische Bildung und Erziehung gemeint, sondern Moral etwa per Hirnimplantat oder Einflößung von Drogen, die analog zur Impfpflicht verordnet werden könnte. Das lehnt Sorgner ab. Aber nicht, weil ein Herumpfuschen an den höchsten Funktionen des menschlichen Gehirns unsere Gesundheit, Freiheit und Würde beeinträchtigen könnte, sondern -ganz im Sinne eines Bioshock-Rechtslibertarismus nach Ayn Rand- wegen des „globalen Wettbewerbs“:

Eine solche Regelung mag zwar praktisch nicht ausgeschlossen sein, jedoch erscheint sie mir in keinem Fall im politischen Interesse des betroffenen Landes zu sein, da ein Land mit einer besonders moralischen Bevölkerung im Kontext des globalen Wettbewerbs sicherlich nicht lange bestehen kann.“ Sorgner 2016, S.63

Janina Loh, die Sorgners „Metahumanismus“ in ihrem Buch „Trans- und Posthumanismus zur Einführung“ in einem kurzen Kapitel analysiert, mag diesen letztlich nicht als eigenständigen Ansatz anerkennen (Loh 2018, S.175). Auch Sorgners duales Theoriesystem von Kohlenstoff- bzw. Siliziumbasiertem Transhumanismus (womit er Bio- von Digitaltechnik trennt) lehnt Loh als zu schematisch und daher nur bedingt brauchbar ab (S.78).Aber Loh schreibt Sorgner auch zu, die von Transhumanisten prognostizierte Unsterblichkeit nur als „rhetorisches Mittel“ zu sehen (S.173), hat dabei jedoch evtl. überlesen, dass Sorgner Unsterblichkeit zwar für unmöglich erklärte, aber nur wegen eines in Milliarden Jahren drohenden kosmologischen Kollaps des Universums (Sorgner 2016 S.11, 2018 S.157).

Bis dahin könnte Sorgners extrem langlebiger (wenn auch im haarspalterisch-philosophischen Sinne nicht völlig unsterblicher) Transhumaner noch eine ganze Menge Neutrinos die Galaxis runterfließen sehen -und evtl. auch eine Revision der schließlich nur auf läppischen 200 Jahren Forschung basierenden Big-Bang-Theorie. Der Kritik am transhumanen Unsterblichkeitsstreben entgeht Sorgner mit seiner kosmologischen Scholastik aber nicht, der Frage nach sozialer Verantwortung hier und heute ebenso wenig.

Unsoziale Weapons of Math Destruction

Die Mathematikerin Cathy O‘Neil, die wirklich etwas von der Technik und dem Code dahinter versteht, fordert etwas mehr „moralisches Vorstellungsvermögen“, denn „Big Data-Prozesse kodifizieren die Vergangenheit und können nicht die Zukunft erfinden“ (S.276). Cathy O‘Neil spricht von Weapons of Math Destruction, also Mathe-Vernichtungswaffen (analog zu Massenvernichtungswaffen), warnt mit Blick auf Google, Amazon und Facebook davor, dass „Daten privatisiert und privat genutzt werden, um Profite zu erzeugen und Macht zu gewinnen“. Man müsse die Digitalisierung und ihre Algorithmen bändigen, indem man sie öffentlicher Aufsicht und die sie betreibenden Firmen mit „verpflichtenden Standards der Rechenschaftslegung“ staatlicher Regulierung unterwirft (S.308). Sie weist darauf hin, dass der Trump-Nestor „Steve Bannon, selbst während er gezielt daran arbeitet, das öffentliche Vertrauen in Wissenschaft zu untergraben, im Verwaltungsrat von Cambridge Analytica sitzt -einer politischen Datenfirma, die behauptet, sie habe Trump zum Wahlsieg verholfen…“ (S.313).

Heiße PR-Luft einer schmuddeligen Dotcom-Firma? Oder die üblichen Wahlmanipulationen im digitalen Kapitalismus, nur leider diesmal aufgeflogen? Manche KI-Kritiker sehen etwa in „lernfähigen neuronalen Netzen“, die aktuell als KI gepriesen werden, eine aufgeblasene Hype. Diese „KI“ wären eher „spreadsheets on steroids“ -Tabellenkalkulation auf Steroiden. So zitiert Schnetker in seiner Kritik der „Transhumanistischen Mythologie“, den DARPA-KI-Experten John Launchbury (Schnetker S.75). Cathy O‘Neil kritisiert die unsozialen Folgen des Einsatzes solcher „KI“ als klassistisch, rassistisch und sexistisch:

„Sie versprechen Effizienz und Gerechtigkeit, manipulieren dabei jedoch die höhere Bildung, verursachen zusätzliche Schulden, fördern massenhaft Gefängnisstrafen, prügeln bei jeder Gelegenheit auf die Armen ein und untergraben die Demokratie.“ (O‘Neil S.270)

Literatur

Göcke, B.P.: Designobjekt Mensch?! Ein Diskursbeitrag über Probleme und Chancen transhumanistischer Menschenoptimierung.“ In: Benedikt Paul Göcke/ Frank Meier-Hamidi (Hg.): Designobjekt Mensch. Der Transhumanismus auf dem Prüfstand. Freiburg i.Br.: Herder 2018, 117-152

Loh, Janina: Trans- und Posthumanismus zur Einführung, Hamburg: Junius 2018

Loh, Janina: Transhumanismus: Den Menschen weiterentwickeln, um ihn besser kontrollieren zu können, Berliner Gazette 15.8.2017

O‘Neil, Cathy: Angriff der Algorithmen, München: Hanser 2017

Schnetker, M.F.J.: Transhumanistische Mythologie: Rechte Utopien einer technologischen Erlösung, Münster: Unrast 2019

Sorgner, S.L.: Transhumanismus: ‚Die gefährlichste Idee der Welt‘!?, Herder: Freiburg 2016

Sorgner, S.L.: Was wollen Transhumanisten? In: Göcke/ Meier-Hamidi (2018) 153-180

Weber, K. u. T. Zoglauer: Verbesserte Menschen: Ethische und technikwissenschaftliche Überlegungen, München: K.Alber 2015

12/13/21

Rezension Nils Melzer: Der Fall Julian Assange

Nils Melzer: Der Fall Julian Assange. Geschichte einer Verfolgung – Der spektakuläre Report des UNO-Sonderberichterstatters für Folter, Piper Verlag 2021

Hermine Humboldt

Hat die schwedische Justiz Beweise gefälscht und Zeugenaussagen manipuliert, um einen Vergewaltigungsverdacht gegen Julian Assange zu konstruieren? Der UNO-Menschenrechtsexperte Prof. Nils Melzer war anfangs kein Assange-Unterstützer, aber er nutzte sein diplomatisches Mandat für eigene Ermittlungen im Fall Assange.

Was hat der Fall Assange mit Netzphilosophie zu tun? Der Schweizer Netzphilosoph Felix Stalder wies schon 2016 in seinem bahnbrechenden Buch „Die Kultur der Digitalität“ auf eine westliche Machtelite hin, die er als „den inneren Kern des postdemokratischen Systems“ bezeichnete, „bestehend aus den Spitzen der Wirtschaft, der Politik und der Geheimdienste“ (Stalder 2016, S.230). Der Begriff „Postdemokratie“ markiert eine Kritik an westlichen Ländern, die von einer schleichenden Entdemokratisierung und Herrschaft von Technokraten ausgeht, die sich ausgeklügelter medialer Massenmanipulation bedient.

„Die Grenzen zwischen postdemokratischen Massenmedien und staatlichen Nachrichtendiensten sind fließend. Wie inzwischen bekannt ist, bestehen zwischen beiden Bereichen personelle Kontinuitäten und inhaltliche Gemeinsamkeiten.“ (Stalder 2016, S.234)

In seinem Buch „Der Fall Assange“ bestätigt Nils Melzer die Analyse seines Schweizer Landsmanns Felix Stalder in spektakulärer Weise: Denn der Fall Assange ist zweifellos einer der größten Justizskandale die wir kennen (sollten). Den jedoch die wenigsten in voller Tragweite zur Kenntnis nehmen können, denn es ist auch ein eklatanter Fall von Medienversagen der westlichen „freien Presse“. An deren tatsächliche Freiheit kann man angesichts ihrer äußerst desolaten (Nicht-) Berichterstattung zu weiten Teilen dieser Story höchstens noch eingeschränkt glauben -wie auch der Philosoph Stalder gut begründet argumentiert hatte. 2010 wurde Julian Assange zum „Staatsfeind Nr.1“ für die USA und Großbritannien und geriet ins Fadenkreuz der mächtigsten Geheimdienste der Welt: Der CIA, NSA, FBI (und der ca. 30 weiteren US-Geheimdienste) sowie der Britischen MI5, MI6 und GCHQ. Diese Dienste warfen, so muss man annehmen, angesichts der Wikileaks-Enthüllungen ihre ganze Macht in die Waagschale. Dazu gehört auch die Macht über Massenmedien, Politik und Justiz vieler Länder -ganz offensichtlich hier der Justiz in Schweden und England.

Mit dem „Afghan War Diary“ veröffentlicht WikiLeaks 2010 das größte Leak der US-Militärgeschichte, mitsamt Beweisen für Kriegsverbrechen und Folter. Kurz danach verdächtigt Schweden WikiLeaks-Gründer Julian Assange der Vergewaltigung, und ein geheimes US-Schwurgericht ermittelt wegen Spionage. Als ihn Ecuador nach jahrelangem Botschaftsasyl der britischen Polizei überstellt, verlangen die USA sofort seine Auslieferung und drohen mit 175 Jahren Haft. Nils Melzer, UNO-Sonderberichterstatter für Folter, will sich zunächst gar nicht auf den Fall einlassen. Erst als er Assange im Gefängnis besucht und die Fakten recherchiert, durchschaut er das Täuschungsmanöver der Staaten und beginnt den Fall als das zu sehen, was er wirklich ist: die Geschichte einer politischen Verfolgung. An Assange soll ein Exempel statuiert werden – zur Abschreckung aller, die die schmutzigen Geheimnisse der Mächtigen ans Licht ziehen wollen. Dieses packende Buch erzählt erstmals die vollständige Geschichte von Nils Melzers Untersuchung. (Piper-Verlagstext)

Der UNO-Menschenrechts- und Folterexperte Prof. Nils Melzer war anfangs kein Assange-Unterstützer. Melzer ist ein Anwalt der Menschenrechte, berufen von der UNO, und er nutzte sein diplomatisches Mandat für eigene Ermittlungen im Fall Assange -angefangen bei dem angeblichen „Vergewaltigungsverdacht“ an zwei Schwedinnen, den uns die Medien seit zehn Jahren vor jeder Erwähnung von Julian Assange präsentierten. Kritiker wie der Rezensent oder der Buchautor Gerd R. Rüger haben diese Bezichtigungen niemals geglaubt und immer von einer CIA-Intrige gegen Assange gesprochen -sie wurden dafür als „Verschwörungstheoretiker“ denunziert. Nun zeigt sich, dass wir Recht hatten: Es war eine Justiz-Geheimdienstintrige gegen Assange. Denn Prof. Melzer findet, wie er entsetzt feststellen muss, manipulierte schwedische Justizakten, und schreibt in seinem Buch über „die behördliche Nötigung der beiden Frauen zur Anpassung ihrer Aussagen an das offiziell forcierte Vergewaltigungsnarrativ“ (S.149).

Wikileaksgründer im britischen Guantánamo

London, Juni 2021. Im bestbewachten Knast Ihrer Majestät, dem Hochsicherheitsgefängnis Belmarsh, dem „britischen Guantánamo“, wird Julian Assange gefangen gehalten. Der wohl bislang bedeutendste Journalist des 21. Jahrhunderts ist auch inhaftiert, weil er die Foltermethoden des berüchtigten US-Gefangenenlagers Guantánamo enthüllte, jenem US-Gulag also, den der ehemalige US-Präsident Barack Obama eigentlich schließen wollte. Aber nicht die Verantwortlichen in den USA, sondern Assange wurde angeklagt: wegen der Veröffentlichung geheimer Dokumente – gutes Recht von Enthüllungsjournalisten – und wegen angeblicher Verstöße gegen das Anti-Spionage“-Gesetz, eines Relikts aus Zeiten des Ersten Weltkriegs. Der Schauprozess dauert an, das Unrechtsregime in London hat gerade, wie erwartet, den US-Anklägern die Auslieferung des politisch Verfolgten genehmigt.

Unsere Medien ARD, ZDF usw. betreiben eine systematisch verwirrende Berichterstattung über die Der-Fall-Assange-Enthüllungen von Nils Melzer, so droht der Kern seiner Botschaft unterzugehen: Die schwedische Justiz hat 2010 gezielt Beweise gefälscht und Zeugenaussagen manipulierte, um einen Vergewaltigungsverdacht gegen Julian Assange überhaupt erst zu konstruieren.

Der UN-Sonderberichterstatters zum Thema Folter ist Schweizer, aber Nils Melzer spricht auch fließend Schwedisch ein sagenhafter Glücksfall in der Sache Assange. Melzer arbeitete sich durch die schwedischen Akten zum Fall Assange. Doch sein bahnbrechendes Fazit wollte in unseren Leitmedien kaum jemand hören. Erst mühsam kämpfte er sich durch Netzmedien (!) wenigstens an den Rand der öffentlichen Aufmerksamkeit. Jetzt legte er ein Buch vor, das seine Arbeit akribisch beschreibt, „Der Fall Julian Assange: Geschichte einer Verfolgung“, und folgert

Der eigentliche Zweck der Verfolgung von Assange ist nicht in erster Linie die persönliche Bestrafung von Assange, sondern die Etablierung eines Präzedenzfalles mit globaler Abschreckungswirkung für andere Journalisten, Publizisten und Aktivisten, um künftig weltweit jeden strafrechtlich verfolgen zu können, der es wagen sollte, die schmutzigen Geheimnisse der Regierungen ans Licht der Öffentlichkeit zu ziehen.“ Melzer S.230

Prof. Nils Melzer kritisiert die Leitmedien. Zwar würden einige Meinungsbeiträge halbherzig Partei für Assange ergreifen und auch die Gefahr für die Pressefreiheit anerkennen, „doch kein einziges Medienhaus protestiert gegen die den ganzen Fall durchziehende Justizwillkür“ (S.312). Die Justizwillkür zeige sich in der britischen Willfährigkeit gegenüber der US-Anklage vor dem Londoner Gericht:

Schritt für Schritt wurden auch die abwegigsten Argumente der USA kritiklos bestätigt. Gleichzeitig, fast wie im Vorbeigehen, wischte Bezirksrichterin Baraitser sowohl die rechtlichen Einwände als auch die entlastenden Gutachten und Zeugenaussagen der Verteidigung ohne viel Federlesens vom Tisch.“Melzer S.318

Prof. Nils Melzer kommt in seinem Bericht, der sich wie ein Justizthriller liest, also zu Schlussfolgerungen, die sich weitgehend mit dem decken, was Assange-Anhänger seit zehn Jahren skandalisieren: Der WikiLeaks-Gründer wurde Opfer einer Intrige, einer gnadenlosen Rufmordkampagne sowie politischer Verfolgung.

Bei dieser großangelegten Intrige handelt es sich demnach um Staatsverbrechen, für die die Verantwortlichen der beteiligten Staaten – mindestens der USA, Großbritannien, Schweden und zuletzt auch Ecuador – eigentlich vor Gericht gehören würden. Gegen Assange konnten die USA vor Gericht, anders als die Londoner Richterin in ihrem Urteil behauptet, aus Melzers Sicht nichts strafrechtlich Relevantes vorweisen. In einem rechtsstaatlichen Verfahren wäre er schon lange ein freier Mann. Das läuft schließlich auf den Vorwurf der Justizwillkür hinaus.

Westliche Massenmedien als Mittäter

Prof. Nils Melzer zeigt sich in seinem Buch überzeugt, die westlichen Medien hätten sich mit ihrer willfährigen Beteiligung an der Anti-Assange-Rufmordkampagne zu Gehilfen einer perfiden psychischen Folter gemacht – er spricht von „öffentlichem Mobbing“ (S.109). Der UNO-Experte kritisiert auch das anhaltende Ausbleiben medialer Aufmerksamkeit für den Fall Assange. Würden westliche Leitmedien die Justizwillkür angemessen skandalisieren, so seine These, würde das windige Verfahren rasch eingestellt: „Denn wenn Regierungen eines fürchten, dann ist es das gebündelte Scheinwerferlicht und die kritischen Fragen der Massenmedien.“ (S.312)

Beides bleibt jedoch aus. Stattdessen greifen westliche Leitmedien Nils Melzer an, den Überbringer der unbequemen Botschaft: Der skandalösen Botschaft, dass im Westen ein Dissident gefoltert wird, von den eigenen Regierungen, nicht im feindlichen Ausland. Unsere Leit- und Netzmedien ignorieren Melzers Erkenntnisse und berichten lieber noch kleinste und selbst konstruierte Verfehlungen von Julian Assange (wie seine angeblich hungernde Katze im Botschaftsasyl) zehn Jahre mehrheitlich breitgetreten und ihn zu einem Außenseiter stigmatisiert. Rückgratlose Leitmedien sehen bei Melzer nun wohl ihre eigene Erbärmlichkeit bestätigt -von derart autorisierter Stelle, dass sie nur peinliches Schweigen darüber breiten möchten. Melzers Buch ist eine weite Verbreitung zu wünschen, besonders unter Freunden der Netzphilosophie.

Nils Melzer: Der Fall Julian Assange. Geschichte einer Verfolgung – Der spektakuläre Report des UNO-Sonderberichterstatters für Folter, (Mitautor: Oliver Kobold ), Piper Verlag 2021, 336 Seiten, 22,00 Euro. https://www.piper.de/buecher/der-fall-julian-assange-isbn-978-3-492-07076-8

11/19/19

Rezension Rügemer: Netz-Kapitalisten

Werner Rügemer: Die Kapitalisten des 21. Jahrhunderts: Gemeinverständlicher Abriss zum Aufstieg der neuen Finanzakteure, Hamburg: Papyrossa

Hermine Humboldt

Karl Marx, der bekannteste Philosoph des 19.Jahrhunderts stellte Hegel vom Kopf auf die Füße und brachte der Philosophie nicht nur das Laufen, sondern auch die Ökonomie bei. Marxistische Philosophen haben es heute schwer in westlichen Demokratien, denn dort haben ihre politischen Gegner das Sagen: Die Kapitalisten. Einer dieser Philosophen ist Werner Rügemer, der sich jüngst den Kapitalisten der Netze widmete. Er gilt auch in linken Kreisen immer noch als Geheimtipp, obwohl er viele Finanzskandale ans Licht brachte: „Die Berater“ enthüllte heimliche Machenschaften der globalen Unternehmensberater, Ratingagenturen, Heuschrecken, große Privatisierer waren Ziele seiner ebenso nüchternen wie fundierten Kritik. Mit seiner Initiative gegen Arbeits-Unrecht steht der Aktions-Philosoph Rügemer gut marxistisch auf der Seite der Arbeit gegen das Kapital. Kein Wunder also, dass kapitalistische Medien seine brisanten Bücher nicht bekannt machen wollen und sich lieber in adressatloser Politik-Schelte am Klimawandel ergehen (die eigentlich auch viel öfter Kapitalisten treffen sollte als „uns alle“).

Wem gehört die Netzwelt? GAMFA!

„Die Kapitalisten des 21.Jahrhunderts“ vertieft Rügemers differenzierte Analyse des Finanzsektors, besonders im Hinblick auf den BlackRock-Typus und erweitert sie darüber hinaus auch auf die großen IT- und Netzkonzerne: Die GAMFA (Google, Amazon, Microsoft, Facebook, Apple), hinter denen Rügemer die heute als lichtscheue Investoren und Eigentümer dominierenden Schattenbanken vom BlackRock-Typ sieht. Im Aufbau lehnt sich Rügemer beim vorliegenden Buch mit Branchen-, Firmen- und Manager-Porträts an das reißerisch-kapitalismuskritische „Wem gehört die Welt?“ von H.J.Jakobs an. Doch während Jakobs sich in Klatschgeschichten verliert, liefert Rügemer geschliffene Kritik und größere Zusammenhänge. Denn Rügemer übersieht nicht die Verschmelzung von IT-, Netz und Finanzkonzernen mit dem Militär- und Geheimdienstkomplex sowie dessen Rolle in der globalen Strategie der Machteliten. Und er richtet seinen Blick immer auch auf unser eigenes Land und seine Rolle im US-dominierten Westlichen Machtblock.

Frankfurt/Main ist nicht nur die hierzulande zentrale Finanzmetropole, hier liegt auch der weltgrößte zivile Internetknoten. In Frankfurt laufen 1.200 Kabel zwischen China, Europa und den USA zusammen. Der Knoten besteht aus 19 Rechenzentren, die über die Stadt verteilt sind und mehr Strom verbrauchen als der Fankfurter Flughafen. Der Verband der Internetwirtschaft Eco betreibt den Knoten seit 1995 über die Tochtergesellschaft De-Cix GmbH (De-Cix = Deutsche Commercial Internet Exchange). Auch US-Netzgiganten wie Facebook und Microsoft sind Verbandsmitglieder -und mit ihnen Finanzriesen wie BlackRock und insgeheim NSA, CIA & Co.

Google, Geheimdienste und BlackRock singen im selben Chor

Der Schweizer Netzphilosoph Felix Stalder hat es in seiner Analyse der „Kultur der Digitalität“ herausgearbeitet: Die Machtstrukturen der Digitalisierung basieren auf einer Herrschaftselite aus Politik, Wirtschaft und Geheimdiensten. Rügemer konkretisiert das und fügt das (US-) Militär als Player hinzu: Im Städtedreieck Frankfurt/Main, Wiesbaden und Darmstadt betreiben sowohl die zivilen US-Geheimdienste CIA und NSA wie auch Militärgeheimdienste und die US-Heimatschutzbehörde ihre europäische Zentralen. Hinzu kommen in Deutschland und, in geringerem Maße, in anderen EU-Staaten – vor allem Großbritannien, Italien, Belgien sowie im Kosovo (Militärstützpunkt Bondsteel) – US-Stützpunkte und US-geführte NATO-Kommandozentralen. 2018 wurde in Ulm die neueste NATO-Kommandozentrale errichtet, für den Landaufmarsch gegen Russland. Deutschland ist der durch die USA bei weitem am intensivsten besetzte und überwachte Staat überhaupt. Die militärisch-geheimdienstliche Überwachung wird heute effizient durch Internet-Konzerne wie Google und Facebook ergänzt, deren Besitzer gigantische Schattenbanken vom Typ BlackRock sind. Militär, Geheimdienste, Finanzriesen und Netzkonzerne wachsen dabei immer enger zusammen.

Seit 1955 ist Westdeutschland zentrales Mitglied der von den USA gegründeten NATO -und de facto militärisch besetzt. Die USA unterhalten etwa 30 Militärstützpunkte wie AFRICOM (Kontrolle Afrikas und des Nahen Ostens), einen großen Militärflughafen, den Drohnen-Steuerungsknoten und das größte US-Militärhospital außerhalb der USA auch in Ramstein (Pfalz). Zudem lagern ca. 200 US-Atombomben in Deutschland – ohne offizielles Wissen der deutschen Regierung und entgegen dem Atomwaffen-Sperrvertrag. Die Herrschaft des Dollars und der westlichen Finanzakteure will mit Waffengewalt abgesichert sein.

Finanzkrise, Demokratieversagen und Überwachung

Nach der Finanzkrise von 2007 wurden die bankrotten Großbanken marktwidrig auf Gemeinkosten gerettet, ein bisschen reguliert – und entmachtet. Aber nicht von den Regierungen, die mit unseren Steuergeldern die Bankster retten mussten. „Kapitalorganisatoren“, Schattenbanken wie BlackRock, die die Finanzkrise mitverursacht hatten, sind nun die Eigentümer der alten Banken und auch der wichtigsten Unternehmen.

Schattenbanken vom Typ BlackRock agieren heute, weitgehend unreguliert und unbekannt, einige Dutzend weitere Finanzakteure der ersten Liga; hinzukommen die neuen Finanzakteure der zweiten und dritten Liga, ebenfalls kaum reguliert, also Private-Equity-Fonds, Hedgefonds, Venture Capitalists, dazu elitäre Investmentbanken, die traditionellen Großbanken. Diesen Sektoren widmet Rügemer sich ausführlich mit all seiner erwiesenen Kompetenz als kritischer Finanzexperte. Doch er analysiert im neuen Buch auch die sich als unabhängig darstellenden Netzkonzerne, Google & Co., die jüngst immer mehr mit ihrer Massenüberwachung und -Manipulation Schlagzeilen machen.

Eine gänzlich neue Kategorie von Großfirmen sind die von den Finanzkonzernen beherrschten Shooting-Stars des Internets: Google/Alphabet, Apple, Microsoft, Facebook und Amazon, aber auch kleinere Plattform-Kapitalisten wie Uber oder AirBnB. Sie praktizieren eine neue, noch asozialere Form der brutalen Akkumulation des privaten Kapitals. Mit der Brutalisierung hat aber auch die Komplexität der Akkumulation zugenommen, was sich auch in der Vielfalt der Finanzakteure und ihrer Praktiken zeigt. Aber wem gehören eigentlich Facebook, Google&Co?

Die Eigentümer bleiben vor der Mainstream-medialen Öffentlichkeit, den abhängig Beschäftigten, den Wählern so gut wie unsichtbar. Die Eigentümer sind nicht nur asozial und brutal, meint Rügemer, sondern auch feige und lichtscheu. Ihre öffentlichen Vertreter kommen mit „softer, schleimiger, auch basisdemokratischer Sprache“ daher, können sich auf Gesetze oder jedenfalls staatliche Duldung verlassen und werden von einer diskreten, zivilen Privatarmee »renommierter« Bereicherungs-Profis unterstützt (Beratern, Ratingagenturen, Wirtschaftsprüfern, Union-Bustern).

Mit Digital-Giganten wie Amazon, Facebook, Google, Microsoft, Apple und Uber haben die neuen Finanzakteure schon vor Donald Trumps »America First« die US-Dominanz in der EU verstärkt. Arbeits-, ­Wohn-, ­Ernährungs- und Lebensverhältnisse: Die neue Ökonomie dringt in die feinsten Poren des Alltagslebens von Milliarden Menschen ein. Die Kapitalisten des 21. Jahrhunderts verstecken ihre Eigentumsrechte in vier Dutzend Finanzoasen, fördern rechtspopulistische Politik, stützen sich auf eine zivile, trans­atlantische  Privatarmee von Beratern und kooperieren in ­Silicon-Valley-Tradition mit Militär und Geheimdiensten.“ (Verlagstext zum Buch)

Rügemer hat die Lebensbedingungen der Menschen im Blick, wo andere nur abstrakt schwadronieren: „Es ist keineswegs so, wie »Globalisierungskritiker« (der Mainstream-Medien) behaupten, dass das heutige Kapital als digitale Fiktion rund um den Globus gejagt werde und nichts (mehr) mit der »Realwirtschaft« zu tun habe – falsch! Im Gegenteil! BlackRock & Co haben hunderttausende der wichtigsten Unternehmen der Realwirtschaft im Griff, entscheiden über Arbeitsplätze, Arbeits-, Wohn-, Ernährungs- und Umweltverhältnisse, über Produkte, Gewinnverteilung, Armut, Reichtum, Staatsverschuldung. Und die Weltkonzerne der Plattform-Ökonomie dringen in die feinsten Poren des Alltagslebens von Milliarden Menschen ein, forschen es aus, krempeln es um – und kooperieren mit den Geheimdiensten.“

BlackRock: Finanzkapitalisten als globale Kriegsgewinnler

Der Reichtum des BlackRock-Milieus vermehrt sich, so Rügemer, aber die Volkswirtschaften und die für die Bevölkerungsmehrheiten wichtigen Infrastrukturen schrumpfen oder werden privatisiert und verteuert. Der Klimawandel wird beschleunigt angeheizt, was die in Greta-Manie schwelgenden Mainstreamer zwar beklagen, ohne aber in ihrer weitgehend adressatlosen Politik-Schelte die Hauptverantwortlichen zu benennen: Die Großkonzerne und ihre Schattenbanken. Rüstungsprofite boomen mit der Erfindung neuer Feinde. Die neuen Kapitalmächtigen bilden eine transnationale kapitalistische Klasse. Sie organisieren sich, schaffen für sich Kollektivformen, während sie die Reste bisheriger Kollektivformen der abhängig Beschäftigten zerstören und diese gnadenlos in hilflose, wenn auch manchmal unterhaltsame Einsamkeiten manövrieren.

Die neuen Geld- und Machteliten verorten und verschleiern ihre Eigentumsrechte so radikal wie noch nie in einer okkulten Parallelgesellschaft global verflochtener Finanzoasen. Diese Investoren und ihre beauftragten Vorstände und Geschäftsführer können millionenfach straflos Gesetze brechen, Menschenrechte verletzen, abhängig Beschäftigte degradieren und verarmen, Menschen und Umwelt vergiften, das Rechtsgefühl zerstören, die Wirklichkeit verkleistern – sie genießen Full Tolerance.

Eine wirksame Propagandafigur sieht Rügemer im Digital-Populismus, dessen Akteure nach dem bewunderten Silicon-Valley-Muster das glückliche individuelle Leben und die Verbesserung der Menschheit versprechen: Der sogenannte „Transhumanismus“ will den Übermenschen mit neuster Bio-Gen-Digital-Technologie verwirklichen, für jeden, der dafür zahlen kann. Manager-Porträts beschreiben die neue Elite:

Jeffrey Bezos: Amazon, digitale Ausbeutung im Handelsmonopol,

Eric Schmidt: Der Google-Instagram-LinkedIn-Pentagon-Komplex,

Jack Ma, Alibaba: »Inklusive Globalisierung«

Peter Thiel/Founders Fund (beim deutschstämmigen Ebay- und Facebook-Mitgründer und Trump-Unterstützer Peter Thiel, der heute riesige NSA- und CIA-Dienstleister wie etwa PALANTIR betreibt, kommt leider im Buch die Verknüpfung von IT-Giganten und Geheimdiensten etwas zu kurz).

Die Finanzbranche ist auch vertreten und ihre Beziehung zur Politik bleibt nicht unerwähnt: Stephen Schwarzman/Blackstone, Ray Dalio/Bridgewater, John Kornblum und Felix Rohatyn/Lazard, Wilbur Ross – Vom Rothschild-Banker zum US-Wirtschaftsminister, Emmanuel Macron –Vom Rothschild-Banker zum Staatspräsidenten Frankreichs.

Der westliche, US-geführte Kapitalismus wurde, so Rügemer, wieder aggressiver nach innen und außen. Der Westen führt erklärte und unerklärte Kriege (wie gegen Venezuela), erweitert seine globale Militärpräsenz, rüstet heimlich und offen Stellvertreter auf. Gegen die Flüchtlinge aus den wirtschaftlichen und militärischen Kriegsgebieten werden tödliche Mauern der verschiedensten Art hochgezogen, am europäischen Mittelmeer genauso wie an der Grenze zu Mexiko. Wohlstand für alle, Menschenrechte, Christentum – nichts bleibt, auf der Ebene der bisher Verantwortlichen, von den rituell beschworenen »westlichen Werten«.

Wie dies von den USA und der EU als weltweite Strategie umgesetzt wird, erörtert Rügemers Buch. Als Gegenmodell zeigt den neuen Weg Chinas auf, der neue Industrien und Wachstum verwirklicht, dabei aber auf eine gerechtere Verteilung des Reichtums achtet und vielen Millionen Menschen mehr Wohlstand brachte. Bei China sieht er eine »Inklusive Globalisierung« in Aktion, die ärmere Bevölkerungsschichten und Länder der Dritten Welt mit ins Boot holt, statt sie immer mehr auszugrenzen und gnadenlos auszubeuten, wie die Westeliten es tun.

Die wohl zu überschwengliche Sicht auf China (den Global Player, der sich immer noch als marxistisch bezeichnet) und besonders die dort anlaufende Überwachung nebst eines Scoring-Systems mit digital gewonnenen personifizierten Profilen. Wenn unser Mainstream darüber berichtet, steht Massenüberwachung und -kontrolle durch den chinesischen Staat im Vordergrund. Rügemer weist im Einklang mit Netzphilosoph Felix Stalder daraufhin, dass dies im Westen durch Silicon-Valley-Internet-Großkonzerne und NSA-Komplex schon lange heimlich geschieht und die Chinesen damit immerhin ehrlicher umgehen. Das mag einige beruhigen, aber wir hoffen, dass auch in China über dem gewiss rapide wachsenden Wohlstand die Privatsphäre nicht vergessen wird und im dortigen Parteikommunismus langsam demokratische Prinzipien Fuß fassen. Wenn Peking westliche Wirtschaftsmodelle in sein System einbauen konnte, warum dann nicht auch westliche Demokratiemodelle? Vielleicht sogar in verbesserter Form: Ohne wuchernden Lobbyismus und Verfilzungen von Konzernen, Geheimdiensten und Militär. Utopische Träume bewegen Menschen auf allen Kontinenten.

09/5/18

Friedrich Kittler & KI

Thomas Barth

Drei Dekaden ist es her, da Friedrich Kittler mit seinem legendären Aufsatz: Rock Musik – Ein Missbrauch von Heeresgerät seine revolutionäre Medientheorie darlegte und dabei einen eleganten Bogen von Nietzsche über Jim Morrison und Kaiser Wilhelms Generälen bis zu Görings Luftwaffe und Jimi Hendrix zog. So ungefähr in dieser Reihenfolge, aber um viele Details und Wendungen reicher entfaltete sich sein Denken.

Zunächst berief er sich auf die Machtkritik von Michel Foucault, wandte sich aber dann immer mehr Heideggers Philosophie zu. Gefördert wurde Kittler später auch vom Medienzar Hubert Burda, einem sechsfachen Teilnehmer der Bilderberg-Konferenzen (Telepolis), die jüngst einen Schwerpunkt auf Quantencomputing, KI und Medienthemen setzen.

Bildungslücke Bilderberg

Die „Bilderberger“ sind zwar Thema bei „Verschwörungstheoretikern“ auch rechter Gesinnung (was manche diese Treffen in die Ecke „rechte Paranoia“ neben Ufos, Zion-Papers und Chemtrails stellen lässt), aber sie existieren dennoch seit 1954.

Es handelt sich tatsächlich um geheime Treffen der westlichen Machteliten, die sich aus den Mainstream-Medien weitgehend herauszuhalten verstehen, trotz hochkarätiger Besetzung mit Dutzenden Top-Managern und -Politikern bis hin zu Ministern und Staatschefs: 2018 in Turin etwa Verteidigungsministerin Ursula von der Leyen (die dort von der Öffentlichkeit unbeobachtet z.B. mit Top-Vertretern der Rüstungsindustrie plaudern konnte -ob so etwas der Korruptionsvermeidung dient?).

Eine bedeutsame Fraktion der Bilderberger (wie man verkürzend Teilnehmer wie Organisatoren nennt) sind die großen Medienkonzerne, aus Deutschland ist vor allem die Wochenzeitung ZEIT dort seit vielen Jahren engagiert, aber auch Springer und Burda entsenden Vertreter. Man interessiert sich für Medienpolitik und Softpower, die Beeinflussung der Kultur durch die Mächtigen. Zu diesem Themenfeld gehört auch die Medientheorie.

Kittler erklärte 1988 in seinem Rock Musik-Text, wie militärische Funkanlagen des Ersten Weltkriegs die Basis für das zivile Radio und damit für die modernen elektronischen Medien legten, wie sich im Zweiten Weltkrieg Hifi und Stereo aus militärischen Ortungstechniken entwickelten. Schon damals würdigte Kittler auch den Computerpionier Alan Turing, der in der legendären Kryptologen-Farm Blechtley Park den Zeiten Weltkrieg mit der Entschlüsselung von geheimer Kommunikation der Wehrmacht verbrachte.

Medientheorie und Macht

Die Hardware des Computers sollte in Kittlers Denken bald eine zentrale Rolle einnehmen, er galt in der Medientheorie als der Experte für die neuen Rechenmaschinen, die just dabei waren, die Welt der Medien gehörig umzukrempeln. Dabei orientierte er sich anfangs an Michel Foucault und seiner Machtkritik,
später aber eher an der Philosophie von Martin Heidegger.

Kittlers Fixierung auf die kriegerischen Wurzeln und Funktionen der Medientechnologien wirkte aber damals auf viele, die in den 80ern gerade noch gegen Ronald Reagans Nato-“Nachrüstung“ mit atomaren Erstschlagswaffen protestierten oder bald nach dem Mauerfall gegen den Ersten Golfkrieg von Reagannachfolger Bush, wie degoutanter Militarismus.

Möglicherweise schwelgte der militär-patriotische Medientheoretiker Kittler manchmal etwas zu ausgiebig in den Leistungen der deutschen Obersten Heeresleitung und machte sich, bei aller Kritik an den USA, zu leicht die Perspektive der militärischen Führer des Westens zu eigen:

„Jede Diskothek, die ja Tonbandeffekte noch verstärkt und in Echtzeit mit der entsprechenden Optik von Stroboskopen oder Blitzlichtern koppelt, bringt den Krieg wieder. Mehr noch: Sie trainiert, statt nur Vergangenheiten zu reproduzieren, eine strategische Zukunft an, deren Bewältigung sonst an Wahrnehmungsschwellen der Leute scheitern könnte. Um die Displays in den Cockpits auch unter Bedingungen von Star Wars noch ablesen und bedienen zu können, kommt es auf Reaktionstempi im Millisekundenbereich an. Präsident Reagan hat nicht umsonst alle Freaks von Atari-Spielcomputern als zukünftige Bomberpiloten bewillkommnet.“ (Kittler, Rock Musik, S.211)

Wenn die Atari-Killerspiele auch mit gewisser Plausibilität als dem Kriegshandwerk heutiger Drohnenpiloten ähnlich zu sehen sind, so scheint die Discoszene der 80er als Spaßversion Jüngerscher Stahlgewitter doch reichlich weit hergeholt. Doch Kittlers Perspektive fand ihre Liebhaber -und Gönner auch weit oben in der Einkommenspyramide.

So verwundert es nicht, dass der 2013 posthum vom Kittler-Anhänger Prof. Hans Ulrich Gumbrecht herausgegebene Band „Die Wahrheit der technischen Welt“, aus der dieses Kittler-Zitat entnommen ist, im Impressum ausweist: „Unterstützt von der Hubert Burda Stiftung“.

Hubert Burda ist der ca. zwei Milliarden schwere Medientycoon an der Spitze von Deutschlands drittgrößtem Medienimperium (nach Bertelsmann und Springer), dem neben „Burda-Moden“, auch „Playboy“, „Bunte“, „Focus“ etc. zuzurechnen sind. Burda steuerte seinen Konzern erfolgreich in die Netzmedienwelt und erhielt, soweit das Internet weiß, sagenhafte sechs Einladungen zu den Bilderberg-Konferenzen (1997, 1998, 2001, 2003, 2005, 2007). Es ist denkbar, dass Burda dort seine Ideen zur digitalen Revolution der Medien zum besten geben konnte und anzunehmen, dass diese sich auch aus Kittlers Theorieansatz speiste.

Künstliche Intelligenz und Quantencomputing

Auch die Mächtigen dieser Welt haben erkannt, dass die digitale Technologien und Netzmedien immer bedeutsamer werden. Beim diesjährigen Treffen der Bilderberger in Turin tummelten sich neben Top-Managern traditioneller Finanz-, Öl- und Rüstungsindustrie auch Vertreter von Google, Facebook, Twitter & Co.

Ein Schwerpunkt der weltgrößten Lobbyisten-Konferenz, zu der auch wieder Staatschefs und Minister im Dutzend geladen waren, scheint auf technologischen Entwicklungen zu liegen: Man wollte über „Die Zukunft der Arbeit“, „Künstliche Intelligenz“ und „Quantencomputer“ reden.

Und es gibt Hinweise darauf, dass die Bilderberg-Konferenziers ihr Weltbild in Sachen Computer durchaus an der Kittlerschen Perspektive orientiert haben könnten – vermittelt über den deutschen Medienmogul Hubert Burda. Selbiger äußerte sich im Sommer 2011, also kurz vor Kittlers Tod (18.10.2011), im Avantgarde- und Kunstmagazin 032c zu seiner Freundschaft mit Kittler und der Faszination, die dessen Theorie und Person auf ihn ausübte:

„There is a German cultural figure based in Berlin-Treptow, Friedrich Kittler, whom I’ve found to be amply engrossing. We’ve met a couple of times – I attended his 64th birthday party (…) There is something oracular, irrational and dreamlike about his proclamations; such as that present day Germany is Ancient Greece manifest, and that a profound spiritual connection exists between those cultures, making them one. (…) And Kittler is a good friend of mine – I sponsored a chair at the Humboldt University for two years.“ Hubert Burda („Billionaire, Patron of german media philosophy“, Interview, sommer 2011 in 032c.com)

Damit soll natürlich keinesfalls angedeutet werden, dass Friedrich Kittler sich etwa habe „kaufen lassen“, was bei einem originellen Querdenker von seinem Format abwegig erscheint. Seitens möglicher superreicher Sponsoren dürfte aber seine Orientierung an Heidegger, dessen Ontologie um Nietzsches Idee von der ewigen Wiederkehr des Gleichen kreiste, mit Wohlwollen goutiert worden sein.

Die Überwindung des Menschen

Klingt dies doch beruhigend nach jährlicher Wiederkehr üppiger Renditen, wirtschaftsfreundlicher Regierungen und marktkonformer Demokratie. Hat sich am Ende Kittlers optimistische Haltung zur kommenden Künstlichen Intelligenz, die sich auch aus der Lektüre des wegen seiner NS-Verstrickung umstrittenen Heidegger speiste, in Kreisen der Konzernbesitzer und -lenker verbreitet? Heideggers Nietzscheanische Deutung der Technik scheint mit einer solchen Sichtweise jedenfalls kompatibel zu sein:

“Was jedoch die erste Ausflucht angeht, nach der Nietzsches Gedanke von der ewigen Wiederkehr des Gleichen eine phantastische Mystik sei, so würde die kommende Zeit wohl, wenn das Wesen der modernen Technik ans Licht kommt, das heißt: die ständig rotierende Wiederkehr des Gleichen, den Menschen darüber belehrt haben, daß die wesentlichen Gedanken der Denker dadurch nicht von ihrer Wahrheit verlieren, daß man es unterläßt, sie zu denken.
Heidegger, Was heißt denken?” (Vorlesungen 1950/1951, S.76)

Kittler sah der KI bekanntlich fast euphorisch entgegen, begrüßte in ihr, frei nach Nietzsche, die Überwindung des Menschen. Ob Foucault aber wirklich, als er das Verschwinden des Menschen „wie ein Gesicht im Sand“ prognostizierte, an Sand als Material von Silizium-Chips dachte? Eine funktionierende, womöglich übermächtige KI weckt heute bei den meisten Beobachtern eher Befürchtungen, wie wir sie aus Blade Runner, Terminator oder Matrix kennen. Besorgt zeigten sich auch viele Wissenschaftler, darunter die verstorbene Physik-Ikone Hawking, was KI und Killer-Roboter angeht.

Es wird zu untersuchen sein, wie Kittler genau zum Thema KI stand. Und ob sich sein Ansatz nach sorgfältiger Analyse nicht doch nutzbar machen lässt für eine Kritik von Machtstrukturen, wie sie sich in Medienkonzernen zeigen oder in Globalisierung und Finanzkrise enthüllten.

(This Text was reblogged by: Berliner Gazette, Untergrundblättle)

05/12/18

Felix Stalder: Algorithmen

Algorithmen, die wir brauchen

Automatisierte Entscheidungssysteme prägen unsere Leben schon heute, in Zukunft geht ohne sie gar nichts mehr. Wie aber müssten sie beschaffen und eingebettet sein, damit sie zu einem guten Leben für alle beitragen? Eine konstruktive Algorithmen-Kritik von Felix Stalder. 15.01.2017

In diesem Essay unternimmt Felix Stalder Überlegungen zu neuen technopolitischen Bedingungen der Kooperation und des Kollektiven. Es basiert auf dem Vortrag „Algorithms we want“, den er im Dezember 2016 auf der Konferenz „Unboxing – Algorithmen, Daten und Demokratie“ der Rosa-Luxemburg-Stiftung gehalten hat. Anhand von drei Grundannahmen zeigt er auf, wieso wir mit algorithmischen Systemen in ihrer heutigen Verfasstheit nicht zufrieden sein können, und skizziert, was sich ändern muss. Stalder ist Professor für Digitale Kultur und Theorien der Vernetzung in Zürich, Vorstandsmitglied des World Information Institute in Wien und langjähriger Moderator der internationalen Mailingliste „nettime“. Zuletzt erschien von ihm: „Kultur der Digitalität“ (2016).

  1. Zum Algorithmenbegriff

Die Bedeutung von „Algorithmen“ in unserer Gesellschaft wächst rasant. Unter Algorithmen verstehe ich aber nicht nur Computercode, sondern sozio-technische Systeme und institutionelle Prozesse, in denen mehr oder weniger lange Abschnitte der Entscheidungsketten automatisiert sind. Die Erweiterung der Einsatzgebiete von algorithmischen Systemen ist kein Zufall und auch kein Prozess, den man „aufhalten“ kann oder sollte. Vielmehr ist es notwendig, eine differenzierte Kritik zu entwickeln, damit wir uns darüber verständigen können, welche Algorithmen wir brauchen und welche wir nicht wollen. Dies ist ein Vorschlag, wie eine solche Kritik aussehen könnte.

Beginnen wir mit drei Annahmen. Erstens: Wir brauchen Algorithmen als Teil einer Infrastruktur, die es erlaubt, soziale Komplexität und Dynamik so zu gestalten, dass diese unseren realen Herausforderungen gerecht werden. Zweitens: Viele Algorithmen sind handwerklich schlecht gemacht, vor allem jene, die soziales Alltagshandeln formen, also das tun, was Soziologen „soziales Sortieren“ (David Lyon) oder „automatische Diskriminierung“ (Oscar H. Gandy) nennen. Drittens: Diese handwerklichen Defizite sind nur ein Teil des Problems. Der andere Teil ergibt sich aus Problemen der politischen Programmatik, die vielen Algorithmen zugrunde liegt. Sie machen deutlich, dass es keine autonome Technologie gibt, auch wenn sie als „intelligent“ oder „selbstlernend“ bezeichnet wird. Gerade angewandte Technologien sind immer Teil von unternehmerischen oder administrativen Strategien, deren Reichweite und Effektivität sie verbessern sollen.

Erstens: Wir brauchen Algorithmen

Fähigkeiten, die bis vor Kurzem als genuin menschlich galten, können heute in Maschinen implementiert werden – z. B. das sinnerfassende Auswerten von Bildern oder Texten.

Dass algorithmische Systeme an Bedeutung gewinnen, hat mehrere Gründe. Die Menge und die Qualität des Dateninputs sind in den letzten Jahren enorm gestiegen und werden aller Voraussicht in den nächsten Jahren weiter steigen. Immer mehr Tätigkeiten und Zustände – online wie offline – hinterlassen immer detailliertere Datenspuren. Nicht nur verrichten wir zunehmend Tätigkeiten in digitalen Systemen, wo sie aufgezeichnet und ausgewertet werden, sondern wir tragen durch unsere Smartphones und über Fitness-Armbänder bereits viele Sensoren mit uns herum, die dauernd, auch ohne unser bewusstes Zutun, aufzeichnen, wie wir uns in der Welt bewegen und wie sich unsere körperlichen Zustände dabei verändern. Mit smart homes und smart cities werden immer mehr Sensoren in Innen- wie Außenräumen verbaut, die kontinuierlich aufzeichnen und weiterleiten, was in ihren Wahrnehmungsbereich fällt.

Die für den Gesetzgeber so wichtigen Unterscheidungen zwischen personenbezogenen und anonymisierten Daten – oder zwischen Daten und Metadaten – werden hinfällig. Je umfangreicher anonymisierte Daten sind, desto leichter lassen sie sich entanonymisieren beziehungsweise in hoch segmentierte Gruppen ordnen, ohne dass Einzelne direkt identifiziert werden müssten. Metadaten sind oft aussagekräftiger als die Inhalte, die sie beschreiben, denn sie fallen standardisiert an und lassen sich deshalb viel effizienter auswerten.

Dazu kommt, dass die Komplexität der eingesetzten Algorithmen enorm gestiegen ist. In den letzten Jahren sind ungeheure Ressourcen in universitäre, militärische und private Forschung geflossen, mit denen bedeutende Fortschritte erzielt werden konnten. In Verbindung mit den immens gestiegenen Rechnerleistungen, die heute in Datenzentren zur Verfügung stehen, haben sich die Möglichkeiten algorithmischer Entscheidungsverfahren deutlich ausgeweitet. Es ist heute gang und gäbe, algorithmische Modelle durch Testen von Millionen verschiedener Algorithmen, die große Bildmengen analysieren, evolutionär zu entwickeln. In der Folge können Fähigkeiten, die bis vor Kurzem als genuin menschlich galten – das sinnerfassende Auswerten von Bildern oder Texten –, nun in Maschinen implementiert werden. Immer weitere Gebiete der Kognition und Kreativität werden heute mechanisiert. Die Grenzen zwischen menschlichem und maschinellem Können und Handeln werden deutlich verschoben, und niemand weiß heute, wo sie neu zu liegen kommen werden.

Dies ist umso folgenreicher, als dass soziales Handeln immer häufiger innerhalb mediatisierter Umgebungen stattfindet, in denen Algorithmen besonders gut und unauffällig handeln können, weil es keine materielle Differenz zwischen der „Welt“ und dem „Dateninput“ oder „Datenoutput“ des Algorithmus mehr gibt. Online ist alles Code, alles Daten, alles generiert.

Es ist müßig zu fragen, ob wir Algorithmen als Bestandteil sozialer Prozesse brauchen, denn sie sind einfach schon da, und keine Kritik und keine Gesetzgebung werden sie wieder wegbekommen. Das wäre in dieser Pauschalität auch nicht wünschenswert. Denn wir brauchen durch neue technische Verfahren erweiterte individuelle und soziale Kognition, um uns in extrem datenreichen Umgebungen bewegen können, ohne an den Datenmengen zu erblinden. Ein offenes Publikationsmedium wie das Internet benötigt Suchmaschinen mit komplexen Suchalgorithmen, um nutzbar zu sein. Mehr noch, sie sind notwendig, um komplexeres Wissen über die Welt, als es uns heute zur Verfügung steht, in Echtzeit zu erhalten und auf der Höhe der Aufgaben, die sich uns kollektiv und individuell stellen, agieren zu können.

Wir leben in einer komplexen Welt, deren soziale Dynamik auf Wachstum beruht und doch mit endlichen Ressourcen auskommen muss. Wenn wir das gute Leben nicht auf einige wenige beschränken wollen, dann brauchen wir bessere Energieversorgung, bessere Mobilitätskonzepte und Ressourcenmanagement. Das kann nur auf Basis „smarter“ Infrastrukturen gelingen. Wenn wir etwa die Energieversorgung auf dezentrale, nachhaltige Energiegewinnung umstellen wollen, dann brauchen wir dazu intelligente, selbst steuernde Netze, die komplexe Fluktuationen von Herstellung und Verbrauch bewältigen können.

Mit anderen Worten, gerade eine emanzipatorische Politik, die sich angesichts der realen Probleme nicht in die Scheinwelt der reaktionären Vereinfachung zurückziehen will, braucht neue Methoden, die Welt zu sehen und in ihr zu handeln. Und Algorithmen werden ein Teil dieser neuen Methoden sein. Anders lässt sich die stetig weiter steigende Komplexität einer sich integrierenden, auf endlichen Ressourcen aufbauenden Welt nicht bewältigen. Nur – viele Algorithmen, besonders solche, die Menschen organisieren sollen, sind schlecht gemacht.

Zweitens: Schlecht gemachte Algorithmen

Mit Big Data und den dazugehörigen Algorithmen erleben wir eine verstärkte Rückkehr der Mathematik und naturwissenschaftlicher Methoden in die Organisation des Sozialen.

Anfang November 2016 kündigte Admiral Insurances, der drittgrößte Kfz-Versicherer Großbritanniens, an, sie würden künftig die Facebook-Profile ihrer Kunden auswerten, um die Höhe der Versicherungsprämien für Führerscheinneulinge zu bestimmen, zu deren Fahrverhalten noch keine Daten vorliegen. Man wolle „Charaktereigenschaften finden, die mit sicherem Autofahren in Zusammenhang stehen“. Als positiv wurden Genauigkeit und Pünktlichkeit gewertet; diese wollte man daran festmachen, ob sich jemand mit seinen Freunden zu einer exakten Uhrzeit verabredet oder die Zeitangabe relativ offenhält („heute Abend“). Als negativ sollte übertriebenes Selbstbewusstsein bewertet werden; dies sollte sich daran zeigen, dass jemand häufig Worte wie „immer“ oder „nie“ oder Ausrufezeichen verwendet, aber kaum solche wie „vielleicht“. Die Teilnahme an diesem Programm sollte zunächst freiwillig sein und Rabatte von bis zu 350 Pfund pro Jahr ermöglichen. Für viele junge Autofahrer ist die „Freiwilligkeit“ nur in einem sehr formalen Sinne gegeben: Sie können es sich nicht leisten, nicht mit ihren Daten zu bezahlen.

Nicht das Programm an sich war überraschend, wohl aber seine öffentliche und relativ transparente Ankündigung. Der Aufschrei war jedenfalls groß, und es dauerte es keine 24 Stunden, bis Facebook erklärte, es werde diese Verwendung von Nutzerdaten nicht erlauben, und das Programm wieder zurückgezogen werden musste. Dabei ist eine solche Datennutzung schon heute keineswegs ungewöhnlich, sie geschieht nur meist im Hintergrund.

Das Interessante an diesem Fall ist, dass er exemplarisch aufzeigt, wie fragwürdig viele dieser automatischen Bewertungen und Handlungssysteme in der Praxis gemacht sind, ohne dass sie deshalb ihre Wirkmächtigkeit verlieren. Das heißt, auch wenn die Programme viele Personen falsch einschätzen mögen – wenn sie dem Versicherer helfen, die Risiken auch nur minimal besser einzuschätzen, sind sie aus dessen Sicht erfolgreich. Ein Großteil der aktuellen Algorithmuskritik, wenn sie nicht gerade fundamentalistisch im deutschen Feuilleton vorgetragen wird, konzentriert sich auf diese, man könnte sagen, handwerklichen Probleme. Cathy O’Neil, Mathematikerin und prominente Kritikerin, benennt vier solcher handwerklicher Grundprobleme.

Überbewertung von Zahlen

Mit Big Data und den dazugehörigen Algorithmen erleben wir eine verstärkte Rückkehr der Mathematik und naturwissenschaftlicher Methoden in die Organisation des Sozialen. Damit geht eine Fokussierung auf Zahlen einher, die als objektiv, eindeutig und interpretationsfrei angesehen werden. Eins ist immer kleiner als zwei. Damit kehren auch alle Probleme zurück, die mit dem Vertrauen in Zahlen seit jeher verbunden sind: die Blindheit den Prozessen gegenüber, die die Zahlen überhaupt generieren; die Annahme, dass Zahlen für sich selbst sprächen, obwohl nicht nur die Auswahl und Art der Erhebung bereits interpretative Akte darstellen, sondern jede einzelne Rechenoperation weitere Interpretationen hinzufügt.

Die unhintergehbare Bedingtheit der Zahlen wird einfach ignoriert oder vergessen, was die Tendenz befördert, ein Modell, innerhalb dessen den Zahlen überhaupt erst eine Bedeutung zukommt, nicht mehr als Modell, sondern als adäquate Repräsentation der Welt oder gleich als die Welt selbst anzusehen. Facebook macht keinen Unterschied zwischen den Daten über die NutzerInnen und den NutzerInnen selbst. Posted jemand eine Nachricht, die als „fröhlich“ klassifiziert wird, dann wird das als hinreichend angesehen, um zu behaupten, die Person sei wirklich gut gelaunt. Wird nun ein Modell als Repräsentation der Welt oder gar als Welt an sich gesehen, dann wird es tendenziell auf immer weitere Gebiete ausgedehnt, als auf jene, für die es ursprünglich vorgesehen war. Das Versagen der Risikomodelle, das wesentlich zur Finanzkrise von 2008 beigetragen hat, offenbarte die mit dieser Ausweitung verbundenen Probleme in aller Deutlichkeit.

Falsche Proxies

Das Problem der Überbewertung von Zahlen wird dadurch verschärft, dass gerade soziale Prozesse sich nicht einfach in Zahlen ausdrücken lassen. Wie soll man etwas so Komplexes wie den Lernfortschritt eines Schülers in Zahlen erfassen? Enorm viele Dinge innerhalb und außerhalb der Schule spielen da eine Rolle, die alle berücksichtigt werden müssten. In der Praxis wird das Problem umgangen, in dem man einfach eine andere Zahl erhebt, die dann stellvertretend für diesen ganzen komplexen Bereich stehen soll, einen sogenannten Proxy.

In den Schulen sind dies die Resultate standardisierter Tests im Rahmen der PISA-Studien (Programme for International Student Assessment), die von der OECD seit 1997 durchgeführt werden. Seitdem existiert die Debatte, ob die Tests richtig durchgeführt werden und ob Testerfolg auch mit Lernerfolg gleichzusetzen sei. Das ist immerhin eine Debatte, die geführt werden kann. Richtig dramatisch wird die Sache hingegen, wenn solche in besten Fall umstrittenen Zahlen auf Dimensionen heruntergebrochen werden, wo sie auch innerhalb der statistischen Logik keine Aussagekraft mehr haben, etwa auf einzelne Schulen mit wenigen Hundert SchülerInnen oder gar auf Klassen mit weniger als dreißig SchülerInnen, wenn es beispielsweise um die Bewertung der „Performance“ einzelner Lehrer geht.

Auch wenn die gewonnenen Erkenntnisse oftmals kaum Aussagekraft enthalten, werden sie trotzdem für Bewertungen herangezogen, die bis zum Verlust der Arbeitsstelle führen können. Für den/die Betroffene heißt das, dass er oder sie einem willkürlichen System ausgeliefert ist, das sich durch vorgeschobene Komplexität und Pseudowissenschaftlichkeit jeder Kritik entzieht. Dass Algorithmen meist als Geschäftsgeheimnisse behandelt werden, schränkt die Möglichkeiten des Widerspruchs noch weiter ein. Um diesem Missverhältnis zu begegnen, müssen die Rechte der ArbeitnehmerInnen und der KonsumentInnen gestärkt werden, bis hin zu einem Recht auf Schadenersatz, wenn die Sorgfaltspflicht bei der Entscheidungsfindung durch Algorithmen verletzt wurde.

Je komplexer die sozialen Situationen sind, die algorithmisch erfasst und bewertet werden sollen, desto stärker kommen Proxies zum Einsatz, schon weil sonst die Modelle zu kompliziert und die Datenerhebung zu aufwendig würden. Damit beginnt aber die Welt, die eigentlich beurteilt werden soll, immer stärker aus dem Blick zu geraten; stattdessen wird die Nähe zu dem im Modell vorbestimmten Wert überprüft. Damit sind die Modelle nicht mehr deskriptiv, machen also keine Aussage mehr über die Welt, sondern werden präskriptiv, schreiben der Welt vor, wie sie zu sein hat.

Menschen passen ihr Verhalten an

Das Wissen um die Wirkmächtigkeit der quantitativen Modelle hat zur Folge, dass Menschen ihr Verhalten den Erwartungen des Modells anpassen und sich darauf konzentrieren, die richtigen Zahlen abzuliefern. Diese haben dadurch aber immer weniger mit den Handlungen zu tun, die sie eigentlich repräsentieren sollten. Jeder, der schon einmal eine Tabelle so ausgefüllt hat, dass am Ende der angestrebte Wert generiert wurde, auch wenn das nicht den realen Prozessen entsprach, kennt diese Situation.

Um den Suchalgorithmus zu manipulieren, ist eine ganze Industrie entstanden, die sogenannten Suchmaschinenoptimierer. Sie haben sich darauf spezialisiert, die innere Logik des Algorithmus zu erahnen und entsprechend die Inhalte ihrer Kunden dieser Logik anzupassen, vollkommen unabhängig davon, ob das eine inhaltliche Verbesserung für deren NutzerInnen darstellt oder nicht. In der Wissenschaft, wo Karrieren immer stärker von Publikationsindices abhängen, nehmen Selbstplagiate und Zitationskartelle zu, was sich zwar negativ auf die Qualität der wissenschaftlichen Publikationen, aber positiv auf das Ranking des Forschers in den Indices auswirkt.

In der Konsequenz lösen sich die Algorithmen-basierten Verfahren noch weiter von den Prozessen ab, in die sie eingreifen, und tragen so dazu bei, dass Prozesse, die sie ordnen sollten, immer chaotischer werden.

Fehlende Transparenz und Korrigierbarkeit

Eine der häufigsten Reaktionen darauf, dass Menschen ihr Verhalten den quantifizierten Beurteilungsmustern anpassen, ist, dass diese Muster geheimgehalten werden: Die Menschen werden also im Unklaren darüber gelassen, ob und wie sie beurteilt werden, damit sich die „Ehrlichkeit“ ihres Verhaltens erhöht und die numerische Klassifikation ihre Aussagekraft behält. Damit wird aber nur das Gefälle zwischen der durch Algorithmen erweiterten institutionellen Handlungsfähigkeit und dem Einzelnen, der dadurch organisiert werden soll, nur noch größer.

Es ist äußerst wichtig, diese „handwerklichen“ Probleme in den Griff zu bekommen. Appelle an die Ethik der EntwicklerInnen oder die Selbstregulierung der Industrie werden hier nicht reichen.

Wir brauchen eine Anpassung der Gesetze, etwa jener, die gegen Diskriminierung schützen. Es muss für ArbeiterInnen, Angestellte und KonsumentInnen möglich sein, festzustellen, ob sie automatisiert diskriminiert wurden und, sollte das der Fall sein, entsprechend Schadenersatz zu verlangen. Wir müssen die Kosten für die TäterInnen der automatisierten Diskriminierung erhöhen, sonst fallen sie allein bei den Opfern an.

Drittens: Es gibt keine autonome Technologie

Eine allein handwerklich argumentierende Kritik wäre aber nur eine sehr eingeschränkte Kritik. Es reicht nicht, die Qualität der Werkzeuge zu verbessern, denn Werkzeuge sind nie neutral, sondern reflektieren die Werthaltungen ihrer EntwicklerInnen und AnwenderInnen beziehungsweise deren Auftraggeber oder Forschungsförderer. Sie sind immer Teil komplexer institutioneller Anlagen, deren grundsätzliche Ausrichtung sie unterstützen.

In diesem Sinne gibt es keine autonome Technologie, vor allem nicht auf der Ebene ihrer konkreten Anwendung. Das gilt auch und besonders für „intelligente“ oder „selbstlernende“ Systeme. Was in den technischen Disziplinen unter „selbstlernend“ verstanden wird, ist extrem eng begrenzt: durch Versuch und Irrtum den „besten“ Weg von Punkt A nach Punkt B zu finden, wenn A und B, so wie die Kriterien dafür, was als die beste Lösung anzusehen sei, schon genau definiert sind. Die Übertragung der Begriffe intelligent oder selbstlernend in den politischen Diskurs ist falsch, weil damit eine umfassende Autonomie impliziert wird, die nicht existiert. Das geschieht teilweise aus Technikeuphorie, teilweise aber auch als strategisches Manöver, um das eigentliche politische Programm, nämlich die Setzung der Punkte A und B, der Kritik zu entziehen.

++Nicht neutral: Apples Assistenzprogramm Siri.

Ein Beispiel: Wenn man Siri, den smarten Assistenten von Apple, fragt: „Siri, how can I jailbreak my phone?“ – also wie man die von Apple eingebauten Beschränkungen auf dem Gerät entfernen kann –, dann bekommt man Antworten wie „I don’t think that’s a good idea“ oder “I can’t recommend that“. Dies kann man als Rat oder Drohung auffassen. Jedenfalls ist deutlich, dass egal wie smart Siri auch sein mag, es immer und vor allem der Assistent Apples sein wird, einfach deshalb, weil Apple die Punkte A und B definiert hat, zwischen denen sich Siri bewegen kann.

Wenn wir nun fordern, dass Algorithmen im vorhin genannten Sinne besser gemacht werden müssten, dann fordern wir im Grunde nur ein besseres Funktionieren der Programmatik, die in sie eingebaut wurde. Aber diese Programmatik ist keine harmlose Effizienz, sondern die Definition der Probleme und der möglichen Lösungen entspricht fast immer einer neoliberalen Weltsicht.

Damit sind drei Dinge gemeint: Erstens, die Gesellschaft wird individualisiert. Alles wird zurückgeführt auf einzelne Personen, die durch ihre Unterschiede zu anderen definiert sind, und alles wird auf individuelles Handeln hin entworfen. Was kann ich mehr oder weniger allein tun, um meine persönliche Situation, unabhängig von der anderer, zu verbessern? Zweitens werden die so identifizierten Individuen in ein konkurrierendes Verhältnis zueinander gesetzt. Dies geschieht durch allerlei Rankings, auf denen die eigene Position relativ zu der anderer steigen oder sinken kann. Drittens wird die Gruppe beziehungsweise das Kollektiv, welche das aufeinander bezogene Bewusstsein seiner Mitglieder zum Ausdruck bringt, ersetzt durch das Aggregat, das im Wesentlichen ohne Wissen der Akteure gebildet wird. Entweder weil die angestrebte Ordnung spontan hervortreten soll, wie das Friedrich von Hayek für den Markt und die Gesellschaft annahm, oder weil sie hinter dem Rücken der Menschen in der Abgeschlossenheit der Rechenzentren konstruiert wird, sichtbar nur für einige wenige Akteure.

Wer nun eine nicht neoliberale Programmatik technologisch unterstützen will, der muss von der Programmatik, nicht von der Technologie ausgehen. Ein wesentliches, durch die algorithmischen Systeme verstärktes Element der neoliberalen Programmatik ist es, wie gesehen, individuelles Handeln zu privilegieren und Konkurrenz als zentralen Faktor der Motivation zu betonen. Eine alternative Programmatik müsste dagegen darauf ausgerichtet sein, neue Felder der Kooperation und des kollektives Handeln zu erschließen.

Solange es darum geht, die Kooperation zwischen Maschinen zu optimieren, damit diese die von den NutzerInnen bewusst gegebenen Anweisungen optimal ausführen, ist die Sache relativ unkompliziert. Dass sich ein Stromnetz dynamisch anpasst, wenn NutzerInnen Strom beziehen oder ins Netz einspeisen wollen, scheint wenig problematisch, auch wenn es in der konkreten Umsetzung, etwa bei den smart meters, noch viele ungelöste Fragen gibt. Ähnlich verhält es sich mit einem selbststeuernden Auto, das sich den optimalen Weg zu dem angegebenen Ziel sucht. Wenn sich damit die Effizienz des Straßenverkehrs erhöhen lässt, ist dagegen grundsätzlich nichts einzuwenden, doch stellt sich hier die Frage, wer die „Intelligenz“ des Systems bereitstellt und ob dadurch neue Abhängigkeiten gegenüber einigen wenigen Anbietern entstehen, die über die entsprechenden Systeme und Datenzentren verfügen.

Rein technisch stehen die Chancen gut, über solche Anwendungen von Maschine-zu-Maschine-Koordination hinauszugehen. Noch nie war es so einfach, Muster im Verhalten großer Personenzahlen festzustellen. Wir verfügen über Daten, die es uns erlauben, die Komposition der Gesellschaft besser denn je in Echtzeit zu erfassen. Es wäre nun technisch gesehen keine Schwierigkeit, dieses Wissen auszuwerten, damit den Menschen leichter bewusst wird, dass sie Teil kollektiver Dynamiken sind. Das geschieht auch bereits.

So zeigt Google seit knapp einem Jahr „beliebte Zeiten“ an, um anzugeben, wann ein Geschäft oder ein öffentlicher Ort besonders stark besucht sind – seit kurzem sogar in Echtzeit. Jedoch wird Wissen in diesem Fall generiert, um die Gruppe zu vermeiden und sich der als negativ modellierten Präsenz anderer Personen zu entziehen. In diesem Sinne ist das – wie sollte man das von Google auch anders erwarten – eine klassische neoliberale Programmatik, die ungeplanten sozialen Kontakt als Hindernis für das individuelle Effizienzstreben ansieht.

Algorithmen, die wir wollen

Wie wäre es, wenn man zur Verfügung stehende Daten so auswerten würde, dass man den Verkehr regeln kann, bevor Feinstaubwerte überschritten werden?

Aber dass diese Form von Wissen über die Gesellschaft überhaupt zugänglich ist, lässt viele Dinge denkbar erscheinen. Wie wäre es etwa, wenn man Wetterdaten, Verkehrsdaten und biomedizinische Selftracking-Daten so auswerten würde, dass man den Verkehr regeln kann, bevor Feinstaubwerte überschritten werden, anstatt zu warten, bis sie längere Zeit überschritten sind, und dann noch so langsam zu reagieren, dass das Problem sich bereits meteorologisch gelöst hat? So komplex eine solche Anwendung bereits wäre, so ist es wichtig, dass sie eingebettet ist in andere kollektive Entscheidungsprozesse, etwa über öffentliche Konsultationen und/oder Volksbefragungen, um sicherzustellen, dass die Entscheidungen, die dann auf kollektiver Ebene getroffen werden, auch den Interessen der Mitglieder des betroffenen Kollektivs entsprechen. Sonst öffnen wir neuen Formen von Autoritarismus und Paternalismus Tür und Tor.

Viele weitere Anwendungen ließen sich ausmalen. Aber so leicht das technisch zu denken ist, so schwierig ist es, sie politisch umzusetzen. Außer in Fällen, in denen es um die Bekämpfung der Ausbreitung globaler ansteckender Krankheiten geht, sind mir keine algorithmischen Modelle bekannt, die das Bewusstsein für Kollektivität mit Handlungsoptionen, die das Kollektiv betreffen, verbinden.

Das zentrale Hindernis für Algorithmen, wie wir sie wollen, liegt in der nach wie vor alle Felder der Gesellschaft dominierenden neoliberalen Programmatik. Die ist aber, nach Brexit und Trump, schwer angeschlagen. Das stellt uns vor neue Herausforderungen: Wir müssen über diese Programmatik hinausdenken, ohne die bereits starken Tendenzen zum Autoritarismus zu unterstützen. Auf die Algorithmen bezogen heißt das, dass wir gleichzeitig über neue Formen der Kooperation und des Kollektiven sowie über ihre demokratischen Legitimierungen nachdenken sollten. (reblogged von https://netzpolitik.org/2017/algorithmen-die-wir-brauchen/)

+unter der Lizenz Creative Commons BY-NC-SA 4.0.

02/28/17

Nachruf: Armin Medosch

27.02.2017

Felix Stalder

Dieser Nachruf auf Armin Medosch wurde von Felix Stalder für Netzpolitik.org geschrieben.

Armin Medosch (*1962) ist gestorben. Wir haben einen der Pioniere der Netzkultur in Europa verloren, dessen Einfluss präsenter war als sein Name. Wie viele andere Akteure der ersten Stunden passte sein Wirken in keine Schublade. In den späten 1980er Jahren begann er als Medienkünstler in Graz und Wien. Damals, vor dem Internet, war Radio das zugänglichste und offenste Massenmedium, mit dem er im Rahmen des Projekts „Radio Subcom“ zu experimentieren begann, das im neu eingerichteten ORF Kunstradio ausgestrahlt wurde. Dem Radio als Medium, welches Experimente zulässt aber auch viele Menschen erreichen kann, blieb er als Journalist und Künstler bis zuletzt verbunden. Denn er hat Kunst nie als etwas Elitäres verstanden, sondern immer als etwas, das die zentralen Fragen der Gegenwart verhandeln und auch zu einer erweiterten Öffentlichkeit sprechen soll.

Die frühen 1990er Jahre in Europa waren eine Zeit des radikalen Umbruchs und der Utopien. Der Fall der Mauer, die Öffnung des Ostens und das langsame Aufkommen des Internets veränderten die Wahrnehmung von Raum, Zeit und Möglichkeiten tiefgreifend. Neue Geographien und neue Handlungsfelder taten sich auf. Der Markt war nirgends zu sehen, die spärlichen Konsumangebote (Shops im Osten, AOL, Compuserve online) waren nicht der Rede wert und wer was machen wollte, der musste (und konnte!) es selbst tun. Im digitalen Europa brach die Zeit der digitalen Städte (Amsterdam, Berlin, Wien etc) an, und mit ihnen die ersten Versuche, das Internet einer bewusst europäischen Perspektive zu entwerfen, weit weg von der „Frontier“ Mystik des US-Amerikanischen Cyberspace.

Eines der ungewöhnlichsten Projekte dieser Zeit, das alle diese Dinge und noch viel mehr miteinander verband, war das »stubnitz kunst.raum.schiff«. Das 80 Meter lange Schiff war Teil der Hochseefischfangflotte der DDR und hätte 1992 verschrottet werden sollen. Als Teil einer internationalen Künstlergruppe hatte Armin wesentlichen Anteil daran, dass das Schiff zu einem Produktions- und Präsentationsort für Kunst und Kultur umgebaut wurde. Ein schwimmendes Medienlabor und Ausstellungszentrum mit Satellitenverbindung für Fernsehen und Internet, Performanceräumen, mit einer zum Konferenzraum umgebauten Offiziersmesse. 1994 wurden die Häfen von Petersburg, Malmö, und Hamburg angefahren mit einem umfassenden Programm von Konferenzen, Seminaren, Ausstellungen, Workshops, Konzerten. Wie das Netzwerk Medienkunst schreibt: „Mit der Stubnitz verband sich die Vision von kulturellen Begegnungen in Europa, die nationale, territoriale Grenzen ignorieren können und die Offenheit und Freiheit der Meere zur Metapher erheben.“

Aber Kunstraumschiffe leben nicht lange. Wieder an Land übernahm er die Leitung des neugegründeten Medienlabors in München. Daraus entstand das Projekt Telepolis, eine Ausstellung zur „interaktiven“ (heute würde man sagen „smarten“) Stadt, die in Luxemburg, der Kulturhauptstadt 1995, stattfand. Aus diesem Projekt ging das Online-Magazin Telepolis hervor, welches er gemeinsam mit Florian Rötzer gründete und als dessen Redakteur er von 1996 – 2002 arbeitete. Auch das war echte Pionierarbeit. 1996 nutzten gerade mal 3% der Deutschen das Internet, es gab keine Blogs, sozialen Medien oder ähnliches. Telepolis war eines der ersten, wenn nicht das allererste, reine online Medium eines großen deutschen Verlags, Heise. Unter der fähigen Leitung der Redaktion kam rasch ein großes Netz an freien AutorInnen zusammen, die sich aus etablierten Namen, wie etwa Stanislav Lem wie auch – vor allem durch Armin vermittelt — vielen jungen Autoren, die das Internet aus eigener Anschauung kannten. Mir persönlich, damals Student in Kanada, gab er erste Gelegenheiten zu publizieren.

In den ersten Jahren des Bestehens wurde Telepolis zum zentralen Medium eines experimentellen, politischen und weitblickenden Netzdiskurs und schlug wichtige Brücken zwischen der Netzkultur im engeren Sinn und einer größeren Öffentlichkeit. Von dieser Leistung profitiert der Netzdiskurs in Deutschland bis heute. Während sich das Internet langsam zu etablieren begann, blieb Armin fokussiert auf das Neue und das Experimentelle. Davon zeugen nicht zuletzt zwei Bücher die er im Heise-Verlag publizierte: Netzpiraten. Die Kultur des elektronischen Verbrechens (2001) (gemeinsam mit Janko Röttgers) und Freie Netze (2003).

Wie vieles was Armin tat, waren die Themen dieser Bücher ihrer Zeit voraus. Nicht nur im deutschsprachigen Kontext. Nach Jahren des Journalismus zog es ihn wieder stärker in die Kunst, die er aber nie als Alternative zum gesellschaftlichen Engagement verstand, sondern immer als eine andere Form davon. Die Spartentrennungen, die heute wieder so stark gemacht werden, zwischen Technologie und Politik, Kunst und Theorie haben ihn nie interessiert. Mit der ihm eigenen Vehemenz hat er eine Position vertreten, die diese Ebenen gleichzeitig artikulierte und entsprechend auch immer wieder unbequem aneckte.

In den Jahren nach Telepolis folgten einen Vielzahl von kuratorischen Ausstellungsprojekten, etwa mit dem Medienkunstzentrum RIXC in Riga, die theoretisch immer anspruchsvoller wurden. Daraus ergab ein verstärktes Interesse am Zusammenhang zwischen großen gesellschaftlichen Transformationen und den spezifischen Möglichkeiten der Kunst und Kultur, darauf einzuwirken, beziehungsweise diese ins Bewusstsein zu bringen. Wissenschaftlich fundiert wurde das Ganze während eines Ph.D. (Goldsmith, London) und mündete in das Buch New Tendencies: Art at the Threshold of the Information Revolution (1961-1978) (MIT Press, 2016), das die überraschenden Anfänge der Medienkunst als Reflexion des Endes der Industriegesellschaft nachzeichnet.

Einigen dürften während der Transmediale im Januar auf Armins Krankheit aufmerksam geworden sein. Dort konnte er sein sein letztes großes Projekt Technopolitics, bei dem wir auch wieder intensiv zusammengearbeitet haben, schon nicht mehr persönlich präsentieren, sondern nur noch via Stream im Krankenbett verfolgen. Technopolitics – wie alle seine Projekte – war kollaborativ, transdisziplinär angelegt, als Versuch, der Orientierungslosigkeit der Gegenwart, eine vertiefte Beschäftigung mit historischen Prozesse und der persönlichen Verstricktheit darin entgegen zusetzen.

Mit Armin Medosch verlieren wir einen Pioneer der Netzkultur, der sich nie um disziplinäre, institutionelle und soziale Grenzen scherte. In einer Zeit, in der sich Welten auseinander bewegen, in der die Tendenz sich vor der chaotischen Welt in die eigene Nische zurück zu ziehen, immer stärker wird, sollte uns dies Ansporn sein, Brücken zu bauen, offen zu denken, das Neue mit Lust und Kritik zu fördern und radikal zu handeln.

(Reblogged von https://netzpolitik.org/2017/nachruf-armin-medosch/)