10/22/25

TikTok: Suicid Knocking (AI France)

TikTok erneut in der Kritik: Der Amnesty International-Bericht enthält sensible Inhalte, darunter Verweise auf Selbstverletzung und Selbstmord. (20.10.2025 von AI Frankreich)
Eine neue Untersuchung von Amnesty International hat ergeben, dass der „For You”-Feed von TikTok
französische Kinder und Jugendliche, die sich mit Inhalten zur psychischen Gesundheit beschäftigen,
in einen Kreislauf aus Depressionen, Selbstverletzung und Selbstmord treibt. Die Untersuchung mit dem Titel „Dragged into the Rabbit Hole“ (In den Kaninchenbau gezogen) zeigt, dass TikTok es weiterhin versäumt, seine systemischen Designrisiken anzugehen, die Kinder und Jugendliche betreffen.
„Unsere technische Untersuchung zeigt, wie schnell Teenager, die Interesse an Inhalten zum Thema psychische Gesundheit bekunden, in einen toxischen Kaninchenbau gezogen werden können. Innerhalb von nur drei bis vier Stunden nach der Nutzung des „For You”-Feeds von TikTok wurden die Testkonten von Teenagern Videos ausgesetzt, die Selbstmord romantisierten oder junge Menschen zeigten, die ihre Absicht zum Ausdruck brachten, sich das Leben zu nehmen, einschließlich Informationen über Selbstmordmethoden”, sagte Lisa Dittmer, Forscherin bei Amnesty International für die digitalen Rechte von Kindern und Jugendlichen.
Original bei AI Bericht als PDF erhältlich (39 S.)
Übersetzt mit DeepL.com (kostenlose Version)

France: Dragged into the rabbit hole: New evidence of TikTok’s risks to children’s mental health

Bringing together testimony from affected young people and parents in France as well as renewed technical research evidence, the briefing documents TikTok’s failure to address its systemic design risks for children and young people both under international business and human rights standards as well as under the company’s binding obligations under the EU’s Digital Services Act. It is an urgent appeal to the company itself, but also to EU and French regulators to take decisive action to force the company to respect children’s and human rights. (Bericht in englischer Sprache)

AI ist auf TikTok und gegen TikTok, Twitter/X etc. aktiv:

TikTok, X, Facebook & Co. – Bedrohung oder Chance für die Menschenrechte?

AI: „Die Tech-Konzernbesitzer Marc Zuckerberg und Elon Musk haben zu Beginn des Jahres die Spielregeln der digitalen Öffentlichkeit massiv verändert. So betrieb Musk wenige Wochen vor der Wahl des deutschen Bundestages Werbung für die AfD, bei einer nach eigenen Angaben weltweiten Reichweite von täglich rund 250 Millionen Nutzer*innen ein erheblicher Eingriff in die Meinungsbildung. Zuckerberg wiederum verkündete kurz vor dem Amtsantritt von Donald Trump als Präsident der USA für seinen Internetkonzern Meta das Ende von Faktenprüfungen und Beschränkungen bei politischen Äußerungen zu Migration und Geschlechterfragen. Betroffen sind davon, zunächst in den USA, die Plattformen Facebook, Instagram und Threads. So werden künftig menschenverachtende und diskriminierende Bezeichnungen etwa für Transpersonen nicht mehr gefiltert und gesperrt, sondern können ihren Weg durch die Algorithmen zu Milliarden Meta-Nutzer*innen weltweit finden. Das Recht auf freie Meinungsäußerung wird durch das Recht auf Hass und Hetze ersetzt.“ (von AI 2025)

AI wies schon 2023 auf Jugendgefährdung durch TikTok hin:

Das Geschäftsmodell und die Funktionsweise von TikTok stellen eine Gefahr für junge Nutzer*innen der Plattform dar, da ihnen aufgrund von Empfehlungen in ihrem Feed Inhalte über Depressionen und Suizid angezeigt werden, die bestehende psychische Probleme verschlimmern könnten. Dies geht aus zwei neuen Berichten von Amnesty International hervor. Die beiden Berichte Driven into the Darkness: How TikTok Encourages Self-harm and Suicidal Ideation und I Feel Exposed: Caught in TikTok’s Surveillance Web machen auf Menschenrechtsverstöße aufmerksam, denen minderjährige und jugendliche TikTok-Nutzer*innen ausgesetzt sind. Die Berichte zeigen auf, inwiefern diese Verstöße dem Geschäftsmodell und der Funktionsweise der Plattform geschuldet sind.

TikToks Geschäftsmodell als Gefahr für Kinder und Jugendliche

Zusammenfassung des AI-Berichts von 2023:

  • Fast die Hälfte aller Videos der Untersuchungstests enthielten potenziell schädliche Inhalte über geistige Gesundheit.
  • Weniger als eine Stunde nach der Einrichtung der Testkonten wurden Inhalte ausgespielt, die Suizid normalisierten oder romantisierten.
  • Das Geschäftsmodell von TikTok ist darauf ausgelegt, Nutzer*innen bei der Stange zu halten und immer mehr persönliche Daten zu sammeln.
09/22/25

Die Reichweitenlüge

Instagram, TikTok und Co.

Leena Simon 09.09.2025 (von Digitalcourage.de)

Millionen Follower, null Wirkung: „Social Media“ verkauft uns ein volles Stadion – und schaltet dann das Mikro stumm.

Das riesige Fußballstadion ist vollbesetzt. Das Mikrofon liegt in Ihrer Hand. „Wenn Sie dort rein sprechen“ – so hat man es Ihnen immer wieder erklärt – „erreichen Sie besonders viele Menschen.“ In Wahrheit aber ist das Mikro nur für die Reihen eins bis drei freigeschaltet. Von den 80.000 Anwesenden hört Sie tatsächlich kaum jemand.

So funktioniert das bei allen sozialen Medien mit Algorithmus. Es gibt nur einen Unterschied: Sie merken nicht, dass Sie kaum jemand hört und denken, Sie hätten mordsmäßig viele Leute erreicht. Denn die Reichweitenlüge, ein Begriff, den unser Gründungsmitglied padeluun geprägt hat, ist tief in unseren Überzeugungen angelangt.

Follower sind nicht gleich Follower

In jeder Diskussion über die Probleme der giergetriebenen sozialen Medien kommt irgendwann das Reichweiten-Argument: Da sind halt alle und dort müsse man die Menschen abholen und man tue sich ja keinen Gefallen, wenn man im Fediverse in einer Nische hockt. Dabei passiert ein grundlegender Fehler: Man darf nämlich die Follower im Fediverse nicht mit jenen auf Instagram oder X gleichsetzen. Bei Letzteren sagt es nämlich gar nicht so viel aus, wie wir denken. Denn die eigenen Follower kriegen nicht alle eigenen Posts eingeblendet. Auch da entscheidet der Algorithmus mit. Deshalb spreche ich im Fediverse gerne von „Qualitätsfollowern“. Denn die kriegen ausnahmslos alle Nachrichten angezeigt. Vielleicht erklärt sich auch so, weshalb Digitalcourage dort mit viel weniger Boosts (so nennt man dort die Shares bzw. Retweets), so viel mehr Antworten erhält.

Als X noch Twitter hieß und Digitalcourage dort auch noch einen aktiven Account betrieb, haben wir das selbst erlebt: Während unsere Inhalte im Fediverse mit deutlich weniger Followern lebhaft geteilt und kommentiert wurden, versandeten die gleichen Beiträge unseres (damals) erheblich followerstärkeren Twitter-Accounts. Follower meldeten uns immer wieder: „Wir haben eure Posts gar nicht gesehen.“ Mit einem Viertel an Followern erhielten wir im Fediverse doppelt so viel Aufmerksamkeit. So viel zur angeblich ach so viel größeren Reichweite auf Twitter. Der Algorithmus hatte uns einfach ausgeblendet. Aber wie lässt sich das belegen oder sichtbar machen?
Was viele nicht bedenken: Wenn mir der Algorithmus bestimmte Inhalte zeigt, bedeutet das gleichzeitig, dass er mir andere unterschlägt.

Erfolg als Illusion

Außerdem sehen wir ja immer nur die wenigen Erfolgsstories, die von der manipulierten Öffentlichkeit profitieren. Wir blenden dann schnell aus, dass es sich um seltene Ausnahmen handelt – um die Überlebenden einer gigantischen Auslese. Was nach allgemeinem Erfolg aussieht, ist in Wahrheit nur der „Survivorship Bias“: Wir sehen die paar Accounts, die dank Algorithmen durch die Decke gehen, und vergessen die unzähligen, die im Schatten bleiben. Da wollen wir natürlich dazu gehören. Genau mit diesem Trick füttern uns die giergetriebenen sozialen Medien – sie zeigen uns die Stars, damit wir glauben, alle könnten so glänzen.

Unzumutbare Spielregeln

Das ist allerdings eine Lüge. Denn das Versprechen der großen Reichweite entpuppt sich bei näherem Hinsehen als Scheinriese. Eine große Reichweite erreichen Sie dort nur dann, wenn Sie bereit sind, sich den Spielregeln der Plattformen zu unterwerfen:

  • Wenn sich Ihre Inhalte gut kommerzialisieren lassen, also seicht, gefällig und bloß nicht zu intelligent sind.
  • Wenn Sie bezahlen – Reichweite gegen Geld geht immer.
  • Wenn Sie Inhalte auf Klick-Format eindampfen, bunt bebildern und dauernd Content rauspusten.
  • Wenn Sie besonders pointiert, polarisierend oder wutträchtig posten.
  • Wenn Sie alles bis zur Unkenntlichkeit verkürzen, keine Links setzen und sich an einer unkonstruktiven Diskussionskultur beteiligen.
  • Und wenn es Sie nicht stört, in rechtsextremer Gesellschaft zu posten, deren Inhalte stets viel mehr Reichweite kriegen werden.

Für alle anderen ist die Reichweite sehr viel kleiner, als es den Anschein hat. Lange, differenzierte oder ausgewogene Inhalte lassen sich nicht gut monetarisieren – und werden oft einfach nicht angezeigt. Das angeblich so große Reichweitenpotential steht Ihnen dann schlicht nicht zur Verfügung.

Retorten-Reichweite

Hinzu kommt: Die hohen Nutzendenzahlen dieser Plattformen sind vor allem Potential – aber nicht Realität. Wer tatsächlich viele Menschen erreicht, entscheidet allein der Algorithmus. Und in diesen Zahlen stecken ohnehin massenhaft Bots, Karteileichen, Spam-Accounts und Trolle, die Hassnachrichten verbreiten. Die schöne große Bühne ist in Wahrheit vollgestopft mit Geisterpublikum.

Das mit der Reichweite ist eine große Lüge. Wir lassen uns von Zahlen blenden, die genau gar nichts aussagen. Am Ende bleiben von Gier getriebene soziale Medien das, was sie sind: Manipulationsmaschinen, die uns glauben machen wollen, wir sprächen ins volle Stadion – während sie heimlich die Lautsprecher nur für bestimmte Reihen anschalten.

Die Reichweite ist nicht groß. Sie ist frisiert: abhängig von der Gnade jener Konzerne, die davon profitieren, uns gegeneinander aufzuhetzen.

Ehrliche Reichweite gibts im Fediverse

Dann doch lieber ins Fediverse: Da sind zwar in absoluten Zahlen aktuell noch weniger Leute unterwegs. Doch eine Community, die ich mir dort aufgebaut habe, wird mir erhalten bleiben und es gibt keinen Algorithmus, der sich zwischen mich und meine Leser.innen stellt und meine Nachrichten verschwinden lässt, weil sie nicht hasserfüllt genug sind.

Leena Simon Beitrag zuerst erschienen auf Digitalcourage.de

https://digitalcourage.de/blog/2025/die-reichweitenluege

Digitalcourage engagiert sich seit 1987 für Grundrechte, Datenschutz und eine lebenswerte Welt im digitalen Zeitalter. Wir sind technikaffin, doch wir wehren uns dagegen, dass unsere Demokratie „verdatet und verkauft“ wird. Seit 2000 verleihen wir die BigBrotherAwards. Digitalcourage ist gemeinnützig, finanziert sich durch Spenden und lebt von viel freiwilliger Arbeit. Mehr zu unserer Arbeit.

Info-Material zu Digitalter Mündigkeit bei Digitalcourage

In unserer Wissensreihe kurz&mündig werden komplexe Themen auf wenigen Seiten im kleinen Format herunter gebrochen, so dass alle sie verstehen können. Immer nach dem Motto: Man muss nicht alles wissen, aber man sollte wissen, wovon man keine Ahnung hat. „kurz&mündig“ entsteht als Zusammenarbeit von Digitalcourage und Art d’Ameublement. Wir nennen sie manchmal scherzhaft „Pixi-Bücher für Erwachsene“.

Sie sind Buchhändler.in? Fragen Sie nach unseren fertig bestückten Verkaufsständern!

Sie haben selbst ein Thema, das in unsere Reihe passen würde? Bieten Sie es uns an!

10/15/24

Petition BAN X in EUROPE

Das Institute of Network Cultures ruft auf:

Unterzeichnen Sie die Petition BAN X in EUROPE und beteiligen Sie sich an der Kampagne

Von admin, 12. Oktober 2024 um 3:09 Uhr.

Die Europäer müssen sich gegen den Einfluss von Elon Musk vereinen. Wenn Sie in der EU leben oder deren Werte unterstützen, bitten wir Sie dringend, diese Petition zum Verbot seiner Plattform X zu unterzeichnen.

Bitte unterzeichnen Sie die Petition auf change.org hier. Ihr Name und Ihre Daten werden nicht veröffentlicht. Weitere Informationen und Aktualisierungen finden Sie auf der Website der Kampagne.

Die Social Media Plattform X muss in Europa verboten werden. Hören Sie auf, sie zu nutzen, organisieren Sie gemeinsam den Exodus und wechseln Sie zu sichereren und besseren Alternativen wie Mastodon – schließen Sie sich hier an <https://joinmastodon.org/>.

Dies ist ein Aufruf für ein sofortiges Verbot von Elon Musks Social-Media-Plattform X (früher bekannt als Twitter) in der Europäischen Union. Diese Plattform ist zu einem Nährboden für Desinformation, Hassreden und Missbrauch geworden, die die Werte der Inklusivität und Wahrheit in unserer Gesellschaft bedrohen. X wird zunehmend als Instrument zur Verbreitung von Desinformationen über kritische Themen wie politische Debatten, Klimawandel und soziale Gleichberechtigung missbraucht. Fehlinformationen führen nicht nur die öffentliche Meinung in die Irre, sondern untergraben auch das Vertrauen in demokratische Institutionen.

So hat Musk beispielsweise rechtsgerichtete Politiker wie Trump und Meloni in Italien offen unterstützt und ihnen das Eindringen in die Politik erleichtert, um seine rechtsextreme Agenda voranzutreiben. Diese Normalisierung extremistischer Ansichten und die Verstärkung von Hassreden stehen im direkten Widerspruch zum Engagement der EU für Menschenrechte und Gleichheit.

Darüber hinaus fördert X kein faires Umfeld für freie Meinungsäußerung; es wird von Elon Musks persönlicher Propaganda und der Unterdrückung alternativer Standpunkte angetrieben, was zu Zensur und der Radikalisierung falscher Narrative führt.

Vor allem aber verstößt X gegen europäische Gesetze, darunter den Digital Services Act (DSA). Musk hat diese Vorschriften ignoriert und ist illegal in der EU tätig. Mehrere europäische Abgeordnete haben ihn bereits wegen dieser Verstöße verwarnt, doch er missachtet weiterhin den Rechtsrahmen, der unsere Bürger schützen soll. Vor kurzem wurde X in Brasilien aus ähnlichen Gründen verboten, was den dringenden Handlungsbedarf in der EU verdeutlicht.

In Anbetracht dieser Bedenken fordern wir die Europäische Kommission dringend auf, entschlossen zu handeln und X zu verbieten.

Der Schutz der europäischen Bürger vor Desinformation und Hassreden ist unerlässlich, um einen gesunden öffentlichen Diskurs zu fördern und die Sicherheit und Würde aller Menschen zu gewährleisten.

Schließen Sie sich uns an und fordern Sie ein sichereres Online-Umfeld für alle Menschen in Europa. Unterzeichnen Sie die Petition zum Verbot von X hier: <https://www.change.org/p/ban-x-in-europe-elon-musk-must-be-stopped-in-eu> und setzen Sie sich für die Werte der Wahrheit, des Respekts und der Inklusivität ein.

Andere Versionen dieses Aufrufs finden Sie unter https://BAN-X-in.EU, dem Hashtag #BAN_X_in_EU, Mastodon <https://mastodon.social/@BAN_X_in_EU> und auf X selbst <https://x.com/BAN_X_in_EU>. Pressemappe und Banner: Bilder und Fotos <https://drive.google.com/drive/folders/1pxgzfWOd9DPtGe8zQpUstBHFyibNoVak?usp=sharing>. Anfragen: ban.x.in.eu@gmail.com.

Übersetzt mit DeepL.com (kostenlose Version) reblogged von Institute of Network Cultures (wurde von Geert Lovink gegründet). Im März war in den USA eine Klage gegen Hassrede auf X abgewiesen worden.

03/31/24

Hass, Twitter, X – Vor Gericht: Elon Musk

X Corp. hat das Center for Countering Digital Hate verklagt. Die gemeinnützige Organisation hatte Hassrede und fehlende Moderation auf X kritisiert. Ein US-Gericht hat die Klage nun abgewiesen – und dafür klare Worte gefunden. Hassrede und Desinformation haben auf X (vormals Twitter) deutlich zugenommen – insbesondere seit der Übernahme der sozialen Plattform durch Elon Musk vor knapp eineinhalb Jahren. Das bestätigen zahlreiche Studien wie jene des Center for Countering Digital Hate (CCDH).

Im Juni vergangenen Jahres hatte die gemeinnützige Organisation eine Studie über Hassrede auf der Plattform X (ehemals Twitter) veröffentlicht. Demnach ergreife X keine Maßnahmen gegen einen Großteil der verifizierten Konten, die in dem sozialen Netzwerk Hass verbreiteten. Einen weiteren Bericht, der zu ähnlichen Ergebnissen kam, veröffentlichte das CCDH im vergangenen November.

Die Kritik passte dem damals noch recht neuen Besitzer des Kurznachrichtendienstes, Elon Musk, nicht. X Corp., die Muttergesellschaft des Social-Media-Konzerns X, reichte im Juli vergangenen Jahres eine Klage gegen das CCDH ein, die ein US-Bundesgericht am vergangenen Montag abwies.

(…)

Ganzer Text auf Netzpolitik, 27.03.2024 von Lea

03/11/24

Isabell Otto: TikTok

Isabell Otto: TikTok. Ästhetik, Ökonomie und Mikropolitik überraschender Transformationen. Verlag Klaus Wagenbach, Berlin 2023

Buchkritik von Thomas Barth

Wie hat die AfD es zu Dominanz in Netzmedien gebrecht? TikTok, die chinesische Kurzfilm-App mit vorwiegend jungem Publikum, hat für einiges Aufsehen und Kontroversen gesorgt, etwa als jüngst Berichte über den dort beobachteten Erfolg rechtspopulistischer Inhalte der AfD die Runde machten. In den USA gibt es Verbote und US-Behörden drängen den chinesische Mutterkonzern ByteDance zum Verkauf der App, die mit Milliarden Nutzern heute als einziger Global Player auf dem Social-Media-Markt keine US-Firma ist. Die auch bei uns laut gewordenen Anklagen reichen von Spionage bis zur Erzeugung von Abhängigkeit der Nutzer. Isabell Otto zeigt in ihrem Buch, über welche Ästhetiken die App funktioniert und wie Beiträge viral gehen. Im Zentrum ihrer ästhetischen Analyse steht das Stilmittel der ‚TikTok-Transition‘ (überraschender Übergänge) dessen Wechselwirkungen mit Konventionen der Medienkultur, Plattformmechanismen und Praktiken der Nutzenden sie untersucht. Beispiele entnimmt sie dem politischen Aktivismus (Selenskyj im Ukraine-Krieg), Influencer- und Tanzvideos, Fan- und Popkultur-Adaptationen sowie künstlerischen Beiträgen.

Die Wagenbach-Buchreihe „Digitale Bildkulturen“ widmet sich neuen Bildformaten wie GIFs (Bewegtbildformat), Memen (viral gehende Sinneinheiten) oder Selfies (Handy-Selbstportraits), und analysiert wie sich Funktionen und Erscheinungsweisen von Bildern in den Sozialen Medien verändern. Bilder animieren zu Handlungen, stimulieren zu Teilhabe und Mitgestaltung und sind so eines der wichtigsten Instrumente politischer und aktivistischer Praxis geworden. Die Welt der meisten Menschen verändert sich durch die Digitalisierung und gerade Bilder erleben einen enormen Bedeutungszuwachs. Die allgegenwärtigen Smartphones lassen Bilder schneller, variabler und professioneller entstehen und durch die Sozialen Medien sind sie fast beliebig zu verbreiten. Dies verändert unsere Kommunikation, weil Menschen sich dadurch mit Bildern genauso selbstverständlich austauschen können wie zuvor nur über Sprache. Der seit Jahren proklamierte „Iconic Turn“ ist gesellschaftliche Realität geworden. Daraus ergeben sich zahlreiche neue Formen und Funktionen von Bildern, die nur aus der Logik und Infrastruktur der Sozialen Medien heraus verständlich werden (S. 4).

Der schmale Band vvon Isabell Otto zeigt auf seinen nur 80 engbedruckten Seiten zahlreiche Bilderstrecken, die auf ca. 17 Seiten Anmutungen von Kurzvideos einfangen und im Text ausführlich analysieren und kommentieren. Die meist halbseitigen, manchmal nur quadratzentimetergroßen Bilder zeigen ein Handydisplay oder Ausschnitte davon und stellen die Sehkraft auf die Probe. Ein Inhaltsverzeichnis fehlt, am Ende finden sich 55 Anmerkungen, meist mit Quellenangaben und eine Liste mit Bildnachweisen die meist auf TikToks (also Beiträge der Plattform) verweisen. Der Text gliedert sich in die „Einleitung: Brisante Bilderwelten“ und vier Kapitel:

  1. Übergänge und Kippfiguren: #transitiontok,
  2. Arbeit an der Sichtbarkeit: oddly satisfying,
  3. Viralität und Mimetik: sped up,
  4. Fluchtlinien des Mikropolitischen: Selenskyjs Fans.

Die Einleitung sieht bei TikTok mehr als eine „Spaß-Plattform“, dort würden sich Unterhaltung, Vermarktung und politische Aktion so mischen, dass die Grenzen zwischen diesen Bereichen verwischen. Flüchtlinge im Mittelmeer, Ukraine-Krieg und die Hexenjagd auf mutmaßliche Mörderinnen durch TikToker:innen sind Beispiele. Problematisch seien Jugendschutz und nationale Sicherheit, am prominentesten durch den Verdacht von Donald Trump, TikTok sei eine Spionage-App, der immer wieder laut würde und zu Verboten in zahlreichen Ländern geführt habe (S. 8).

In Kapitel 1 „Übergänge und Kippfiguren: #transitiontok“ werden überraschende Übergänge und Transformationen als zentrales ästhetisches Prinzip erörtert, was sich deutlich „in einer beliebten ästhetischen Spielart der Kurzvideos, der transition“ zeige (S. 10). Hier transformieren sich mittels Montagetechnik und anderen Filmtechniken Dinge, Menschen, Gesichter, was teils Kippfiguren, teils Schockeffekte kreiere. Mit über 260 Millionen Views hatte ein Video großen Erfolg, in dem ein abgetrennter Kopf von einer Poolrutsche auf die Schultern seines Besitzers zu rollen scheint. Auf der Startseite von TikTok präsentiere die „For You Page“ algorithmisch generierte Empfehlungen, zugeschnitten auf das persönliche Nutzerprofil. (Alters-) Diskriminierung, Hass und Radikalisierung spielen auf TikTok eine bedeutende Rolle. „Shadowbanning, algorithmisches Unsichtbarmachen oder Marginalisierung, sind Plattform-Operationen“ (S. 18).

Kapitel 2 „Arbeit an der Sichtbarkeit: oddly satisfying“ untersucht Relationen auf TikTok. Auf Social-Media-Plattformen habe sich die Ökonomisierung von Sozialität als zentrales Geschäftsmodell etabliert. Wichtiger Teil davon sei die Professionalisierung von Creator:innen, die über Produktwerbung oder Sponsoring ihren Lebensunterhalt verdienen könnten. Der „TikTok Creator Fund“ der Firma belohne den Klick-Erfolg von Videos sogar direkt durch Geldausschüttungen an algorithmus-konforme Produzent:innen (S. 20). Ein mögliches Erfolgsrezept sei dabei mit „oddly satisfying“ zu umschreiben: Videos, die durch Skurrilität irritieren und damit Zuschauer anlocken. Dabei würden etwa Dinge mechanisch bearbeitet oder gereinigt, letzteres brachte das Genre der Cleanfluencer:innen hervor. Schockeffekte machen auch TikTok-Stars, so etwa den „Spiritwalker“, der sich in einem extremen Halloweenkostüm als Monstrum zeigte. Weitere Videos erklärten die handwerkliche Herstellung des Kostüms, seine Erweiterung, Anwendung usw. Ein Geflecht aus Relationen und Verästelungen entstehe, wo Irritationen und Erklärungen verwoben würden (S. 36).

Kapitel 3 „Viralität und Mimetik: sped up“ arbeitet sich ab am begriff der Serie und Serialität. Die entstehe auf TikTok durch zahlreiche popkulturelle Referenzen, die in Ton, Bild und Performance Meme aufgreife und neu erschaffe und durch vielfältige Variation in eine netzartig verknüpfte Bilderwelt führe. Etwa würde Lady Gaga mit der Netflix-Gothic-Serie „Wednesday“ verbunden, verfremdend würden dabei *Sped up‘-Songs, schneller abgespielte Ohrwurm-Melodien eingesetzt. Sound wäre dabei neben Tanz eine wichtige Vernetzungsdimension, die auf auditiven Memes basiere. Lady Gaga habe reagiert, indem sie ihren Song nun selbst mit Tanzeinlagen aus „Wednesday“ verbinde (S. 47).

Politisch und theoretisch wird es in Kapitel 4 „Fluchtlinien des Mikropolitischen: Selenskyjs Fans“. Deuleuze/​Guattari werden mit ihrem berühmten „Rhizom“ eingeführt. TikToks vernetzte Videografie ähnele in ihrer viralen, eigenlogischen und nicht kontrollierbaren Serialität dem poststrukturalistischen Rhizom-Begriff. Das „aus der Botanik entlehnte“ Rhizom, also Wurzelgebilde, sei aktivistisch gedacht, fordere zu anarchistischen Denkweisen heraus (S. 50). Die transitorische Ästhetik TikToks würde in ihren Serien und Relationen mit dem Prinzip der Öffnung ergänzt, öffne sich gesellschaftlichen Themen. Die Kiewer Regierung habe etwa seit dem russischen Angriff eine ausgefeilte Social-Media-Strategie für die eigene Bevölkerung wie für ein internationales Publikum entfaltet. „Die Inszenierungsformen des ehemaligen Schauspielers und Komikers Selenskyj umfassen dabei gezielt Strategien der ‚Spektakularisierung‘ von Politik“ (S. 53). Auf Twitter, Telegram, Instagram und TikTok rücke man den ukrainischen Präsidenten in heroischem Stil ins Bild, betone dabei jedoch „seine Nahbarkeit und ein persönliches Mit-Betroffensein“ (S. 53). Konsequenz sei ein hochwirksames „Gemenge aus Politischem, Popkulturellem und inszenierter Privatheit“ (S. 55), welches auch Gegenpropaganda provoziere, „pro-russische Trolle, die Verunglimpfungen, Hass und Falschmeldungen verbreiten“ (S. 58).

Diskussion

Die Autorin verweist in ihren Danksagungen am Ende des Buches unter anderem auf die unveröffentlichte Masterarbeit von Meike Hein „Stilmittel ‚TikTok-Transitionen‘. Wechselwirkungen zwischen Konventionen der Medienkultur, Plattformmechanismen und Praktiken der Nutzenden“, Konstanz 2022, „…der ich viele Einblicke in diese Medienpraktiken verdanke“ (S. 77). Dies ist Isabell Otto einerseits hoch anzurechnen, denn wir können davon ausgehen, dass sehr viele Professor:innen ihre Einblicke und Erkenntnisse auch Studienarbeiten ihrer Student:innen verdanken, ohne dass dies in daraus resultierenden Publikationen erwähnt wird. Andererseits fehlt in den Quellennachweisen bei Otto jede Spur der Arbeit von Meike Hein, so dass sich -auch angesichts der weitgehenden Überschneidung von deren Thema mit dem Inhalt des Buches von Otto– die Frage erhebt, welche ihrer Einblicke die Autorin der Studentin verdankt. Das Dilemma dabei: Diese Frage erhebt sich ja nur eben weil diese eine Professor:in so ehrlich war, die Masterarbeit zu erwähnen. Wie es für akademischen Nachwuchs in wirklich toxischen Arbeitsbeziehungen aussieht, beschrieb Anne-Christine Schmidt in Albtraum Wissenschaft.

Das Buch liefert einen kritischen Einstieg in die Analyse von Beiträgen der chinesischen Plattform bzw. App TikTok. Ästhetik, Anwendung und Nutzung werden aus medienwissenschaftlicher Sicht, aber unter Berücksichtigung ökonomischer und politischer Dimensionen sowie Auswirkungen auf die Gesellschaft dargelegt. Die Faszination von TikTok, die einen globalen Erfolg begründete, sieht sie vorwiegend im Zusammenspiel einer auf Transition, Remix und Vernetzung basierenden Ästhetik, an deren Anwendung die Algorithmen hinter den Bildern entscheidenden Anteil haben. Ein abschließendes Urteil erlaubt sich die Autorin nicht, sondern verweist auf die Offenheit und die nicht vorhersagbare Entwicklung von TikTok.

Isabell Otto: TikTok. Ästhetik, Ökonomie und Mikropolitik überraschender Transformationen. Verlag Klaus Wagenbach, Reihe: Digitale Bildkulturen, Berlin 2023. 74 Seiten. ISBN 978-3-8031-3734-0. D: 12,00 EUR, A: 12,40 EUR.

Isabell Otto ist Professorin für Medienwissenschaft an der Universität Konstanz und war dort Prodekanin der Geisteswissenschaftlichen Sektion. Sie forscht zu medialer Teilhabe in digitalen Kulturen, Dynamiken des Ein- und Ausschließens in Social Media, Digital Literacy und kulturellen Dimensionen digitaler Spielweisen. Sie ist Mitglied des Zentrum für HumanDataSocienty, des Forschungsvorhabens Transforming Infrastructure – Cultural Perspectives und der DFG-Forschungsgruppe Mediale Teilhabe und sie lehrt u.a. Social Media Literacy als Lehrkonzept des Deutschunterrichts.

(Eine gekürzte Version dieser Buchkritik erschien bei socialnet.)