Fragen und Antworten zu Tiktok

So funktioniert der geheime Tiktok-Algorithmus

Die chinesische Videoplattform schafft es wie kein anderes Medium, die Nutzer bei der Stange zu halten – bis zur Sucht. Ein geleaktes Dokument zeigt, wie.

Matthias Schüssler

Alles rosarot? Der Tiktok-Algorithmus ist perfekt darin, die Vorlieben der Nutzerinnen und Nutzer zu bedienen.

Was steckt hinter der Aufregung um den Tiktok-Algorithmus?

Die «New York Times» und «Der Spiegel» berichten heute über ein internes Dokument mit dem Titel «TikTok Algo 100», das detailliert beschreibt, wie der Vorschlags-Algorithmus von Tiktok funktioniert. «Der Spiegel» nennt ihn eine «Abhängigkeitsmaschine», und die «New York Times» titelt, das Dokument erkläre, wie Tiktok unsere Gedanken lese.

Der Algorithmus gilt als das Geschäftsgeheimnis der chinesischen Plattform Tiktok. Mit seiner Hilfe ist sie dabei, den grossen Konkurrenten das Wasser abzugraben. Das App-Analyseunternehmen App Annie hat im September Daten veröffentlicht, wonach Nutzer in den USA und Grossbritannien inzwischen mehr Zeit auf Tiktok verbringen als auf Youtube: Tiktok habe «die Streamingbranche umgepflügt», urteilt App Annie. Besonders gross ist das Engagement bei der begehrten Zielgruppe der jungen Nutzer.

Und was ist nun Tiktoks grosses Geheimnis?

Der Algorithmus ist ausgezeichnet darin, die kleinen Signale der Nutzerinnen und Nutzer zu deuten: Wie lange sie ein Video schauen, wo sie kommentieren, ein Like setzen oder mittels Wischgeste vorzeitig zum nächsten Video wechseln. Keine oder bloss eine untergeordnete Rolle spielen gemäss diesem Dokument die Interessen der Freunde und Bekannten; die App setzt auf die Analyse der Nutzer-Interaktion.

Likes, Kommentare und vor allem die Sehdauer beeinflussen, welche Inhalte man auf Tiktok zu sehen bekommt.

Das bestätigt auch eine Untersuchung des «Wall Street Journal» vom Juli dieses Jahres. Die Rechercheure hatten Hunderte von Bots eingerichtet, die sich automatisiert Videos anschauten, und verfolgt, wie sich bei diesen Bots die automatisierte Clipauswahl über die Zeit verändert hat. Die Erkenntnis war, dass anfänglich alle Nutzer eine ähnliche Mischung an besonders erfolgreichen Videos erhalten, die Auswahl dann aber recht schnell spezifischer wird – und zwar vorwiegend anhand der Sehdauer eines Clips.

Mehr vom selben – das ist doch nicht sonderlich spektakulär?

Das stimmt. Doch Tiktok ist offenbar geschickt darin, diese Signale zu bewerten. Wenn ein Nutzer sich mehrere Videos von einem bestimmten Tiktok-Star anschaut, ergibt das eine höhere Bewertung für das entsprechende Interessengebiet, als dies für die Summe der Einzelvideos der Fall wäre. Damit trägt der Algorithmus dem Umstand Rechnung, dass sich der Zuschauer durch sein gezieltes Interesse in ein Thema einfuchst.

Der Algorithmus hat eine zweite Stärke: Er ist gut darin, der Langeweile vorzubeugen. Würde er immer nur mehr vom Gleichen anbieten, führte das zu einer Übersättigung. Er wirkt dem entgegen, indem er eine inhaltliche Streuung einführt.

Stimmt die Behauptung, dass der Algorithmus die Nutzer süchtig macht?

Der Algorithmus selbst kann das auf keinen Fall: Wenn etwas süchtig macht, dann sind es die Inhalte selbst, die er den Nutzern präsentiert. Mit anderen Worten: Auf einer Plattform, auf der es nur langweilige Clips zu sehen gibt, kann auch der genialste Auswahlmechanismus nichts ausrichten.

Insofern ist auch die Andeutung Unsinn, Tiktok könne «Gedanken lesen». Die «New York Times» lässt den Informatikprofessor Julian McAuley zu Wort kommen, der das interne Dokument ebenfalls prüfen konnte. Er sagt, dass diese Empfehlungsmaschine «sinnvoll, aber traditionell» operiert. Tiktok hat gemäss seiner Analyse einfach das Glück, auf eine fantastische Datenbasis zugreifen zu können. Tiktok stehen Daten von Millionen von Nutzern und Milliarden von Videoabrufen zur Verfügung. Daraus lässt sich sehr viel ableiten, auch «ohne algorithmische Magie», sagt Julian McAuley.

Dann gibt es keine «bösen» Algorithmen?

Kritik an den Algorithmen ist nicht nur unbegründet, sondern falsch, da sie von den Verantwortlichkeiten ablenkt. Wenn wir einem Algorithmus die übersinnliche Fähigkeit zuschreiben, uns besser zu kennen als wir selbst, dann lässt das ausser Acht, dass ein solcher Vorschlagsmechanismus mit einer klaren Absicht entwickelt worden ist und dass er dem Interesse der Plattform und nicht der Nutzerinnen und Nutzer dient.

Das zeigt sich auch bei Tiktok: Das Ziel ist nicht, den Nutzerinnen und Nutzern die bestmögliche Unterhaltung zu bieten, sondern sie möglichst lange bei der Stange zu halten – selbst dann, wenn sie eigentlich genug hätten. Damit stellen die Unternehmen den Profit über das Wohl der Nutzer – und das ist das eigentliche Problem.

Bei der erwähnten Untersuchung des «Wall Street Journal» hat sich gezeigt, dass manche der Bots in eine Abwärtsspirale aus Videos über Depressionen, Essstörungen, Suizid und Sexualisierung Minderjähriger hineingerieten – Themen, die offiziell bei Tiktok nicht erwünscht sind, bzw. für die es enge Vorgaben gibt. Vor allem bei Youtube ist das Problem bekannt, dass der Algorithmus die Zuschauer radikalisiert, indem er mit der Zeit zunehmend extreme Videos vorschlägt. Dass es der Einschaltquote zuträglich ist, immer noch einen draufzusetzen, wissen wir aus der Zeit des Privatfernsehens, das sämtliche Abgründe ausgelotet hat.

«Tiktok ist eine positive und verständnisvolle Community»: Gemäss den Richtlinien darf man sich über persönliche Erlebnisse austauschen, Suizid und Selbstverletzung aber nicht verharmlosen.

Wäre es sinnvoll, wenn solche Algorithmen transparent gemacht werden müssten?

Da Algorithmen nicht nur entscheiden, was wir sehen und kaufen, sondern auch, ob wir einen Job oder einen Kredit bekommen, steht diese Forderung im Raum – zumal es immer wieder heisst, dass Algorithmen zu Diskriminierung führen würden. Es gibt aber zwei Gegenargumente: Erstens können Algorithmen leichter ausgetrickst werden, wenn ihre Funktionsweise im Detail bekannt ist. Zweitens sind sie – wie bei der Google-Suchmaschine – das Geheimnis des Geschäftserfolgs, das Schutz verdient. Eine Prüfung durch unabhängige Experten wäre indes eine Möglichkeit.

Dann bleibt es dabei, dass wir Nutzer den Algorithmen ausgeliefert sind?

Nein. Was es braucht, sind Betreiber, die gewillt sind, Verantwortung für ihre Plattform zu übernehmen. Es war lange Zeit so, dass sich diese Betreiber hinter dem Argument verschanzten, bloss Vermittler zwischen den Leuten zu sein, die Inhalte machen, und jenen, die Inhalte konsumieren – wie die Post, die einen Brief befördert, ohne zu wissen, was darin steht.

Diese Argumentation stimmt nicht mehr, sobald ein Algorithmus in das Menü eingreift, das eine Nutzerin oder ein Nutzer zu sehen bekommt. Denn natürlich lernen auch die Urheber der Inhalte aus diesen Mechanismen: Wenn die Algorithmen extreme Inhalte fördern, dann werden auch mehr extreme Inhalte produziert und hochgeladen. Wir sollten daher nicht nur über Algorithmen diskutieren, sondern auch darüber, wie wir Plattformen wie Tiktok daran hindern, die inhaltliche Verantwortung auf Nutzerinnen und Nutzer abzuwälzen.

Quelle: Newsnetz, Montag, 6. Dezember 2021

Rubrik und Tags:

Metadaten
Thema: Newsnetz
Nr: 8658
Ausgabe:
Anzahl Subthemen: 1

Obsolete Datenfelder
Bilder:
Textlänge:
Ort:
Tabb: FALSCH