Studie zeigt: Einfluss von TikTok und X auf rechte Narrative
Berlin. Eine aktuelle Untersuchung hat ergeben, dass die Plattformen TikTok und X eine signifikante Anzahl von Inhalten mit rechtspopulistischem Charakter fördern. Die Autoren der Studie warnen vor einer ernsthaften Gefährdung der politischen Landschaft.
Die AfD ist auf TikTok, wo sie enorme Popularität in Form von Millionen Likes und Hunderttausenden Followern genießt, derzeit die erfolgreichste politische Partei in Deutschland. Auch laut Umfragen zur Bundestagswahl ist sie die zweitstärkste Kraft. Die NGO „Global Witness“ hat kurz vor der Wahl aufgedeckt, dass die Algorithmen dieser beiden sozialen Netzwerke verstärkt populistische Inhalte anzeigen, was dazu führt, dass die AfD wesentlich mehr Aufmerksamkeit erhält als andere politische Gruppierungen.
Die Studie ergab, dass TikTok 78 Prozent der politischen Inhalte, die den Testkonten angezeigt wurden, eine Tendenz zugunsten der AfD aufwiesen. Bei der Plattform X lag dieser Wert bei 64 Prozent. „Das ist weit mehr als die aktuelle Wahlunterstützung der Partei von etwa 20 Prozent“, erläuterte ein Vertreter von „Global Witness“ gegenüber der Technologiewebseite „TechCrunch“.
Vergleiche zwischen der Sichtbarkeit von rechts- und linksgerichteten Inhalten sind ebenfalls auffällig. Neutral agierende User in Deutschland sehen demnach doppelt so häufig rechte Inhalte. So zeigt TikTok 74 Prozent, X 72 Prozent, und sogar Instagram weist mit 59 Prozent eine gewisse Neigung zu rechten Inhalten auf.
Um die politische Voreingenommenheit der Algorithmen zu prüfen, richtete „Global Witness“ für die Plattformen TikTok, X und Instagram jeweils drei Testszenarien ein. Diese Konten folgten den vier größten deutschen Parteien – CDU, SPD, AfD und Grüne – sowie ihren jeweiligen Kanzlerkandidaten. Das Ziel war es, zu ermitteln, welche Inhalte den Nutzern empfohlen wurden, die sich neutral für politische Themen interessierten.
Jedes Testkonto interagierte mit den fünf bedeutendsten Beiträgen der gefolgten Parteien. Die Forscher schauten sich Videos mindestens 30 Sekunden lang an und analysierten die Inhalte der angezeigten Feeds. Das Ergebnis zeigte eine klare Rechtsneigung in den Empfehlungen.
„Eine unserer größten Besorgnisse ist, dass wir nicht genau nachvollziehen können, warum uns bestimmte Inhalte vorgeschlagen werden“, erklärte Ellen Judson, Analystin für digitale Bedrohungen bei „Global Witness“. „Es gibt Hinweise auf eine Voreingenommenheit, doch es mangelt an Transparenz darüber, wie die Empfehlungsmechanismen operieren.“
Judson führt die Verzerrung nicht unbedingt auf bewusste politische Manipulation zurück, sondern vermutet, sie sei möglicherweise ein unbeabsichtigter Nebeneffekt von Algorithmen, die hauptsächlich auf maximale Nutzerbindung ausgelegt sind. „Diese Plattformen haben sich zu zentralen Schauplätzen für politische Debatten entwickelt. Doch die kommerziellen Interessen der Betreiber stehen oft im Widerspruch zu den Prinzipien der Demokratie.“
Die Ergebnissse von „Global Witness“ werden durch frühere Studien gestützt. Bereits 2021 hatte eine interne Untersuchung von Twitter gezeigt, dass rechte Inhalte überproportional zur Darstellung gelangen.
X-Eigentümer Elon Musk verstärkt zudem diesen Trend. Er hat sich öffentlich zur AfD bekannt und seine riesige Anhängerschaft aufgefordert, die Partei zu unterstützen. Des Weiteren führte er ein Interview mit Alice Weidel, das per Livestream übertragen wurde und die Präsenz der Partei zusätzlich erhöhte.
TikTok wies die Ergebnisse der Studie zurück und kritisierte die angewandte Methodik. Die Untersuchung sei nicht aussagekräftig, da nur eine begrenzte Anzahl an Testkonten benutzt wurde. Auf die Vorwürfe von „Global Witness“ hat X bisher nicht reagiert. Musk betont immer wieder seinen Wunsch, die Plattform zu einem Ort uneingeschränkter Meinungsfreiheit zu gestalten. Kritiker hingegen sehen darin eine gezielte Unterstützung für rechte Narrative.
Studien zeigen, dass soziale Medien zunehmend zu zentralen Plattformen für die Verbreitung extremistischen Gedankenguts geworden sind. Besonders besorgniserregend ist, dass Jugendliche und Kinder dabei immer stärker ins Visier geraten. Diese sind häufig online, gut vernetzt und anfällig für gezielte Inhalte, wie die Bundeszentrale für politische Bildung ebenfalls hervorhebt.
Rechtsextreme Gruppierungen erkennen die Möglichkeiten sozialer Medien als Rekrutierungsort. Sie bieten einfache Antworten auf komplexe gesellschaftliche Probleme und erreichen durch ansprechenden, oft humorvollen Austausch eine stärkere Gemeinschaftsbildung via Memes und Videos.
Der Algorithmus erleichtert den Zugang zu digitalen Echokammern, in denen Radikalisierungen unbegrenzt geschehen können, wie das Bundesministerium des Innern und für Heimat bereits im Jahr 2022 in einem Bericht feststellte.
Ein weiteres Problem ist, dass problematische Inhalte trotz vorhandener Meldemöglichkeiten nicht konsequent entfernt werden. Plattformbetreiber verweisen zwar auf ihre Moderationsrichtlinien, jedoch bleiben extremistische Beiträge oft lange Zeit sichtbar. Das erweckt nicht nur den Eindruck, solche Ansichten seien akzeptabel, sie werden in der Realität tatsächlich gefestigt.
Besonders gefährlich ist diese Entwicklung für Jugendliche, die in der Phase ihrer politischen Meinungsfindung sind. Die Verbreitung rechter Narrative kann ihr Weltbild erheblich beeinflussen. Wer einmal in solche Strukturen hineinwächst, findet oft keinen Ausweg mehr.
„Global Witness“ fordert eine umfassende Untersuchung durch die Europäische Union. „Wir hoffen, dass die Kommission unsere Ergebnisse nutzt, um diese Verzerrung zu prüfen“, sagte Judson. Die Daten wurden bereits den entsprechenden EU-Behörden übergeben, die für die Umsetzung des Digital Services Act zuständig sind.
Der DSA soll die Plattformen zu mehr Transparenz anregen. Viele Vorschriften sind bislang jedoch noch nicht in Kraft. Besonders der Zugang zu nichtöffentlichen Plattformdaten für unabhängige Forscher bleibt problematisch.
„Zivilgesellschaftliche Organisationen sind gespannt, wann dieser Zugang gewährt wird“, erklärt Judson. Bis dahin bleibt unklar, ob Social-Media-Plattformen tatsächlich neutral sind oder unbeabsichtigt politische Narrative verzerren.