Facebook und die US-Wahlen:

Das Evangelium der Trolle

Vor der US-Wahl 2016 wurde das soziale Netzwerk Facebook von der Internet Research Agency, einer institutionellen russischen Trollfarm, mit zielgerichteten Falschinformationen torpediert. Ein interner Report aus dem Jahr 2019, der der Website MIT Technology Review vorliegt, zeigt, dass das Unternehmen keine effektiven Gegenmaßnahmen ergriffen hat. Im Vorfeld der US-Wahl 2020 waren es Seiten aus dem Kosovo und Mazedonien, teilweise seit Jahren als Trolle bekannt, die Falschinformationen an eine überwiegend US-amerikanische Zielgruppe verbreiteten.

Facebooks hauseigener Bericht kommt zu dem Ergebnis, dass nach der ausländischen Einflussnahme 2016 keinerlei systemische Schritte unternommen wurden, um die Reichweite inauthentischer Trollseiten einzuschränken. Stattdessen verfolgte das Unternehmen eine Hau-den-Lukas-Strategie: Es wurde auf diejenigen Seiten gezielt, die sich aus der Deckung wagten und öffentlich am politischen Diskurs beteiligten. Gruppen, Feeds und zielgruppenorientierte Werbung blieben weitestgehend unangetastet. Des Algorithmus heiligste Metrik blieb das Engagement.

Doch eben am Content-Algorithmus hätte Facebook arbeiten müssen, bekunden sowohl dieser Bericht als auch derjenige, der ihn geschrieben, aber nicht recherchiert hat: Jeff Allen, vormals Senior-Datenanalyst bei Facebook. "Statt den Nutzer*innen die Wahlfreiheit zu geben, ob sie Inhalte dieser Akteure sehen wollen, ist es unsere Plattform selbst, die sich entscheidet, [diesen Trollfarmen] eine enorme Reichweite zu geben", schreibt Allen.

Facebooks Content-Algorithmus ist süchtig

Allens Ergebnisse lassen sich wie folgt zusammenfassen:

A) Im Oktober 2019 wurden etwa 15.000 Seiten mit überwiegend US-amerikanischer Zielgruppe aus dem Kosovo und aus Mazedonien betrieben.

B) Nimmt man all diese Seiten zusammen, erreichen sie monatlich 140 Millionen Nutzer*innen in den USA und wöchentlich 360 Millionen Menschen weltweit. Zum Vergleich: Walmart erreicht monatlich 100 Millionen US-Amerikaner*innen und ist damit die, für sich betrachtet, reichweitenstärkste US-amerikanische Facebookseite.

C) Sehr selten hat mehr als ein Viertel der Personen, die Inhalte der Trollseiten angezeigt bekommen haben, diese Seiten auch tatsächlich abonniert. Im Fall der größten christlichen Trollseite hatten gerade einmal fünf Prozent derer, die ihre Inhalte angezeigt bekamen, die Seite abonniert.

D) Im Oktober 2019 wurden alle der 15 reichweitenstärksten Seiten mit Zielgruppe "christliche US-Amerikaner*innen" von Trollfarmen aus Osteuropa betrieben. Bei der Zielgruppe "schwarze US-Amerikaner*innen" waren es 10 der 15 größten Seiten.

Diese Erkenntnisse lassen nur einen Schluss zu: Ganz egal, wie oft Facebook davon flötet, dass mensch sich seine eigene Timeline zusammenstellen könne, am Ende entscheidet der gnadenlos auf Engagement getrimmte Content-Algorithmus, was wir sehen. Dieser Algorithmus ist ein Suchtkranker, der, ohne Rücksicht auf Verluste, einzig den nächsten Fix in Form von Interaktionen der Nutzer*innen im Blick hat.

"Das ist weder normal noch gesund", schreibt Allen, der Facebook noch im selben Monat verließ, in dem er seinen Bericht fertiggestellt hatte. Die Führungsetage hätte seine Arbeit "quasi ignoriert". "Wir haben intransparente Akteure dazu ermächtigt, sich gigantische Reichweiten für völlig unklare Ziele aufzubauen", schreibt Allen weiter. Und solange diese Trollfarmen durch den Algorithmus begünstigt würden, wäre es ein leichtes für weitere ausländische Akteure, auf den Zug aufzuspringen – ein kaum verhohlener Hinweis auf die Tatsache, dass die Zielgruppen der Trollseiten aus dem Kosovo und Mazedonien beinahe deckungsgleich mit denen der Internet Research Agency sind.

Stop:c000021a – Schwerer Systemfehler*

Jeff Allen identifiziert drei Gründe dafür, dass der Content-Algorithmus Trollfarmen begünstigt:

Erstens: Facebook unterscheidet nicht danach, ob ein Inhalt schon einmal viral gegangen ist. Folglich ist es überaus einfach, eine Seite aufzubauen, die von einem Bot gemanaged wird und nichts anderes tut, als Posts, die bereits sehr viel Engagement generiert haben, nochmal zu posten und entsprechende Reichweite abzustauben.

Zweitens: Facebooks Algorithmus entscheidet anhand dessen, womit unsere "Freunde" interagieren, was wir sehen. Denn der Algorithmus hat gelernt, dass die Realität des sozialen Umfelds die Realität des Individuums beeinflusst. Seiten, die bei unseren "Freunden" überdurchschnittliches Engagement hervorrufen, werden also stets überproportional oft in unsere eigenen Feeds gelangen – ganz egal, ob wir die entsprechende Seite abonniert haben.

Drittens: Facebooks Monetarisierungssystem basiert, ebenso wie der Algorithmus, auf Engagement. Allen zufolge ist die Motivation der meisten Trollfarmen primär finanzieller und nicht politischer Natur. Folglich verfolgen diese Seiten kein erkennbares, zusammenhängendes Narrativ, was sowohl ihre Identifizierung als auch die Abschätzung ihres tatsächlichen Einflusses erschwert.

Die Anzahl an Interaktionen messen, Zielgruppen definieren und gut laufende Inhalte recyclen kann ein Bot sogar besser als ein Mensch. Während für eine einer inhaltlichen oder politischen Agenda folgenden Seite zumindest noch eine Handvoll Menschen vonnöten sind, die diese Inhalte auf Vereinbarkeit mit dem Narrativ prüfen, können tausende Trollseiten theoretisch von einer einzigen Person verwaltet werden. Was wiederum ihre Effizienz enorm steigert und sie sogar zu einer potentiellen Waffe macht.

Die Folgen ungehinderten Trollens, politischer Einflussnahme, eines Engagement-süchtigen Algorithmus und einer nur dem Profit verpflichteten Geschäftsführung hat uns im Falle Facebooks erst kürzlich die Whistleblowerin Frances Haughen noch einmal ins Gedächtnis gerufen. Um es in den Worten von Filippo Menczer zu sagen: Menschen, die Informationen manipulieren wollen, "haben die Netzwerke gekapert, um den Anschein zu erwecken, dass ein bestimmter Verschwörungsmythos oder eine bestimmte Politiker*in weitreichende Unterstützung genießt. Auf diese Weise überlisten sie die Algorithmen der Plattformen und bedienen sich gleichzeitig der kognitiven Verzerrungen der Nutzer*innen."


*Anmerkung zur Unterüberschrift: Das ist einer der Windows-Fehlercodes für den berüchtigten "Blue Screen of Death".

Unterstützen Sie uns bei Steady!