Deus Ex Algorithmo (Teil 2)

Donald Trump, erster Reiter der "Infokalypse"

Welchem System folgt eigentlich der Algorithmus, der bei YouTube für die Empfehlungen zuständig ist? Einem gefährlichen, sagt Guillaume Chaslot, der mit an dem Programm gearbeitet hat. Doch auch die Personen und Institutionen, denen wir folgen, bestimmen unseren Feed. Eine Untersuchung des Gefahrenpotentials der Filtermechanismen sozialer Medien.

Die New York Times nennt es den "Kaninchenbau": Wer den Empfehlungen von YouTube immer weiter folgt, der wird radikalisiert. In Reminiszenz an Lewis Carolls Meisterwerk "Alice im Wunderland" steht der Kaninchenbau mittlerweile stellvertretend für den Weg in eine wahnhafte Phantasiewelt.

"Ich fiel in den Kaninchenbau der Alt-Right", sagt auch Caleb Cain. Letztes Jahr löste sich der 27-jährige US-Amerikaner, aufgewachsen in einer postindustriellen Region im Osten der USA, aus dem Spektrum der Neuen Rechten, "Alt-Right" genannt.

2015 fand er, ziel- und orientierungslos und mit einer christlich-konservativen Erziehung im Gepäck, den YouTuber Stefan Molyneux. Molyneux, ein "Männerrechtsaktivist", markierte den Beginn von Cains Radikalisierungsprozess auf YouTube. "Ich fiel tiefer und tiefer und es gefiel mir, weil es mir ein Gefühl von Zugehörigkeit und Heimat gab. Ich wurde gebrainwashed", so Cain.

Cains Geschichte ist eine, die sich tagtäglich hundertfach ereignet. Junge Menschen aus prekären Verhältnissen suchen in sozialen Medien Antworten auf die drängenden Fragen ihrer Existenz. Antworten, die ihnen die analoge Welt nicht zu liefern fähig scheint.

Häufig sind es junge Männer, die auf der Suche nach einem resilienten Selbstbild in den Kaninchenbau geraten. Gefangen zwischen einem archaischen, oft religiös überhöhten Männlichkeitsbegriff und einer faktischen Realität zunehmender Gleichstellung von Frauen und geschlechtlich und sexuell diversen Menschen, bleiben meist nur zwei Möglichkeiten: Flucht nach vorne, ins progressive Neue, oder Flucht in den Kaninchenbau, alias die Echokammer.

Williger Komplize derjenigen, die soziale Medien für die Radikalisierung junger Menschen missbrauchen, ist dabei YouTubes Algorithmus selbst. Vor allem der, der für die Empfehlungsspalte zuständig ist. "Toxisch" nennt ihn Guillaume Chaslot, der selbst am Empfehlungsalgorithmus gearbeitet hat. "Die KI (...) ist gebaut, um Menschen abhängig von YouTube zu machen. Empfehlungen sind Zeitverschwendung", so Chaslots ernüchterndes Fazit.

Wenn die Algorithmen auf Maximierung der Nutzungsdauer geeicht sind, dann scheint es unausweichlich, dass die empfohlenen Beiträge graduell fragwürdiger werden. "Diese Inhalte zu finden hat sich angefühlt, als wäre ich unbequemen Wahrheiten auf der Spur", fasst Caleb Cain zusammen. "Ich hatte das Gefühl, dass mir dieses Wissen Macht, Respekt und Autorität gibt."

Twitternde Präsidenten

Macht, Respekt und Autorität. Wer sich in der analogen Welt von diesen Dingen abgeschnitten sieht, aber einen empfundenen Anspruch auf sie hegt, sucht in sozialen Medien nach den Gründen für diesen vermeintlichen Missstand. Niemand könnte dies im Moment besser verdeutlichen als der abgewählte Präsident der USA und seine Anhänger:innen.

Sie wollen den Sturz in den Kaninchenbau live miterleben? Folgen Sie Donald Trump auf Twitter und scrollen Sie mal durch die letzten Wochen. Sie werden zwei Dinge feststellen: Erstens teilt Trump seit seiner Wahlniederlage beinahe ausschließlich Beiträge von Breitbart, einer notorischen Desinformationsquelle lanciert von Steve Bannon. Und zweitens ist beinahe jeder seiner Tweets mit einem Warnhinweis versehen. Sohn Donald Jr. forderte jüngst sogar seinen Vater zum "totalen Krieg um diese Wahl" auf.

Ich möchte kurz innehalten, um zu verdeutlichen, wo hier die übergeordnete Gefahr, unbesehen der Radikalisierung des Gefolges, liegt. Im Jahr 2013 wurde der Twitteraccount der Associated Press gehackt. Die Hacker verbreiteten eine einzige Nachricht: Das Weiße Haus wurde von zwei Explosionen getroffen, der Präsident verletzt.

Die schier unvorstellbare Menge an Algorithmen, die sich mittlerweile auf den Finanzmärkten tummelt, preiste die vermeintliche Neuigkeit in einem Sekundenbruchteil ein. Die menschlichen Anleger zogen nach, sobald es ihnen ihre unterlegene Reaktionsgeschwindigkeit erlaubte – die Märkte gingen auf Tauchstation. Zwar korrigierte die Associated Press den Fehler nach nur wenigen Minuten und im Laufe des Tages erholten sich die Indizes wieder, doch zurück blieb ein Gefühl der Ruhelosigkeit: Weltmärkte, die sich von einem Tweet aus den Angeln heben lassen?

Als Trump Anfang Oktober twitterte, es werde keinen neuen Covid-Hilfsfonds vor der Wahl geben, sackten die Märkte ebenfalls ab. Niemand kann mit Gewissheit sagen, ob die Computer, die die Abermilliarden verwalten, der geistigen Akrobatik eines Donald J. Trump gewachsen sind – oder gar, wie bereits vorgekommen, einem Hack seines Accounts. Die Tatsache, dass der "Senden"-Knopf eines einzigen Twitterkontos ein globales Sicherheitsrisiko darstellt, ist schlicht verstörend.

Wegen menschenverachtender mentaler Akrobatik von Twitter gesperrt wurde vor Kurzem übrigens Steve Bannon, ehemaliger Berater des Präsidenten, ehemaliger Chef der zuvor erwähnten "Nachrichten"-Website Breitbart und Vordenker der populistischen Strategie der zivilgesellschaftlichen Überwältigung. Grund dafür war ein Video, in dem er dazu aufrief, den Kopf des bekannten Seuchenschutzexperten Anthony Fauci, der die US-Regierung in der Corona-Pandemie berät, auf einer Lanze aufzuspießen – doch, Sie haben richtig gelesen. Mark Zuckerberg hingegen sagte heute morgen, Bannon habe mit diesem Ruf nach der Guillotine "nicht genügend Regeln gebrochen", um vollständig von Facebook gesperrt zu werden.

Breitbart ist offizieller Nachrichtenpartner von Facebook im Rahmen der US-Wahl 2020. Nun stellen Sie sich vor, Sie unterstützen Donald Trump und lesen, was er und sein Dunstkreis twittern und sonst auf sozialen Medien teilen – gruselig, nicht? So funktioniert der Kaninchenbau. Personen und Institutionen können ebenso eine Gatekeeping-Funktion haben wie Algorithmen. Und im schlimmsten Fall benutzen Menschen diese Funktion, um einen halben Krieg vom Zaun zu brechen.

"Bitte spezifizieren Sie die Zielgruppe"

Natürlich ist die Existenz von Echokammern kein Phänomen des 21. Jahrhunderts. Schon immer waren Menschen gegenüber Informationen, die ihr bestehendes Weltbild bestätigen, aufgeschlossener als gegenüber solchen, die es herausfordern. "Confirmation Bias" nennt sich dieses Prinzip. Das radikal Neue am 21. Jahrhundert ist die Tatsache, dass unsere eigenen Vorurteile in nie dagewesenem Ausmaß gegen uns verwendet werden können.

Wer vor der Jahrtausendwende Menschenfeindlichkeit salonfähig machen wollte, der musste in die Öffentlichkeit gehen und Veranstaltungen abhalten oder räumlich beschränkt im Rahmen kleiner konspirativer Treffen die eigenen Inhalte propagieren. Es war ein immenser Aufwand, potentielle Adressat:innen für solch nischiges Gedankengut zu finden und diese dann auch noch im Geheimen in die eigenen Kreise einzubinden. Es war möglich, aber es war Arbeit.

Dank der fantastischen Persönlichkeitsprofile, die soziale Medien von uns haben, kann jeder selbsternannte Hassprediger nun die Zielgruppe vom Sofa aus filtern. Facebook ist in der Lage, eine Liste aller alleinstehenden, arbeitslosen Männer zwischen 30 und 50, die xenophobe Tendenzen an den Tag legen, aus jeder beliebigen Region der Erde zu liefern. Genau denen schickt der geneigte Demagoge dann rassistische politische Werbung oder gezielte Desinformation. So werden Menschen radikalisiert, die aufgrund ihres sozialen Umfelds oder anderer Umstände vielleicht niemals Kontakt mit solch giftigen Ideen gehabt hätten.

Dass die so geschaffene Parallelrealität Auswirkungen auf die Welt in einem großem Maßstab haben kann, haben die US-Wahl 2016 und der Skandal um Cambridge Analytica einwandfrei bewiesen. Und dass sich kollektive Illusionen materialisieren und realen Einfluss auf einzelne Menschen nehmen, zeigen einerseits die Tatsache, dass mehrere frisch gewählte republikanische Abgeordnete mit Q-Anon in Verbindung gebracht werden und andererseits ein Blick auf die Perspektive derer, die Angehörige an die kultartige Bewegung verlieren.

Im ersten Teil der Serie "Deus Ex Algorithmo" ging es um Grundfunktionsweisen sozialer Medien und ihrer Algorithmen. Im nächsten Teil stellen wir uns der Frage, ob die, wie die WHO sie nennt, "Infodemie" über uns hereinbrechen wird. Spoiler: Wir haben gute Werkzeuge an der Hand, um sie zu verhindern.


Hinweis der Redaktion: Die Aussage von Mark Zuckerberg zu Steve Bannons Äußerungen wurde am 13.11.2020 um 18:15 Uhr ergänzt.

Unterstützen Sie uns bei Steady!