Deus Ex Algorithmo (Teil 1)

Der Gott in deinem Smartphone

Wenn 1950 fünf Menschen eine Tageszeitung kauften, dann lasen sie die gleichen Inhalte. Wenn 1990 fünf Menschen abends die Tagesschau einschalteten, dann sahen sie die gleichen Nachrichten. Wenn aber 2020 fünf Menschen morgens das Smartphone einschalten und Nachrichten lesen, dann sehen sie bisweilen fünf völlig verschiedene Welten. Diese Artikel-Serie will ergründen, mit welchen Parametern soziale Medien Informationen bewerten, welchen Effekt diese Bewertung auf die Verbreitung von Informationen online wie offline hat und ob uns tatsächlich eine, wie die WHO sie nennt, "Infodemie" bevorsteht.

Stellen wir uns vor, es ist das Jahr 1317. Welche ist die zentrale Instanz für Informationen? Wohin gehen Menschen, um die Ursachen für eine Tragödie herauszufinden? Zu der einen und einzigen Institution in ihrer dörflichen Gemeinschaft: der römisch-katholischen Kirche und ihrem lokalen Priester.

Der Priester wird, stets in Anbetracht der Persönlichkeit und des Umfelds einer einzelnen Person oder einer Familie, einen Bibelvers auswählen, der Aufregung und Hoffnung weckt, aber auch die Konsequenzen falschen Handelns anmahnt. So erhalten keine zwei Menschen den gleichen Vers, werden jedoch auf einen ähnlichen Pfad gelenkt: Nur Gott und Gebet helfen gegen die Not.

Selbst wenn ein völlig fremder Mensch in diese Gemeinschaft käme, es wäre unmöglich, die dortigen Leute davon zu überzeugen, dass, beispielsweise, Gebete keinen Einfluss auf die Wachstumsgeschwindigkeit von Getreide haben. Es ist eine Information, die ihrem gemeinsam geformten Weltbild so fundamental widerspricht, dass sie falsch sein muss.

Dies ist ein archaisches Beispiel einer Echokammer. Es wird sich zeigen, dass eine gewisse Ähnlichkeit zwischen unserer generischen dörflichen Gemeinschaft und den sozialen Netzwerken des 21. Jahrhunderts besteht.

Ein kleines Glossar algorithmischer Entscheidungsfindung

Um diese Brücke zu schlagen, müssen wir uns zuerst mit einigen Konzepten, "Metriken" genannt, vertraut machen, auf denen Algorithmen ihre Entscheidungen aufbauen. Ziel der Algorithmen ist dabei stets die Maximierung der Nutzungszeit.

Involvement bezeichnet einen mentalen oder emotionalen Zustand. Involvement entsteht, wenn sich ein:e User:in von einem bestimmten Beitrag angesprochen oder agitiert fühlt. Algorithmen können diesen Zustand bereits durch solch subtile Signale wie das Aufzeichnen der Mausbewegungen oder – so vermutlich bei Instagram – die Analyse der Mimik erkennen.

Engagement folgt auf Involvement: Ist ein Individuum involved genug, wird es mit dem Beitrag interagieren. Ein Klick, ein Like, ein Share, ein Kommentar, all das ist Engagement. Die Beiträge, die das meiste Engagement generieren, werden von den Algorithmen am besten bewertet, "Performance" genannt, und weiter perpetuiert.

"Echokammern" sind die notwendige Konsequenz dieser beiden Metriken. Das bedeutet, innerhalb einer Echokammer existieren nur zwei Arten von Information: Die, die den Status quo bestätigt, ist echt. Die, die den Status Quo infrage stellt, ist gefälscht.

So entstehen sie: Plattformen legen für jedes Individuum ein eigenes, erschreckend akkurates Persönlichkeitsprofil an. Der News Feed – um Facebook heranzuziehen – eines jeden Menschen ist diesem Profil angepasst und zeigt primär die Inhalte, die bereits zuvor Involvement und Engagement ausgelöst haben. Auch die Beiträge von Freund:innen werden danach selektiert. Es entsteht eine informationelle Feedbackschleife, "Filterblase" genannt.

Das Endresultat ist ein bizzares Paradoxon: Einerseits sehen die News Feeds in der eigenen Echokammer beinahe identisch aus, andererseits wirken die News Feeds anderer Echokammern wie kafkaeske Parallelwelten. Wer diesen Prozess nachvollziehen möchte, kann das beispielsweise auf der Plattform "TheirTube" tun.

Informations-Türsteher

Gerüstet mit diesem Einmaleins sozialer Medien kehren wir zurück zu unserem Priester und dem notleidenden Dorf. Involved werden die Menschen allein durch das Bedürfnis nach Hilfe und sozialem Kontakt – es gibt außer der lokalen Kirche ja keine soziale Institution. Auf dem gleichen Weg finden Menschen zu Facebook: weil alle anderen auch da sind.

Nun ist es die Aufgabe des Priester, Engagement hervorzurufen – die Schäfchen müssen bei der Stange gehalten werden, da der Priester von ihren Almosen zehrt, so wie soziale Medien von unseren Daten zehren. Und so wie die Antwort des Priesters stets "mehr Gott und mehr Gebet" lauten muss, muss die Antwort sozialer Netzwerke stets "mehr soziales Netzwerk" lauten.

Dieser Priester erfüllt die Funktion der Algorithmen. Er hat ein Persönlichkeitsprofil jedes Menschen. Er ist die alleinige Instanz, wenn es um die Frage geht, welche Person welche Informationen erhält. So wie kein normaler Mensch des Mittelalters eine lateinische Bibel lesen konnte, kann kein Mensch des 21. Jahrhunderts die Algorithmen der sozialen Netzwerke "lesen", denn sie sind – gleichermaßen – Geschäftsgeheimnis. Wir vertrauen schlicht denjenigen, die die Informationen auswählen.

"Informational Gatekeeping" nennt sich diese Funktion. Sie war in den Demokratien nach dem Zweiten Weltkrieg Aufgabe der Presse, ist nun aber, in einer Zeit, in der jeder Mensch einen Publisher darstellt, still und heimlich in die Domäne der Plattformen gewandert, auf denen Privatpersonen selbst Informationen verbreiten.

Algorithmische Eskalation

Ich möchte abschließend zwei Extrembeispiele anführen, die deutlich machen, welchen überaus verheerenden Effekt von freidrehenden Totalitaristen gekaperte soziale Medien haben können: Myanmar und Brasilien.

Als die Menschen Myanmars sich aus der Diktatur erhoben, boomte die Nutzung von Facebook. So sehr, dass "Facebook" zum Synonym für "Internet" wurde. Teile des Militärs und ein extremistischer buddhistischer Mönch nutzten die Gelegenheit für Hass gegen und einen Genozid an den muslimischen Rohingya. Facebook selbst stellte 2018 zähneknirschend fest, zu wenig gegen "Spaltung und Gewalt" getan zu haben, die Vereinten Nationen kommen zu einem noch verheerenderen Ergebnis. Zwei Jahre später zeigt sich Facebook noch immer unwillig, die eigene Verantwortung im Rahmen des Genozids anzuerkennen.

In Brasilien war YouTube die Radikalisierungsmaschine. Die New York Times brachte in Erfahrung, dass zahllose Parlamentarier als radikale YouTuber:innen bekannt und beliebt geworden sind. Der bekannteste von ihnen: Präsident Jair Bolsonaro. Richtig, Google ist (mit)verantwortlich für Brasiliens ultrarechten, evangelikalen Präsidenten. Wäre YouTube ein Fernsehsender, es wäre der zweiterfolgreichste in ganz Brasilien.

In Europa sind einzelne Plattformen nicht so dominant wie in anderen Ländern, was die Entstehung von Echokammern aber allenfalls verlangsamt, nicht verhindert. Die zugrunde liegenden Algorithmen sind kein Übel per se, sondern fördern eine sehr menschliche Eigenschaft – den Wunsch, sich nicht ergebnissoffen mit Andersdenkenden unterhalten zu müssen, sondern einfach recht gehabt zu haben.

Wichtig ist, dass wir soziale Netzwerke als das erkennen, was sie sind: moderne Massenmedien. Als die primäre Form der Informationsbeschaffung und des Informationsaustauschs für eine gesamte Generation, Tendenz steigend.

Im nächsten Teil dieser Reihe werfen wir einen Blick auf die Vereinigten Staaten und wie die böswillige Nutzung von Echokammern ein Phänomen wie den "Trumpismus" in seiner Entstehung begünstigt hat. Wir betrachten außerdem die Rolle, die menschliche und algorithmische Vorurteile und Ressentiments im gesellschaftlichen und technologischen Entwicklungsprozess spielen.

Unterstützen Sie uns bei Steady!