Polarisierung, Verschwörungstheorien, Fake News: Für demokratische Gesellschaften ist es eine bedenkliche Entwicklung, wenn intransparente Algorithmen einiger weniger Konzerne entscheiden, was wir im Internet zu sehen bekommen. Dabei könnten wir das Internet auch so gestalten, dass Autonomie und Transparenz gefördert und damit das positive Potenzial des Internets verstärkt wird. Ein Forschungsteam des Max-Planck-Instituts für Bildungsforschung in Berlin, der University of Bristol und der Harvard Law School hat sich mit diesem Thema aus verhaltenswissenschaftlicher Perspektive beschäftigt und Vorschläge für Interventionen zugunsten eines demokratischeren Internets erarbeitet.
Da taucht plötzlich in unserem Feed auf YouTube, Facebook oder Twitter ein Video auf, in dem jemand von Geheimabsprachen in der Politik, von Verschwörungen der Medien oder gefälschten Studien berichtet. Alles untermauert er oder sie mit angeblichen Fakten. Das Video hat hunderttausende Klicks und scheint sich weltweit zu verbreiten. Und einer größeren Zahl der Zuschauerinnen und Zuschauer scheint es zu gefallen, sie haben "Daumen nach oben" hinterlassen. Doch was heißt das jetzt genau? Ist es deshalb glaubwürdig? Wie viele der Zuschauerinnen und Zuschauer haben sich überhaupt das gesamte Video angesehen, wie viele sind abgesprungen? Und warum kriege ich das Video überhaupt zu sehen? Die Plattform kennt viele der Antworten, aber wir erhalten diese Informationen nicht. Auch sonst gibt es keine weiterführenden Informationen, die uns helfen könnten, den Inhalt, seine Qualität und Glaubwürdigkeit einzuschätzen.
Um sich über die aktuelle Nachrichtenlage zu informieren, greifen mehr als die Hälfte (55 Prozent) der weltweiten Internet-Nutzerinnen und Nutzer heute auf soziale Medien oder Suchmaschinen zurück, so das Ergebnis des Reuters Institute Digital News Report 2019. Die öffentliche Meinung wird somit zu einem erheblichen Teil durch Online-Inhalte geprägt, die wiederum von Algorithmen kuratiert werden. "Mit dem Ziel, alle möglichst lange bei Laune und somit auf der jeweiligen Plattform zu halten, geht es darum, zu unterhalten und ein Wohlfühlgefühl zu etablieren", sagt Co-Autor Stephan Lewandowsky, Professor für Kognitive Psychologie an der University of Bristol. "Daher gibt es bei vielen Plattformen wohl auch keine Bewertungsknöpfe, die Ablehnung gegenüber Inhalten zum Ausdruck bringen. Es wird das Gefühl vermittelt: Du hast recht. Das mag beim Teilen von privaten Inhalten wie Urlaubsgrüßen harmlos sein, bei radikalen Meinungen und der Verbreitung von Unwahrheiten verzerrt es jedoch das Bild."
Ein weiteres Problem ist, dass News-Feed-Algorithmen den Nutzenden nur die Inhalte zeigen, denen sie – basierend auf ihrem vergangenen Nutzungsverhalten – eher zustimmen würden. Andere Standpunkte bekommen sie meist gar nicht erst zu sehen. So bilden sich Netzwerke von Gleichgesinnten, die die gleiche Meinung teilen, diese verstärken und so die Illusion bekommen, dass ihre Meinung mit der Mehrheit übereinstimmt, auch wenn das in Relation zu allen anderen Nutzerinnen und Nutzern nicht stimmt.
Doch wie schaffen wir es, Fake News von Fakten zu unterscheiden? Und wie müsste das Internet aussehen, um uns dabei zu unterstützen? "Wir schlagen Interventionen vor", erklärt Philipp Lorenz-Spreen, Erstautor und Wissenschaftler am Max-Planck-Institut für Bildungsforschung: "Sie zielen in erster Linie darauf ab, die individuellen Internetnutzer zu ermächtigen, informierte und autonome Entscheidungen in Online-Umgebungen zu treffen – im besten Fall, ohne sich auf externe Faktenprüfer verlassen zu müssen. Schließlich beeinflusst die Architektur der Online-Umgebungen unser Verhalten. Wenn wir das Internet anders denken wollen, müssen wir das menschliche Verhalten daher verstehen und bei der Gestaltung des Internets berücksichtigen."
Das Forscherteam identifizierte technologisch verfügbare, aber bisher weitgehend unerschlossene Möglichkeiten, die genutzt werden können, um das Bewerten von Inhalten und ihrer Qualität zu erleichtern und die Mechanismen der Algorithmen besser zu verstehen. Und das, ohne die ursprüngliche freiheitliche Grundphilosophie des Internets zu beschneiden. Auf dieser Basis erarbeitete das Forscherteam konkrete Empfehlungen und nutzte dabei zwei mögliche Ansätze aus den Verhaltenswissenschaften, mit denen das Individuum in seiner Online-Umgebung gestärkt werden könnte: Nudging (Stupsen) und Boosting (Stärken).
Der Nudging-Ansatz zielt darauf ab, das Verhalten von Menschen ohne explizite Regeln oder Verbote in eine bestimmte Richtung zu lenken, indem auf wichtige Informationen hingewiesen wird. Boosting möchte die Entscheidungskompetenz von Menschen so stärken, dass sie in der Lage sind, sich besser zurechtzufinden und bessere Entscheidungen zu treffen. Letztlich sei es aber wichtig, gleichzeitig unterschiedliche Ansätze zu verfolgen, um möglichst viele verschiedene Menschen zu erreichen.
Nudging könnte zum Beispiel zum Einsatz kommen, wenn es darum geht, zu kennzeichnen, ob Inhalte bestimmte Qualitätskriterien erfüllen – so zum Beispiel, ob es ausreichende Quellangaben gibt oder nicht. Das würde einerseits daran erinnern, diese Inhalte gründlicher zu prüfen, und gleichzeitig einen Anreiz für die Verfasserinnen und Verfasser der Postings schaffen, die geforderten Kriterien der Plattform zu erfüllen. Einen Schritt weiter ginge das Hinzufügen von Hyperlinks zu überprüften Quellen. Vorbildcharakter könnte hier die Plattform Wikipedia mit ihren Quellangaben und Querverweisen haben. Sie ermöglichen den Lesenden, den gesamten Kontext leichter zu verstehen. Twitter hat vor kurzem einen Schritt in diese Richtung gemacht und damit angefangen, bestimmte Tweets mit einem Hinweis zu markieren und zu einem Faktencheck zu verlinken – beispielsweise auch einen Tweet von Donald Trump zum Thema Briefwahl.
Nudges könnten auch zusätzliche Informationen darüber vermitteln, was andere tun, wie sie es bewerten und wie dies im Zusammenhang zu betrachten ist. So kann zum Beispiel die Anzahl der Likes ins Verhältnis zu den Lesern insgesamt gesetzt werden: 4.287 von 1,5 Millionen Leserinnen und Leser mochten diesen Artikel. Wurde ein Artikel zum Beispiel zwar 44.000 Mal angeklickt, aber – mit Blick auf die Verweildauer – nur 3.000 Mal bis zum Ende gelesen, könnte das ein Hinweis auf seine Qualität sein, die über die bloße Information zu den Klicks und Likes hinausgeht. Es hat sich bereits gezeigt, dass solche transparenten Angaben medizinische Entscheidungen verbessern können. Diese Transparenz könnte sich auch im Internet bewähren, indem sie verhindert, dass sich Echokammern in Gruppen bilden und diese fälschlicherweise glauben, ihre Meinung sei im Internet weit verbreitet und akzeptiert.
In ähnlicher Weise könnte es etwas erschwert werden, Informationen mit wenigen Quellangaben zu teilen. So zum Beispiel, indem die Freigabe einen weiteren Mausklick in einem Popup-Fenster erfordert und zusätzlich darauf hingewiesen wird, dass Informationen fehlen. Eine andere Art von Stupsern zielt darauf ab, wie Inhalte in Browsern angeordnet sind, das heißt wie unser Nachrichten-Feed gestaltet ist. Einfacher wäre es für die Nutzerinnen und Nutzer, wenn zwischen Inhaltstypen wie Meinungen und Nachrichten unterschieden würde oder auch Beiträge von Freundinnen und Freunden als solche gekennzeichnet wären.
Boosting hingegen zielt darauf ab, die Nutzerinnen und Nutzer langfristig kompetenter zu machen. Mit Blick auf den Nachrichten-Feed könnten sie etwa die Möglichkeit erhalten, selbst anzupassen, wie eigene Nachrichten-Feeds gestaltet und sortiert sind. Das heißt, sie entscheiden durch eigene Einstellungen, welche Faktoren ihnen am wichtigsten sind und was sie zuerst sehen möchten. Soziale Netzwerke könnten darauf hinweisen, warum ein Inhalt wie gewichtet und uns zuerst gezeigt wird, während andere Inhalte nachrangig behandelt werden. Ein anderes Beispiel für eine Boosting-Maßnahme wäre es, Informationen darüber zu geben, von wem ein Inhalt ursprünglich stammt und wie genau er sich verbreitet hat. Um Herkunft, Kontext und Qualität von Online-Inhalten besser einschätzen zu können, könnten auch Entscheidungsbäume zum Einsatz kommen. Diese würden den Nutzenden Kriterien an die Hand geben, mit deren Hilfe sie selbst Inhalte systematisch prüfen und somit sozusagen zum Faktenchecker in eigener Sache werden können. Auf längere Sicht könnten sie so Muster erkennen, den kritischen Umgang mit Inhalten lernen und Manipulationen schneller erkennen.
"Der interaktive Charakter der sozialen Medien könnte genutzt werden, um einen vielfältigen demokratischen Dialog und die kollektive Intelligenz zu fördern", sagt Ralph Hertwig, Direktor des Forschungsbereichs "Adaptive Rationalität" am Max-Planck-Institut für Bildungsforschung. "Es geht darum, neue Wege zu finden, um das Potenzial des Internets mit Blick auf demokratische Gesellschaften und deren Entscheidungsprozesse zu stärken, anstatt diese zu untergraben. Globale Probleme wie der Klimawandel oder die Coronavirus-Pandemie erfordern koordinierte, kollektive Lösungen. Dafür brauchen wir eine demokratisch-vernetzte Online-Welt." (mpg)