Screenshot: YouTube
"Wir sind mehr als drei Millionen Menschen. Ein Meer aus rot-weiß-blau." Mit euphorischen Worten verabschiedete sich die US-Veteranin Ashli Babbitt mit einer letzten Videobotschaft Richtung Kapitol – und in ihren sinnlosen Tod. Im festen Glauben, Teil einer großartigen Revolution zu sein, wurde sie zur tragischen Antiheldin des Aufstandes gegen Joe Bidens Bestätigung als Präsident. Nach monatelangem Online-Hass und andauernden Falschbehauptungen war sie bereit, alles für diese Sache zu geben.
Es waren aber nicht drei Millionen – es waren ein paar Zigtausend aufgeputschte Trump-Anhänger, die der amerikanischen Demokratie diesen Albtraum bescherten. Kurz darauf wurden diverse von Trumps Social-Media-Accounts abgeschaltet. Er hatte diesen Aufstand ausgelöst und sich nicht überzeugend distanziert. Hätten Rupert Murdoch (Fox News ) und die sozialen Plattformen Trump nicht fallen lassen, hätte es leicht einen Bürgerkrieg mit fanatisierten und bewaffneten Milizen geben können – auf der Basis von nachweislichen Lügen.
Was sind "schädliche Inhalte"?
Doch auch für aufrichtige Pluralisten gibt es einsichtige Gründe, die Meinungsfreiheit zu beschneiden und Informationen, Bilder, Inhalte, Symbole oder Aussagen zu bekämpfen. Schließlich gibt es Inhalte, die allgemein für so schädlich gehalten werden, dass ihre Löschung oder sogar Bestrafung als richtig gilt und allgemein akzeptiert ist (Harmful content ).
Zum Beispiel, weil sie …
offen zu Gewalt aufrufen
die pluralistische Demokratie beseitigen wollen
extrem polarisieren oder zu Hass und Terror aufstacheln
Angehörige von Gruppen oder Minderheiten diskriminieren
die Privatsphäre oder die Würde von Menschen verletzen
übler Nachrede oder Rufmord dienen oder Menschen bloßstellen
eine Beleidigung, Demütigung, Belästigung oder Mobbing darstellen
Stalking, Doxing, Nachstellung oder sonstige Belästigung darstellen
gefährliche Desinformation sind, zum Beispiel im Umfeld von Wahlen
die öffentliche Ruhe und Ordnung gefährden
einen Betrugsversuch beinhalten (Scam)
Korruption, organisierter Kriminalität oder Drogenhandel dienen
medizinische oder rechtliche Fehlinformationen beinhalten
von Sadismus oder sexueller Gewalt gegen Kinder motiviert sind
schockierende Gewalt darstellen und/oder Minderjährigen zugänglich machen
Pornografie darstellen und/oder Minderjährigen zugänglich machen
selbstschädigendes Verhalten fördern
Tierleid verursachen
zu Umweltschäden führen
die Totenruhe stören
epileptische Anfälle auslösen können
Marken-, Eigentums oder Urheberrechte verletzen (aus Sicht mancher der brisanteste Punkt überhaupt!)
lästige Werbung darstellen
oder gegebenenfalls (und hier wird es zum Teil sehr umstritten – warum sollte man das nicht dürfen?)
Gewalt verherrlichen oder unnötig realistisch darstellen (zum Beispiel in Computerspielen)
religiöse Gefühle, nationalen Stolz oder ähnliches verletzen (Gotteslästerung, Angriff auf Staatsführer etc.)
ein erniedrigendes Menschenbild verbreiten (zum Teil unterschwellig, zum Beispiel in Pornografie)
Personen markieren oder Todeslisten anlegen (das heißt ohne Vorbereitung einer konkreten eigenen Straftat)
unnötige Ängste auslösen (zum Beispiel paranoide Wahnvorstellungen verbreiten, die aber subjektiv "wahr" sind)
einen Aufruhr oder politischen Umsturz anstiften (die Legitimität ist hier jeweils umstritten, Gewalt etc.)
über Terror berichten (und damit sein Kalkül bedienen, Angst zu verbreiten oder Gegenreaktionen auszulösen)
ungeborenes Leben infrage stellen (Infos oder Debatten zur Abtreibung)
Anleitungen zum Suizid geben
idealisierte Körper darstellen (was Magersucht fördern kann)
Werbung für gesundheitsschädliche Produkte oder Drogen machen
Anleitungen für den Bau von Waffen bereitstellen
einer gesellschaftlichen Minderheit sonstwie anstößig erscheinen (Puritanismus, verletzende Bezeichnungen etc.)
… usw.
Andererseits gibt es oft genug Gründe, als schädlich empfundene Inhalte gerade nicht zu sperren.
Diese könnten sein
Sozial- und Kriegsreportagen (Inhalte dienen der Aufklärung)
investigativer Journalismus oder Whistleblowing (verwerfliche Praktiken werden aufgedeckt und Grenzüberschreitungen damit legitimiert)
legitime Kritik (etwa an Markenherstellern oder öffentlichen Personen)
Kunst (ein ernsthafter künstlerischer oder literarischer Wert – ggf. auch umstritten)
erkennbare Satire oder Ironie
Wertungen, grenzwertige Ausdrücke etc., die noch der Meinungsfreiheit unterliegen
Schutz von oppositioneller Tätigkeit (zum Beispiel um Dissidenten vor vorgeschobenen Löschgründen zu schützen)
… usw.
Eine lange Liste, auf die ich mich noch mehrmals beziehen werde.
Klar ist: Was davon so schädlich ist, dass unsere Gesellschaft es für illegal erklärt, darf und soll aus öffentlichen Medien entfernt werden. Alles, was nicht illegal ist, unterliegt der Meinungsfreiheit und dürfte dort auch nicht entfernt werden.
Allerdings, das werden wir noch sehen, berührt jede Gewichtung die Meinungsfreiheit. Jede Favorisierung ist eine Bevorzugung und jede Beschneidung von Reichweite eine Art Diskriminierung. Inhalte, die legal sind, aber unerwünscht , können auf Basis interner Richtlinien kleingehalten werden. Diese Soft Power von Sozialen Netzwerken ist schwer zu kontrollieren. Nur selten gelingt der Nachweis einer tatsächlichen inhaltlichen Einflussnahme oder Diskriminierung, die für die Grundrechte auch relevant genug ist. Eine Verpflichtung von großen Plattformen zur Ausgewogenheit wäre zur Zeit kaum durchsetzbar. Sie wird aber diskutiert, etwa durch eine Aufsicht ähnlich der, der die öffentlich-rechtlichen Medien unterliegen.
Das Ziel – da dürften sich alle einig sein – ist eine tolerante und vielseitige, aber auch verantwortbare Medienwelt. Und wenn auch nur eine der oben genannten Inhaltskategorien von einer deutlichen Mehrheit als so kritisch gesehen wird, dass eingegriffen werden muss, dann brauchen wir so etwas wie eine Regulierung. Dann brauchen wir Entscheidungs- und Handlungsgrundlagen und geeignete Maßnahmen.
Und wir müssen sicherstellen, dass diese Maßnahmen nicht missbraucht werden. Denn noch jede ins Totalitäre abgleitende Regierung wird ja Gründe suchen, eine Löschung oppositioneller Inhalte zu legitimieren. Wir sehen das schon heute. Wenn "Terrorgefahr" nicht verfängt, kann man immer noch versuchen, das Urheberrecht in Stellung zu bringen.
Bevor wir uns also auf dieses schwierige Terrain wagen, sollten wir noch einige Begriffe genauer verstehen.
Beispiel 2: TikToks Drosselung
Foto: Pixabay
Die Videoplattform TikTok hat die Accounts von Menschen, die aus der Norm fallen, gedrosselt. Weil sie stark übergewichtig, behindert oder homosexuell sind, wurde ihre Reichweite eingeschränkt. Angeblich geschah dies, um sie vor Mobbing zu schützen, indem man sie weniger sichtbar machte. Doch wenn man sich anschaut, wie in TikToks Heimatland China mit Minderheiten umgegangen wird, könnte man auch eine Diskriminierung vermuten. Als die Maßnahmen in Deutschland publik wurden , hagelte es Kritik. Daraufhin versprach die Plattform Besserung und einen bewussteren Umgang mit dem Thema.
Zur Klärung einiger Begriffe
Objektivität, Ausgewogenheit oder Konsens?
Um Inhalte zu bewerten, bedarf es oft eines objektiven Urteils, zumindest aber eines Konsenses über "Wahrheit" – der aber schwer herzustellen ist. Wir leben in Zeiten eines rasanten Austausches von visuell überzeugenden und uns oft überwältigenden Nachrichten. Eine Hysterie, basierend auf einer blanken Lüge, ist binnen Minuten entfacht. Ein Rufmord ist schnell in die Welt gesetzt, aber unmöglich beizeiten zu entkräften. So benötigen wir einen Kompass, der uns schnell und relativ sicher sagt, was gefördert oder toleriert und was niedergehalten werden soll. Zeit ist dabei ein kritischer Faktor.
Wo also verlaufen die Grenzen zwischen gewöhnlichem Beitrag und schädlichem Inhalt, zwischen legitimer Kritik und gefährlicher Propaganda? Können wir uns auf überprüfbare Kriterien einigen, die verbindlich gelten? Was ist Satire, was ist Ironie und was ist eine Beleidigung? Welche wissenschaftliche Erkenntnis darf als hinreichend gesichert gelten und welche als irrelevant oder widerlegt? Und ändern sich diese Maßstäbe nicht andauernd?
Tatsächlich ist heute vieles normal, was noch vor wenigen Jahren als undenkbar galt – und umgekehrt. Kopftücher waren früher in Europa sehr verbreitet, heute sind sie heiß umstritten. Vielleicht empfinden wir irgendwann fotografisch bearbeitete Models als obszön, vulgäre Ausdrücke aber als völlig normal. Wer früher noch "Frauen an den Herd" wünschte, echauffiert sich heute vielleicht über ihre Unterdrückung in arabischen Ländern. Vielleicht hält man Werbung für Zucker irgendwann für gefährlicher als Terrorpropaganda – was von den Opferzahlen her betrachtet durchaus vertretbar wäre… – Wir wissen es nicht, die Dinge sind im Fluss.
Deshalb sollte es bei der Meinungsfreiheit gerade nicht um Konsens gehen oder um Mehrheiten. Vielmehr braucht es die Einsicht der Mehrheit, dass ein Dissens notwendig ist (Demokratie, Pluralismus, Minderheitenschutz, Rechtsstaat). Aber es braucht einen Konsens darüber, welchen Arten von Inhalten (siehe oben) der Status einer geschützten Meinung nicht zugestanden werden darf. Weil sie zu zerstörerisch oder gefährlich sind. Dieser Konsens kann nur "bis auf weiteres" gelten, denn dass er oft zeitgebunden ist, zeigt die Geschichte.
Frei denken – kann man das überhaupt?
Das individuelle und kritische Denken hat in Europa eine lange Tradition. "Sapere aude – Habe Muth dich deines eigenen Verstandes zu bedienen!" lautete der antike Wahlspruch, den Immanuel Kant für die Aufklärung ausgab. Stärker als die Buddhisten, Konfuzianer oder Muslime in Asien sahen aufgeklärte Europäer sich als losgelöste Individuen. Sich aus eigener Kraft aus jeglicher Knechtschaft zu befreien wurde zum Credo der sozialen Revolutionen seit 1789.
Doch auch das Bewusstsein in der Aufklärung ist bedingt: "Das Sein bestimmt das Bewusstsein", lehrte Marx. Und Freud legte nach: Unsere frühkindliche Sozialisation bestimmt unser Unterbewusstsein. Auch Individualisten sind also nichts, was sie nicht irgendwie geworden wären. Neue Konzepte der politischen Umerziehung ließen nicht lange auf sich warten, von Goebbels' Volksempfänger bis zu Maos Kulturrevolution. Dem stellte sich ein pluralistischer Humanismus entgegen, der eine robuste, wehrhafte Demokratie forderte.
Bis heute sind die sich wandelnden Einflüsse massiv: Ob Elternhaus, Schule, Werbung, Unterhaltung, Nachrichten oder Social Media – von überall strömen Ideen und Ideologien auf uns ein. Unsere Kultur und Identität verändern sich schneller denn je. Subkulturen und Peer-Groups stehen zu Wahl, teils mit verlockenden Angeboten. Wer da behauptet, er wolle sich selbst formen und erfinden, unterliegt einer Illusion.
Vielleicht ist aber etwas anderes gemeint: Das Denken möge nicht von fremden Interessen gelenkt werden. Es möge der maximal erreichbaren Erkenntnis dienen und nicht dem Einfluss anderer. Selbstbestimmung kann erst dort entstehen, wo ein Selbstbewusstsein vorhanden ist und seine eigenen Interessen entdeckt und formuliert hat.
Seit es das Internet gibt, hat sich unser Denken verändert. Es hat sich vernetzt und beschleunigt. Neue Ideen jagen um den Globus und begründen Cluster von Anhängern. Manchmal entstehen dabei fast hermetisch abgeschlossene Blasen, ganze Kulte oder Parallelgesellschaften. Menschen können einen Wahn ja nicht mehr wahrnehmen, wenn er sie erst einmal so selbstverständlich umgibt wie die Luft zum Atmen. Das ist quasi die Geschäftsgrundlage von Sekten und Verschwörungsmythen.
Wenn wir nun mit Menschen aus solch exotischen Gedankenwelten kollidieren, halten wir sie für Außerirdische – unverständliche Volldeppen, die scheinbar nicht auf diesem Planeten leben. Sie scheinen "gesteuert", sie denken gar nicht selber, sondern folgen einer mächtigen Ideologie. Wie wir selbst vermutlich auch – nur dass unsere Ideenwelt aus unserer Sicht weniger extrem ist, weniger abgeschlossen und unserer gefühlten Selbstbestimmung mehr Raum gibt.
Beispiel 3: #allesdichtmachen dicht gemacht?
Foto via pixabay
In der Corona-Pandemie haben Schauspieler*innen eine Reihe von sarkastisch gemeinten Statemets veröffentlicht, in denen sie sich über die Maßnahmen der Bundesregierung mokierten. Unter dem Hashtag "#allesdichtmachen" sorgten die Videos für Kontroversen. Der entsprechende Kanal war auf YouTube schnell sehr frequentiert und sollte natürlich auch auffindbar sein. Nach zwei Tagen dann große Aufregung: "YouTube löscht #allesdichtmachen! Unsere Meinungsfreiheit wird beschnitten!" – Was war passiert?
Nichts. Der Kanal war weiterhin online. Er war aber in der Schlagwortsuche von anderen Medien verdrängt worden, die teils kritisch über die Aktion berichteten und dem Algorithmus vermutlich als rennomierter und relevanter erschienen. Die Fans der Aktion fühlten sich düpiert und schimpften und klagten auf breiter Front. Nach etwa einer Woche hatte sich das Suchergebnis korrigiert und #allesdichtmachen war wieder weit vorne in den Suchergebnissen zu finden. Oder waren es doch YouTube-Entscheider, die hier Hand angelegt hatten, um die Meinung im Sinne der Bundesregierung zu manipulieren? Denkbar, aber unwahrscheinlich, denn so brisant waren die Videos auch wieder nicht – und illegal natürlich auf keinen Fall. Nach meiner Einschätzung sind die Anwälte der Meinungsfreiheit hier einer Kontrollillusion erlegen, während der Algorithmus nur unbeeindruckt seine Arbeit gemacht hat.
Kann man "Framing" vermeiden?
Über Framing wird viel geschimpft: Ein Sachverhalt wird durch geschickte Wortwahl bewusst in ein bestimmtes Licht gerückt. Spricht man von "Kernkraft" oder "Atomkraft"? Von "Rechtsextremisten" oder von "Nationalkonservativen", von "Kommunisten" oder von "Linken"? Unbewusst tun wir das alle – jede Wortwahl hat schließlich irgendeine Vorannahme oder Konnotation.
Allzu rohe Fakten, Tatsachen und Daten ergeben für unsere Gehirne keinen Sinn, sondern führen allenfalls zu Reizüberflutung. Erst wenn sie gefiltert und in Zusammenhänge gebracht werden, ergeben sich Muster. Und diese modellieren dann ein Gesamtbild. Dass dabei Wertungen, Prämissen und gezielte Fragestellungen im Spiel sind, ist selbstverständlich. Eine neutrale Berichterstattung kann es daher nicht geben – allenfalls eine ausgewogene Position. Die Fragen können also nur lauten: Wer steuert unsere Information, die Story, das Framing ? Wem vertrauen wir und wie oft werden wir ein wenig misstrauisch? Und wie ehrlich sind wir zu uns selbst, dass unser Wissen nur relativ und erworben ist?
"Wo gemischt und gemahlen wird, da wird auch betrogen" lautet eine alte Bauernweisheit. Auf Medien bezogen könnte man sagen: "Wo redigiert und kuratiert wird, da wird Meinung gemacht". Framing findet also immer statt, genau wie Bewertung, Gewichtung, Auswahl. Immer sind dabei Interessen im Spiel, sei es eine Ideologie, wirtschaftliche Vorteile oder einfach eine interessante Story zu liefern.
Doch wie schützen wir uns vor Manipulation und massivem Betrug?
Ein Hinweis ist das eigennützige Interesse anderer. Das Interesse der Gemeinschaft vor das eigene stellen, den langfristigen Vorteil vor den kurzfristigen – nichts anderes ist ethisches Handeln. Ich kann mir also anschauen: Welche Interessen vertritt eine Journalistin, ein Blogger, eine Werbeagentur, ein Lobbyist, eine Politikerin? Ergibt das einen Sinn und in wessen Sinne ist das? Wem vertraue ich wie weit?
Ein anderer Hinweis ist die Ergebnisoffenheit. Wenn ein Gegenstand untersucht wird, wie offen oder einseitig ist das Ergebnis? Manchmal ist offensichtlich, dass ein erwünschtes Ergebnis abgeliefert wird. Bei wissenschaftlichen Statistiken ist das zum Beispiel aber nicht einfach zu erkennen. Plausibilität und Gegenstimmen, Faktenchecks und überprüfbare Quellen schaffen Vertrauen und können bei der Einschätzung helfen.
Und schließlich: Zu wissen, den ganz großen Betrug gibt es nur sehr selten. Verschwörungen kommen fast immer ans Licht – je mehr Menschen daran beteiligt sind, desto schneller. Und nicht alles, was auf den ersten Blick nach einer Verschwörung aussieht, ist auch eine.
Medienkompetenz ist also ein Teil der Antwort. Bücher wie "Tausend Zeilen Lüge " oder "Fake Facts ", das gelegentliche Lesen von Faktenchecks oder Berichte über Foren-Netzwerke und Trollfabriken sollten genug Hintergrundwissen vermitteln, um sich einigermaßen gegen Manipulation zu schützen. Doch – reicht das aus?
Was ist öffentlich – was privat?
Das Internet hat einen fließenden Übergang zwischen privater und öffentlicher Kommunikation geschaffen. Eine klare Unterscheidung ist daher heute schwierig, aber eigentlich wichtig. Denn das privat gesprochene Wort, das unter Freunden versendete Bild oder Video, ist zu schützen. Die öffentlichen Medien dagegen unterliegen einer Kontrolle, weil schädliche Inhalte dort auf ein Massenpublikum treffen.
Dass ein verschlüsseltes Smartphone ebenso unbeobachtet bleiben sollte wie ein am Strand gesprochenes Wort, hat einen guten Grund. Denn alle Versuche, diese Privatsphäre systematisch aufzubrechen, führen über kurz oder lang zur Bedrohung der Meinungsfreiheit. Geht es heute vielleicht darum, Kinderpornografie zu bekämpfen (wie die EU es gerade diskutiert ), so sind es morgen terroristische Inhalte, die gefunden werden müssen. Von kurdischen , katalanischen oder demnächst vielleicht schottischen Separatisten zum Beispiel. Gar nicht zu reden von Hongkonger Demokratieaktivisten, griechischen Investigativjournalistinnen, saudischen Atheisten oder deutschen Whistleblowerinnen. In einer Zeit, in der man ohne Smartphone schon fast auffällt, darf diese Technik sich nicht gegen uns wenden (Asimov ).
(Wohlgemerkt: Wir sprechen hier von anlassloser Massenüberwachung und Schwächung von Systemen. Dass die Polizei frustriert ist, wenn manche Überwachungspotenziale nicht genutzt werden, ist verständlich. Gezielte Maßnahmen, etwa das Eindringen in verdächtige Gruppen, sind ein ganz anderes Thema. Sie können durch Gerichte legitimiert werden. Und nebenbei ist dieses Vorgehen auch erfolgreicher.)
Nun kommunizieren manche Leute in verschlüsselten Chatgruppen mit bis zu 200.000 treuen Followern. Da kann man schon von einem Medium sprechen. Es macht einen Unterschied, ob 50 Leute ein Terrorpropaganda-Video sehen oder zigtausende. Ersteres ist schlimm (und kann auch virale Effekte haben), ist aber unter Wahrung der Vertraulichkeit nicht zu unterbinden – siehe oben –, es sei denn durch verdeckte Ermittler oder Whistleblower. Das andere ist eine massenhafte, mediale Verbreitung von Inhalten, die einer Regulierung offen stehen sollte.
Eine Mischform aus privater und öffentlicher Kommunikation sind Soziale Netzwerke . Hier hat ein Plattformanbieter die Moderatorenrolle. Ab einer gewissen Größe (Besucherzahl) ist er laut Netzwerkdurchsetzungsgesetz (NetzDG) verpflichtet einzugreifen und illegale Inhalte zu sperren. Er darf eine Hausordnung haben, aber diese muss die Meinungsfreiheit achten und darf nicht diskriminierend sein. Die Praxis sieht anders aus: In der Regel werden die Nutzungsbedingungen eng ausgelegt und es kommt häufig zu Overblocking . Schon eine sichtbare (weibliche!) Brustwarze kann bei Instagram die Alarmglocken klingeln lassen. Aus meiner Sicht dürfte dies aber allenfalls für Accounts gelten, die die Schwelle der privaten Kommunikation überschritten haben, aber diese Unterscheidung wird nicht getroffen.
Beispiel 4: Ein Kuss macht Furore
Screenshot: © Amed Sherwan via Facebook
Als Amed S. eine Reihe von Fotomontagen auf Facebook und Instagram veröffentlichte, ahnte er natürlich, dass die nicht jedem gefallen würden: Zu sehen war ein Kuss mit Mohamed H. In einem Motiv waren die beiden auf den Hintergrund der Kaaba in Mekka montiert und diese mit der Flagge der Gay-Pride-Bewegung geschmückt. Fundamentalistische Muslime waren sofort auf dem Plan und überzogen die Bilder mit Hass und Wut, bis hin zu Morddrohungen. Besonders in Pakistan wurden die Bilder als schädlicher Inhalt gemeldet. Doch statt zu erkennen, dass es sich hier um eine ganz gezielte Einschüchterung handelte, schlossen Facebook und Instagram Ameds Accounts – und verhielten sich damit ganz im Sinne der schwulenfeindlichen Pöbler.
Facebook hat so ein paradoxes Kalkül erfüllt: Je beleidigter eine Gruppe sich aufführt, desto stärker sieht man die "öffentliche Ordnung" gestört – aber nicht durch die vermeintlich Beleidigten, sondern durch den Beitrag. Das wollte S. nicht auf sich sitzen lassen. Unterstützt von der Giordano-Bruno-Stiftung , dem Institut für Weltanschauungsrecht und der Initiative für Meinungsfreiheit ging er den beschwerlichen Klageweg. Und hatte Erfolg: "Ich bin überglücklich über dieses wichtige Zeichen für Meinungsfreiheit im Netz", kommentierte er seinen Sieg. "Ein religiöser Mob darf sich mit seinen menschenfeindlichen Vorstellungen nicht bei Facebook durchsetzen! Ein Kuss ist kein Verbrechen!"
Ohne Regeln geht's nicht – deal with it !
So schön sie vielleicht waren, sie sind längst vorbei – die Zeiten der fröhlichen Informations-Anarchie im Internet. Nicht mehr abseitige Spinner, sondern ausgebuffte Agenturen und professionelle Demagogen ziehen heute alle Register und beherrschen die Klaviatur der Desinformation meisterhaft. Dabei kann man an sich selbst beobachten: Wer sich innerlich entschieden hat, bestimmten Erzählungen zu folgen – etwa in den ersten Wochen der Corona-Pandemie oder vor den US-Wahlen – der bleibt leicht in einer Blase selbstgefälliger Bestätigung hängen. Das kann zu einer scharfen Polarisierung führen, die eine Demokratie aber aushalten muss. Denn vieles ist ja Auslegungssache oder lässt sich als Wertediskussion verstehen, die natürlich wichtig ist. Sogar blanke Desinformation fordert zur Gegenrede heraus, zur Aufklärung und ist bis zu einem gewissen Punkt zu tolerieren, denn sonst wären wir zu schnell am Zensieren.
Der kritische Punkt liegt bei einer ernsten Gefährung von wesentlichen Schutzgütern (siehe oben) oder der pluralen Gesellschaft insgesamt. Mit der wünschenswerten Medienkompetenz und Selbstverantwortung ist es dann nicht mehr getan. Genau wie andere Bereiche, etwa Straßenverkehr, Umweltschutz, Stadtplanung, Bildung oder die Lebensmittelherstellung, kommen auch unsere Informationsräume ohne Regulierung nicht aus, wenn es um diese Werte geht. Denn der oder die Einzelne ist manchmal eben zu egoistisch, zu böswillig oder schlicht zu blöd um ihm/ihr per Massenmedium eine dermaßen zerstörerische Macht einzuräumen. Auch wenn es sich geradezu autoritär anhört: Wenn wir uns darauf einigen, dass viele der eingangs aufgelisteten Inhalte illegal und nicht akzeptabel sind, dann müssen wir uns dazu bekennen, sie auch zu unterdrücken. Genau das ist mit einer "wehrhaften Demokratie" gemeint.
Eine Regulierung unserer Medien ist demnach legitim und muss ebenso klare Grenzen haben. Doch wie soll das in der Praxis aussehen und funktionieren?
Eine Moderation findet statt
"Eine Zensur findet nicht statt" heißt es vollmundig im Artikel 5 des deutschen Grundgesetzes. Doch gemeint ist damit allein das Verbot einer staatlichen Vorzensur:
"Jeder darf seine Meinung zum Ausdruck bringen, kann aber nachträglich zur Verantwortung gezogen werden, wenn er dabei gegen Gesetze verstößt. Die Konsequenzen können Einziehung und Indizierung des betreffenden Werkes oder Bestrafung der Person sein. (…) Eine Vorauswahl privater Stellen, ob Beiträge veröffentlicht werden oder nicht (z.B. in einer Zeitungsredaktion oder Online-Foren), ist daher keine Zensur im Sinne des Grundgesetzes und verfassungsrechtlich unbedenklich.
Allenfalls im Zuge der sogenannten mittelbaren Drittwirkung von Grundrechten kommt je nach Sachverhalt der Stellenwert von Art. 5 GG auch zwischen Privaten indirekt zum Tragen. Dabei handelt es sich dann allerdings um ein Auslegungsinstrument für andere Gesetze, nicht um eine direkte Anwendung des Zensurverbotes aus dem Grundgesetz." (Quelle: Wikipedia )
Was wir nun ganz sicher nicht tun sollten, wäre irgendjemanden Beliebiges zu bevollmächtigen, unsere Medien zu zensieren. Genau das geschieht aber: Der Staat verlangt von den sozialen Netzwerkplattformen, verbotene Inhalte zu löschen. Gegebenenfalls schon beim Upload. Na super: Ein paar random Glücksritter des Internetzeitalters, die mit Raffinesse und viel Chuzpe zu Milliardären wurden, entscheiden über unsere Meinungsfreiheit! So hatten wir uns das nicht vorgestellt.
Eine "Moderation" findet also sehr wohl statt und sie unterliegt keiner wirklichen rechtlichen Kontrolle. Im Glauben, doch stets für die gute Sache einzutreten, setzen die Plattformen ihre Hausordnungen nach Gutdünken um. Eine Löschung ist schnell erledigt, dagegen rechtlich vorzugehen ist oft langwierig. Schon ein Tag für den Einspruch kann zu lange sein, denken wir an Wahlkämpfe oder aufflammende Konflikte. Und: Eine Löschung wird ja noch bemerkt, aber eine Gewichtung, die Beschneidung von Reichweite, ein Justieren des Algorithmus kann ebenso brinsante Auswirkungen haben.
Kriterien und Umsetzung sind derzeit viel zu plump
Wir müssen also einen gesellschaftlichen Konsens darüber finden, was nicht öffentlich gesagt, gesendet, verbreitet werden darf. Und was man auf einer großen, öffentlichen Plattform sagen dürfen muss. So weit, so schwierig die Theorie. Doch noch komplizierter ist die Praxis: Wo und wie soll eine Regulierung (Steuerung, Säuberung, Bewertung, Zensur) eingreifen und durch wen?
Wir sehen jeden Tag, dass es nicht besonders gut funktioniert. Beziehungsweise: Sehr vieles funktioniert gut – aber der Unmut, wenn etwas falsch beurteilt wird, ist zurecht groß. Eine KI unsere Debattenräume ausmisten zu lassen – so einfach ist das nicht. Auch die Content-Moderator*innen sind oft überfordert . Der Aufwand, es gut zu machen, wäre hoch und niemand will für die Kosten aufkommen. Dabei geht es um nichts Geringeres als unsere Meinungsfreiheit.
Beispiel 5: Facebook-Hetze in Myanmar und in Indien
Foto: © Thomas Osten-Sacken
In manchen Ländern ist Facebook quasi die einzige Internetseite, die von der breiten Bevölkerung genutzt wird. So hatte das Militär in Myanmar mit einer massiven Verleumdungskampagne auf Facebook durchschlagenden Erfolg, die es seit 2013 gegen die muslimische Minderheit der Rohingya gefahren hat. Die Volksgruppe ist dort nicht anerkannt und wurde als "staatenlos" systematisch ausgegrenzt. Ressentiments, illegale Inhaftierungen, Folter, Vergewaltigungen und Morde sind an der Tagesordnung. Die Vertreibung erreichte 2017 ihren Höhepunkt, seitdem leben circa 1,5 Millionen Rohingya oft in Notunterkünften im Ausland. Die Ausgrenzung wurde flankiert von massiven Diffamierungen, Hassrede und offenen Genozidforderungen auf Facebook. Die Plattform hat in großem Stil darin versagt , die volksverhetzenden Inhalte vom Netz zu nehmen, weil sie über Jahre keine entsprechende Infrastruktur in burmesischer Sprache aufgebaut hat.
Auch in Indien ist es zu Pogromen gegen Minderheiten gekommen, nachdem Gerüchte die Runde machten, dass diese Kinder mit Motorrädern entführen würden. Eine entsprechende Szene wurde per WhatsApp auf Video verbreitet, es handelte sich aber tatsächlich um eine gespielte Szene von einem Filmset. Wochenlang gelang es der Polizei nicht, für Aufklärung zu sorgen – die Nachrichten wurden ausgeschmückt und weiter geteilt. Auf diese Weise aufgehetzte Mobs haben schließlich eine ganze Reihe völlig unschuldiger Menschen gelyncht. Ein Exzess an Gewalt, ausgelöst allein durch Fake News .
Wie kann es also gehen?
Um die schwierige Situation zu beheben, in der unsere Meinungsfreiheit im Reifungsprozess von Social Media steckt, schlage ich die folgenden Konzepte vor:
1. Eine Trennung von privater und medialer Kommunikation
Früher war klar: ein Anruf ist privat, ein Leserbrief öffentlich. Doch heute haben wir Zwischenformen wie Profile, Foren oder Chatgruppen, in denen quasi privat, potenziell aber mit großem Wirkradius kommuniziert wird. Wenn wir also sagen
a) privat muss geschützt bleiben und
b) medial muss moderiert werden,
dann kommen wir nicht darum herum, eine künstliche Grenze zu ziehen. Willkürlich schlage ich eine Reichweite von 50 Beteiligten vor:
a) Wer mit bis zu 50 Menschen kommuniziert, unterliegt der vollen Geheimhaltung von Verschlüsselung und ePrivacy, inklusive Metadaten. Dort kann man in einem geschützten Raum sagen und teilen, was man will. Wenn hier zu Mord und Totschlag aufgerufen wird, muss man schon auf einen Denunzianten hoffen. Oder auf gute Polizeiarbeit mit richterlichem Vorbehalt, denn auch Privaträume sind ja nicht rechtsfrei. Alles Weitere müssten wir als Kollateralschaden unserer Meinungsfreiheit akzeptieren. Denn wir wissen, es hätte ebenso gut im Darknet oder bei einem Treffen im Wald geteilt werden können, Überwachung kann das Böse nicht ausrotten.
b) Kanäle, die ein Publikum von mehr als 50 Personen erreichen, gelten als Medien und unterliegen grundsätzlich einer öffentlichen Einsichtnahme und Regulierung. Je nach Verbreitungsgrad und Gefährlichkeit der Inhalte müssen schädliche Inhalte (siehe oben) mehr oder weniger schnell vom Netz genommen werden. (Melde- und Reaktionszeiten, Verwarnungen und Filter werden weiter unten ausführlich behandelt.) Ein Messengerdienst müsste dann geschlossene Chatgruppen bei 50 Personen limitieren, Betreiber größerer Foren wären einer Moderation verpflichtet.
2. Das Melden durch Laien muss funktionieren
Die Meldewege in den großen Netzwerken sind derzeit unbeholfen und inkonsistent gestaltet. Notwendig wäre ein einheitlicher Prozess, in dem niedrigschwellig, schnell und präzise angegeben werden kann, warum ein Inhalt rechtswidrig sei und entfernt werden müsse. Oder, als Beschwerdemöglichkeit, warum der Beitrag keiner Sperrung unterliegen sollte. So kann schon nach ein bis zwei Meldungen ein Warnhinweis gegeben und von der Crowd ein Urteil eingeholt werden. Bald haben wir auf diese Weise mehrere Urteile – und vielleicht einen Meldekrieg. Wenn die Sache kontrovers ist, sollte eine qualifizierte Person sich das ansehen, und zwar innerhalb kurzer Zeit.
Einen großen Haken hat diese Schwarmintelligenz allerdings: Die schiere Menge an schädlichem Material ist ungefiltert für Laien kaum zumutbar. Heerscharen von Content-Moderator*innen ("Cleaner") setzen ihre psychische Gesundheit dafür ein, uns vor Enthauptungsvideos und Abbildungen von Kindesmissbrauch zu schützen. Diese Arbeit ist unzumutbar; innerhalb von Monaten sind diese Menschen fertig mit der Welt. Eine Hoffnung liegt auf KI, aber diese macht zur Zeit mehr Fehler als im Sinne der Meinungsfreiheit zulässig wäre. Nicht umsonst haben wir uns gegen Uploadfilter noch stets zur Wehr gesetzt. Lügen wir uns hier in die Tasche? Niedrigschwellige Einspruchsmöglichkeiten könnten, in Kombination mit einer besser geschulten KI, langfristig eine Lösung sein. Das Thema bleibt aber brisant. Schon allein die Frage nach der Speicherung von "Trainingsmaterial" ist ethisch schwer zu beantworten.
3. Anerkannte Accounts sorgen für Integrität
Es gibt Methoden, die Qualität von Accounts zu bewerten , ihr "Internet-Karma". Frisch eröffnet, wenige Follower – diesem Account sollte man keine maßgeblichen Urteile zutrauen. Viele Abmahnungen wegen schädlicher Inhalte, gegebenenfalls einem geschlossenen Ring angehörend – offensichtliche Troll-Accounts könnten angezählt werden. Mit Zeitstrafen, weniger Reichweite, weniger Vertrauen beim Melden und im Extremfall mit einer Sperrung. Haben Profile dagegen Hinweise gegeben, die sich bestätigt haben, erhalten sie einen Bonus in ihrem Internet-Karma und gelten irgendwann als qualifizierte User.
Wohlgemerkt: Das Kriterium darf weder die Interaktionsrate sein noch irgendein Wohlverhalten oder eine Mainstream-Meinung. Registriert wird allein das Verhalten in Bezug auf nachweislich schädliche Inhalte gemäß der erarbeiteten Kriterien (siehe oben). Wer sich über den politischen Gegner einfach nur mokiert oder den ganzen Tag lang vulgäres Zeug redet, macht sich vielleicht unbeliebt, hat aber ein Recht dies zu tun – und kann durchaus ein intaktes Urteilsvermögen haben.
Ein solches System von Account-Gewichtungen sollte einfach, transparent und einheitlich sein, das heißt quelloffen implementierbar und in jedem größeren Forum für dessen jeweilige Accounts gültig.
4. Gerichtlich Autorisierte müssen entscheiden
Schon im nächsten Schritt muss eine juristisch autorisierte Person entscheiden – nicht im Sinne einer Hausordnung, sondern im Sinne des Gesetzes. Zwischen dem sekundenschnellen Urteil der Crowd oder der qualifizierten User einerseits und einer Wochen dauernden juristischen Entscheidung andererseits müssten noch zwei weitere Ebenen eingezogen werden. Hierfür bräuchte es einen ganz neuen Typus von Entscheider*innen: Schöffen und Laienrichterinnen, die in einem Crashkurs eine Art Examen abgelegt haben. Nicht jemand, der in einer Amtsstube Akten wälzt, sondern Leute, die sich im Homeoffice zu den Stoßzeiten nebenbei ein paar Euro verdienen. Leute, die unseren Kuturkreis kennen und den Jargon der verschiedenen Subkulturen. Auch hier muss es natürlich Beschwerdemöglichkeiten geben. Aber je höher die Instanz, desto länger wird ein fundiertes Urteil dauern.
So ergäbe sich folgende Hierarchie in der Entscheidung über schädliche Inhalte :
Bisher:
User (melden)
Cleaner (entscheiden in Tagesfrist)
Gerichte (entscheiden über Widerspruch binnen Monaten und Jahren)
Vorschlag:
User: melden und beurteilen (Markierung, inkl. Einspruchsmöglichkeit und Gegenmeinungen in Sekunden)
qualifizierte User: entscheiden (Freigabe, Warnhinweis oder vorläufige Sperrung innerhalb einer Stunde)
Schöffe*in: entscheidet in kontroversen Fällen (Freigabe oder Sperrung mit Einspruchsmöglichkeit in Tagesfrist)
Laienrichter*in: entscheidet bei Widerspruch (Freigabe oder weitere Sperrung mit Einspruchsmöglichkeit möglichst in Tagesfrist)
reguläre Gerichte: entscheiden abschließend (dauert 3 Monate bis 2 Jahre, Freigabe oder weitere Sperrung mit Weg durch die Instanzen)
Beispiel 6: Böhmermann und die Lex Soraya
Jan Böhmermann, Foto: © ZDF/Ben Knabe
Auf Majestäts- oder Präsidentenbeleidigung steht in manchen Ländern Gefängnisstrafe. In der Türkei wird dieses Delikt mit zunehmender Härte verfolgt . Der Satiriker Jan Böhmermann hatte 2016 den türkischen Präsidenten Erdoğan in einem Schmähgedicht gezielt verspottet, was zu diplomatischen Animositäten führte. Darf man das? Es wurde bald klar: In einem freien Land darf man das. Die Politik hat es nichts anzugehen, was die Presse in ihrem Land tut, solange keine hier anerkannten Rechtsgüter verletzt werden. Und bei einer öffentlichen Person ist es nun mal so, dass sie sich auch schneidende Kritik gefallen lassen muss – Frau Merkel kann selbst ein Lied davon singen. Zur finalen Klarstellung wurde der überkommene Paragraph 103 StGB schließlich abgeschafft .
Der Fall erinnerte an eine Affäre um die sogenannte "Lex Soraya " von 1958: Die deutsche Boulevard-Presse hatte sich damals über Trennungsgerüchte im persischen Herrscherhaus ausgelassen, damit die Wut des Schahs von Persien auf sich gezogen und eine diplomatische Krise ausgelöst. Es gab damals tatsächlich Kabinettspläne, ein Gesetz zu verabschieden, das solche Krisen per Zensur vermeidet. Doch schnell intervenierten der Deutsche Presserat und der Bundesrat – und die Vorlage wanderte in den Papierkorb.
5. Hilfsangebote bereitstellen
Auch die Phänomene in den Sozialen Medien folgen den Bedürfnissen, Ängsten und Reflexen von Menschen und diese sollte man ernst nehmen. Jede Maßnahme "gegen" einen User sollte daher von einem spezifischen (plattformübergreifenden) Angebot begleitet sein. Warum sind zu meinem Thema so viele Fakes unterwegs? Wie kann ich meine Wut in etwas Konstruktives umsetzen? Wohin kann ich mich wenden, wenn ich bei mir pädosexuelle Neigungen bemerke? Wie kann ich aus einem kriminellen Netzwerk aussteigen? Warum mache ich mich mit einem Inhalt strafbar? Das klingt "gut gemeint" und ist es auch. Wer dies für eine Bevormundung hält, muss ja nicht teilnehmen.
6. Legal – tolerierbar – illegal
Neben den Kategorien "legitime Meinungsäußerung" (kein Eingriff) und "illegaler Inhalt" (muss gelöscht werden) sollten wir uns eingestehen, dass es eine dritte Kategorie gibt: Inhalte, die für ein Massenpublikum nicht förderungswürdig, aber noch zu tolerieren sind. Die also aufrufbar sein müssen, aber nicht gepusht werden sollten. Dazu könnten zum Beispiel Bekennerschreiben von Terroristen gehören oder die Dokumentation grausamer Kriegsverbrechen. Keine verantwortungsbewusste Redaktion würde so etwas auf Seite eins bringen, aber in den Sozialen Medien gibt es bis dato kein solches Bewusstsein.
Hier verlassen wir also den rein rechtlich orientierten Bereich des Schwarz-Weiß und betreten den brisanten Graubereich der Gewichtung von Inhalten. Im derzeitigen Wildwuchs ergibt sich diese Gewichtung aus der Interessenlage – also aus den inhaltlichen oder Gewinninteressen der Plattformen oder aus den Kommunikationszielen derer, die diese geschickt zu nutzen wissen. Trauen wir uns zu, auch hier noch wertend einzugreifen? Wie schützen wir diesen Bereich vor Misstrauen, Dünkel und Partikularinteressen? Denn wie gesagt, wo gemischt und gemahlen wird…
7. Geschäftsmodelle überprüfen
Wenn wir die Alkohol- oder Zigarettenindustrie oder Sonnenstudios regulieren können, weil wir ihre Produkte für potenziell schädlich halten – warum sollten wir dann zuschauen, wie die Algorithmen der Sozialen Netzwerke Polarisierung und Hass schüren? Hier geht es um Geschäftsmodelle. Letztlich müssen sich die großen Plattformen in die Karten schauen lassen: Was pushen sie, was unterdrücken sie? Wo liegt Overblocking oder eine strukturelle Diskriminierung vor? Fördern sie Hass und Desinformation in einem Maß, das eine Gefährdung der Demokratie als Ganzes darstellt und eine Regulierung rechtfertigt?
Zur Zeit setzt sich durch, was der größte Aufreger ist, was am meisten Impact , Involement und Screentime bringt. Hier könnte mit Algorithmen graduell gegengesteuert werden, also auch jenseits von Löschungen. Sie könnten ebensogut fördern, was eine konstruktive Diskussion und Lösungen befördert, also de-radikalisiert. Dieser Eingriff in den Maschinenraum der großen Social-Media-Plattformen würde klare Kriterien verlangen und eine möglichst neutrale Aufsicht, die für Ausgewogenheit und Vielfalt sorgt. Vor einem politisch gefärbten "Gemeinsinn" müsste man sich dabei hüten, um wertvolles Vertrauen nicht zu verspielen.
Niemand sollte sein Geld damit verdienen, uns mit negativen Basalreflexen wie Angst, Hass und Verunsicherung möglichst lange im Bann zu halten. Aber womit sonst sollen sie sich finanzieren? Ob man große Plattformen als öffentlich-rechtlich definiert (denn staatsfern müssen sie bleiben!), sie mit Rundfunkgebühren statt Werbung finanziert, ob man Margen beschneidet, ob man die User zur Kasse bittet oder vielleicht nur Accounts mit sehr hohen Reichweiten – auch das wäre eine heiße Diskussion wert.
Beispiel 7: Islamismus – Appeasement oder Trotz?
Foto: © Valentina Calà, Flickr (CC BY-SA 2.0)
Eine ganze Reihe grauenhafter Morde, Mordversuche und Todesdrohungen in Europa geht auf das Konto radikaler Islamisten. Im Fadenkreuz steht dabei nicht selten die Meinungsfreiheit selbst. Der Regisseur Theo van Gogh oder die Karikaturisten von Charlie Hebdo wurden ermordet. Auch auf den Karikaturisten Kurt Westergaard gab es Mordanschläge. Der Autor Salman Rushdie steht seit 1989 unter der ständig erneuerten Todesdrohung durch iranische Mullahs. Aufgeklärte Muslime wie Seyran Ateş oder der Islamkritiker Hamed Abdel-Samad müssen mitten in Deutschland unter ständiger Bedrohung leben. "Ich teile Ihre Meinung nicht, aber ich würde mein Leben dafür einsetzen, dass Sie sie äußern dürfen." – dieser Satz Voltaires hat in Bezug auf den Politischen Islam eine buchstäbliche Bedeutung.
Es sollte klar sein, dass man hier für die Meiungsfreiheit einstehen muss. "Religiöse Gefühle" sind in säkularen Staaten kein Rechtsgut. Und doch gibt es immer wieder Stimmen, die aus falsch verstandener Toleranz oder aus Angst, als muslimenfeindlich zu gelten, ein Appeasement einfordern: "Warum muss man immer so provozieren?" Nun, vielleicht darum: Die radikalen Islamisten werden sich mit kleinen Zugeständnissen nicht abfinden, sie im Gegenteil als Zeichen der Schwäche deuten und niemals zufrieden sein. Die säkulare Sicht, dass religiöse Anschauungen vielfältig und letztlich Privatsache sind, ist für eine freiheitliche Gesellschaft grundlegend.
Keine heile Welt – aber vielleicht kriegen wir die Kurve
Die genannten Vorschläge sind nicht unbedingt neu. Und sie bieten auch keine Gewähr für Sicherheit. Was wäre, wenn wir sie umsetzen könnten? Die Libertären würden darin Bevormundung sehen und die Marktliberalen eine Gängelung. Wahrscheinlich würde es sogar zu neuen Ungerechtigkeiten kommen. Manch harmloser Querulant würde weiter in der virtuellen Gummizelle einer begrenzten Reichweite landen. Und manchem Meldekartell würde es gelingen, unliebsame Kritiker mundtot zu machen.
Aber klare Grenzen und besser funktionierende Abläufe könnten entscheidend helfen, Social Media aus ihrer derzeitigen Pubertät entwachsen zu lassen. Die Gefahr, dass die Demokratie und der Zusammenhalt in pluralen Gesellschaften an Hass und gezielter Desinformation zerbrechen, wäre vermindert. Der nächsten Krise könnten wir mit mehr Vertrauen zueinander, mit besser funktionierenden Debatten und konstruktiveren Lösungen entgegentreten. Und gleichzeitig blieben die unbeobachteten, dissidentischen Freiräume erhalten – ohne die wir das mit der Demokratie und der Gedankenfreiheit auch gleich ganz sein lassen könnten.
6 Kommentare
Kommentare
Karlheinz Ott am Permanenter Link
danke für den sehr guten Basisbeitrag zu diesem Thema.
Manfred H. am Permanenter Link
Dem kann ich mich nur anschließen!
Adam Sedgwick am Permanenter Link
Lieber Peter,
Wenn die Kommentarfunktion zu Deinem umfangreichen Artikel noch ein paar Tage zugänglich ist, würde ich gerne noch etwas zu dem einen oder anderen Punkt was sagen. Komme leider heute nicht dazu wegen einiger Verpflichtungen. Aber eines kann ich jetzt schon sagen, bin sehr dankbar über Deinen systematischen, langen Artikel, den ich sehr gut finde.
Frank Nicolai am Permanenter Link
Hallo Adam Sedgwick,
die Autoren haben keinen Einfluss darauf, ob zu einem Artikel (ausnahmsweise) die Kommentarfunktion verfügbar ist oder nicht. Das ist eine Entscheidung der Redaktion.
Bitte denken Sie daran: Diskutieren Sie unter kommentierbaren Artikeln nicht über die Einschränkung der Kommentarfunktion. Das ist nicht zielführend und wird - da es sich nicht auf den Inhalt des Artikels bezieht - von der Redaktion gelöscht. Wir machen hier eine Ausnahme, damit das noch einmal deutlich gesagt ist.
pi am Permanenter Link
Ansonsten immer gern auf Twitter. @digihumanrights
Hans Trutnau am Permanenter Link
Oh, da legt der Autor, gekonnt wie immer, seinen Finger in offene Wunden, z.B. die Wunde der Meinungsfreiheit (nach der Mitte des langen Artikels; da hätte ich nur noch Kapitel-# o.ä.
Danke, Peder Iblher, für den lehrreichen Beitrag! Ich bin nicht annähernd mit der Thematik digitalrights vertraut.