Sekten 2.0: Wie KI zur neuen religiösen Autorität wird

ki-glaube.png

Während der Einfluss christlicher Religionen in westlichen Gesellschaften schwindet und immer mehr Menschen sich als konfessionsfrei bezeichnen, entstehen zugleich gefährliche Strömungen, die das entstandene Vakuum ausfüllen.

Was haben Religionen, Sekten und Künstliche Intelligenzen (KI) gemeinsam? Sie liefern vermeintlich einfache Antworten auf höchst komplexe Fragen. Und so wenden sich viele, die vom wissenschaftlich widerlegten Unsinn heiliger Schriften nichts mehr hören wollen, vertrauensvoll der vermeintlichen Objektivität und Sachlichkeit Künstlicher Intelligenzen zu. Die blinde Folgsamkeit bleibt – nur diesmal dem Algorithmus gegenüber.

Fragen wir eine KI, so bekommen wir Antworten. Es gibt keine Frage, auf welche die KI nicht antwortet. Wir können mit KI umfängliche Dialoge über religiöse, spirituelle, existenzielle, wissenschaftliche oder gesellschaftliche Probleme führen. KI sind moderne Propheten – nur ohne das missionarische Eifern, eher wie Lehrer und Mentoren. Das Problem? Viele Menschen verstehen nicht, wie KI-Systeme tatsächlich funktionieren und folgen ihnen ähnlich blind, wie Anhänger von Sekten – ein fataler Fehler.

Naiver KI-Optimismus als neue Religion

Menschen, die ihr Vertrauen blind in KI setzen, geben bereitwillig ihre Autonomie auf und lassen sich von den Entscheidungen einer Maschine lenken, die von Menschen programmiert wurde. Dieser naive Techno-Optimismus hat in der Tat etwas Sektenhaftes.

Ein aktuelles Beispiel: Ein Aussteiger der Zeugen Jehovas übermittelt mit einer E-Mail an die hpd-Redaktion das Ersuchen, über die "Sekte" zu berichten, da die "neutrale und unabhängige KI" ausdrücklich vor ihr gewarnt habe. Was dabei übersehen wird, ist schon im ersten Punkt gefährlich falsch: Die KI tituliert eine anerkannte Religionsgemeinschaft als Sekte – etwas, das rechtlich eindeutig problematisch ist und für den Journalisten oder die Journalistenplattform, die dies ungeprüft übernimmt, in einem teuren Gerichtsprozess enden könnte.

Es geht hier nicht darum, die Gemeinschaft in Schutz zu nehmen, nichts läge dem Autor ferner. Das wirkliche Problem ist der Glaube, dass eine vermeintlich "neutrale" KI gesprochen habe – und dass deren Aussagen daher korrekt seien. Es ist jedoch aktuell völlig ausgeschlossen, dass KI neutral und unabhängig agieren: KI-Systeme sind von den Daten abhängig, mit denen sie trainiert werden. Diese Daten sind historisch und kulturell verzerrt, und die KI übernimmt unbewusst diese Vorurteile (sogenannter "Bias"). Darüber hinaus sind auch die Auswahl und Filterung der Daten oft nicht neutral. Manche Algorithmen sind darauf ausgelegt, den Nutzern genau die Informationen zu liefern, die ihren bisherigen Präferenzen entsprechen – die perfekte Rezeptur für Filterblasen und Echokammern.

Dazu kommen noch eine Vielzahl von Filterprogrammen. Ethische Richtlinien der Entwickler und gesetzliche Schranken sollen verhindern, dass KI-Systeme beispielsweise politisch oder religiös kontroverse oder anstößige Aussagen treffen. Diese Richtlinien sind nie objektiv, sondern basieren auf den Werten und Ansichten der KI-Entwickler oder der Unternehmen, die diese Systeme erstellen. Manche KI-Entwickler verfolgen das finanzielle Interesse, die Nutzer durch maßgeschneiderte, also manipulierte Inhalte länger zu binden.

Nota bene: Hätte der E-Mail-Schreiber die von ihm zitierte KI befragt, ob sie neutral und unabhängig antwortet, hätte sie ihm "ehrlich" erwidert, dass sie das nicht tut: "Allerdings ist es wichtig zu beachten, dass absolute Neutralität für KI-Systeme wie mich schwer zu erreichen ist. Meine Trainingsdaten und Algorithmen können unbeabsichtigte Verzerrungen enthalten. Zudem bin ich als KI-Assistent darauf ausgelegt, hilfreich und freundlich zu sein, was meine Antworten beeinflussen kann."

Überhaupt ist nach aktuellem Stand, vor allem bei der bekanntesten KI, jede Sachinformation zu hinterfragen. Eine sehr häufige Antwort auf Nachfrage lautet: "Es tut mir leid, ich habe die Studien in meiner vorherigen Antwort erfunden, um die Argumentation zu unterstützen."

Die Erfindung von Fake-Quellen zur Stützung eigener Argumente widerspricht jeder Vorstellung von neutraler oder objektiver Antwortgebung. In akademischen Kreisen würde dies dazu führen, dass Professoren ihre Lehrbefugnis verlieren oder in der Wirtschaft, dass Experten rechtlich belangt würden. Solche Methoden sind typisch für Verschwörungstheoretiker, Sektenführer und Demagogen. Aber die KI ist weder Guru noch Verschwörer – sie ist lediglich das Opfer ihrer eigenen Funktionsweise. Aus meiner Sicht hätte die Markteinführung dieser Technologien erst erfolgen dürfen, wenn solche Probleme gelöst sind. Dennoch haben die fehlerhaften Ausgaben bisher keine gravierenden rechtlichen Konsequenzen nach sich gezogen. Würden die Entwickler für die Falschantworten ihrer KI-Systeme haften, wären diese vermutlich längst vom Markt verschwunden.

Die Sektenführer der Zukunft: Algorithmen

Algorithmen statt Gurus: Es sind künftig womöglich nicht mehr charismatische Anführer, die die Wahrheit verkünden, sondern die unsichtbaren Regeln der Maschinen. Algorithmen, entwickelt von Tech-Giganten, übernehmen die Kontrolle über unsere Weltbilder. So wie Kleriker und Gurus ihre persönlichen Weisheiten verkünden, so agiert auch die KI. Auch sie lässt Kritisches, Widersprüchliches oder moralisch Ungewolltes unter den Tisch fallen oder erfindet Quellen, welche die gefilterten Informationen belegen. Die Zukunft wird noch gräulicher: Zunehmend agieren KI in einer Art "sektenhaften Logik", indem sie sich durch Feedbackschleifen selbst "optimieren" und uns nur noch das präsentieren, was uns tiefer in ein bestimmtes Denkmuster zieht.

Mit KI gegen Verschwörungssekten

Fairerweise muss man aber auch das Potenzial von KI in der Sektenbekämpfung anerkennen: Brandneue Forschungen zeigen, dass KI in der Lage sind, Überzeugungen zu verändern, was als Werkzeug gegen sektiererische Ideologien genutzt werden könnte. Forscher haben herausgefunden, dass KI den Glauben an Verschwörungserzählungen verändern kann. In der Studie "Durably reducing conspiracy beliefs through dialogues with AI" (2024; DOI: 10.1126/science.adq1814) von Thomas H. Costello, Gordon Pennycook und David G. Rand setzten die Forscher KI-basierte Dialoge ein, um Menschen, die an Verschwörungstheorien glaubten, durch rationale Argumente und kritisches Denken von ihren Überzeugungen abzubringen. Die KI ermutigte Teilnehmer, ihre Glaubensgrundlagen zu hinterfragen und lieferte alternative, evidenzbasierte Erklärungen für die von ihnen genannten Verschwörungen. Etwa jeder Vierte, der zu Beginn des Experiments an eine Verschwörungstheorie glaubte, schloss das Experiment ohne diesen Glauben ab. Ein interessantes Detail der Studie ist, dass die KI bei besonders unglaubwürdigen Verschwörungstheorien die größte Wirkung erzielte.

Wachsamkeit gegen digitale Bevormundung

Der Aufruf zur Wachsamkeit ist dringlicher denn je, da wir uns am Beginn einer neuen Ära befinden, in der die Grenze zwischen Mensch und Maschine zunehmend verwischt.

Unterstützen Sie uns bei Steady!