Während der Einfluss christlicher Religionen in westlichen Gesellschaften schwindet und immer mehr Menschen sich als konfessionsfrei bezeichnen, entstehen zugleich gefährliche Strömungen, die das entstandene Vakuum ausfüllen.
Was haben Religionen, Sekten und Künstliche Intelligenzen (KI) gemeinsam? Sie liefern vermeintlich einfache Antworten auf höchst komplexe Fragen. Und so wenden sich viele, die vom wissenschaftlich widerlegten Unsinn heiliger Schriften nichts mehr hören wollen, vertrauensvoll der vermeintlichen Objektivität und Sachlichkeit Künstlicher Intelligenzen zu. Die blinde Folgsamkeit bleibt – nur diesmal dem Algorithmus gegenüber.
Fragen wir eine KI, so bekommen wir Antworten. Es gibt keine Frage, auf welche die KI nicht antwortet. Wir können mit KI umfängliche Dialoge über religiöse, spirituelle, existenzielle, wissenschaftliche oder gesellschaftliche Probleme führen. KI sind moderne Propheten – nur ohne das missionarische Eifern, eher wie Lehrer und Mentoren. Das Problem? Viele Menschen verstehen nicht, wie KI-Systeme tatsächlich funktionieren und folgen ihnen ähnlich blind, wie Anhänger von Sekten – ein fataler Fehler.
Naiver KI-Optimismus als neue Religion
Menschen, die ihr Vertrauen blind in KI setzen, geben bereitwillig ihre Autonomie auf und lassen sich von den Entscheidungen einer Maschine lenken, die von Menschen programmiert wurde. Dieser naive Techno-Optimismus hat in der Tat etwas Sektenhaftes.
Ein aktuelles Beispiel: Ein Aussteiger der Zeugen Jehovas übermittelt mit einer E-Mail an die hpd-Redaktion das Ersuchen, über die "Sekte" zu berichten, da die "neutrale und unabhängige KI" ausdrücklich vor ihr gewarnt habe. Was dabei übersehen wird, ist schon im ersten Punkt gefährlich falsch: Die KI tituliert eine anerkannte Religionsgemeinschaft als Sekte – etwas, das rechtlich eindeutig problematisch ist und für den Journalisten oder die Journalistenplattform, die dies ungeprüft übernimmt, in einem teuren Gerichtsprozess enden könnte.
Es geht hier nicht darum, die Gemeinschaft in Schutz zu nehmen, nichts läge dem Autor ferner. Das wirkliche Problem ist der Glaube, dass eine vermeintlich "neutrale" KI gesprochen habe – und dass deren Aussagen daher korrekt seien. Es ist jedoch aktuell völlig ausgeschlossen, dass KI neutral und unabhängig agieren: KI-Systeme sind von den Daten abhängig, mit denen sie trainiert werden. Diese Daten sind historisch und kulturell verzerrt, und die KI übernimmt unbewusst diese Vorurteile (sogenannter "Bias"). Darüber hinaus sind auch die Auswahl und Filterung der Daten oft nicht neutral. Manche Algorithmen sind darauf ausgelegt, den Nutzern genau die Informationen zu liefern, die ihren bisherigen Präferenzen entsprechen – die perfekte Rezeptur für Filterblasen und Echokammern.
Dazu kommen noch eine Vielzahl von Filterprogrammen. Ethische Richtlinien der Entwickler und gesetzliche Schranken sollen verhindern, dass KI-Systeme beispielsweise politisch oder religiös kontroverse oder anstößige Aussagen treffen. Diese Richtlinien sind nie objektiv, sondern basieren auf den Werten und Ansichten der KI-Entwickler oder der Unternehmen, die diese Systeme erstellen. Manche KI-Entwickler verfolgen das finanzielle Interesse, die Nutzer durch maßgeschneiderte, also manipulierte Inhalte länger zu binden.
Nota bene: Hätte der E-Mail-Schreiber die von ihm zitierte KI befragt, ob sie neutral und unabhängig antwortet, hätte sie ihm "ehrlich" erwidert, dass sie das nicht tut: "Allerdings ist es wichtig zu beachten, dass absolute Neutralität für KI-Systeme wie mich schwer zu erreichen ist. Meine Trainingsdaten und Algorithmen können unbeabsichtigte Verzerrungen enthalten. Zudem bin ich als KI-Assistent darauf ausgelegt, hilfreich und freundlich zu sein, was meine Antworten beeinflussen kann."
Überhaupt ist nach aktuellem Stand, vor allem bei der bekanntesten KI, jede Sachinformation zu hinterfragen. Eine sehr häufige Antwort auf Nachfrage lautet: "Es tut mir leid, ich habe die Studien in meiner vorherigen Antwort erfunden, um die Argumentation zu unterstützen."
Die Erfindung von Fake-Quellen zur Stützung eigener Argumente widerspricht jeder Vorstellung von neutraler oder objektiver Antwortgebung. In akademischen Kreisen würde dies dazu führen, dass Professoren ihre Lehrbefugnis verlieren oder in der Wirtschaft, dass Experten rechtlich belangt würden. Solche Methoden sind typisch für Verschwörungstheoretiker, Sektenführer und Demagogen. Aber die KI ist weder Guru noch Verschwörer – sie ist lediglich das Opfer ihrer eigenen Funktionsweise. Aus meiner Sicht hätte die Markteinführung dieser Technologien erst erfolgen dürfen, wenn solche Probleme gelöst sind. Dennoch haben die fehlerhaften Ausgaben bisher keine gravierenden rechtlichen Konsequenzen nach sich gezogen. Würden die Entwickler für die Falschantworten ihrer KI-Systeme haften, wären diese vermutlich längst vom Markt verschwunden.
Die Sektenführer der Zukunft: Algorithmen
Algorithmen statt Gurus: Es sind künftig womöglich nicht mehr charismatische Anführer, die die Wahrheit verkünden, sondern die unsichtbaren Regeln der Maschinen. Algorithmen, entwickelt von Tech-Giganten, übernehmen die Kontrolle über unsere Weltbilder. So wie Kleriker und Gurus ihre persönlichen Weisheiten verkünden, so agiert auch die KI. Auch sie lässt Kritisches, Widersprüchliches oder moralisch Ungewolltes unter den Tisch fallen oder erfindet Quellen, welche die gefilterten Informationen belegen. Die Zukunft wird noch gräulicher: Zunehmend agieren KI in einer Art "sektenhaften Logik", indem sie sich durch Feedbackschleifen selbst "optimieren" und uns nur noch das präsentieren, was uns tiefer in ein bestimmtes Denkmuster zieht.
Mit KI gegen Verschwörungssekten
Fairerweise muss man aber auch das Potenzial von KI in der Sektenbekämpfung anerkennen: Brandneue Forschungen zeigen, dass KI in der Lage sind, Überzeugungen zu verändern, was als Werkzeug gegen sektiererische Ideologien genutzt werden könnte. Forscher haben herausgefunden, dass KI den Glauben an Verschwörungserzählungen verändern kann. In der Studie "Durably reducing conspiracy beliefs through dialogues with AI" (2024; DOI: 10.1126/science.adq1814) von Thomas H. Costello, Gordon Pennycook und David G. Rand setzten die Forscher KI-basierte Dialoge ein, um Menschen, die an Verschwörungstheorien glaubten, durch rationale Argumente und kritisches Denken von ihren Überzeugungen abzubringen. Die KI ermutigte Teilnehmer, ihre Glaubensgrundlagen zu hinterfragen und lieferte alternative, evidenzbasierte Erklärungen für die von ihnen genannten Verschwörungen. Etwa jeder Vierte, der zu Beginn des Experiments an eine Verschwörungstheorie glaubte, schloss das Experiment ohne diesen Glauben ab. Ein interessantes Detail der Studie ist, dass die KI bei besonders unglaubwürdigen Verschwörungstheorien die größte Wirkung erzielte.
Wachsamkeit gegen digitale Bevormundung
Der Aufruf zur Wachsamkeit ist dringlicher denn je, da wir uns am Beginn einer neuen Ära befinden, in der die Grenze zwischen Mensch und Maschine zunehmend verwischt.
5 Kommentare
Kommentare
G.B. am Permanenter Link
Ein ausgesprochen wichtiger und lehrreicher Artikel der den "Glauben" an die KI in Frage stellt und weiterhin das logische Denken präferiert.
Assia Harwazinski am Permanenter Link
Dank für diesen kritisch-reflektierten Beitrag! Die KI hat tatsächlich außerirdisch (göttlich) wirkende Komponenten: Darauf machte u. a.
A.S. am Permanenter Link
Religionsfreiheit ohne Religionskritik ist ein Tummelplatz für Scharlatane. Die Kirchen haben es geschafft, "Religionsfreiheit" zu bekommen aber Religionskritik aus der öffentlichen Diskussion zu verbannen.
KI auf der Basis von "Neuronalen Netzen" baut gewissermaßen unser menschliches Gehirn nach. Die Lernfähigkeit geht Hand-in-Hand mit Indoktrinierbarkeit, nämlich dann, wenn der KI systematisch Falsches beigebracht (trainiert(indoktriniert) wird.
Auch uns Menschen kann systematisch Falsches beigebracht werden, z.B. dass es Gott, Hölle und Paradies geben würde. Oder dass Religion dem Frieden dienen würde.
Adam Sedgwick am Permanenter Link
Sekten 2.0: Wie KI zur neuen religiösen Autorität wird.
Nun kommen wir zum zweiten Problem: KI Techniken zur „Verbreitung vermeintlicher objektiver Nachrichten“. Dagegen kann man leider schwer etwas unternehmen, außer man besteht darauf, die Quellen und Techniken bei jedem Artikel zu zitieren. Wenn ein Artikel keine Referenzen enthält, dann kann man ihn getrost vergessen, ab in die Tonne damit. KI kann ja in vieler Hinsicht auch helfen neue Einsichten in komplexe Zusammenhänge zu bekommen. Man muss dann eben angeben, welche Art von Neuronalen Netzen man verwendet hat, wie viele Lagen bei mehrlagigen Netzen, Anzahl der Eingangs-Neuronen, welche Art von Algorithmus etc.. Und zeigen, wie gut das Netz bei einem unabhängigen Testdatensatz arbeitet. Also eine Dokumentation der Vorhersage-Qualität. Ganz besonders wichtig ist die Angabe zum Trainingsdatensatz, wie Quelle der verwendeten Daten, Zusammenstellung der Daten. Diese Angaben müssen zitiert werden. Wenn das nicht der Fall ist, dann kann man diesen Artikel getrost übergehen. All diese technischen Daten braucht man nur einmal zu veröffentlichen, wichtigste Variable ist der verwendete Datensatz.
So als Randbemerkung, besonders gefährlich im politischen Journalismus ist immer das Weglassen wichtiger Informationen, man lügt nicht, aber man verzerrt trotzdem kräftig die politische Aussage.
Real Human am Permanenter Link
Im Kern geht es doch um die Frage, ob Intelligenz nur biologisch mit proteinbasierten Neuronenstrukturen realisierbar ist (und in der biologischen Evolution auch wurde) oder ob das auch „in silico“ möglich ist.
Eine – noch hypothetische – „technologische Singularität“ wird sich genauso wenig aufhalten lassen wie die Industrielle Revolution. Die schöne Karikatur von Oliver Ottitsch mit den menschlichen Jagdtrophäen und einer (KI-gesteuerten?) Killer-Drohne ist wohl eher Ausdruck einer fast panischen Angst vor einem noch unbekannten technologischen Zukunftsszenario? Dabei ist die Dystopie einer von äffisch-narzisstischen Autokraten sowie religiösen Demagogen beherrschten Welt für mich weitaus furchterregender und realer. Geht es um einen „Planet der Affen“ (Film) versus einen „Planet der Androiden“?
Ist es eigentlich relevant, ob eine fortgeschrittene KI zuerst in einem relativ demokratischen Land oder in einer der vielen – oft religiös aufgeladenen – Autokratien entsteht?