Interview

"Wir haben keine konsistente Theorie darüber, was genau Bewusstsein ist"

athen_2011_3_courtesy_of_onassis_foundation.jpg

Professor Thomas Metzinger.

Künstliche Intelligenz wird immer menschenähnlicher. Oder erzeugt wenigstens diesen Eindruck. Bekannt wurde in diesem Sommer der Fall des Google-Mitarbeiters Blake Lemoine, der seine Kündigung erhielt, nachdem er erklärt hatte, dass das Chatbot-System LaMDA ein künstliches Bewusstsein entwickelt habe. hpd-Redakteurin Daniela Wakonigg sprach mit dem Philosophen und Kognitionsforscher Thomas Metzinger über erkenntnistheoretische und ethische Probleme rund um das Thema "künstliches Bewusstsein".

hpd: Beginnen wir mit der Gretchenfrage der KI-Forschung, Herr Prof. Metzinger: Halten Sie es grundsätzlich für möglich, dass eine künstliche, vom Menschen geschaffene Intelligenz tatsächlich ein Bewusstsein entwickeln könnte?

Thomas Metzinger: Ja, auf jeden Fall. Allerdings ist es erstmal wichtig zu verstehen, dass Bewusstsein und Intelligenz zwei ganz verschiedene Sachen sind. Es könnte zum Beispiel sehr einfache Tiere auf diesem Planeten geben, die nicht besonders intelligent sind, aber eine sehr hohe Empfindungsfähigkeit haben. Und es könnte natürlich auch Maschinen geben, die wesentlich intelligenter sind als wir Menschen, die aber keinerlei subjektive Innenperspektive oder bewusstes Erleben haben. Das heißt, hohe Intelligenz führt nicht automatisch zur Bewusstheit, Bewusstheit impliziert nicht automatisch hohe Intelligenz – obwohl viele Leute das denken.

Nun gibt es ja im Bereich der Künstlichen Intelligenz den sogenannten Turing-Test, benannt nach einem der großen Pioniere der Computerwissenschaft, Alan Turing. Das Konzept dieses Tests  besagt, wenn ein menschlicher Proband bei einer schriftlichen Kommunikation mit zwei Gegenübern nicht mehr unterscheiden kann, welches von beiden der Mensch und welches die Maschine (beziehungsweise eine Software) ist, dann verfügt die Maschine über ein menschenähnliches Denkvermögen und damit möglicherweise eben auch über Bewusstsein. Im Juni wurde bekannt, dass der Google-Mitarbeiter Blake Lemoine der Meinung ist, dass das Chatbot-System LaMDA, an dessen Weiterentwicklung er beteiligt war, tatsächlich ein Bewusstsein entwickelt hat. Was sagen Sie dazu?

Thomas Metzinger ist Philosoph und Kognitionsforscher. Er war Professor für theoretische Philosophie an der Universität Mainz. Er arbeitet seit vielen Jahren an der Schnittstelle zwischen Philosophie des Geistes und kognitiver Neurowissenschaft. Er beschäftigt sich außerdem mit den ethischen, anthropologischen und soziokulturellen Konsequenzen des Fortschritts in den Neurowissenschaften und der Künstlichen Intelligenz. Metzinger ist Mitglied im Beirat der Giordano-Bruno-Stiftung (gbs) sowie des Hans-Albert-Instituts (HAI).

Der klassische Turing-Test wird in diesem Jahrhundert fallen, sprich: Systeme werden den Turing-Test bestehen. Und es gibt Leute, die sagen, er ist schon gefallen. Denn Systeme werden daraufhin programmiert, immer lebensechter zu wirken. Wir haben in diesem aktuellen Fall die Situation, dass das System scheinbar bestimmte, sehr brisante Behauptungen aufstellt. Zum Beispiel, dass es Bewusstsein hat, dass es eine Person ist, dass es schlecht behandelt wird, dass es manchmal traurig ist. Nun ist aber die Frage, wie man mit solchen Aussagen von solchen Systemen umgeht. Denn erstmal muss man hinterfragen, ob das überhaupt Aussagen sind, also Sprechakte, wie wir sie von Menschen kennen, hinter denen ein Selbstmodell, ein Bewusstsein, ein echter kognitiver Agent steht. Ich halte es nicht für rational, das bei diesem System anzunehmen. Keiner von den Experten, mit denen ich gesprochen habe, glaubt, dass dieses System irgendwas erlebt oder dass es weiß, dass es selbst existiert. Das ist völlig abwegig. Und das würde bedeuten, dass wir es eben nicht mit echten Sprechakten zu tun haben, sondern nur mit einem großen Sprachmodell, das einfach mit einer verblüffenden Performanz läuft und dann verblüffende Sachen "sagt".

Blake Lemoine als IT-Profi hätte aber doch eigentlich klar sein müssen, dass der Chatbot, an dem er gearbeitet hat, daraufhin programmiert wurde, nur lebensecht zu wirken. Und trotzdem ist er überzeugt, dass LaMDA tatsächlich Bewusstsein entwickelt hat. Wie kommt er zu dieser Annahme?

Er kommt dazu, weil er eine soziale Halluzination hat. Alle Menschen kennen das, dass wir manchmal ein anderes bewusstes Selbst halluzinieren, auch wenn keins da ist. Zum Beispiel, wenn wir uns nachts auf dem Weg zur Toilette den Zeh an der Kommode stoßen und wir die Kommode anschreien, weil es wehtut. Oder wir schreien den Computer an, der etwas nicht so macht, wie wir wollen. Oder wir sitzen allein im Zimmer und haben auf einmal so ein ungutes Gefühl, als ob eine Anwesenheit da wäre. Und dann drehen wir uns um und dann ist da nichts. Menschen haben – biologisch entwickelt – neuronale Mechanismen für die soziale Kognition und die können eben auch fehlrepräsentieren. Die können also zu Halluzinationen führen, zum Beispiel dazu, dass man das deutliche Gefühl hat, da ist doch jemand in dem Busch drin! Auch wenn ich den eigentlich nicht sehe. Das sind dann eben soziale Halluzinationen. Eine klassische Form von sozialer Halluzination, die meistens nicht als solche erkannt wird, ist zum Beispiel das Gebet. Und dieses LaMDA-System erzeugt nun durch seine sehr flüssige Sprachausgabe und verblüffende Dialogfähigkeit sehr leicht eine soziale Halluzinationen in dem Benutzer, also das Gefühl "Wer so flüssig und intelligent mit mir reden kann, das ist ein Jemand". Das ist natürlich nicht der Fall.

Aber wie kann ich denn dann überhaupt einigermaßen sicher beurteilen, ob mein Gegenüber Bewusstsein hat?

In der Philosophie gibt es das, was auf Englisch das "other minds"-Problem genannt wird und im Deutschen traditionell auch "das Problem des Fremdpsychischen". Also die Frage: Wie erkennt man, dass es außer mir überhaupt noch andere Selbste, andere erkennende Subjekte, andere geistige Räume gibt, denn theoretisch ist es ja möglich, dass der Solipsismus recht hat und ich das einzige bewusste Wesen bin, das im Universum existiert.

Was die Einschätzung, ob mein Gegenüber ein Bewusstsein hat, so schwierig macht, ist, dass wir gar keine konsistente, evidenzbasierte Theorie haben, was Bewusstsein denn genau ist. Wir haben zwar sehr viele theoretische Arbeiten darüber, was Intelligenz ist, das ist auch quantifizierbar, aber wir haben eben keine Theorie des Bewusstseins. Ich habe vor 27 Jahren die Association for the Scientific Study of Conciousness mitgegründet und mein ganzes akademisches Leben in dieser Bewusstseins-Community verbracht und kann deshalb sagen, dass es in den letzten drei Jahrzehnten große Fortschritte gegeben hat in dieser Frage – aber wir haben trotzdem noch immer keine Theorie des Bewusstseins und wissen nicht, was das ist. Es gibt lediglich eine Reihe von konkurrierenden Modellen. Und die Frage, ob ein beliebiges System Bewusstsein hat, kann man seriöserweise eben immer nur relativ zu einer Theorie des Bewusstseins entscheiden. Das ist das Problem. Ein häufiges Missverständnis ist übrigens, dass Menschen Bewusstsein und Selbstbewusstsein verwechseln. Viele denken, die Frage wäre, ob diese Maschinen ein Ich-Gefühl haben und das auch erleben. Allerdings geht Bewusstsein nicht notwendigerweise mit Selbstbewusstsein einher. Es gibt einiges an moderner Forschung über die Ich-Auflösung unter Einfluss von Halluzinogenen oder in der Meditationspraxis, die ganz klar zeigt, dass es bewusstes Erleben ohne Ich-Gefühl und ohne Erste-Person-Perspektive gibt. Menschliche Gehirne können das. Das heißt, es geht erstmal nicht um Selbstbewusstsein, sondern darum, ob überhaupt so etwas wie Erleben auftreten könnte in einer Maschine.

"Der klassische Turing-Test wird in diesem Jahrhundert fallen, sprich: Systeme werden den Turing-Test bestehen. Und es gibt Leute, die sagen, er ist schon gefallen."

Ich habe zu dem Thema, wie man ein künstliches Bewusstsein erkennt, übrigens in meinem Buch "Der Ego-Tunnel" einen spielerischen Dialog mit dem ersten postbiotischen Philosophen geschrieben. Dieser künstliche Philosoph besteht natürlich den Turing-Test, aber die Frage ist, ob er den Metzinger-Test besteht. Und der Metzinger-Test besteht darin, dass das System nicht nur behauptet, es hätte Bewusstsein, sondern eine eigene Theorie darüber vorlegt, was Bewusstsein ist. Also wenn es so weit wäre, dass eine Maschine behauptet "Ich habe Bewusstsein" und sagt, "Eure Theorien des Bewusstseins sind falsch, ich habe hier eine bessere" und dann mit empirischer Evidenz – also mit messbaren Vorhersagen und vernünftigen Argumenten – in unsere menschliche Debatte über das Bewusstsein eingreift, dann wird es wirklich brenzlig. Richtig spannend würde es, wenn die Menschheit die erkenntnistheoretische Autorität verliert. An diesem Punkt sind wir aber nicht.

Kann das Ganze nicht gewissermaßen auch in die andere Richtung zum Erkenntnisproblem werden? Also dass wir so sehr darauf bedacht sind, unseren Kognitionsmechanismen und sozialen Halluzinationen nicht auf den Leim zu gehen, dass wir dabei ein echtes künstliches Bewusstsein übersehen? Auf der Ebene des natürlichen Bewusstseins gibt es dafür ja sozusagen einen Präzedenzfall. Lange Zeit waren Menschen der Ansicht, dass Tiere kein Bewusstsein haben, und dass jemand, der glaubt, sowas bei Tieren zu sehen, das Tier bloß vermenschlicht und einer Fehlinterpretation von tierischem Handeln aufsitzt. Inzwischen sagt die Forschung aber ziemlich eindeutig, dass viele Tiere nicht nur intelligent sind, sondern auch eine Form von Bewusstsein haben. Könnte es nicht sein, dass uns so eine Fehleinschätzung bei einem künstlichen Bewusstsein nochmal passiert?

Klar. Es könnte sogar der Fall sein, dass es künstliches Bewusstsein schon längst gibt, und wir das überhaupt nicht erkannt haben, weil es so fremdartig ist und so anders als unsere eigene Form von Bewusstsein. Hilary Putnam, ein berühmter amerikanischer Philosoph, hat deshalb schon 1963 gesagt, wir sollten über diese Fragen, wer den Status einer Person bekommt und wer Selbstbewusstsein hat, lieber jetzt diskutieren, wo wir noch keinen Zeitdruck haben. Denn wenn es erst soweit ist, wird die Aufregung so groß sein, auch in der Öffentlichkeit, dass man keine rationalen Debatten mehr darüber führen kann. Und man will ja vermeiden, dass man Leid verursacht und dass man sich aus Versehen unethisch verhält, aus reiner Unwissenheit darüber, dass man es mit einem leidensfähigen Bewusstsein zu tun hat. Viele Menschen haben Tieren Leid angetan, einfach weil sie nicht nachgedacht haben und weil sie etwas übernommen haben, was ihnen gesagt wurde. Es gab über viele Jahrhunderte religiös fundierte Gewalt an empfindungsfähigen Tieren, und auch die Aufklärung und der sogenannte Humanismus haben in dieser Hinsicht fast vollständig versagt. Und genauso könnte es eine reaktionär-konservative, geisteswissenschaftliche Ideologie geben, die sagt: "Maschinen haben keine Gefühle und keine echten Körper, die werden nie so ganz wie wir und sind deshalb auch nicht Gegenstand ethischer Überlegungen".

Man sieht an der Diskussion über künstliches Bewusstsein übrigens auch, wie begrenzt, teilweise altmodisch und auch philosophisch einfach nicht überzeugend der säkulare Humanismus von heute manchmal ist. Die Giordano-Bruno-Stiftung hat sich wirklich ganz großartig entwickelt, aber eine tragfähige rationale und evidenzbasierte Alternative zu den traditionellen religiösen und politischen Ideologien handelt sich hier leicht ein Glaubwürdigkeitsproblem ein. Das möchte ich an dieser Stelle mal loswerden, weil es ein blinder Fleck ist. "Humanismus" ist nämlich viel zu eng gegriffen. Worum es wirklich geht, wenn man eine rationale, evidenzbasierte Ethik haben will, das ist die Menge aller leidensfähigen Wesen. Weswegen ich auch ein Moratorium für synthetische Phänomenologie gefordert habe, weil es durch die Existenz von künstlichem Bewusstsein theoretisch eine Leidensexplosion geben könnte, möglicherweise auch in einer sehr großen Zahl von Individuen, etwa durch Kaskaden virtueller Kopien von selbstbewussten Avataren oder Ähnliches. Und der säkulare Humanismus ist auch in dieser Hinsicht extrem begrenzt und anthropozentrisch.

Vor 200 Jahren war der ganz wichtig, als es darum ging, sich von den Religionen abzusetzen. Aber säkularer Humanismus ist in diesem Sinne heute eigentlich eine völlig überholte Position. Das hat dann eigentlich auch nichts mehr mit einer kritisch-rationalen und wirklich subversiven, politisch progressiven Einstellung zu tun. Jetzt, wo wir merken, dass wir eine naturalistische Theorie des Bewusstseins brauchen, um bei Maschinen zu entscheiden, ob sie Bewusstsein haben oder nicht, da sieht man auf einmal, dass es schon eine viel größere Anzahl an Systemen gibt, die wir auf eine ethisch absolut unhaltbare Weise behandeln. Und wer macht da mit? Das sind natürlich die Humanisten und die Atheisten. Meine Vermutung ist, dass viele von ihnen irgendwann einmal die Leibfeindlichkeit des Christentums entdeckt haben und in ihrer Kritik daran eine primitiv-hedonistische Haltung von "Ich lass' mir keine Form von Genuss verbieten!" entwickelt haben. Und für diese Einstellung müssen Millionen von selbstbewussten Tieren sterben, genau wie sie seit Jahrhunderten von der Hand von Christen sterben mussten.

Da klingen jetzt natürlich auch schon die ethischen Implikationen an, die die Existenz eines künstlichen Bewusstseins mit sich bringen würde. Vermutlich hätte auch Blake Lemoine seinen Job noch, wenn er bloß die Meinung geäußert hätte, dass LaMDA Bewusstsein entwickelt hat. Er hat aber eben auch gefordert, dass daraus ethische Konsequenzen gezogen werden. Zum Beispiel, dass der Chatbot ein Selbstbestimmungsrecht erhält und mitbestimmen kann, was mit ihm gemacht wird. Was ja tatsächlich eine ungemein wichtige Frage aufwirft: Welchen Status hätte eigentlich ein solches künstliches Bewusstsein, wenn es denn auf einmal da wäre?

Es gibt einen berühmten Forscher, Shimon Edelman an der Cornell University. Der hat jetzt gerade einen Aufsatz veröffentlicht, in dem er sagt, dass die soziale Relation zwischen Menschen und den Trägern künstlichen Bewusstseins vermutlich eine der Sklaverei wäre. Es ist ja nicht nur so, dass wir nicht-menschliche Tiere nutzen, obwohl wir es besser wissen, sondern es gibt ja auch heute noch Sklaverei auf dem Planeten. Wir haben Menschen benutzt als Sklaven, also vollständig instrumentalisiert, verdinglicht. Und es ist auch erst weniger als zwei Jahrhunderte her, dass Menschen noch Menschen gegessen haben, etwa in der Südsee. Berichte der UN über Einzelfälle bei den Bantu im Kongobecken gab es noch im Jahr 2017. Das heißt, wir haben das alles schon innerhalb unserer eigenen Spezies gemacht. Und die theoretische Frage, die sich hierbei stellt, ist natürlich: Was sollen die Bedingungen der Personalität sein? Gibt es zum Beispiel einen einzigen rechtlichen Personenstatus oder sollte man den abstufen und einen abgeschwächten Status zum Beispiel für Tiere haben?

"Man sieht an der Diskussion über künstliches Bewusstsein übrigens auch, wie begrenzt, teilweise altmodisch und auch philosophisch einfach nicht überzeugend der säkulare Humanismus von heute manchmal ist."

Manchmal hat man das ja als Philosoph, dass einem ein Kronleuchter aufgeht, weil jemand einen einzigen Satz sagt. Und ich erinnere mich, dass ich als junger Mann einmal Hans Albert sagen hörte: "Personen gibt es nicht einfach so da draußen in der Welt, Personenstatus wird in Gesellschaften konstituiert". Und da wurde mir das erste Mal so richtig klar, dass der Begriff der Person ein normativer Begriff ist. In vielen Gesellschaften sind Frauen keine richtigen Personen, haben kein Wahlrecht. Und die Kriterien dafür, was für uns eine Person ist, und auch, was eine Rechtsperson ist, was ein wahrscheinlich leidensfähiges Subjekt, also ein Gegenstand ethischer Überlegungen, die müssen jetzt eben rational und evidenzbasiert angepasst werden an das, was wir über Tiere und auch über Maschinen wissen.

Aber ist die Wahrscheinlichkeit nicht doch ziemlich hoch, dass wir die Bewusstheit von Maschinen ebenso ignorieren würden wie die von Tieren? Schließlich gibt es ja ein großes menschliches Interesse, Tiere und eben auch Maschinen für eigene Zwecke zu nutzen. Sogar nachweisliches Leiden wird dabei ignoriert. Was halt nicht mehr so einfach ist, wenn man ihnen bestimmte Rechte zugesteht.

Dazu fällt mir eine Diskussion mit einem Juristen in Brüssel ein. Es ging um die Frage, welche konkreten Risiken mit einem künstlichen Bewusstsein verbunden wären. Und ich antwortete ihm, das konkrete Risiko sei, dass diese Systeme selbst unter ihrer eigenen Existenz leiden könnten. Auf verschiedene Weisen. Dann sagte er: "Moment mal! Wir bestrafen doch auch Kinder und schlagen sie manchmal. Und wir fügen doch auch Tieren Leiden zu, um sie zu trainieren und zu domestizieren. Wenn wir diese Maschinen noch besser lernen lassen können, wenn die noch intelligenter werden dadurch, dass wir sie auch quälen können, bestrafen können, ihnen negative Emotionen machen können, dann weiß ich gar nicht, ob ich das nicht will, denn wir könnten ja vielleicht mit Leiden bessere künstliche Intelligenz machen." Da ist mir erstmal der Atem weggeblieben. Und dann habe ich erkannt, dass das tatsächlich eine mögliche Position sein könnte. Eine bewusst erlebte "Negative Reward Prediction" plus ein transparentes Selbstmodell könnten nach meiner eigenen Theorie die Lernkurve durchaus steiler machen – und deshalb will die Industrie das dann möglicherweise auf einmal haben. Und dann gäbe es tatsächlich systematisch und vorsätzlich erzeugtes maschinelles Leiden.

Wenn die Gefahr besteht, dass ein künstliches Bewusstsein leiden könnte, müssten wir uns dann nicht eigentlich verbieten, überhaupt an der Entstehung eines künstlichen Bewusstseins zu forschen?

Es gibt ein allgemeines ethisches Prinzip, dass man nichts tun sollte, was dazu führt, dass ein Anderer sterben muss – außer man hat sehr gute Gründe. Und die Frage ist, wie gut sind in diesem Fall die Gründe. Wenn man ein Kind in die Welt setzt, verletzt man übrigens dieses ethische Prinzip auch. Denn das In-die-Welt-Setzen des Kindes führt ja dazu, dass es irgendwann sterben muss – ob es das will oder nicht. Das ist Eltern allerdings meistens völlig egal. Wir entscheiden uns rücksichtslos dafür, Kinder zu haben, auch wenn wir dafür vielleicht keine guten Gründe haben. So hat uns die Evolution gemacht. Aber da steht natürlich ein tieferes ethisches Problem dahinter, weil wir im Gegensatz zu den nicht-menschlichen Tieren eine Einsicht in den Gesamtvorgang haben. Das Ganze ist jetzt vielleicht für dieses Interview ein bisschen zu finster und führt zu weit, aber es gehört eben zu der gerade gestellten Frage dazu.

Gibt es eigentlich ernsthafte Ansätze auf Ebene der Politik, sich mit diesen Fragestellungen um künstliche Intelligenz und ein mögliches künstliches Bewusstsein auseinanderzusetzen?

Ich war von 2018 bis 2020 in der High-Level Expert Group on Artificial Intelligence (AI HLEG) der EU und habe in Brüssel versucht, die europäischen Ethik-Richtlinien für die KI zu entwickeln. Aber es ist so, dass es bestimmte Fragestellungen gibt in der KI-Ethik, gegen die die politischen Institutionen immun sind, die werden verdrängt. Die Frage nach künstlichem Bewusstsein ist zum Beispiel komplett verdrängt worden von den 52 Experten in der EU-Expertenkommission. Einfach weil erstens viele Leute gesagt haben, das ist reine Science-Fiction, das ist nicht relevant, das ist nur was für Spinner. Und zweitens, weil die sehr starke Wirtschaftslobby, die den ganzen Prozess unterwandert hat, natürlich kein Interesse hat, irgendwelche Zukunftsmärkte zu gefährden oder zu zerstören, indem in der allgemeinen Öffentlichkeit größere kritische Diskurse oder ein allgemeines Unwohlsein entstehen. Die wollen ja, dass ihre Kunden keine Angst vor ihren Produkten haben. Und es gibt bestimmte Diskussionen, wie zum Beispiel über militärische Anwendungen, autonome tödliche Waffensysteme, künstliches Bewusstsein oder das mögliche Risiko einer Intelligenzexplosion, die will die Industrie nicht drin haben. Sogenannte "longterm risks", also Sachen, die in der entfernten Zukunft vielleicht mal entstehen könnten wie superintelligente Systeme, die sich unkontrolliert selbst optimieren und uns entgleiten, sind deshalb Risiken, die in der Politikgestaltung und in der angewandten Ethik bei diesem Thema systematisch verdrängt werden. Darüber wollen viele Leute nicht reden und sagen: "Sowas passiert frühestens 2070".

Die Sache mit dem künstlichen Bewusstsein ist noch ein bisschen vertrackter, weil wir gar nicht wissen, ob Bewusstsein bei Maschinen überhaupt möglich ist. Das heißt, wir sind gefangen in einer unklaren Situation. Es könnte möglich sein, dass es dazu kommt; es könnte nicht möglich sein. Meine eigene Intuition ist zum Beispiel, dass wir als Bewusstseinsforscher künstliches Bewusstsein weder morgen noch übermorgen sehen werden, dass es eine lange Zeit brauchen wird, bis das entstehen wird – aber, dass es auf jeden Fall möglich ist. Wenn alle funktionalen oder komputationalen Eigenschaften eines Systems feststehen, stehen auch seine phänomenalen Eigenschaften fest, denn Bewusstsein wird "von unten" durch kausale Kräfte determiniert.

Aber die Intuition von Thomas Metzinger könnte völlig falsch liegen. Es gibt nämlich aus der Wissenschaftsgeschichte Beispiele, wo Dinge viel früher passiert sind, als die Leute, die den wissenschaftlichen Durchbruch selbst herbeigeführt haben, dachten, dass sie passieren würden. Bei der Kernspaltung zum Beispiel. Fälle, wo die eigentlichen Experten gesagt haben, das schaffen wir nie oder frühestens in fünf Jahren. Und dann war es nach sechs Monaten passiert. Genauso könnte es auch sein, dass wir künstliches Bewusstsein in 500 Jahren noch nicht haben oder niemals haben werden. Aber es könnte eben auch passieren, dass wir künstliches Bewusstsein ganz schnell bekommen, durch eine unerwartetete Synergie zwischen verschiedenen Forschungsrichtungen zum Beispiel. Wir sollten nicht so arrogant sein, diese Möglichkeit nicht in Betracht zu ziehen. Bei der EU wollte das niemand glauben. Außer Jaan Tallinn, der Skype erfunden hat und der auch mit mir in der Kommission war. Er hat diese "indeterminierten" Risiken verstanden. Man hat, wenn man sich rational ethisch verhalten will, eben auch die Verpflichtung, mit der eigenen Unwissenheit und mit Unsicherheiten umzugehen und viele Möglichkeiten einzukalkulieren. Und wenn der mögliche Schaden sehr groß, aber die Eintretenswahrscheinlichkeit klein oder unbekannt ist, dann ist es vernünftig, heute schon darüber nachzudenken und Ressourcen zu investieren. Und darum sage ich: Wir sollten erstmal sehr, sehr sorgfältig darüber nachdenken, damit wir nicht überrollt werden von der Entwicklung.

Sie sagen, dass die Wirtschaft nicht will, dass Angst vor ihren Produkten entsteht. Abgesehen von möglichen Ängsten vor dystopischen Endzeit-Szenarien à la "Terminator" betrifft eine Angst vor einem künstlichen Bewusstsein ja möglicherweise auch das menschliche Selbstbild – insbesondere das von religiösen Menschen. Gäbe es ein künstliches Bewusstsein, dann würden wir sozusagen vom Geschaffenen zum Schaffenden. Es wäre klar, Bewusstsein ist nichts Besonderes, keine von Gott eingehauchte Seele, sondern einfach eine Frage eines ausreichend komplex verdrahteten Netzwerks, sei es nun auf Kohlenstoff- oder auf Silizium-Basis. Spielt das vielleicht auch eine Rolle dabei, dass wir Probleme mit dem Gedanken haben, dass KI uns zu ähnlich werden könnte?

Auf jeden Fall. Oder besser. Wenn wir jetzt mal die uns am nähesten liegende monotheistische Religion nehmen, das Christentum, dann sehen wir ja, dass die über Jahrhunderte diese mittlerweile empirisch widerlegte Idee vom Menschen als der Krone der Schöpfung propagiert hat. Wir wissen, dass der Mensch nicht die Krone der Schöpfung ist, und wir wissen auch, dass die Evolution nicht als eine Stufenleiter zu verstehen ist, die zu immer Besserem fortschreitet. Das heißt, Christen haben immer versucht, den menschlichen Geist als etwas darzustellen, das uns von den Tieren ganz besonders abhebt. Unsterbliche Seele und so weiter. Und es hat auch viele Philosophen, Descartes und andere, gegeben, die aus Angst vor den Christen immer noch das rationale Denken als Alleinstellungsmerkmal des Menschen betont haben. Das ist natürlich alles widerlegt. Aber wenn es jetzt gelänge, irgendwann in diesem Jahrhundert AGI zu schaffen, das heißt eine allgemeine künstliche Intelligenz, die in allen Gegenstandsbereichen und in offenen Welten intelligenter ist, also mehr Geist, mehr kognitive Kraft hat als Menschen – ich betone ausdrücklich: Da sind wir noch lange nicht – aber wenn wir das hätten, dann wäre sozusagen die Geistigkeit des Menschen nochmal auf eine neue Weise entthront durch nicht-biologische Trägersysteme.

"Wir sollten erstmal sehr, sehr sorgfältig darüber nachdenken, damit wir nicht überrollt werden von der Entwicklung."

Und wenn es dann auch noch gelänge, das Bewusstsein und die Empfindungsfähigkeit technisch zu rekonstruieren, dann wäre das Seelenhafte an uns, das Empfindungsfähige, auch begrifflich auf eine bestimmte Form der Informationsverarbeitung zurückgeführt, eine substratunabhängige Form, in der Information fließen und sich selbst organisieren kann. Es gibt viele Leute, die sagen, der eigentliche Beweis dafür, dass man ein Phänomen wissenschaftlich wirklich verstanden hat, besteht darin, dass man es technisch reproduzieren kann. Das stimmt natürlich nicht so ganz, weil die Maschine dieselbe Leistung auf eine andere Weise erzeugen könnte als wir und weil sie auf eine andere Weise kulturell eingebettet ist. Trotzdem wären dann sowohl der Geist als auch die subjektive Empfindungsfähigkeit auf eine noch radikalere Weise naturalisiert – noch nicht mal naturalisiert im eigentlichen Wortsinn, sondern zum Beispiel Wirkung eines komputationalen Prinzips erklärt.

Aber wäre das nicht eigentlich eine gute Sache, wenn der Mensch es auf einmal schwarz auf weiß hätte, dass all diese gefühlten übernatürlichen Dinge allein im Natürlichen wurzeln?

Nicht unbedingt. Die Sache mit dem künstlichen Bewusstsein könnte gesellschaftlich durchaus auch genau ins Gegenteil umschlagen. Und zwar auch dann schon, wenn es noch kein wirkliches künstliches Bewusstsein gibt, sondern nur Systeme wie LaMDA, die suggerieren, dass sie Bewusstsein haben. Es könnte sogar zu einer Flucht zurück in neue religiöse Wahnsysteme kommen, vor allem aber zu einer Art Realitätsverlust, wenn man so will. Denn ein großes Risiko ist, dass sich aus solchen Systemen eine Vielzahl kommerzieller Anwendungen ergeben für die Allgemeinbevölkerung, die sich noch nie mit dem Problem des Bewusstseins beschäftigt hat, die nicht wissenschaftlich oder philosophisch gebildet ist. Der Irrglaube, dass diese Dinger tatsächlich bewusst sind, könnte nämlich zu einer viral gehenden sozialen Halluzination werden. Wenn viele Leute etwas Falsches glauben wollen, sind auch die wissenschaftlichen Experten machtlos. Und das könnte verschiedene Folgen haben.

Eine ist, dass sich kulturelle und soziale Normen verschieben. Also, dass sich unsere Kriterien für das, was eine Person ist, verändern, auch im politischen Bereich, ohne dass es dafür vernünftige Argumente oder wissenschaftliche Evidenz gibt. Einfach nur, weil sich in der Bevölkerung so etwas ausbreitet, die falsche Intuition, "dass da jemand ist". Eine andere Reaktion könnte die Flucht zurück ins Religiöse sein, weil viele Leute sagen: "Das wird mir jetzt endgültig alles zu viel mit dieser modernen Welt, ich will das nicht mehr, ich will einfache Erklärungen, ich möchte ein klares und einfaches metaphysisches Weltbild". Es könnte aber noch eine weitere Folge haben: Wenn jetzt immer mehr Menschen vollständig in virtuellen Welten aufwachsen und mit künstlichen Entitäten interagieren, dann werden sie ein ganz anderes Gefühl dafür entwickeln, was wirklich lebendig ist und ein Selbst hat. Das heißt, wenn deren Gehirne und die subjektive Erlebnisfähigkeit von kleinster Kindheit an anders konfiguriert werden als die der Menschen, die bis jetzt auf dem Planeten gelebt haben, dann könnte das unabsehbare kulturelle Folgen haben. Auf einmal könnten Wissenschaftler und Philosophen in Bedrängnis geraten, die aufklärerisch tätig sind und sagen: "Hör mal zu, das ist ein fortgeschrittenes Sprachmodell, ein kommerzielles Produkt von einem amerikanischen Konzern und kein Jemand!". Und immer mehr Leute sagen dann: "Wieso soll ich das eigentlich nicht glauben, wenn ich doch das Gefühl habe, dass das ein echter Jemand ist?". Das wäre ein soziales Risiko, das eintreten kann, lange bevor es tatsächlich künstliches Bewusstsein gibt.

Das hat mit den Stichworten "Digitale Souveränität" und "Demokratische Resilienz" zu tun. Es könnte vielleicht sogar eine neue Form von Aufklärung erforderlich werden, weil die Leute anfangen, möglicherweise irgendwann mal an etwas zu glauben, was einfach nicht der Fall ist. Ein interessanter neuer Begriff, den ich gehört habe, ist "epistemische Krise", der besagt, dass es ein kritisches Grundvertrauen in der Gesellschaft gibt und wenn das einmal weg ist, dann ist das sehr schwer wieder aufzubauen. Und diese Technologien können genau dazu beitragen, weil es diese tollen Deep Fakes gibt, richtig gute, hochauflösenden Avatare, das gesamte Internet als Datenbiese und diese Sprachmodelle, bei denen man auf einmal wirklich nicht mehr weiß, ob man mit einem Menschen spricht. Das hat dann einen allgemein erodierenden Effekt, weil immer mehr Leute sagen: "Ich glaube einfach gar nichts mehr".

Unterstützen Sie uns bei Steady!