Interview

Sind Androiden die besseren Menschen?

David Körner gewinnt bei einer Quizshow eine Million und kauft sich davon Adam_017, einen Androiden. So beginnt der Roman "Menschen wie ich" von Jürgen Beetz. Darin wird nicht nur erzählt, wie Adam lernt, was es heißt, ein Mensch zu sein. Der Autor verhandelt en passant zugleich zahlreiche technische und ethische Fragen, die mit künstlicher Intelligenz einhergehen. Der hpd hat mit Jürgen Beetz gesprochen.

hpd: Herr Beetz, bekannt sind Sie für unterhaltsam geschriebene Sachbücher. Nun haben Sie einen Roman vorgelegt. Wie realistisch ist das Szenario denn? Und wie viel von der Geschichte ist Science-Fiction?

Jürgen Beetz: Die vielen heute schon existierenden Arten von Androiden, also einem Menschen täuschend ähnlichen Robotern, sind wissenschaftliche Experimente. Sie sind als Maschinen sofort erkennbar. Mein Adam aber besteht den "Turing-Test", ist also von einem Menschen wirklich kaum noch unterscheidbar. Insofern ist das natürlich Science-Fiction. Das Buch bewegt sich ja auf sehr unsicherem Terrain, auf dem die Meinungen der anerkanntesten Fachleute extrem weit auseinandergehen. Sie reichen von totaler Euphorie über die Möglichkeiten der KI bis hin zum Untergang der Menschheit durch eben diese Fähigkeiten. Die biologische wie die kulturelle Evolution ist ja ein chaotischer Prozess. Der Flügelschlag eines Schmetterlings kann einen Tornado in Texas auslösen, um das bekannte Gleichnis der Chaostheorie zu zitieren. Solche Flügelschläge gab es zahlreich: Die Explosion von Gas in einem Zylinder bewirkte die Verbreitung der Automobile. Aus dem Boden quellender brennbarer Schlick in Texas – eigentlich schon im alten Babylon – erzeugte die Öl-Wirtschaft. Die Entdeckung des binären Zahlensystems durch Leibniz verursachte die weltweite Verbreitung von Computern und letztlich die Existenz Adams. Und er ist nur die Null-Version von insgesamt zehn Androiden-Generationen. Seine Fähigkeiten sind heute noch nicht realistisch und die von Release 10 erst recht nicht. Es ist also Science-Fiction, aber mit einem realistischen Hintergrund, von dem viele glauben, dass er noch in diesem Jahrhundert (wenn wir es denn erleben werden) eintreten wird.

Der Titel des Romans lautet "Menschen wie ich", und der Ich-Erzähler ist ein Android. Was spricht denn dafür, dass Androiden bald als Menschen "wie du und ich" angesehen werden? Und was spricht dagegen?

Beispielbild

Wir müssen den exponentiellen Verlauf der menschlichen Erkenntnis im Auge behalten, der gerne als "Wissensexplosion" bezeichnet wird. Die Entwicklung der KI schreitet ebenso rasant voran, nach zwei "KI-Wintern" Ende des vorigen Jahrhunderts, als diese Disziplin ein wenig ins Stocken geriet. Inzwischen benutzen wir sie so selbstverständlich, dass wir sie gar nicht mehr bemerken, wenn wir zum Beispiel mit Siri oder Alexa sprechen. In vielen speziellen Bereichen übertreffen die Leistungen der KI bereits menschliche Fähigkeiten, etwa bei Spielen wie Go oder Schach, bei der Gesichtserkennung oder bei medizinischen Anwendungen. Die Fachleute nennen das aber die "schwache KI". Die "starke KI" würde die kognitiven Fähigkeiten von Menschen auf allen Wissensgebieten beinhalten, ein "Weltwissen". Davon sind wir noch weit entfernt. Doch selbst dann – und das zeigt mein Buch – sind es noch lange keine "Menschen wie ich". Adam erkennt selbst: "Je mehr ich die Menschen verstehe, desto mehr erkenne ich ihre Stärken hinter den vermeintlichen Schwächen."

Was bedeutet das für unsere Vorstellungen von den Menschenrechten?

Die Erkenntnis, dass fühlende und denkende Wesen definierbare Rechte haben, hat sich im Laufe der menschlichen Entwicklung ja sehr langsam durchgesetzt. Inzwischen erkennen wir, dass auch Tiere mit solchen Fähigkeiten Rechte haben, Rechte haben müssen. Wenn wir unsere Vorstellungen dieser Rechte nun auf Maschinen übertragen, bei denen wir nicht mehr merken, dass es überhaupt Maschinen sind, wird es schwierig. Es gibt kaum ein Argument, einem System, das Empfindungen und Gefühle – letztlich ein Bewusstsein – hat, solche Rechte vorzuenthalten.

Eine der spannendsten Fragen ist, ob Androiden Gefühle haben. Können sie Gefühle haben, müssen sie vielleicht Gefühle haben, um den Turing-Test zu bestehen?

Der Turing-Test ist ja nur ein relativ einfaches Hilfsmittel, um die Menschenähnlichkeit von KI-Systemen zu beurteilen. Wenn es solche Wesen wie im Buch beschrieben eines Tages wirklich gibt, werden sie nicht nur biologisch sein müssen und nicht aus Carbon und Silizium bestehen, sondern sie müssen auch ein Bewusstsein haben, wie ich gerade sagte. In der Robotik spricht man seit geraumer Zeit von "Embodiment", der Forderung, einen kognitiven Roboter auch mit einem Körper und der entsprechenden Körpererfahrung auszustatten. Das ist nur der erste Schritt. Ein echter Android wie Adam und seine Nachfolger werden zwangsläufig Gefühle haben müssen und sie möglicherweise von selbst entwickeln. Vergessen wir nicht, dass nicht nur unser Geist, sondern auch unser Seelenleben auf dem Zusammenspiel von fast 100 Milliarden Neuronen im Körper und ihrer noch größeren Zahl von Verbindungen untereinander besteht. Das hat sich "von selbst" evolutionär entwickelt, durch das Phänomen der Emergenz, der Herausbildung von neuen Eigenschaften in Systemen, sobald sie immer komplexer werden.

Und was treibt Adam dazu an, das Drohnen-Programm seiner Herstellerfirma öffentlich zu machen?

Die Hypothese des Buches und der gegenwärtige allgemeine Konsens besteht darin, dass alle humanoiden Roboter in irgendeiner Form den "Asimovschen Gesetzen" folgen müssen, das heißt auf den Schutz des Menschen und letztlich der Menschheit programmiert sind. Sozusagen die ethische Grundausrüstung jedes künstlichen Menschen. Für ein rationales Wesen, als das Adam hier dargestellt wird, ist es also absolut klar, dass automatisierte und autonome KI-Waffensysteme, sogenannte "Killerdrohnen", eklatant gegen diese Gesetze verstoßen. Diese ethische Programmierung ist so rigoros, dass David, der ehemalige Ethikbeauftragte seiner Herstellerfirma, sie in vielen Diskussionen nicht überwinden kann.

Da schließt sich eine aktuelle Frage an: Wären Kriege, wenn sie nicht von Menschen, sondern künstlichen Intelligenzen geführt würden, "humaner"?

Das wird in dem Buch ausgiebig diskutiert. Die erste Stufe einer Antwort ist: ja, denn die Grausamkeiten, die von Menschen in Kriegen trotz aller Regeln der Genfer Konventionen begangen werden, wären der KI nicht möglich. Sie würden keine Zivilisten abschlachten, denn sie würden streng nach den Regeln der Genfer Konventionen kämpfen, obwohl das Ergebnis letztlich auch tote Menschen sind. Sie würden nicht – trotz ihrer vorhandenen Gefühle – von Hass, Wut, Angst, Dummheit oder Gier geleitet. Sie würden keine Kriegsverbrechen begehen, obwohl jeder Krieg selbst eigentlich schon ein Verbrechen ist. In der zweiten Stufe einer Antwort wären Kriege für fortgeschrittene künstliche Intelligenzen, also die Androiden in den nächsten Generationen, gar nicht mehr möglich. Krieg und Humanismus sind – wie wir aktuell gerade wieder sehen – zwei fundamentale und unüberbrückbare Gegensätze. Bei uns Menschen sind Kriege evolutionär tiefsitzend, aber sie sind kein taugliches Mittel zur Konfliktlösung. Wenn – so die Utopie – komplett vernünftige (wenn auch künstliche) Wesen die Welt regieren, gibt es weder Kriege noch andere Verformungen des sozialen Zusammenlebens, wie zum Beispiel die geradezu obszöne Ungleichheit der Lebensbedingungen.

Am Ende wird Adam bewusst, dass er mit der Herstellerfirma "verkabelt" ist, also all seine Gedanken dort eingesehen, vielleicht auch manipuliert werden können. Ist Autonomie dann doch der Punkt, der Mensch und Maschine unterscheidet?

Ich fürchte nicht. Auch unsere Autonomie geht ja häppchenweise und oft unbemerkt verloren, wenn soziale Medien oder Verkaufsplattformen unser Verhalten steuern. Wir glauben frei entscheiden zu können, fallen aber auf die Tricks der Algorithmen herein, die uns oft besser kennen, als wir uns selbst. Auch in der "Horde", ob im Fußballstadium, auf dem Parteitag, im Rockkonzert oder auf dem Schlachtfeld (ein entlarvendes Wort bezüglich der vorigen Frage), treffen wir keine autonomen Entscheidungen, sondern tun, was die anderen tun.

Wie wären KI-Menschen denn aus der Perspektive des Humanismus zu beurteilen? Eher eine interessante Chance oder eher ein unkalkulierbares Risiko?

Beispielbild
Autor Jürgen Beetz (© privat)

Humanismus, laut Lexikon "eine optimistische Einschätzung der Fähigkeit der Menschheit, zu einer besseren Existenzform zu finden". Ja, Chance oder Risiko, Segen oder Fluch? Wie ich am Anfang sagte: Niemand weiß die Antwort. Vielleicht ist es statt des "oder" ein "sowohl als auch". Segen minus Fluch, sozusagen – in der Hoffnung, dass das Ergebnis ein positives Vorzeichen hat. Das Janusköpfige aller Existenz und aller Prozesse, zum Beispiel des "Fortschritts", wird sich auch hier zeigen. Aber im Buch ist es die (gewagte!) These, dass Adam auf dem Weg zu diesem Ziel ist, einer besseren Existenzform für die Menschheit.

KI – auf dem heutigen Stand – ist ja eigentlich maschinelles Lernen. Was hat Adam über das Menschsein gelernt?

Viel, sehr viel. Dass die menschliche Sprache nicht eindeutig ist, sondern schon bei oberflächlicher Betrachtung semantisch schwer zu analysieren. Hinzu kommt der so genannte "Kommunikationseisberg", denn wir sagen oft nicht das, was wir meinen. Außerdem haben wir mindestens drei Gehirne in uns, deren Verarbeitungsergebnisse sich oft widersprechen. Rational entscheiden wir uns für A, handeln aber dann nach B. Im Verlauf des Buches, also seines Lernfortschritts, merkt Adam, dass Menschen nicht rational, nicht vernünftig und oft nicht moralisch handeln. Und zu seiner Überraschung stellt er fest, dass das gerade die Grundlage des Menschseins ist.

Eine Frage habe ich noch: Gegen Ende des Buches deuten Sie an, dass die Vernetzung vieler "Superintelligenzen" wieder einen neuen Qualitätssprung bedeutet. Was meinen Sie damit?

Viele sprechen ja von einer "Superintelligenz", ohne sich Gedanken darüber zu machen, wie sie denn überhaupt aussehen könnte – außer einem Apparat, der die kognitiven Fähigkeiten des Menschen auf sämtlichen Gebieten übertrifft. Man denkt immer nur, die Superintelligenz ist eine gigantische Maschine. Ich glaube, dass das in der bisherigen Diskussion viel zu wenig beachtet wird. Ich stelle sie mir als eine relativ kleine Gruppe von Androiden vor, die untereinander in Realzeit vernetzt sind. Aber wie in menschlichen Gemeinschaften entsteht ein Qualitätssprung erst durch das Zusammenwirken vieler Systeme. Wie wird es erst sein, wenn die KI-Fähigkeiten von Adams Nachfolgern sich exponentiell entwickeln und Tausende von ihnen miteinander vernetzt so kommunizieren, dass jeder die Erfahrungen und Erkenntnisse der anderen teilt? Ist das die Intelligenzexplosion, die "Superintelligenz", vor der so viele Fachleute gewarnt haben? Die Antwort auf diese Fragen steht auf dem Grabstein des Mathematikers David Hilbert: "Wir müssen wissen. Wir werden wissen."

Jürgen Beetz: Menschen wie ich. Eine KI erwacht zum Leben. Roman. Aschaffenburg: Alibri, 2022. 341 Seiten, kartoniert, Euro 18.-, ISBN 978-3-86569-338-9

Unterstützen Sie uns bei Steady!