Humanismus versus Transhumanismus – Teil 2

Im November 2018 fand in Stuttgart das Zukunftssymposium "Mensch bleiben im Maschinenraum" statt, bei dem es eine Podiumsdiskussion zum Thema "Humanismus versus Transhumanismus" zwischen Michael Schmidt-Salomon (Sprecher und Vorstand der Giordano-Bruno-Stiftung) und Bernd Vowinkel gab. Der hpd dokumentiert (in zwei Teilen) die dabei vorgestellten Thesen von Bernd Vowinkel.

Die starke künstliche Intelligenz

Reine künstliche Intelligenz außerhalb des menschlichen Körpers und die Entwicklung von Robotern würde man eher dem Posthumanismus zuordnen und weniger dem Transhumanismus. Starke künstliche Intelligenz (starke KI) ist dann realisiert, wenn sie die gleichen intellektuellen Fähigkeiten des Menschen erlangt oder gar übertrifft. Eine starke künstliche Intelligenz handelt nicht mehr nur reaktiv, sondern auch aus eigenem Antrieb, intelligent und flexibel und kann womöglich sogar echte Gefühle entwickeln. Dies ist bisher noch nicht gelungen und einige Leute haben erhebliche Zweifel, dass es prinzipiell überhaupt möglich ist.

Die technologische Singularität

Sollte es dennoch gelingen, Maschinen mit starker KI herzustellen, so würden sie ihre Weiterentwicklung bald selbst in die Hand nehmen können, was zu einer explosionsartigen Steigerung der Fähigkeiten der KI führen würde. Man bezeichnet dies als technologische Singularität. Der amerikanische Futurologe Ray Kurzweil1 schätzt, dass sie um das Jahr 2045 eintreten wird. Der erste der diese Möglichkeit erkannt hat, war der Statistiker I. J. Good. Bereits im Jahr 1965 beschrieb er ein Konzept, das der heute vorherrschenden Bedeutung von Singularität nahekam:

"Eine ultraintelligente Maschine sei definiert als eine Maschine, die die intellektuellen Fähigkeiten jedes Menschen, und sei er noch so intelligent, bei weitem übertreffen kann. Da der Bau eben solcher Maschinen eine dieser intellektuellen Fähigkeiten ist, kann eine ultraintelligente Maschine noch bessere Maschinen bauen; zweifellos würde es dann zu einer explosionsartigen Entwicklung der Intelligenz kommen, und die menschliche Intelligenz würde weit dahinter zurückbleiben. Die erste ultraintelligente Maschine ist also die letzte Erfindung, die der Mensch zu machen hat."

Sollte die Singularität tatsächlich eintreten, so wäre die Frage dann nicht mehr: Was machen wir mit der KI?, sondern: Was macht sie mit uns?

Machbarkeit der starken KI

Einige Zweifler an der Machbarkeit der starken KI, wie z. B. der amerikanische Philosoph John Searle2 und der deutsche Philosoph Michael Schmidt-Salomon, behaupten, dass die menschlichen Fähigkeiten, wie z. B. Bewusstsein und Gefühle, zwingend an die Existenz eines biologischen Körpers gekoppelt sind. Es wird hier also eine Substratabhängigkeit vom Kohlenstoff und der daraus abgeleiteten reichhaltigen organischen Chemie postuliert. Nach meiner Ansicht ist eine solche Substratabhängigkeit im Rahmen des Naturalismus, auf den sich der evolutionäre und der neue Humanismus stützen, abzulehnen; denn auf der untersten Vollzugsebene sind die besonderen Fähigkeiten des menschlichen Gehirns nichts anderes als Symbolverarbeitung (physisch, ähnlich wie bei der KI, über elektrische Impulse), und die ist bereits ein abstrakter Vorgang, der nicht an eine bestimmte Materie gebunden ist. Daneben wird die gesamte Materie, aus denen das Gehirn besteht, im Laufe einiger Monate komplett ausgetauscht. Weiterhin beruhen sämtliche biochemischen Abläufe in den Zellen letztlich auf den Gesetzen der klassischen Physik, die ihrerseits algorithmisch und damit auch deterministisch ist. Was allerdings nicht mit einer generellen Berechenbarkeit gleichzusetzen ist.

Bei der KI gibt es übrigens ebenfalls keine Substratabhängigkeit (hier vom Silizium), denn es gibt auch eine Reihe anderer Materialien (z. B. Galliumarsenid, Kohlenstoff-Nanoröhren, Supraleiter usw.) auf denen die Hardware aufgebaut werden kann. Silizium eignet sich derzeit vor allem aus kommerziellen Gründen am besten.

Ein weiteres, häufig vorgebrachtes Argument gegen die starke KI ist die Andersartigkeit und Komplexität des Gehirns im Vergleich zu den Bauteilen der KI. Dazu ist zu sagen, dass der genetische Bauplan des Gehirns nur maximal 400 Megabyte umfasst (entspricht etwa der Kapazität einer halben Audio-CD). Dies ist eine eher geringe Datenmenge. Die reine Rechenleistung des Gehirns liegt bei etwa 10 Millionen MIPS, was inzwischen von leistungsstarken Mikroprozessoren (z. B. Intel i9-7980) erreicht bzw. übertroffen wird. Die Andersartigkeit des Aufbaus der Hardware im Gehirn ist ebenfalls kein gutes Argument, denn nach der Church-Turing These spielt das bei universellen Rechenmaschinen (Computern) keine entscheidende Rolle. Als Beweis dafür, dass das Gehirn mehr kann als ein Computer, müsste man zwingend zeigen, dass es im Gehirn nichtalgorithmische Abläufe gibt, die auch nicht mit dem reinen Zufall zu erklären sind, denn alle algorithmischen Vorgänge lassen sich prinzipiell mit einem Computer nachvollziehen und physische Zufallsgeneratoren sind recht einfach zu realisieren. Der bekannte britische Physiker Roger Penrose3, 4,5 hat dennoch versucht, eine naturalistische Hypothese für die besonderen Fähigkeiten des Gehirns aufzustellen. Dazu braucht das Gehirn nach seiner Meinung den Zugriff auf eine nichtalgorithmische Physik, die wir noch nicht kennen. Er verortet sie im Bereich der Quantenphysik. Bisher konnte allerdings niemand überzeugend darstellen, wie quantenmechanische Effekte die Nervenzellen im Gehirn systematisch beeinflussen können. Davon abgesehen hat Penrose selbst zugeben müssen, dass er nicht ausschließen kann, dass solche Effekte in der Zukunft auch mit Maschinen erzeugt werden können.

Abschließend noch ein Wort des genialen Physikers Stephen Hawking6 zu dem Thema:

"Einige Menschen behaupten, Computer würden niemals in der Lage sein, echte Intelligenz zu entwickeln, was auch immer das sein mag. Doch wenn komplizierte chemische Moleküle im Menschen so zusammenwirken können, dass sie diesen mit Intelligenz ausstatten, dann sehe ich nicht ein, was ebenso komplizierte elektronische Schaltkreise daran hindern sollte, Computer zu intelligentem Verhalten zu befähigen."

Auch wenn die aufgeführten Argumente kein Beweis für die Machbarkeit der starken KI darstellen, so sind sie doch nach meiner Meinung recht überzeugend und nur schwer innerhalb des Naturalismus zu widerlegen.

Bernd Vowinkel (vorn links) und Michael Schmidt-Salomon (hinten rechts) beim Stuttgarter Zukunfssymposium. (Foto: © Florian Chefai)
Bernd Vowinkel (vorne links) und Michael Schmidt-Salomon (hinten rechts) beim Stuttgarter Zukunfssymposium. (Foto: © Florian Chefai)

Kritik an der starken KI

In der Presse, der Literatur und in Spielfilmen wird die wahrscheinlich kommende Entwicklung der starken KI überwiegend negativ für die Menschheit dargestellt. Besondere Beachtung fand in diesem Zusammenhang das Buch des schwedischen Philosophen Nick Bostrom7 mit dem Titel "Superintelligenz". Seine Kernthese zu der Frage, welche Ziele eine Superintelligenz verfolgen könnte, ist die sogenannte Orthogonalitätsthese. Sie besagt, dass jeder Grad von Intelligenz unabhängig von möglichen Zielen ist, d. h. sie könnte auch in unseren Augen vollkommen sinnlose, schädliche Ziele verfolgen. Ich bin diesbezüglich anderer Meinung, denn wenn man sich die Menschen ansieht, so verfolgen intelligentere Menschen eher höherwertige Ziele im Gegensatz zu weniger intelligenten Menschen. Bei der Diskussion mit Anhängern der Orthogonalitätsthese kommt dann häufig der Einwurf, dass das zwar richtig sein mag, es aber keine Garantie dafür gibt, dass eine höhere Intelligenz Ziele verfolgt, die für die Menschheit gut sind. Dieses Argument kann man nicht restlos vom Tisch wischen. Wie viele andere Autoren, ist auch Bostrom der Ansicht, dass man die Entwicklung nicht aufhalten können wird. Man kann lediglich versuchen, sie in Bahnen zu lenken, die für die Menschheit von Vorteil sind. Wenn man sich manche Staatsoberhäupter ansieht, dann finde ich, dass im Zweifelsfall künstliche Intelligenz besser ist als natürliche Dummheit.

Gerade in Deutschland herrscht eine starke Abneigung gegen den Transhumanismus und gegen die KI vor. Das ist zumindest einer der vielen Gründe, warum Deutschland in der Entwicklung der KI eine eher untergeordnete Rolle spielt. Besonders deutlich wird das beim Blick auf die Zahl der angemeldeten Patente im Bereich des maschinellen Lernens. Laut Handelsblatt wurden bis ins Jahr 2015 in den USA 1489 und in China 754 Patente angemeldet. In Deutschland waren es gerade einmal 140.

In Bezug auf die Kritik der starken KI im deutschsprachigen Raum ist das Buch "Robokratie, Google, das Silicon Valley und der Mensch als Auslaufmodell" von Thomas Wagner8 ein Musterbeispiel. Er sieht die Entwicklung mehr aus einer marxistischen Position heraus und kritisiert daher, dass hier der Kapitalismus mit seinen negativen Auswirkungen am Werk sei. Während die großen IT-Konzerne ihre Kunden ausforschen und ihre Daten zu Geld machen, feiern die Aktionäre wilde Feste und versuchen in einigen Tochterfirmen lebensverlängernde Mittel zu finden bis hin zur Unsterblichkeit. Er hat auch einige Personen identifiziert, die sozusagen den Untergang der Menschheit herbeireden. Das ist im englischsprachigen Bereich der bekannte Zukunftsforscher und Google Chefingenieur Ray Kurzweil. Für den deutschsprachigen Bereich nennt er erstaunlicherweise Michael Schmidt-Salomon und mich. Was er mir wohl besonders ankreidet, ist ein Zitat in meinem Buch9 "Maschinen mit Bewusstsein", das ich von dem amerikanischen Robotik-Experten Hans Moravec10 übernommen habe:

"Was sollen wir von Geschöpfen halten, die wir selbst erschaffen, die uns gleichen, denen wir unsere Lebensweise beibringen und die wahrscheinlich die Welt von uns erben werden, wenn wir verschwinden? Ich denke, wir sollten sie als unsere Kinder ansehen, als Hoffnung und nicht als Bedrohung"


  1. Kurzweil, R.: Menschheit 2.0: Die Singularität naht. 2. Auflage. Lola Books, 2014 ↩︎
  2. Searle, J. R.: Die Wiederentdeckung des Geistes. Suhrkamp Taschenbuch, 1996 ↩︎
  3. 10. Penrose, R.: Schatten des Geistes. Spektrum Akademischer Verlag, 1995 ↩︎
  4. Penrose, R.: Das Große, das Kleine und der menschliche Geist. Spektrum Akademischer Verlag, 2002 ↩︎
  5. Penrose, R.: The Emperor’s New Mind. Penguin Books, 1991 (deutsch unter dem Titel Computerdenken, Spektrum Akademischer Verlag, 1991) ↩︎
  6. Hawking, S.: Das Universum in der Nussschale. Hoffmann und Campe, 2001, S. 173 ↩︎
  7. Bostrom, N.: Superintelligenz: Szenarien einer kommenden Revolution. Suhrkamp, 2014 ↩︎
  8. Wagner, T.: Robokratie, Google, das Silicon Valley und der Mensch als Auslaufmodell. PappyRossa, 2016 ↩︎
  9. Vowinkel, B.: Maschinen mit Bewusstsein, wohin führt die künstliche Intelligenz? Wiley-VCH, 2006 ↩︎
  10. Moravec, H.: Computer übernehmen die Macht. Vom Siegeszug der künstlichen Intelligenz. Hoffmann und Campe, 1999 ↩︎