Im November 2018 fand in Stuttgart das Zukunftssymposium "Mensch bleiben im Maschinenraum" statt, bei dem es eine Podiumsdiskussion zum Thema "Humanismus versus Transhumanismus" zwischen Michael Schmidt-Salomon (Sprecher und Vorstand der Giordano-Bruno-Stiftung) und Bernd Vowinkel gab. Der hpd dokumentiert (in zwei Teilen) die dabei vorgestellten Thesen von Bernd Vowinkel.
Die starke künstliche Intelligenz
Reine künstliche Intelligenz außerhalb des menschlichen Körpers und die Entwicklung von Robotern würde man eher dem Posthumanismus zuordnen und weniger dem Transhumanismus. Starke künstliche Intelligenz (starke KI) ist dann realisiert, wenn sie die gleichen intellektuellen Fähigkeiten des Menschen erlangt oder gar übertrifft. Eine starke künstliche Intelligenz handelt nicht mehr nur reaktiv, sondern auch aus eigenem Antrieb, intelligent und flexibel und kann womöglich sogar echte Gefühle entwickeln. Dies ist bisher noch nicht gelungen und einige Leute haben erhebliche Zweifel, dass es prinzipiell überhaupt möglich ist.
Die technologische Singularität
Sollte es dennoch gelingen, Maschinen mit starker KI herzustellen, so würden sie ihre Weiterentwicklung bald selbst in die Hand nehmen können, was zu einer explosionsartigen Steigerung der Fähigkeiten der KI führen würde. Man bezeichnet dies als technologische Singularität. Der amerikanische Futurologe Ray Kurzweil1 schätzt, dass sie um das Jahr 2045 eintreten wird. Der erste der diese Möglichkeit erkannt hat, war der Statistiker I. J. Good. Bereits im Jahr 1965 beschrieb er ein Konzept, das der heute vorherrschenden Bedeutung von Singularität nahekam:
"Eine ultraintelligente Maschine sei definiert als eine Maschine, die die intellektuellen Fähigkeiten jedes Menschen, und sei er noch so intelligent, bei weitem übertreffen kann. Da der Bau eben solcher Maschinen eine dieser intellektuellen Fähigkeiten ist, kann eine ultraintelligente Maschine noch bessere Maschinen bauen; zweifellos würde es dann zu einer explosionsartigen Entwicklung der Intelligenz kommen, und die menschliche Intelligenz würde weit dahinter zurückbleiben. Die erste ultraintelligente Maschine ist also die letzte Erfindung, die der Mensch zu machen hat."
Sollte die Singularität tatsächlich eintreten, so wäre die Frage dann nicht mehr: Was machen wir mit der KI?, sondern: Was macht sie mit uns?
Machbarkeit der starken KI
Einige Zweifler an der Machbarkeit der starken KI, wie z. B. der amerikanische Philosoph John Searle2 und der deutsche Philosoph Michael Schmidt-Salomon, behaupten, dass die menschlichen Fähigkeiten, wie z. B. Bewusstsein und Gefühle, zwingend an die Existenz eines biologischen Körpers gekoppelt sind. Es wird hier also eine Substratabhängigkeit vom Kohlenstoff und der daraus abgeleiteten reichhaltigen organischen Chemie postuliert. Nach meiner Ansicht ist eine solche Substratabhängigkeit im Rahmen des Naturalismus, auf den sich der evolutionäre und der neue Humanismus stützen, abzulehnen; denn auf der untersten Vollzugsebene sind die besonderen Fähigkeiten des menschlichen Gehirns nichts anderes als Symbolverarbeitung (physisch, ähnlich wie bei der KI, über elektrische Impulse), und die ist bereits ein abstrakter Vorgang, der nicht an eine bestimmte Materie gebunden ist. Daneben wird die gesamte Materie, aus denen das Gehirn besteht, im Laufe einiger Monate komplett ausgetauscht. Weiterhin beruhen sämtliche biochemischen Abläufe in den Zellen letztlich auf den Gesetzen der klassischen Physik, die ihrerseits algorithmisch und damit auch deterministisch ist. Was allerdings nicht mit einer generellen Berechenbarkeit gleichzusetzen ist.
Bei der KI gibt es übrigens ebenfalls keine Substratabhängigkeit (hier vom Silizium), denn es gibt auch eine Reihe anderer Materialien (z. B. Galliumarsenid, Kohlenstoff-Nanoröhren, Supraleiter usw.) auf denen die Hardware aufgebaut werden kann. Silizium eignet sich derzeit vor allem aus kommerziellen Gründen am besten.
Ein weiteres, häufig vorgebrachtes Argument gegen die starke KI ist die Andersartigkeit und Komplexität des Gehirns im Vergleich zu den Bauteilen der KI. Dazu ist zu sagen, dass der genetische Bauplan des Gehirns nur maximal 400 Megabyte umfasst (entspricht etwa der Kapazität einer halben Audio-CD). Dies ist eine eher geringe Datenmenge. Die reine Rechenleistung des Gehirns liegt bei etwa 10 Millionen MIPS, was inzwischen von leistungsstarken Mikroprozessoren (z. B. Intel i9-7980) erreicht bzw. übertroffen wird. Die Andersartigkeit des Aufbaus der Hardware im Gehirn ist ebenfalls kein gutes Argument, denn nach der Church-Turing These spielt das bei universellen Rechenmaschinen (Computern) keine entscheidende Rolle. Als Beweis dafür, dass das Gehirn mehr kann als ein Computer, müsste man zwingend zeigen, dass es im Gehirn nichtalgorithmische Abläufe gibt, die auch nicht mit dem reinen Zufall zu erklären sind, denn alle algorithmischen Vorgänge lassen sich prinzipiell mit einem Computer nachvollziehen und physische Zufallsgeneratoren sind recht einfach zu realisieren. Der bekannte britische Physiker Roger Penrose3, 4,5 hat dennoch versucht, eine naturalistische Hypothese für die besonderen Fähigkeiten des Gehirns aufzustellen. Dazu braucht das Gehirn nach seiner Meinung den Zugriff auf eine nichtalgorithmische Physik, die wir noch nicht kennen. Er verortet sie im Bereich der Quantenphysik. Bisher konnte allerdings niemand überzeugend darstellen, wie quantenmechanische Effekte die Nervenzellen im Gehirn systematisch beeinflussen können. Davon abgesehen hat Penrose selbst zugeben müssen, dass er nicht ausschließen kann, dass solche Effekte in der Zukunft auch mit Maschinen erzeugt werden können.
Abschließend noch ein Wort des genialen Physikers Stephen Hawking6 zu dem Thema:
"Einige Menschen behaupten, Computer würden niemals in der Lage sein, echte Intelligenz zu entwickeln, was auch immer das sein mag. Doch wenn komplizierte chemische Moleküle im Menschen so zusammenwirken können, dass sie diesen mit Intelligenz ausstatten, dann sehe ich nicht ein, was ebenso komplizierte elektronische Schaltkreise daran hindern sollte, Computer zu intelligentem Verhalten zu befähigen."
Auch wenn die aufgeführten Argumente kein Beweis für die Machbarkeit der starken KI darstellen, so sind sie doch nach meiner Meinung recht überzeugend und nur schwer innerhalb des Naturalismus zu widerlegen.
Kritik an der starken KI
In der Presse, der Literatur und in Spielfilmen wird die wahrscheinlich kommende Entwicklung der starken KI überwiegend negativ für die Menschheit dargestellt. Besondere Beachtung fand in diesem Zusammenhang das Buch des schwedischen Philosophen Nick Bostrom7 mit dem Titel "Superintelligenz". Seine Kernthese zu der Frage, welche Ziele eine Superintelligenz verfolgen könnte, ist die sogenannte Orthogonalitätsthese. Sie besagt, dass jeder Grad von Intelligenz unabhängig von möglichen Zielen ist, d. h. sie könnte auch in unseren Augen vollkommen sinnlose, schädliche Ziele verfolgen. Ich bin diesbezüglich anderer Meinung, denn wenn man sich die Menschen ansieht, so verfolgen intelligentere Menschen eher höherwertige Ziele im Gegensatz zu weniger intelligenten Menschen. Bei der Diskussion mit Anhängern der Orthogonalitätsthese kommt dann häufig der Einwurf, dass das zwar richtig sein mag, es aber keine Garantie dafür gibt, dass eine höhere Intelligenz Ziele verfolgt, die für die Menschheit gut sind. Dieses Argument kann man nicht restlos vom Tisch wischen. Wie viele andere Autoren, ist auch Bostrom der Ansicht, dass man die Entwicklung nicht aufhalten können wird. Man kann lediglich versuchen, sie in Bahnen zu lenken, die für die Menschheit von Vorteil sind. Wenn man sich manche Staatsoberhäupter ansieht, dann finde ich, dass im Zweifelsfall künstliche Intelligenz besser ist als natürliche Dummheit.
Gerade in Deutschland herrscht eine starke Abneigung gegen den Transhumanismus und gegen die KI vor. Das ist zumindest einer der vielen Gründe, warum Deutschland in der Entwicklung der KI eine eher untergeordnete Rolle spielt. Besonders deutlich wird das beim Blick auf die Zahl der angemeldeten Patente im Bereich des maschinellen Lernens. Laut Handelsblatt wurden bis ins Jahr 2015 in den USA 1489 und in China 754 Patente angemeldet. In Deutschland waren es gerade einmal 140.
In Bezug auf die Kritik der starken KI im deutschsprachigen Raum ist das Buch "Robokratie, Google, das Silicon Valley und der Mensch als Auslaufmodell" von Thomas Wagner8 ein Musterbeispiel. Er sieht die Entwicklung mehr aus einer marxistischen Position heraus und kritisiert daher, dass hier der Kapitalismus mit seinen negativen Auswirkungen am Werk sei. Während die großen IT-Konzerne ihre Kunden ausforschen und ihre Daten zu Geld machen, feiern die Aktionäre wilde Feste und versuchen in einigen Tochterfirmen lebensverlängernde Mittel zu finden bis hin zur Unsterblichkeit. Er hat auch einige Personen identifiziert, die sozusagen den Untergang der Menschheit herbeireden. Das ist im englischsprachigen Bereich der bekannte Zukunftsforscher und Google Chefingenieur Ray Kurzweil. Für den deutschsprachigen Bereich nennt er erstaunlicherweise Michael Schmidt-Salomon und mich. Was er mir wohl besonders ankreidet, ist ein Zitat in meinem Buch9 "Maschinen mit Bewusstsein", das ich von dem amerikanischen Robotik-Experten Hans Moravec10 übernommen habe:
"Was sollen wir von Geschöpfen halten, die wir selbst erschaffen, die uns gleichen, denen wir unsere Lebensweise beibringen und die wahrscheinlich die Welt von uns erben werden, wenn wir verschwinden? Ich denke, wir sollten sie als unsere Kinder ansehen, als Hoffnung und nicht als Bedrohung"
- Kurzweil, R.: Menschheit 2.0: Die Singularität naht. 2. Auflage. Lola Books, 2014 ↩︎
- Searle, J. R.: Die Wiederentdeckung des Geistes. Suhrkamp Taschenbuch, 1996 ↩︎
- 10. Penrose, R.: Schatten des Geistes. Spektrum Akademischer Verlag, 1995 ↩︎
- Penrose, R.: Das Große, das Kleine und der menschliche Geist. Spektrum Akademischer Verlag, 2002 ↩︎
- Penrose, R.: The Emperor’s New Mind. Penguin Books, 1991 (deutsch unter dem Titel Computerdenken, Spektrum Akademischer Verlag, 1991) ↩︎
- Hawking, S.: Das Universum in der Nussschale. Hoffmann und Campe, 2001, S. 173 ↩︎
- Bostrom, N.: Superintelligenz: Szenarien einer kommenden Revolution. Suhrkamp, 2014 ↩︎
- Wagner, T.: Robokratie, Google, das Silicon Valley und der Mensch als Auslaufmodell. PappyRossa, 2016 ↩︎
- Vowinkel, B.: Maschinen mit Bewusstsein, wohin führt die künstliche Intelligenz? Wiley-VCH, 2006 ↩︎
- Moravec, H.: Computer übernehmen die Macht. Vom Siegeszug der künstlichen Intelligenz. Hoffmann und Campe, 1999 ↩︎
11 Kommentare
Kommentare
Junius am Permanenter Link
„Ich bin diesbezüglich anderer Meinung, denn wenn man sich die Menschen ansieht, so verfolgen intelligentere Menschen eher höherwertige Ziele im Gegensatz zu weniger intelligenten Menschen.“
Da beißt sich die ideologische Katze endgültig in den virtuellen Schwanz. Wer seine eigene Weltanschauung für objektiv wahr behauptet, deren Erkenntnis für den Ausweis der eigenen, überragenden Intelligenz und daraus für sich Ziele ableitet, die er für höherwertig hält, anhand derer man dann Intelligenz wie Moral anderer Menschen beurteilt, einschließlich der eigenen Person, dann kommt man zu solch einem Fehlschluß. Ein klassischer Zirkelschluß, man könnte es auch eine Illusion nennen, die zwar vielleicht ein wohliges Gefühl gibt, allerdings auf Kosten der Wirklichkeit.
Andreas Lichte am Permanenter Link
@ Junius Ich glaub, ich beschränk mich in Zukunft einfach darauf, Ihnen zuzustimmen, wie zum Beispiel auch hier: https://hpd.de/comment/reply/16092/39491
Anmassung Hilfsausdruck: "... so verfolgen intelligentere Menschen eher höherwertige Ziele im Gegensatz zu weniger intelligenten Menschen ..." wie kann man so etwas schreiben?
Bernd Kammermeier am Permanenter Link
"Wie viele andere Autoren, ist auch Bostrom der Ansicht, dass man die Entwicklung nicht aufhalten können wird.
Ist dies je gelungen? Mit nur einer einzigen Erfindung?
Ich denke auch, KI wird kommen und es wird genauso übel enden wie bisher, nur dramatischer. Was sollte sich denn prinzipiell geändert haben? Der Menschen gerät in Freudentaumel, wenn er seinem eigenen Leben mehr und mehr zusieht.
Natürlich können Computer schneller und präziser rechnen. Sie sind reaktionsschneller, können mehr Informationen gleichzeitig verarbeiten (zumindest als Transputer) als es der Mensch je könnte.
Ja, wir machen Fehler, wir irren uns, reagieren falsch. Dadurch gibt es auch Unglücke. Doch sollten wir den irrenden Menschen nicht lieb haben? Die ultraintelligenten KI-Maschinen werden uns gewiss nicht lieb haben. Warum sollten sie? Für sie wären wir rückschrittliche Kohlenstoffeinheiten, wie in "STAR TREK - Der Kinofilm" angerissen.
Wir können schlechter Autofahren, also schauen wir zu, wie wir herumgefahren werden. Wozu eigentlich rumgefahren werden? Nahrung liefert irgendwann die Drohne, die Arbeit kann sicher auch mittels KI schneller und fehlerfreier erledigt werden. Roboter können präziser operieren, schneller Animationsfilme produzieren, vermutlich sogar für Kohlenstoffeinheiten gesünder kochen.
So wird der Mensch aufgrund seiner organischen Mängel zum Zuschauer seines Lebens. Ich will das nicht, trotz meiner Beschränkungen. Aber was ich will, ist völlig irrelevant, die KI wird kommen und wir stürzen uns mit Hurra-Patriotismus darauf, wie bisher auf die bunte digitale Glitzerwelt, die momentan nur (wenigstens noch) bewirkt, wenige reich zu machen. Momentan...
Andrea Pirstinger am Permanenter Link
Bitte nicht verzweifeln, werter Bernd.
Aber WIR müssen nicht darauf hereinfallen.
Alles klar?
adam am Permanenter Link
Es gibt zu viele Menschen und Gremien die sich sehr stark mit Kuenstlicher Intelligenz, den Auswirkungen und Moeglichkeiten der 'Kuenstlichen Fortpflanzung' von Maschinen beschaeftigen -
Deshalb wird die Menschheit an der Wirklichkeit zugrunde gehen ...
Thomas R. am Permanenter Link
"auf der untersten Vollzugsebene sind die besonderen Fähigkeiten des menschlichen Gehirns nichts anderes als Symbolverarbeitung (physisch, ähnlich wie bei der KI, über elektrische Impulse), und die ist bereits ei
-
Leider ist das in dramatischer Weise und für jeden Emergentistischen Materialisten offensichtlich falsch. Herr Vowinkel könnte das längst wissen, wenn er meinen Kommentar vom 3. September 2016 ernstgenommen und sich mit der Bungeschen Philosophie auseinandergesetzt hätte. https://hpd.de/comment/18339#comment-18339.
Andrea Pirstinger am Permanenter Link
Oh oh oh...
VORSICHT vor diesen transhumanen "Menschheitsrettern".
Hat nicht Bernd Vohwinkel vor einiger Zeit schriftlich geäußert, er sei eine biologische Maschine?
Darüber hinaus: NEIN.
Resnikschek Karin am Permanenter Link
Alles Frankenstein! Immer überschätzt die Wissenschaft ihre Kunst und ihre Möglichkeiten. Gut, wenn die KI kleinere menschlicher Teilbereiche optimiert. Aber 5 Mrd.
malte am Permanenter Link
Guter Punkt:
"Angesichts des gegenwärtigen Stromverbrauchs elektronischer Computer würde ein Computer mit der Speicher- und Verarbeitungskapazität des menschlichen Geistes mehr als 10 Terawatt Strom brauchen, was fast doppelt so viel wie der aktuelle Stromverbrauch der gesamten Menschheit ist."(Lawrence M. Krauss in "Was sollen wir von Künstlicher Intelligenz halten")
Emmerich Lakatha am Permanenter Link
Ich las bereits vor mehreren Jahren in einem GEO-Magazin über die künstliche Intelligenz. Der Gedanke, dass wir einmal "Werkzeuge" von Maschinen sein könnten, schockierte mich.
c.scherg am Permanenter Link
Richtig, Emmerich, es ist ja die Suche nach Trost, die wohl auch zu trans- und posthumanistischen "Weltbildern" führt, Religionen hatten da immer schon etwas im Angebot.
"Jeder Trost ist niederträchtig,
Und Verzweiflung nur ist Pflicht."
oder, wenn du es statt dramatisch lieber lyrisch haben willst:
"Ja, schelte nur und fluche fort,
Es wird sich Bessres nie ergeben.
Denn Trost ist ein absurdes Wort:
Wer nicht verzweifeln kann, der muss nicht leben."