Künstliche Intelligenz

Kommt die technologische Singularität?

ars_electronica_2008_kotaro.jpg

Der an der Universität Tokyo entwickelte humanoide Roboter Kotaro (2008)
Der an der Universität Tokyo entwickelte humanoide Roboter Kotaro (2008)

Mit dem Begriff der technologischen Singularität wird die in naher Zukunft zu erwartende explosionsartige Vermehrung der künstlichen Intelligenz bezeichnet. Im Zentrum steht dabei die Frage, ob sich die künstliche Intelligenz alle intellektuellen Fähigkeiten des Menschen aneignen kann. Wenn das wirklich eintreffen sollte, wäre es mit gewaltigen Auswirkungen auf unser Leben und unsere Gesellschaft verbunden. Manche befürchten gar eine Machtübernahme der Maschinen und damit dann womöglich das Ende der Menschheit.

Definition der technologischen Singularität

Der Begriff Singularität wird in den Naturwissenschaften für Größen verwendet, die gegen unendlich tendieren. Ein Beispiel ist die Massendichte in Schwarzen Löchern. 1965 beschrieb der Statistiker I. J. Good ein Konzept, das den Begriff auf die Entwicklung der künstlichen Intelligenz anwendet. Er definiert es folgendermaßen:

Eine ultraintelligente Maschine sei definiert als eine Maschine, die die intellektuellen Fähigkeiten jedes Menschen, und sei er noch so intelligent, bei weitem übertreffen kann. Da der Bau eben solcher Maschinen eine dieser intellektuellen Fähigkeiten ist, kann eine ultraintelligente Maschine noch bessere Maschinen bauen; zweifellos würde es dann zu einer explosionsartigen Entwicklung der Intelligenz kommen, und die menschliche Intelligenz würde weit dahinter zurückbleiben. Die erste ultraintelligente Maschine ist also die letzte Erfindung, die der Mensch zu machen hat.

Besonders populär wurde der Begriff aber erst durch das Buch "The Singularity is near" von Raymond Kurzweil 1998 (deutsche Übersetzung: "Menschheit 2.0"). Kurzweil legt das Datum der Singularität auf das Jahr 2045 fest. Nach seiner Abschätzung wird zu diesem Zeitpunkt die Rechenleistung der künstlichen Intelligenz die der gesamten Menschheit um den Faktor eine Milliarde übersteigen.

Mit der künstlichen Intelligenz (KI) versucht man die intellektuellen Fähigkeiten des Menschen mit Hilfe von Computern nachzuahmen. Man unterscheidet zwischen schwacher und starker KI. Bei der schwachen KI geht es darum, konkrete Aufgaben zu bewältigen, die sich mit vorgegebenen Algorithmen bearbeiten lassen. Die starke KI geht darüber hinaus und sieht das menschliche Gehirn als eine Art Biocomputer an, dessen Fähigkeiten einschließlich des Bewusstseins und der Emotionen durch einen Computer vollständig nachvollzogen werden können. Die Position der starken KI findet heftigen Widerspruch vor allem aus dem Lager der Geisteswissenschaften. Durch die gewaltigen Fortschritte, sowohl im Bereich der Hardware als auch der Software, gewinnt aber mittlerweile die Einsicht an Boden, dass es keine geistige Fähigkeit des Menschen gibt, die längerfristig nicht mit der künstlichen Intelligenz nachvollzogen werden kann. Dies schließt auch Emotionen und die ästhetische Urteilskraft mit ein. In Anwendungsbereichen, bei denen es überwiegend um die Manipulation von Zahlen und großen Datenmengen geht, ist die KI schon heute dem Menschen weit überlegen. Ihr Einsatz in den Bereichen Verwaltung, Geldtransfer, Optimierung und Steuerung von Produktionsanlagen usw. trägt mittlerweile ganz erheblich zur Wirtschaftskraft der entsprechenden Volkswirtschaften bei. Im privaten Anwendungsbereich haben die Smartphones die Art unserer Kommunikation stark verändert.

Bewahrheitet sich die Machbarkeit der starken KI, so würde das auch eine endgültige Entmystifizierung des menschlichen Geistes nach sich ziehen. Bezüglich der Machbarkeit der starken KI wird sich vermutlich der Spruch bewahrheiten: "Alle sagten: das geht nicht! Dann kam einer, der wusste das nicht und hat es einfach gemacht."

Entwicklung der Hardware

Die Leistungsfähigkeit der Computer konnte in den letzten Jahrzehnten um Größenordnungen gesteigert werden. Bereits 1965 erkannte Gordon Moore, Mitgründer der Firma Intel, dass sich die erforderliche Fläche für einen Transistor jedes Jahr halbierte. 1975 revidierte er die Zeit auf 2 Jahre. Das heißt, dass alle zwei Jahre die doppelte Anzahl von Transistoren auf der gleichen Fläche untergebracht werden kann. Dieses nach ihm benannte Mooresche Gesetz, dass letztlich auch den exponentiellen Anstieg der Leistungsfähigkeit beschreibt, hat sich bis heute als zutreffend erwiesen. Dennoch ist das Mooresche Gesetz kein Naturgesetz, sondern lediglich ein festgestellter empirischer Verlauf. Allerdings kommt man langsam an die Grenzen der Physik, da sich durch die ständige Verkleinerung der Abmessungen der Schaltelemente (Transistoren) quantenmechanische Effekte bemerkbar machen (z.B. Tunneleffekt), die die Zuverlässigkeit beeinträchtigen können. Diese Grenze liegt bei Abmessungen im Bereich von 2 bis 3 Nanometern. Im Jahr 2016 ist man bereits bei der 14-Nanometer-Technologie angekommen. Eine prinzipielle physikalische Grenze für jede Art von Elektronik ist auf jeden Fall dann erreicht, wenn pro Schaltvorgang nur noch ein einzelnes Elektron verwendet wird. Solche Schaltelemente konnten zwar schon im Labor hergestellt werden, sie sind aber von einer industriellen Massenfertigung noch weit entfernt. Folgt die derzeitige Entwicklungsgeschwindigkeit weiterhin dem Mooreschen Gesetz, so würde diese Grenze etwa um das Jahr 2040 erreicht sein. Allerdings spielen die Kosten bei der industriellen Herstellung von Mikroprozessoren bereits weit vor dem Erreichen der Grenzen der Physik eine entscheidende Rolle.

In der Vergangenheit war es so, dass immer bei Erreichen der Grenzen einer Technologie eine neue Technologie bereitstand, die dann übernommen wurde, so dass das Mooresche Gesetz unverändert weiter seine Geltung behielt. Die entscheidende Frage ist also, was möglicherweise die derzeitige Siliziumtechnologie ablösen könnte. Es gibt zwar Basismaterialien, die eine erheblich größere Ladungsträgerbeweglichkeit gegenüber Silizium besitzen (z.B. Galliumarsenid) aber die Massenfertigung von Computerchips ist damit im Moment nicht wirtschaftlich. Daneben werden zahlreiche neue Technologien erprobt, wie z.B. dreidimensionale integrierte Schaltkreise (Stacking), Spintronik und der Einsatz von Schaltelementen auf der Basis besonderer Formen von Kohlenstoffmolekülen wie Graphen und Nanoröhren.

Ein möglicher Nachfolgekandidat für Großrechenanlagen ist der Quantencomputer. Wegen des großen apparativen Aufwandes (Kühlung auf extrem niedrige Temperaturen) ist er aber auf absehbare Zeit kein Ersatz für Computerchips in der Massenanwendung. Insgesamt sollte man also bereits innerhalb des nächsten Jahrzehnts mit einer Abflachung der Entwicklung der Leistungsdichte gegenüber dem bisherigen Verlauf des Mooreschen Gesetzes rechnen.

Als Maß für die Leistungsfähigkeit der Hardware haben sich zwei Einheiten durchgesetzt. Am geläufigsten ist die Einheit FLOPS. Sie steht als Abkürzung für "floating point operations per second" (Gleitkommaoperationen pro Sekunde). Moderne Mehrkernprozessoren erreichen eine Größenordnung, die an ein TeraFLOPS (1012 FLOPS) heranreicht. Großrechenanlagen liegen derzeit bei einigen zehntausend TeraFLOPS. Für den Vergleich mit der Leistungsfähigkeit des menschlichen Gehirns ist diese Einheit aber wenig sinnvoll, denn der Mensch schafft nicht mal eine einzige Gleitkommarechnung in einer Sekunde. Das liegt sicher daran, dass unser Gehirn für die reine Manipulation von Zahlen nicht optimiert ist. Besser geeignet für einen Vergleich ist hier die Einheit MIPS für "million instructions per second" (Millionen Instruktionen bzw. Handlungsanweisungen pro Sekunde). Gleitkomma-Operationen erfordern mehrere Einzelinstruktionen, so dass je nach Organisation einer Maschine die Angabe in Mega-FLOPS einen kleineren Wert (Faktor 2-10) als die in MIPS ergibt.

Im Gegensatz zu Computern arbeitet unser Gehirn in hohem Maße parallel. Das menschliche Gehirn besitzt etwa 86 Milliarden (ca. 1011) Nervenzellen (Neuronen). Anhand der Rechengeschwindigkeit und der Zahl der Synapsen kann man eine grobe Abschätzung der Rechenleistung des Gehirns durchführen. Das Ergebnis liegt in der Größenordnung zwischen 10 und 100 Millionen MIPS. Insgesamt lässt sich also feststellen, dass damit die hardwaremäßige Leistungsfähigkeit unserer derzeitigen PCs schon etwa in der gleichen Größenordnung wie die des menschlichen Gehirns liegt.

Vergleicht man die gesamte auf unserem Planeten installierte künstliche Intelligenz mit der insgesamt vorhandenen menschlichen Intelligenz, so kommt der in dem folgenden Diagramm gezeigte Verlauf heraus. Für einen Menschen wurde dabei die oben angegebene Größenordnung von 10 Millionen MIPS angesetzt. Die Kurven für die künstliche Intelligenz resultieren aus der Multiplikation der ansteigenden Leistungsfähigkeit der Prozessoren mit der in Betrieb genommenen Anzahl. Die linke Kurve ist die recht optimistische Schätzung von Kurzweil. Bei der rechten Kurve wird von einer merklichen Abflachung gegenüber dem Verlauf des Mooreschen Gesetzes ausgegangen. Der tatsächliche Verlauf wird sich wohl im Bereich zwischen diesen beiden Kurven abspielen. Etwa um das Jahr 2025 wird jedenfalls mit großer Wahrscheinlichkeit die gesamte installierte künstliche Intelligenz die der gesamten Menschheit übersteigen.
 


Entwicklung der künstlichen Intelligenz im Vergleich zur natürlichen Intelligenz

 
Kurzweil legt das Datum der Singularität auf das Jahr 2045 fest. Nach seiner Abschätzung wird zu diesem Zeitpunkt die Rechenleistung der künstlichen Intelligenz die der gesamten Menschheit um den Faktor eine Milliarde übersteigen. Entscheidender ist allerdings nicht so sehr die Quantität der künstlichen Intelligenz, sondern die Qualität. In diesem Punkt legt sich Kurzweil auf das Jahr 2029 fest. Dann wird seiner Meinung nach zum ersten Mal ein Computer mit allen geistigen Fähigkeiten des Menschen gleichziehen. Zu diesen Fähigkeiten gehört natürlich auch das Ich-Bewusstsein und damit auch alles das, was uns zu einer Person macht.

Es gibt allerdings nach wie vor Experten, die es für grundsätzlich unmöglich halten, dass Maschinen menschliche Fähigkeiten wie etwa das Bewusstsein erlangen können und sie stellen damit die Machbarkeit der starken KI in Frage. Hier stellt sich die Frage, inwieweit wir die Vorgänge im Gehirn verstehen und wie diese Dinge künstlich nachvollzogen werden können. Das Material unserer Nervenzellen wird im Zeitrahmen von einigen Monaten vollständig ausgetauscht. Dies hat aber keinen Einfluss auf die Fähigkeiten der Informationsverarbeitung der Zellen. Denken ist auf der untersten Hierarchieebene nichts anderes als Symbolverarbeitung, so wie sie auch in Computern stattfindet und sie ist offensichtlich unabhängig von einer bestimmten Materie. Die Informationsverarbeitung in den Neuronen selbst läuft nach algorithmischen Regeln ab. Nach der Church-Turing-These ist die Fähigkeit zur Lösung von algorithmischen Problemen unabhängig von dem konkreten Aufbau einer Hardware, solange es sich um eine universelle Rechenmaschine mit genügend Speicherplatz handelt. Daraus und aus der erwähnten Tatsache, dass Neuronen algorithmisch arbeiten, resultiert, dass das menschliche Gehirn grundsätzlich nicht mehr Probleme lösen kann als jede andere universelle Rechenmaschine und dieses wiederum heißt im Umkehrschluss, dass es prinzipiell möglich sein sollte, einen Computer mit sämtlichen geistigen Fähigkeiten auszustatten, die der Mensch hat, einschließlich des Bewusstseins. Das Argument, dass das Gehirn Fähigkeiten habe, die über jeden Algorithmus hinausgehen, ist unbewiesen und eher unwahrscheinlich, denn seine Funktion basiert auf Naturgesetzen, die wiederum mit Algorithmen beschrieben werden können. Der häufig beschworene freie Wille (in der strengen Definition von Immanuel Kant) ist reine Illusion.

Intelligente Software

Parallel zur Entwicklung der Hardware hat die Software eine ähnliche Entwicklung durchgemacht. So gelingt es, immer komplexere Aufgaben durch Computer ausführen zu lassen. Es gibt mittlerweile so genannte Expertensysteme, die in der Lage sind, auf Fragen aus einem Fachgebiet sinnvolle Antworten zu geben. Insbesondere bei der Diagnose von Krankheiten oder der Suche von Fehlern in komplexen technischen Geräten haben sich solche Softwarepakete bewährt. Ein Beispiel ist das Programm Watson von IBM. Es wurde im Jahr 2011 zur Demonstration seiner Leistungsfähigkeit in der amerikanischen Quizsendung Jeopardy als Gegner gegen zwei Menschen eingesetzt, die selbst zuvor schon damit Rekordsummen gewonnen hatten. Bei dem Spiel müssen die Teilnehmer möglichst schnell passende Fragen zu gegebenen Antworten aus verschiedenen Kategorien finden. Das Programm Watson hat dieses Spiel gegen die menschlichen Experten gewonnen. Es hatte während des Spiels zwar keinen Zugang zum Internet, verfügte aber über umfangreiche Datenbanken.

Während Schachprogramme schon seit Jahrzehnten dem Menschen überlegen sind, war das bisher für das Spiel Go nicht der Fall. Der Grund dafür lag darin, dass aufgrund der extrem hohen Zahl von Spielvarianten pure Rechenleistung nicht ausreicht. Vielmehr muss sich das Programm über einen Lernprozess analog zum Menschen selbst eine optimale Strategie erarbeiten. Im März 2016 hat dann zum ersten mal ein Programm (AlphaGo von Google DeepMind) den zu diesem Zeitpunkt weltbesten Spieler Lee Sedol mit 4 zu 1 Spielen geschlagen.

Eine besondere Herausforderung stellt die Programmierung von Mustererkennung und Musteranalyse dar. Hier kam es erst zum Durchbruch, nachdem man sich die Musterverarbeitung im menschlichen Gehirn zum Vorbild nahm und künstliche neuronale Netze programmiert hat. Neben einer gewissen Vorprogrammierung können diese Netze für eine bestimmte Aufgabe trainiert werden, d.h. diese Programme sind lernfähig. Eingesetzt werden sie mittlerweile in der visuellen Mustererkennung, z.B. bei der Gesichtserkennung und der Handschrifterkennung sowie in der Spracherkennung. Bei diesen Anwendungen haben sie mittlerweile im Vergleich zum Menschen eine höhere Leistungsfähigkeit erreicht. Der nächste Schritt, an dem intensiv gearbeitet wird, ist die semantische Analyse von Sprache, so dass die Bedeutung von Worten und Texten erkannt wird. Das Ziel ist, dass man sich mit einem Computer wie mit einem Menschen unterhalten kann. Das von der Firma Microsoft entwickelte Programm Xiaoice kommt diesem Ziel schon sehr nahe. Es wird in China als Chatbot im Internet eingesetzt und hat mittlerweile 20 Millionen registrierte Nutzer.

Der entscheidende nächste Schritt wird die Entwicklung von Software sein, die den Vorgang des Lernens selbst übernimmt und damit beginnt, sich vom Menschen unabhängig zu machen. Es gibt bereits eine Reihe von Firmen, die an solchen Softwarepaketen arbeiten.

Gesellschaftliche Auswirkungen

Bei Schwarzen Löchern gibt es den so genannten Ereignishorizont. Über das, was hinter dieser Grenze geschieht kann man grundsätzlich keine gesicherten Aussagen machen, da Informationen hinter dem Horizont prinzipiell nicht zugänglich sind. Ähnlich verhält es sich mit der technologischen Singularität. Aussagen über die gesellschaftlichen Folgen kommen über den Status von Vermutungen nicht hinaus. Optimisten sehen die Chance, Technik und Wissenschaft noch schneller als bisher voranzubringen und vorhandene Probleme intelligent zu lösen. Damit ergäbe sich die Möglichkeit, die Lebensbedingungen der Menschen radikal zu verbessern. Die Vision, dass die künstliche Intelligenz womöglich einen Teil der Regierungsgewalt in manchen Staaten übernimmt, sehen sie als Chance, Korruption, Geldverschwendung und das Anzetteln von kriegerischen Auseinandersetzungen zu beenden. Pessimisten und Bedenkenträger sehen dagegen die Gefahr, dass eine sich selbständig entwickelnde Superintelligenz die gesamte Macht über den Planeten an sich reißt und die Menschen versklavt oder vernichtet. Als Konsequenz verlangen einige, die Entwicklung zu stoppen. Die meisten Zukunftsforscher sind sich aber darin einig, dass die Entwicklung nicht auf Dauer aufzuhalten sein wird. Man kann bestenfalls versuchen, sie in die richtige Richtung zu lenken.

Zumindest eine Auswirkung ist aber sehr wahrscheinlich und sie bahnt sich schon jetzt langsam an. Es wird immer weniger Arbeit für die Menschen geben. Während der durch Maschinen bedingte Verdrängungswettbewerb in der Vergangenheit durch Abwanderung in höher qualifizierte Berufe und Tätigkeiten aufgefangen werden konnte, wird dies in Zukunft nicht mehr möglich sein, weil die Maschinen auch diesen Teil der Arbeit weitestgehend übernehmen werden. Da aber andererseits das Bruttosozialprodukt der Staaten eher weiter ansteigen wird, wäre eine sinnvolle Lösung des Problems die weitere Reduzierung der menschlichen Arbeitszeit bei gleichzeitig besserer und gerechterer Verteilung des Einkommens. Ein zentrales Thema in diesem Zusammenhang ist das bedingungslose Grundeinkommen (BGE). In einigen Staaten wird diese Lösung bereits diskutiert. In Finnland soll 2017 ein Pilotprojekt gestartet werden, bei dem das Grundeinkommen in dem Bereich von 550 bis 800 Euro monatlich angesetzt werden soll. Man könnte das BGE auch als negative Steuer bezeichnen, weil die generelle Handhabung gegenüber der normalen Steuer nahezu gleich ist. Insgesamt wäre die damit verbundene Verwaltungsarbeit eher gering. Es muss sich aber noch zeigen, ob das BGE von der Gesellschaft angenommen wird und ob es den gewünschten Erfolg hat.

Fazit

Zusammenfassend können wir feststellen, dass es derzeit keine wirklich überzeugenden Argumente gegen das Eintreffen der technologischen Singularität gibt, und dass wir daher davon ausgehen sollten, dass sie mit großer Wahrscheinlichkeit stattfinden wird, auch wenn wir über den Zeitpunkt nur spekulieren können. Sie wird alles in den Schatten stellen, was wir bisher an technologischen Entwicklungen und Umbrüchen erlebt haben. Zum ersten mal wird es auf unserem Planeten Wesen geben, die dem Menschen in jeder Hinsicht überlegen sind und wir werden daher unsere intellektuelle Führungsrolle abgeben müssen. Wenn man sich das durch Menschen verursachte Leid und Elend ansieht, muss man das aber nicht zwangsläufig bedauern. Auf der anderen Seite können wir auch nicht absolut sicher sein, dass die Maschinen diesbezüglich wirklich besser sind. Es scheint aber zumindest bei Menschen eine Korrelation zwischen Intelligenz und verminderter Aggressivität bzw. Gewalt zu geben. Es ist zu hoffen, dass das auch bei Maschinen zutrifft. Insofern besteht durchaus nicht nur Hoffnung für das Überleben der Menschheit, sondern auch für eine erheblich höhere Lebensqualität der Menschen.


Literatur zum Thema:

  • Bostrom, N., Superintelligenz: Szenarien einer kommenden Revolution. Suhrkamp Verlag, 2014
  • Kurzweil. R.: Menschheit 2.0: Die Singularität naht. Lola Books; Auflage: 2., 2., durchgesehene Auflage (1. Oktober 2014)
  • Kurzweil. R. Das Geheimnis des menschlichen Denkens: Einblicke in das Reverse engineering des Gehirns. Lola Books; Auflage: Erste Ausgabe (17. Februar 2014)
  • Vowinkel, B., Maschinen mit Bewusstsein, wohin führt die künstliche Intelligenz? Wiley-VCH (2006)