Künstliche Intelligenz

Kommt die technologische Singularität?

ars_electronica_2008_kotaro.jpg

Der an der Universität Tokyo entwickelte humanoide Roboter Kotaro (2008)
Der an der Universität Tokyo entwickelte humanoide Roboter Kotaro (2008)

Mit dem Begriff der technologischen Singularität wird die in naher Zukunft zu erwartende explosionsartige Vermehrung der künstlichen Intelligenz bezeichnet. Im Zentrum steht dabei die Frage, ob sich die künstliche Intelligenz alle intellektuellen Fähigkeiten des Menschen aneignen kann. Wenn das wirklich eintreffen sollte, wäre es mit gewaltigen Auswirkungen auf unser Leben und unsere Gesellschaft verbunden. Manche befürchten gar eine Machtübernahme der Maschinen und damit dann womöglich das Ende der Menschheit.

Definition der technologischen Singularität

Der Begriff Singularität wird in den Naturwissenschaften für Größen verwendet, die gegen unendlich tendieren. Ein Beispiel ist die Massendichte in Schwarzen Löchern. 1965 beschrieb der Statistiker I. J. Good ein Konzept, das den Begriff auf die Entwicklung der künstlichen Intelligenz anwendet. Er definiert es folgendermaßen:

Eine ultraintelligente Maschine sei definiert als eine Maschine, die die intellektuellen Fähigkeiten jedes Menschen, und sei er noch so intelligent, bei weitem übertreffen kann. Da der Bau eben solcher Maschinen eine dieser intellektuellen Fähigkeiten ist, kann eine ultraintelligente Maschine noch bessere Maschinen bauen; zweifellos würde es dann zu einer explosionsartigen Entwicklung der Intelligenz kommen, und die menschliche Intelligenz würde weit dahinter zurückbleiben. Die erste ultraintelligente Maschine ist also die letzte Erfindung, die der Mensch zu machen hat.

Besonders populär wurde der Begriff aber erst durch das Buch "The Singularity is near" von Raymond Kurzweil 1998 (deutsche Übersetzung: "Menschheit 2.0"). Kurzweil legt das Datum der Singularität auf das Jahr 2045 fest. Nach seiner Abschätzung wird zu diesem Zeitpunkt die Rechenleistung der künstlichen Intelligenz die der gesamten Menschheit um den Faktor eine Milliarde übersteigen.

Mit der künstlichen Intelligenz (KI) versucht man die intellektuellen Fähigkeiten des Menschen mit Hilfe von Computern nachzuahmen. Man unterscheidet zwischen schwacher und starker KI. Bei der schwachen KI geht es darum, konkrete Aufgaben zu bewältigen, die sich mit vorgegebenen Algorithmen bearbeiten lassen. Die starke KI geht darüber hinaus und sieht das menschliche Gehirn als eine Art Biocomputer an, dessen Fähigkeiten einschließlich des Bewusstseins und der Emotionen durch einen Computer vollständig nachvollzogen werden können. Die Position der starken KI findet heftigen Widerspruch vor allem aus dem Lager der Geisteswissenschaften. Durch die gewaltigen Fortschritte, sowohl im Bereich der Hardware als auch der Software, gewinnt aber mittlerweile die Einsicht an Boden, dass es keine geistige Fähigkeit des Menschen gibt, die längerfristig nicht mit der künstlichen Intelligenz nachvollzogen werden kann. Dies schließt auch Emotionen und die ästhetische Urteilskraft mit ein. In Anwendungsbereichen, bei denen es überwiegend um die Manipulation von Zahlen und großen Datenmengen geht, ist die KI schon heute dem Menschen weit überlegen. Ihr Einsatz in den Bereichen Verwaltung, Geldtransfer, Optimierung und Steuerung von Produktionsanlagen usw. trägt mittlerweile ganz erheblich zur Wirtschaftskraft der entsprechenden Volkswirtschaften bei. Im privaten Anwendungsbereich haben die Smartphones die Art unserer Kommunikation stark verändert.

Bewahrheitet sich die Machbarkeit der starken KI, so würde das auch eine endgültige Entmystifizierung des menschlichen Geistes nach sich ziehen. Bezüglich der Machbarkeit der starken KI wird sich vermutlich der Spruch bewahrheiten: "Alle sagten: das geht nicht! Dann kam einer, der wusste das nicht und hat es einfach gemacht."

Entwicklung der Hardware

Die Leistungsfähigkeit der Computer konnte in den letzten Jahrzehnten um Größenordnungen gesteigert werden. Bereits 1965 erkannte Gordon Moore, Mitgründer der Firma Intel, dass sich die erforderliche Fläche für einen Transistor jedes Jahr halbierte. 1975 revidierte er die Zeit auf 2 Jahre. Das heißt, dass alle zwei Jahre die doppelte Anzahl von Transistoren auf der gleichen Fläche untergebracht werden kann. Dieses nach ihm benannte Mooresche Gesetz, dass letztlich auch den exponentiellen Anstieg der Leistungsfähigkeit beschreibt, hat sich bis heute als zutreffend erwiesen. Dennoch ist das Mooresche Gesetz kein Naturgesetz, sondern lediglich ein festgestellter empirischer Verlauf. Allerdings kommt man langsam an die Grenzen der Physik, da sich durch die ständige Verkleinerung der Abmessungen der Schaltelemente (Transistoren) quantenmechanische Effekte bemerkbar machen (z.B. Tunneleffekt), die die Zuverlässigkeit beeinträchtigen können. Diese Grenze liegt bei Abmessungen im Bereich von 2 bis 3 Nanometern. Im Jahr 2016 ist man bereits bei der 14-Nanometer-Technologie angekommen. Eine prinzipielle physikalische Grenze für jede Art von Elektronik ist auf jeden Fall dann erreicht, wenn pro Schaltvorgang nur noch ein einzelnes Elektron verwendet wird. Solche Schaltelemente konnten zwar schon im Labor hergestellt werden, sie sind aber von einer industriellen Massenfertigung noch weit entfernt. Folgt die derzeitige Entwicklungsgeschwindigkeit weiterhin dem Mooreschen Gesetz, so würde diese Grenze etwa um das Jahr 2040 erreicht sein. Allerdings spielen die Kosten bei der industriellen Herstellung von Mikroprozessoren bereits weit vor dem Erreichen der Grenzen der Physik eine entscheidende Rolle.

In der Vergangenheit war es so, dass immer bei Erreichen der Grenzen einer Technologie eine neue Technologie bereitstand, die dann übernommen wurde, so dass das Mooresche Gesetz unverändert weiter seine Geltung behielt. Die entscheidende Frage ist also, was möglicherweise die derzeitige Siliziumtechnologie ablösen könnte. Es gibt zwar Basismaterialien, die eine erheblich größere Ladungsträgerbeweglichkeit gegenüber Silizium besitzen (z.B. Galliumarsenid) aber die Massenfertigung von Computerchips ist damit im Moment nicht wirtschaftlich. Daneben werden zahlreiche neue Technologien erprobt, wie z.B. dreidimensionale integrierte Schaltkreise (Stacking), Spintronik und der Einsatz von Schaltelementen auf der Basis besonderer Formen von Kohlenstoffmolekülen wie Graphen und Nanoröhren.

Ein möglicher Nachfolgekandidat für Großrechenanlagen ist der Quantencomputer. Wegen des großen apparativen Aufwandes (Kühlung auf extrem niedrige Temperaturen) ist er aber auf absehbare Zeit kein Ersatz für Computerchips in der Massenanwendung. Insgesamt sollte man also bereits innerhalb des nächsten Jahrzehnts mit einer Abflachung der Entwicklung der Leistungsdichte gegenüber dem bisherigen Verlauf des Mooreschen Gesetzes rechnen.

Als Maß für die Leistungsfähigkeit der Hardware haben sich zwei Einheiten durchgesetzt. Am geläufigsten ist die Einheit FLOPS. Sie steht als Abkürzung für "floating point operations per second" (Gleitkommaoperationen pro Sekunde). Moderne Mehrkernprozessoren erreichen eine Größenordnung, die an ein TeraFLOPS (1012 FLOPS) heranreicht. Großrechenanlagen liegen derzeit bei einigen zehntausend TeraFLOPS. Für den Vergleich mit der Leistungsfähigkeit des menschlichen Gehirns ist diese Einheit aber wenig sinnvoll, denn der Mensch schafft nicht mal eine einzige Gleitkommarechnung in einer Sekunde. Das liegt sicher daran, dass unser Gehirn für die reine Manipulation von Zahlen nicht optimiert ist. Besser geeignet für einen Vergleich ist hier die Einheit MIPS für "million instructions per second" (Millionen Instruktionen bzw. Handlungsanweisungen pro Sekunde). Gleitkomma-Operationen erfordern mehrere Einzelinstruktionen, so dass je nach Organisation einer Maschine die Angabe in Mega-FLOPS einen kleineren Wert (Faktor 2-10) als die in MIPS ergibt.

Im Gegensatz zu Computern arbeitet unser Gehirn in hohem Maße parallel. Das menschliche Gehirn besitzt etwa 86 Milliarden (ca. 1011) Nervenzellen (Neuronen). Anhand der Rechengeschwindigkeit und der Zahl der Synapsen kann man eine grobe Abschätzung der Rechenleistung des Gehirns durchführen. Das Ergebnis liegt in der Größenordnung zwischen 10 und 100 Millionen MIPS. Insgesamt lässt sich also feststellen, dass damit die hardwaremäßige Leistungsfähigkeit unserer derzeitigen PCs schon etwa in der gleichen Größenordnung wie die des menschlichen Gehirns liegt.