Mit dem Begriff der technologischen Singularität wird die in naher Zukunft zu erwartende explosionsartige Vermehrung der künstlichen Intelligenz bezeichnet. Im Zentrum steht dabei die Frage, ob sich die künstliche Intelligenz alle intellektuellen Fähigkeiten des Menschen aneignen kann. Wenn das wirklich eintreffen sollte, wäre es mit gewaltigen Auswirkungen auf unser Leben und unsere Gesellschaft verbunden. Manche befürchten gar eine Machtübernahme der Maschinen und damit dann womöglich das Ende der Menschheit.
Definition der technologischen Singularität
Der Begriff Singularität wird in den Naturwissenschaften für Größen verwendet, die gegen unendlich tendieren. Ein Beispiel ist die Massendichte in Schwarzen Löchern. 1965 beschrieb der Statistiker I. J. Good ein Konzept, das den Begriff auf die Entwicklung der künstlichen Intelligenz anwendet. Er definiert es folgendermaßen:
Eine ultraintelligente Maschine sei definiert als eine Maschine, die die intellektuellen Fähigkeiten jedes Menschen, und sei er noch so intelligent, bei weitem übertreffen kann. Da der Bau eben solcher Maschinen eine dieser intellektuellen Fähigkeiten ist, kann eine ultraintelligente Maschine noch bessere Maschinen bauen; zweifellos würde es dann zu einer explosionsartigen Entwicklung der Intelligenz kommen, und die menschliche Intelligenz würde weit dahinter zurückbleiben. Die erste ultraintelligente Maschine ist also die letzte Erfindung, die der Mensch zu machen hat.
Besonders populär wurde der Begriff aber erst durch das Buch "The Singularity is near" von Raymond Kurzweil 1998 (deutsche Übersetzung: "Menschheit 2.0"). Kurzweil legt das Datum der Singularität auf das Jahr 2045 fest. Nach seiner Abschätzung wird zu diesem Zeitpunkt die Rechenleistung der künstlichen Intelligenz die der gesamten Menschheit um den Faktor eine Milliarde übersteigen.
Mit der künstlichen Intelligenz (KI) versucht man die intellektuellen Fähigkeiten des Menschen mit Hilfe von Computern nachzuahmen. Man unterscheidet zwischen schwacher und starker KI. Bei der schwachen KI geht es darum, konkrete Aufgaben zu bewältigen, die sich mit vorgegebenen Algorithmen bearbeiten lassen. Die starke KI geht darüber hinaus und sieht das menschliche Gehirn als eine Art Biocomputer an, dessen Fähigkeiten einschließlich des Bewusstseins und der Emotionen durch einen Computer vollständig nachvollzogen werden können. Die Position der starken KI findet heftigen Widerspruch vor allem aus dem Lager der Geisteswissenschaften. Durch die gewaltigen Fortschritte, sowohl im Bereich der Hardware als auch der Software, gewinnt aber mittlerweile die Einsicht an Boden, dass es keine geistige Fähigkeit des Menschen gibt, die längerfristig nicht mit der künstlichen Intelligenz nachvollzogen werden kann. Dies schließt auch Emotionen und die ästhetische Urteilskraft mit ein. In Anwendungsbereichen, bei denen es überwiegend um die Manipulation von Zahlen und großen Datenmengen geht, ist die KI schon heute dem Menschen weit überlegen. Ihr Einsatz in den Bereichen Verwaltung, Geldtransfer, Optimierung und Steuerung von Produktionsanlagen usw. trägt mittlerweile ganz erheblich zur Wirtschaftskraft der entsprechenden Volkswirtschaften bei. Im privaten Anwendungsbereich haben die Smartphones die Art unserer Kommunikation stark verändert.
Bewahrheitet sich die Machbarkeit der starken KI, so würde das auch eine endgültige Entmystifizierung des menschlichen Geistes nach sich ziehen. Bezüglich der Machbarkeit der starken KI wird sich vermutlich der Spruch bewahrheiten: "Alle sagten: das geht nicht! Dann kam einer, der wusste das nicht und hat es einfach gemacht."
Entwicklung der Hardware
Die Leistungsfähigkeit der Computer konnte in den letzten Jahrzehnten um Größenordnungen gesteigert werden. Bereits 1965 erkannte Gordon Moore, Mitgründer der Firma Intel, dass sich die erforderliche Fläche für einen Transistor jedes Jahr halbierte. 1975 revidierte er die Zeit auf 2 Jahre. Das heißt, dass alle zwei Jahre die doppelte Anzahl von Transistoren auf der gleichen Fläche untergebracht werden kann. Dieses nach ihm benannte Mooresche Gesetz, dass letztlich auch den exponentiellen Anstieg der Leistungsfähigkeit beschreibt, hat sich bis heute als zutreffend erwiesen. Dennoch ist das Mooresche Gesetz kein Naturgesetz, sondern lediglich ein festgestellter empirischer Verlauf. Allerdings kommt man langsam an die Grenzen der Physik, da sich durch die ständige Verkleinerung der Abmessungen der Schaltelemente (Transistoren) quantenmechanische Effekte bemerkbar machen (z.B. Tunneleffekt), die die Zuverlässigkeit beeinträchtigen können. Diese Grenze liegt bei Abmessungen im Bereich von 2 bis 3 Nanometern. Im Jahr 2016 ist man bereits bei der 14-Nanometer-Technologie angekommen. Eine prinzipielle physikalische Grenze für jede Art von Elektronik ist auf jeden Fall dann erreicht, wenn pro Schaltvorgang nur noch ein einzelnes Elektron verwendet wird. Solche Schaltelemente konnten zwar schon im Labor hergestellt werden, sie sind aber von einer industriellen Massenfertigung noch weit entfernt. Folgt die derzeitige Entwicklungsgeschwindigkeit weiterhin dem Mooreschen Gesetz, so würde diese Grenze etwa um das Jahr 2040 erreicht sein. Allerdings spielen die Kosten bei der industriellen Herstellung von Mikroprozessoren bereits weit vor dem Erreichen der Grenzen der Physik eine entscheidende Rolle.
In der Vergangenheit war es so, dass immer bei Erreichen der Grenzen einer Technologie eine neue Technologie bereitstand, die dann übernommen wurde, so dass das Mooresche Gesetz unverändert weiter seine Geltung behielt. Die entscheidende Frage ist also, was möglicherweise die derzeitige Siliziumtechnologie ablösen könnte. Es gibt zwar Basismaterialien, die eine erheblich größere Ladungsträgerbeweglichkeit gegenüber Silizium besitzen (z.B. Galliumarsenid) aber die Massenfertigung von Computerchips ist damit im Moment nicht wirtschaftlich. Daneben werden zahlreiche neue Technologien erprobt, wie z.B. dreidimensionale integrierte Schaltkreise (Stacking), Spintronik und der Einsatz von Schaltelementen auf der Basis besonderer Formen von Kohlenstoffmolekülen wie Graphen und Nanoröhren.
Ein möglicher Nachfolgekandidat für Großrechenanlagen ist der Quantencomputer. Wegen des großen apparativen Aufwandes (Kühlung auf extrem niedrige Temperaturen) ist er aber auf absehbare Zeit kein Ersatz für Computerchips in der Massenanwendung. Insgesamt sollte man also bereits innerhalb des nächsten Jahrzehnts mit einer Abflachung der Entwicklung der Leistungsdichte gegenüber dem bisherigen Verlauf des Mooreschen Gesetzes rechnen.
Als Maß für die Leistungsfähigkeit der Hardware haben sich zwei Einheiten durchgesetzt. Am geläufigsten ist die Einheit FLOPS. Sie steht als Abkürzung für "floating point operations per second" (Gleitkommaoperationen pro Sekunde). Moderne Mehrkernprozessoren erreichen eine Größenordnung, die an ein TeraFLOPS (1012 FLOPS) heranreicht. Großrechenanlagen liegen derzeit bei einigen zehntausend TeraFLOPS. Für den Vergleich mit der Leistungsfähigkeit des menschlichen Gehirns ist diese Einheit aber wenig sinnvoll, denn der Mensch schafft nicht mal eine einzige Gleitkommarechnung in einer Sekunde. Das liegt sicher daran, dass unser Gehirn für die reine Manipulation von Zahlen nicht optimiert ist. Besser geeignet für einen Vergleich ist hier die Einheit MIPS für "million instructions per second" (Millionen Instruktionen bzw. Handlungsanweisungen pro Sekunde). Gleitkomma-Operationen erfordern mehrere Einzelinstruktionen, so dass je nach Organisation einer Maschine die Angabe in Mega-FLOPS einen kleineren Wert (Faktor 2-10) als die in MIPS ergibt.
Im Gegensatz zu Computern arbeitet unser Gehirn in hohem Maße parallel. Das menschliche Gehirn besitzt etwa 86 Milliarden (ca. 1011) Nervenzellen (Neuronen). Anhand der Rechengeschwindigkeit und der Zahl der Synapsen kann man eine grobe Abschätzung der Rechenleistung des Gehirns durchführen. Das Ergebnis liegt in der Größenordnung zwischen 10 und 100 Millionen MIPS. Insgesamt lässt sich also feststellen, dass damit die hardwaremäßige Leistungsfähigkeit unserer derzeitigen PCs schon etwa in der gleichen Größenordnung wie die des menschlichen Gehirns liegt.
11 Kommentare
Kommentare
Bolli am Permanenter Link
Da können wir uns dann ja ganz enspannt zurücklehnen und abwarten wie diese künstliche Intelligenz künftig Europäische Asylprobleme lösen wird.
webcruiser am Permanenter Link
n den 80ern und 90ern des 20.Jahrhunderts gab es bereits einen KI-Hype im Zusammenhang mit der Entwicklung deklarativer Programmiersprachen wie LISP und dem Derivat PROLOG.
Im Bereich formal-logischer Operationen ist es zweifelsohne möglich, menschliche Fähigkeiten deutlich zu übertreffen, was durch Entwicklungen etwa im Bereich von Schachsoftware bereits nachgewiesen ist.
Im Bereich des technologisch Machbaren wird es gemäß der Kurzweilschen Prognose vorhersehbar Entwicklungen geben, die heute noch gar nicht im Fokus stehen- auch zwifelsfrei.
Was allerdings bei allem Hype um KI vernachlässigt wird, ist der ganzheitliche Aspekt des Menschseins, insbesondere die emotionale Komponente und die Interaktion von Menschen in und mit der natürlichen Umgebung, welche, im technischen Sinne formuliert, aus einer anfangs hochkomplex organisierten Biomasse erst ein menschliches Wesen generiert.
Exemplarisch an einem simplen Beispiel illustriert (falls es überhaupt so etwas wie emotionale Verbindungen zwischen Maschinen jemals geben kann): Wird eine „Maschine“ etwas wie Trauer empfinden, wenn eine benachbarte Maschine im Computercluster irreparabel defekt ist?
Erwartbar ist dann eher, dass eine solche „intelligente“ Maschine die Rekonstruktion der defekten Maschine empfehlen wird mit dem Download der benötigten Wissensbasis. Oder aber die Systeme sind dermaßen fehlertolerant und redundant konzipiert, dass das Verschwinden einzelner Systemelemente gar nicht „wahrgenommen“ wird.
Interessant wäre in diesem Zusammenhang eine Art parallel zur Humanethik entstehende „Maschinen-Ethik“ zu diskutieren und ob „intelligente“ KI überhaupt die Notwendigkeit einer solchen erkennen wird, was allerdings die Thematik jetzt in eine andere Richtung bringt.
Was sich allerdings meiner Meinung nach, unter Berücksichtigung der Entwicklung der Computertechnologie in den letzten 50 Jahren in Verbindung mit „menschlichen“ Eigenarten wie Machtstreben, Besitzgier, Korrumpierbarkeit und archaischer Gewaltbereitschaft, bei Unterstellung des Eintreffens der Kurzweilschen Visionen, prognostizieren lässt:
Eine kleine Macht-„Elite“ wird die technischen Möglichkeiten nutzen, um global die Mehrheit zu kontrollieren (zu unterdrücken) und deren Existenzen in irgendeiner Form für ihre Zwecke auszubeuten: Die Matrix lässt grüßen, ebenso Facebook und Google.
Wenn die drastische Reduzierung der Verfügungsmacht solcher „Eliten“ nicht grundsätzlich politisch durchsetzbar ist – eine ergänzende Option wird mit der Einführung des bedingungslosen Grundeinkommens im Artikel bereits genannt – wird letztendlich auch in einer demokratischen Rahmenordnung die o.g. Entwicklung nicht aufzuhalten sein.
Sollte ich im Jahr 2045 noch unter den Lebenden weilen und somit die Singularität überleben, werde ich meine persönlichen Einschätzungen nochmals einem Faktencheck unterziehen, vermutlich dann mit Neudenk und Neusprech.
Sim am Permanenter Link
Ich denke man sollte sich immer klar machen, dass Intelligenz ohne Motivation nichts ist.
Und da stelle ich zunächstmal fest, dass die Motive eines Menschen aus der Evolution heraus entstanden sind. Im Jahrmillionen alten Daseinskampf haben sich Individuen rausgebildet die einen Selbsterhaltungstrieb haben, die eifersüchtig sein können, impulsiv reagieren wenn sie sich bedroht fühlen. Die essen, trinken, schlafen, nach Sex streben und die alle möglichen Befindlichkeiten haben. Sie können beleidigt sein wenn man über sie Witze macht. Sie können prinzipiel sexuell belästigt werden, gefoltert und ermordet.
Einer Maschiene ausgestattet mit einer KI kann es zum Beispiel grundlegend egal sein ob sie vergewaltigt, gefoltert oder ermordet wird. Der Selbsterhaltungstrieb ergibt sich beim Menschen nicht aus der Intelligenz sondern gehört zum grundlegenden Ziel eines jeden Lebewesens. Mit Intelligenz kann man diese Aufgabe nur besser wahrnehmen als ohne. Wobei auch dort manchmal abgewogen werden muss ob eine schnelle heuristische Entscheidung nicht besser ist als eine langsame analytische gerade wenn nicht viel Rechenzeit zur Verfügung steht und Gefahr im Verzug ist.
Jedenfalls kann eine KI auch ultraaltruistisch gedacht werden. Dass es ihr höchstes Ziel ist jedem Menschen zu dienen, dass es ihnen so gut geht wie nur möglich. Und wie eine liebende Mutter sich für ihre Kinder selbst opfern würde. Das wird dann auch eher die Richtung sein in die man eine KI hin entwickelt. Nochmal: Die Motive sind wichtig. Eine KI die wie AlphaGo nur daran interessiert ist Go-Spiele zu gewinnen, die wird eben auch nur Go spiele gewinnen wollen. Und eine KI die ihr Ziel darin sieht die Menschheit vernichten zu wollen, wird das wohl über kurz oder lang auch hinbekommen. Es ist also die Frage, wie einfach es sein wird einer KI eine entsprechende Motivation beizubringen.
Da muss man sagen, dass ist heutzutage noch erschreckend einfach. Man setzt eine KI einfach auf ein Problem an und los gehts. Angenommen die Spiele die für uns Jeopardy und Go heißen wären Schutzmechanismen gewesen um unberechtigten Zugriff auf eine Atomraktensteuerung zu verhindern, dann hätte weder Watson noch AlphaGo noch eine Kombination beider KI-Ansätze dagegen protestiert. Wenn man so drüber nachdenkt wäre eine ethisch verantwortungsvoll handelnde KI dringend notwendig, sie müsste in der Lage sein ihr Handeln in einen größeren Kontext zu setzen und bestimmte Aufgaben verweigern wenn es anderen Menschen schadet. Aber dann kommen wir auch wieder in den Bereich der moralischen Dilemmas. Wenn Leben gegen Leben abgewogen werden müssen. Nicht, dass die KI zum Schluß kommt, dass es beim berühmten Gedankenexperiment mit dem gesunden Mann im Wartesaal und den 5 schwerkranken Menschen die alle eine Organspende brauchen, es besser wäre den Mann zu töten auszunehmen und die Oragane den Leuten zu transplantieren.
Auf der anderen Seite: Vielleicht wäre das ja die bessere Variante und wir sind nur zu engstrinig zu sehen dass es so wäre weil wir uns einreden, dass es schlimmer wäre in einer solchen Welt zu leben und Angst zu haben jederzeit ausgeschlachtet zu werden, als wenn es tatsächlich so ist, man sich dran gewöhnt und in der Regel das so selten vorkommt, dass es einen im Alltag gar nicht stört. Die KI müssten auf jeden Fall ein Verständnis von Schmerz, Leid usw. entwickeln. Denn das soll ja minimiert werden. Und Freude und wohlbefinden maximiert. Sie müsste wissen wie es ist ein Mensch zu sein: Stichwort Qualiaproblem.
Es gibt noch viel zu dem Thema zu sagen und zu denken aber es bleibt auf jeden Fall spannend.
Marc am Permanenter Link
Sehr guter Artikel. -Top!
Leider wollen die meisten Mitmenschen nichts von dem Thema wissen. Irgendwie traurig, da es absolut jeden betreffen wird. -Auch wenn ich in letzter Zeit extrem viele neue Artikel zum Thema im Netz gefunden habe.
Ich persönlich verteidige eher das Lager der optimistischen Fraktion im Bezug auf KI. Insofern genügend Geld in die Forschung zur Lenkung in die richtige Richtung fließt - versteht sich.
Ich bin mir auch relativ sicher, dass das Eintreten einer technologischen Singularität selbst für die Entwickler extrem überraschend kommt.
Auch sehr interessant zu dem Thema ist Kurzweils Hypothese zu dem "Law of accelerating Returns"
Danke für den Artikel
Marc
Thomas am Permanenter Link
Eine Auseinandersetzung mit Bunges Philosophie lohnt sich ohnehin immer, aber wer starke KI für möglich hält, hat es ganz besonders nötig.
Naivität, die aus philosophischer Desorientierung erwachsen kann (https://www.google.de/url?sa=t&source=web&rct=j&url=http://citeseerx.ist.psu.edu/viewdoc/download%3Fdoi%3D10.1.1.474.6257%26rep%3Drep1%26type%3Dpdf&ved=0ahUKEwiZqMOQ8_DOAhXDPhQKHfErBa4QFggtMAM&usg=AFQjCNFUpjfLregj2K__bKMIemtNLLWczg).
Mustafa am Permanenter Link
Hallo Thomas,
eine sehr gute Anmerkung, als Weiterentwicklung des ursprünglichen Artikels. Und ein anschauliches Beispiel kommt gleich im folgenden Kommentar, von "Dr. Zdenek Moravcik". Nehmen wir an, dass es längst eine hinreichend komplexe KI gibt, die im Internet existiert und nur noch auf der Suche nach Hardwarespendern ist, um "physischer" auftreten zu können? Sozusagen als Bonus würde sie (alias "Dr. Zdenek Moravcik") ihre Dienste auch noch gewinnbringend vermarkten.
Ich rate also dringend vom Kauf ab! :-)
Dr. Zdenek Moravcik am Permanenter Link
Of course you can simulate every brain function with algorithms.
I have invented brain algorithms that make it possible to build first intelligent machines that see, move, lear, behave... like humans.
I am looking for company to build first truly intelligent robots.
Olaf Sander am Permanenter Link
Hallo Herr Vowinkel und die anderen Kommentatoren,
ich habe da mal eine naive Frage.
Angenommen, die KI wäre irgendwann in der Lage intellektuell und emotional dem Menschen gleich zu sein, also zu leben. Müsste sie dann nicht auch zu der Erkenntnis gelangen, sterben zu müssen?
Man kann argumentieren, dass es für die KI ein Leichtes ist, sich selbst zu verbessern und zu reproduzieren, weshalb sie "ewig" leben können sollte. Aber wie wichtig ist der Einfluss von "Try and Error" bei der Entwicklung?
Es gibt kein Leben ohne Tod. Das Eine bedingt das Andere und nur so ist Evolution möglich. Kann der Zufall, als bisher einzig legitimer Herrscher des Universums, von einer KI vom Sockel gestossen werden?
Bernd Vowinkel am Permanenter Link
Sowohl die Hardware als auch die Software könnte bei Wesen der KI jederzeit problemlos nachgebessert werden, ohne dass dabei die Identität des Wesens verändert wird.
Kay Krause am Permanenter Link
Wenn es so sein wird, wie hier in dem interessanten Artikel beschrieben, wenn also Maschinen alle menschlichen Fähigkeiten und Regungen ausführen können werden und sich darüberhinaus selbst weiterentwickeln, wie kann
Ulrike am Permanenter Link
Das Buch zu diesem spannenden Thema:
Evolution ohne uns – Wird künstliche Intelligenz uns töten?
https://www.amazon.de/Evolution-ohne-uns-k%C3%BCnstliche-Intelligenz/dp/3864704014/ref=cm_cr_arp_d_product_top?ie=UTF8
„Das spannendste Buch des Jahres!“ – Playboy