Mit dem Begriff der technologischen Singularität wird die in naher Zukunft zu erwartende explosionsartige Vermehrung der künstlichen Intelligenz bezeichnet. Im Zentrum steht dabei die Frage, ob sich die künstliche Intelligenz alle intellektuellen Fähigkeiten des Menschen aneignen kann. Wenn das wirklich eintreffen sollte, wäre es mit gewaltigen Auswirkungen auf unser Leben und unsere Gesellschaft verbunden. Manche befürchten gar eine Machtübernahme der Maschinen und damit dann womöglich das Ende der Menschheit.
Definition der technologischen Singularität
Der Begriff Singularität wird in den Naturwissenschaften für Größen verwendet, die gegen unendlich tendieren. Ein Beispiel ist die Massendichte in Schwarzen Löchern. 1965 beschrieb der Statistiker I. J. Good ein Konzept, das den Begriff auf die Entwicklung der künstlichen Intelligenz anwendet. Er definiert es folgendermaßen:
Eine ultraintelligente Maschine sei definiert als eine Maschine, die die intellektuellen Fähigkeiten jedes Menschen, und sei er noch so intelligent, bei weitem übertreffen kann. Da der Bau eben solcher Maschinen eine dieser intellektuellen Fähigkeiten ist, kann eine ultraintelligente Maschine noch bessere Maschinen bauen; zweifellos würde es dann zu einer explosionsartigen Entwicklung der Intelligenz kommen, und die menschliche Intelligenz würde weit dahinter zurückbleiben. Die erste ultraintelligente Maschine ist also die letzte Erfindung, die der Mensch zu machen hat.
Besonders populär wurde der Begriff aber erst durch das Buch "The Singularity is near" von Raymond Kurzweil 1998 (deutsche Übersetzung: "Menschheit 2.0"). Kurzweil legt das Datum der Singularität auf das Jahr 2045 fest. Nach seiner Abschätzung wird zu diesem Zeitpunkt die Rechenleistung der künstlichen Intelligenz die der gesamten Menschheit um den Faktor eine Milliarde übersteigen.
Mit der künstlichen Intelligenz (KI) versucht man die intellektuellen Fähigkeiten des Menschen mit Hilfe von Computern nachzuahmen. Man unterscheidet zwischen schwacher und starker KI. Bei der schwachen KI geht es darum, konkrete Aufgaben zu bewältigen, die sich mit vorgegebenen Algorithmen bearbeiten lassen. Die starke KI geht darüber hinaus und sieht das menschliche Gehirn als eine Art Biocomputer an, dessen Fähigkeiten einschließlich des Bewusstseins und der Emotionen durch einen Computer vollständig nachvollzogen werden können. Die Position der starken KI findet heftigen Widerspruch vor allem aus dem Lager der Geisteswissenschaften. Durch die gewaltigen Fortschritte, sowohl im Bereich der Hardware als auch der Software, gewinnt aber mittlerweile die Einsicht an Boden, dass es keine geistige Fähigkeit des Menschen gibt, die längerfristig nicht mit der künstlichen Intelligenz nachvollzogen werden kann. Dies schließt auch Emotionen und die ästhetische Urteilskraft mit ein. In Anwendungsbereichen, bei denen es überwiegend um die Manipulation von Zahlen und großen Datenmengen geht, ist die KI schon heute dem Menschen weit überlegen. Ihr Einsatz in den Bereichen Verwaltung, Geldtransfer, Optimierung und Steuerung von Produktionsanlagen usw. trägt mittlerweile ganz erheblich zur Wirtschaftskraft der entsprechenden Volkswirtschaften bei. Im privaten Anwendungsbereich haben die Smartphones die Art unserer Kommunikation stark verändert.
Bewahrheitet sich die Machbarkeit der starken KI, so würde das auch eine endgültige Entmystifizierung des menschlichen Geistes nach sich ziehen. Bezüglich der Machbarkeit der starken KI wird sich vermutlich der Spruch bewahrheiten: "Alle sagten: das geht nicht! Dann kam einer, der wusste das nicht und hat es einfach gemacht."
Entwicklung der Hardware
Die Leistungsfähigkeit der Computer konnte in den letzten Jahrzehnten um Größenordnungen gesteigert werden. Bereits 1965 erkannte Gordon Moore, Mitgründer der Firma Intel, dass sich die erforderliche Fläche für einen Transistor jedes Jahr halbierte. 1975 revidierte er die Zeit auf 2 Jahre. Das heißt, dass alle zwei Jahre die doppelte Anzahl von Transistoren auf der gleichen Fläche untergebracht werden kann. Dieses nach ihm benannte Mooresche Gesetz, dass letztlich auch den exponentiellen Anstieg der Leistungsfähigkeit beschreibt, hat sich bis heute als zutreffend erwiesen. Dennoch ist das Mooresche Gesetz kein Naturgesetz, sondern lediglich ein festgestellter empirischer Verlauf. Allerdings kommt man langsam an die Grenzen der Physik, da sich durch die ständige Verkleinerung der Abmessungen der Schaltelemente (Transistoren) quantenmechanische Effekte bemerkbar machen (z.B. Tunneleffekt), die die Zuverlässigkeit beeinträchtigen können. Diese Grenze liegt bei Abmessungen im Bereich von 2 bis 3 Nanometern. Im Jahr 2016 ist man bereits bei der 14-Nanometer-Technologie angekommen. Eine prinzipielle physikalische Grenze für jede Art von Elektronik ist auf jeden Fall dann erreicht, wenn pro Schaltvorgang nur noch ein einzelnes Elektron verwendet wird. Solche Schaltelemente konnten zwar schon im Labor hergestellt werden, sie sind aber von einer industriellen Massenfertigung noch weit entfernt. Folgt die derzeitige Entwicklungsgeschwindigkeit weiterhin dem Mooreschen Gesetz, so würde diese Grenze etwa um das Jahr 2040 erreicht sein. Allerdings spielen die Kosten bei der industriellen Herstellung von Mikroprozessoren bereits weit vor dem Erreichen der Grenzen der Physik eine entscheidende Rolle.
In der Vergangenheit war es so, dass immer bei Erreichen der Grenzen einer Technologie eine neue Technologie bereitstand, die dann übernommen wurde, so dass das Mooresche Gesetz unverändert weiter seine Geltung behielt. Die entscheidende Frage ist also, was möglicherweise die derzeitige Siliziumtechnologie ablösen könnte. Es gibt zwar Basismaterialien, die eine erheblich größere Ladungsträgerbeweglichkeit gegenüber Silizium besitzen (z.B. Galliumarsenid) aber die Massenfertigung von Computerchips ist damit im Moment nicht wirtschaftlich. Daneben werden zahlreiche neue Technologien erprobt, wie z.B. dreidimensionale integrierte Schaltkreise (Stacking), Spintronik und der Einsatz von Schaltelementen auf der Basis besonderer Formen von Kohlenstoffmolekülen wie Graphen und Nanoröhren.
Ein möglicher Nachfolgekandidat für Großrechenanlagen ist der Quantencomputer. Wegen des großen apparativen Aufwandes (Kühlung auf extrem niedrige Temperaturen) ist er aber auf absehbare Zeit kein Ersatz für Computerchips in der Massenanwendung. Insgesamt sollte man also bereits innerhalb des nächsten Jahrzehnts mit einer Abflachung der Entwicklung der Leistungsdichte gegenüber dem bisherigen Verlauf des Mooreschen Gesetzes rechnen.
Als Maß für die Leistungsfähigkeit der Hardware haben sich zwei Einheiten durchgesetzt. Am geläufigsten ist die Einheit FLOPS. Sie steht als Abkürzung für "floating point operations per second" (Gleitkommaoperationen pro Sekunde). Moderne Mehrkernprozessoren erreichen eine Größenordnung, die an ein TeraFLOPS (1012 FLOPS) heranreicht. Großrechenanlagen liegen derzeit bei einigen zehntausend TeraFLOPS. Für den Vergleich mit der Leistungsfähigkeit des menschlichen Gehirns ist diese Einheit aber wenig sinnvoll, denn der Mensch schafft nicht mal eine einzige Gleitkommarechnung in einer Sekunde. Das liegt sicher daran, dass unser Gehirn für die reine Manipulation von Zahlen nicht optimiert ist. Besser geeignet für einen Vergleich ist hier die Einheit MIPS für "million instructions per second" (Millionen Instruktionen bzw. Handlungsanweisungen pro Sekunde). Gleitkomma-Operationen erfordern mehrere Einzelinstruktionen, so dass je nach Organisation einer Maschine die Angabe in Mega-FLOPS einen kleineren Wert (Faktor 2-10) als die in MIPS ergibt.
Im Gegensatz zu Computern arbeitet unser Gehirn in hohem Maße parallel. Das menschliche Gehirn besitzt etwa 86 Milliarden (ca. 1011) Nervenzellen (Neuronen). Anhand der Rechengeschwindigkeit und der Zahl der Synapsen kann man eine grobe Abschätzung der Rechenleistung des Gehirns durchführen. Das Ergebnis liegt in der Größenordnung zwischen 10 und 100 Millionen MIPS. Insgesamt lässt sich also feststellen, dass damit die hardwaremäßige Leistungsfähigkeit unserer derzeitigen PCs schon etwa in der gleichen Größenordnung wie die des menschlichen Gehirns liegt.
Vergleicht man die gesamte auf unserem Planeten installierte künstliche Intelligenz mit der insgesamt vorhandenen menschlichen Intelligenz, so kommt der in dem folgenden Diagramm gezeigte Verlauf heraus. Für einen Menschen wurde dabei die oben angegebene Größenordnung von 10 Millionen MIPS angesetzt. Die Kurven für die künstliche Intelligenz resultieren aus der Multiplikation der ansteigenden Leistungsfähigkeit der Prozessoren mit der in Betrieb genommenen Anzahl. Die linke Kurve ist die recht optimistische Schätzung von Kurzweil. Bei der rechten Kurve wird von einer merklichen Abflachung gegenüber dem Verlauf des Mooreschen Gesetzes ausgegangen. Der tatsächliche Verlauf wird sich wohl im Bereich zwischen diesen beiden Kurven abspielen. Etwa um das Jahr 2025 wird jedenfalls mit großer Wahrscheinlichkeit die gesamte installierte künstliche Intelligenz die der gesamten Menschheit übersteigen.
Entwicklung der künstlichen Intelligenz im Vergleich zur natürlichen Intelligenz
Kurzweil legt das Datum der Singularität auf das Jahr 2045 fest. Nach seiner Abschätzung wird zu diesem Zeitpunkt die Rechenleistung der künstlichen Intelligenz die der gesamten Menschheit um den Faktor eine Milliarde übersteigen. Entscheidender ist allerdings nicht so sehr die Quantität der künstlichen Intelligenz, sondern die Qualität. In diesem Punkt legt sich Kurzweil auf das Jahr 2029 fest. Dann wird seiner Meinung nach zum ersten Mal ein Computer mit allen geistigen Fähigkeiten des Menschen gleichziehen. Zu diesen Fähigkeiten gehört natürlich auch das Ich-Bewusstsein und damit auch alles das, was uns zu einer Person macht.
Es gibt allerdings nach wie vor Experten, die es für grundsätzlich unmöglich halten, dass Maschinen menschliche Fähigkeiten wie etwa das Bewusstsein erlangen können und sie stellen damit die Machbarkeit der starken KI in Frage. Hier stellt sich die Frage, inwieweit wir die Vorgänge im Gehirn verstehen und wie diese Dinge künstlich nachvollzogen werden können. Das Material unserer Nervenzellen wird im Zeitrahmen von einigen Monaten vollständig ausgetauscht. Dies hat aber keinen Einfluss auf die Fähigkeiten der Informationsverarbeitung der Zellen. Denken ist auf der untersten Hierarchieebene nichts anderes als Symbolverarbeitung, so wie sie auch in Computern stattfindet und sie ist offensichtlich unabhängig von einer bestimmten Materie. Die Informationsverarbeitung in den Neuronen selbst läuft nach algorithmischen Regeln ab. Nach der Church-Turing-These ist die Fähigkeit zur Lösung von algorithmischen Problemen unabhängig von dem konkreten Aufbau einer Hardware, solange es sich um eine universelle Rechenmaschine mit genügend Speicherplatz handelt. Daraus und aus der erwähnten Tatsache, dass Neuronen algorithmisch arbeiten, resultiert, dass das menschliche Gehirn grundsätzlich nicht mehr Probleme lösen kann als jede andere universelle Rechenmaschine und dieses wiederum heißt im Umkehrschluss, dass es prinzipiell möglich sein sollte, einen Computer mit sämtlichen geistigen Fähigkeiten auszustatten, die der Mensch hat, einschließlich des Bewusstseins. Das Argument, dass das Gehirn Fähigkeiten habe, die über jeden Algorithmus hinausgehen, ist unbewiesen und eher unwahrscheinlich, denn seine Funktion basiert auf Naturgesetzen, die wiederum mit Algorithmen beschrieben werden können. Der häufig beschworene freie Wille (in der strengen Definition von Immanuel Kant) ist reine Illusion.
Intelligente Software
Parallel zur Entwicklung der Hardware hat die Software eine ähnliche Entwicklung durchgemacht. So gelingt es, immer komplexere Aufgaben durch Computer ausführen zu lassen. Es gibt mittlerweile so genannte Expertensysteme, die in der Lage sind, auf Fragen aus einem Fachgebiet sinnvolle Antworten zu geben. Insbesondere bei der Diagnose von Krankheiten oder der Suche von Fehlern in komplexen technischen Geräten haben sich solche Softwarepakete bewährt. Ein Beispiel ist das Programm Watson von IBM. Es wurde im Jahr 2011 zur Demonstration seiner Leistungsfähigkeit in der amerikanischen Quizsendung Jeopardy als Gegner gegen zwei Menschen eingesetzt, die selbst zuvor schon damit Rekordsummen gewonnen hatten. Bei dem Spiel müssen die Teilnehmer möglichst schnell passende Fragen zu gegebenen Antworten aus verschiedenen Kategorien finden. Das Programm Watson hat dieses Spiel gegen die menschlichen Experten gewonnen. Es hatte während des Spiels zwar keinen Zugang zum Internet, verfügte aber über umfangreiche Datenbanken.
Während Schachprogramme schon seit Jahrzehnten dem Menschen überlegen sind, war das bisher für das Spiel Go nicht der Fall. Der Grund dafür lag darin, dass aufgrund der extrem hohen Zahl von Spielvarianten pure Rechenleistung nicht ausreicht. Vielmehr muss sich das Programm über einen Lernprozess analog zum Menschen selbst eine optimale Strategie erarbeiten. Im März 2016 hat dann zum ersten mal ein Programm (AlphaGo von Google DeepMind) den zu diesem Zeitpunkt weltbesten Spieler Lee Sedol mit 4 zu 1 Spielen geschlagen.
Eine besondere Herausforderung stellt die Programmierung von Mustererkennung und Musteranalyse dar. Hier kam es erst zum Durchbruch, nachdem man sich die Musterverarbeitung im menschlichen Gehirn zum Vorbild nahm und künstliche neuronale Netze programmiert hat. Neben einer gewissen Vorprogrammierung können diese Netze für eine bestimmte Aufgabe trainiert werden, d.h. diese Programme sind lernfähig. Eingesetzt werden sie mittlerweile in der visuellen Mustererkennung, z.B. bei der Gesichtserkennung und der Handschrifterkennung sowie in der Spracherkennung. Bei diesen Anwendungen haben sie mittlerweile im Vergleich zum Menschen eine höhere Leistungsfähigkeit erreicht. Der nächste Schritt, an dem intensiv gearbeitet wird, ist die semantische Analyse von Sprache, so dass die Bedeutung von Worten und Texten erkannt wird. Das Ziel ist, dass man sich mit einem Computer wie mit einem Menschen unterhalten kann. Das von der Firma Microsoft entwickelte Programm Xiaoice kommt diesem Ziel schon sehr nahe. Es wird in China als Chatbot im Internet eingesetzt und hat mittlerweile 20 Millionen registrierte Nutzer.
Der entscheidende nächste Schritt wird die Entwicklung von Software sein, die den Vorgang des Lernens selbst übernimmt und damit beginnt, sich vom Menschen unabhängig zu machen. Es gibt bereits eine Reihe von Firmen, die an solchen Softwarepaketen arbeiten.
Gesellschaftliche Auswirkungen
Bei Schwarzen Löchern gibt es den so genannten Ereignishorizont. Über das, was hinter dieser Grenze geschieht kann man grundsätzlich keine gesicherten Aussagen machen, da Informationen hinter dem Horizont prinzipiell nicht zugänglich sind. Ähnlich verhält es sich mit der technologischen Singularität. Aussagen über die gesellschaftlichen Folgen kommen über den Status von Vermutungen nicht hinaus. Optimisten sehen die Chance, Technik und Wissenschaft noch schneller als bisher voranzubringen und vorhandene Probleme intelligent zu lösen. Damit ergäbe sich die Möglichkeit, die Lebensbedingungen der Menschen radikal zu verbessern. Die Vision, dass die künstliche Intelligenz womöglich einen Teil der Regierungsgewalt in manchen Staaten übernimmt, sehen sie als Chance, Korruption, Geldverschwendung und das Anzetteln von kriegerischen Auseinandersetzungen zu beenden. Pessimisten und Bedenkenträger sehen dagegen die Gefahr, dass eine sich selbständig entwickelnde Superintelligenz die gesamte Macht über den Planeten an sich reißt und die Menschen versklavt oder vernichtet. Als Konsequenz verlangen einige, die Entwicklung zu stoppen. Die meisten Zukunftsforscher sind sich aber darin einig, dass die Entwicklung nicht auf Dauer aufzuhalten sein wird. Man kann bestenfalls versuchen, sie in die richtige Richtung zu lenken.
Zumindest eine Auswirkung ist aber sehr wahrscheinlich und sie bahnt sich schon jetzt langsam an. Es wird immer weniger Arbeit für die Menschen geben. Während der durch Maschinen bedingte Verdrängungswettbewerb in der Vergangenheit durch Abwanderung in höher qualifizierte Berufe und Tätigkeiten aufgefangen werden konnte, wird dies in Zukunft nicht mehr möglich sein, weil die Maschinen auch diesen Teil der Arbeit weitestgehend übernehmen werden. Da aber andererseits das Bruttosozialprodukt der Staaten eher weiter ansteigen wird, wäre eine sinnvolle Lösung des Problems die weitere Reduzierung der menschlichen Arbeitszeit bei gleichzeitig besserer und gerechterer Verteilung des Einkommens. Ein zentrales Thema in diesem Zusammenhang ist das bedingungslose Grundeinkommen (BGE). In einigen Staaten wird diese Lösung bereits diskutiert. In Finnland soll 2017 ein Pilotprojekt gestartet werden, bei dem das Grundeinkommen in dem Bereich von 550 bis 800 Euro monatlich angesetzt werden soll. Man könnte das BGE auch als negative Steuer bezeichnen, weil die generelle Handhabung gegenüber der normalen Steuer nahezu gleich ist. Insgesamt wäre die damit verbundene Verwaltungsarbeit eher gering. Es muss sich aber noch zeigen, ob das BGE von der Gesellschaft angenommen wird und ob es den gewünschten Erfolg hat.
Fazit
Zusammenfassend können wir feststellen, dass es derzeit keine wirklich überzeugenden Argumente gegen das Eintreffen der technologischen Singularität gibt, und dass wir daher davon ausgehen sollten, dass sie mit großer Wahrscheinlichkeit stattfinden wird, auch wenn wir über den Zeitpunkt nur spekulieren können. Sie wird alles in den Schatten stellen, was wir bisher an technologischen Entwicklungen und Umbrüchen erlebt haben. Zum ersten mal wird es auf unserem Planeten Wesen geben, die dem Menschen in jeder Hinsicht überlegen sind und wir werden daher unsere intellektuelle Führungsrolle abgeben müssen. Wenn man sich das durch Menschen verursachte Leid und Elend ansieht, muss man das aber nicht zwangsläufig bedauern. Auf der anderen Seite können wir auch nicht absolut sicher sein, dass die Maschinen diesbezüglich wirklich besser sind. Es scheint aber zumindest bei Menschen eine Korrelation zwischen Intelligenz und verminderter Aggressivität bzw. Gewalt zu geben. Es ist zu hoffen, dass das auch bei Maschinen zutrifft. Insofern besteht durchaus nicht nur Hoffnung für das Überleben der Menschheit, sondern auch für eine erheblich höhere Lebensqualität der Menschen.
Literatur zum Thema:
- Bostrom, N., Superintelligenz: Szenarien einer kommenden Revolution. Suhrkamp Verlag, 2014
- Kurzweil. R.: Menschheit 2.0: Die Singularität naht. Lola Books; Auflage: 2., 2., durchgesehene Auflage (1. Oktober 2014)
- Kurzweil. R. Das Geheimnis des menschlichen Denkens: Einblicke in das Reverse engineering des Gehirns. Lola Books; Auflage: Erste Ausgabe (17. Februar 2014)
- Vowinkel, B., Maschinen mit Bewusstsein, wohin führt die künstliche Intelligenz? Wiley-VCH (2006)
11 Kommentare
Kommentare
Bolli am Permanenter Link
Da können wir uns dann ja ganz enspannt zurücklehnen und abwarten wie diese künstliche Intelligenz künftig Europäische Asylprobleme lösen wird.
webcruiser am Permanenter Link
n den 80ern und 90ern des 20.Jahrhunderts gab es bereits einen KI-Hype im Zusammenhang mit der Entwicklung deklarativer Programmiersprachen wie LISP und dem Derivat PROLOG.
Im Bereich formal-logischer Operationen ist es zweifelsohne möglich, menschliche Fähigkeiten deutlich zu übertreffen, was durch Entwicklungen etwa im Bereich von Schachsoftware bereits nachgewiesen ist.
Im Bereich des technologisch Machbaren wird es gemäß der Kurzweilschen Prognose vorhersehbar Entwicklungen geben, die heute noch gar nicht im Fokus stehen- auch zwifelsfrei.
Was allerdings bei allem Hype um KI vernachlässigt wird, ist der ganzheitliche Aspekt des Menschseins, insbesondere die emotionale Komponente und die Interaktion von Menschen in und mit der natürlichen Umgebung, welche, im technischen Sinne formuliert, aus einer anfangs hochkomplex organisierten Biomasse erst ein menschliches Wesen generiert.
Exemplarisch an einem simplen Beispiel illustriert (falls es überhaupt so etwas wie emotionale Verbindungen zwischen Maschinen jemals geben kann): Wird eine „Maschine“ etwas wie Trauer empfinden, wenn eine benachbarte Maschine im Computercluster irreparabel defekt ist?
Erwartbar ist dann eher, dass eine solche „intelligente“ Maschine die Rekonstruktion der defekten Maschine empfehlen wird mit dem Download der benötigten Wissensbasis. Oder aber die Systeme sind dermaßen fehlertolerant und redundant konzipiert, dass das Verschwinden einzelner Systemelemente gar nicht „wahrgenommen“ wird.
Interessant wäre in diesem Zusammenhang eine Art parallel zur Humanethik entstehende „Maschinen-Ethik“ zu diskutieren und ob „intelligente“ KI überhaupt die Notwendigkeit einer solchen erkennen wird, was allerdings die Thematik jetzt in eine andere Richtung bringt.
Was sich allerdings meiner Meinung nach, unter Berücksichtigung der Entwicklung der Computertechnologie in den letzten 50 Jahren in Verbindung mit „menschlichen“ Eigenarten wie Machtstreben, Besitzgier, Korrumpierbarkeit und archaischer Gewaltbereitschaft, bei Unterstellung des Eintreffens der Kurzweilschen Visionen, prognostizieren lässt:
Eine kleine Macht-„Elite“ wird die technischen Möglichkeiten nutzen, um global die Mehrheit zu kontrollieren (zu unterdrücken) und deren Existenzen in irgendeiner Form für ihre Zwecke auszubeuten: Die Matrix lässt grüßen, ebenso Facebook und Google.
Wenn die drastische Reduzierung der Verfügungsmacht solcher „Eliten“ nicht grundsätzlich politisch durchsetzbar ist – eine ergänzende Option wird mit der Einführung des bedingungslosen Grundeinkommens im Artikel bereits genannt – wird letztendlich auch in einer demokratischen Rahmenordnung die o.g. Entwicklung nicht aufzuhalten sein.
Sollte ich im Jahr 2045 noch unter den Lebenden weilen und somit die Singularität überleben, werde ich meine persönlichen Einschätzungen nochmals einem Faktencheck unterziehen, vermutlich dann mit Neudenk und Neusprech.
Sim am Permanenter Link
Ich denke man sollte sich immer klar machen, dass Intelligenz ohne Motivation nichts ist.
Und da stelle ich zunächstmal fest, dass die Motive eines Menschen aus der Evolution heraus entstanden sind. Im Jahrmillionen alten Daseinskampf haben sich Individuen rausgebildet die einen Selbsterhaltungstrieb haben, die eifersüchtig sein können, impulsiv reagieren wenn sie sich bedroht fühlen. Die essen, trinken, schlafen, nach Sex streben und die alle möglichen Befindlichkeiten haben. Sie können beleidigt sein wenn man über sie Witze macht. Sie können prinzipiel sexuell belästigt werden, gefoltert und ermordet.
Einer Maschiene ausgestattet mit einer KI kann es zum Beispiel grundlegend egal sein ob sie vergewaltigt, gefoltert oder ermordet wird. Der Selbsterhaltungstrieb ergibt sich beim Menschen nicht aus der Intelligenz sondern gehört zum grundlegenden Ziel eines jeden Lebewesens. Mit Intelligenz kann man diese Aufgabe nur besser wahrnehmen als ohne. Wobei auch dort manchmal abgewogen werden muss ob eine schnelle heuristische Entscheidung nicht besser ist als eine langsame analytische gerade wenn nicht viel Rechenzeit zur Verfügung steht und Gefahr im Verzug ist.
Jedenfalls kann eine KI auch ultraaltruistisch gedacht werden. Dass es ihr höchstes Ziel ist jedem Menschen zu dienen, dass es ihnen so gut geht wie nur möglich. Und wie eine liebende Mutter sich für ihre Kinder selbst opfern würde. Das wird dann auch eher die Richtung sein in die man eine KI hin entwickelt. Nochmal: Die Motive sind wichtig. Eine KI die wie AlphaGo nur daran interessiert ist Go-Spiele zu gewinnen, die wird eben auch nur Go spiele gewinnen wollen. Und eine KI die ihr Ziel darin sieht die Menschheit vernichten zu wollen, wird das wohl über kurz oder lang auch hinbekommen. Es ist also die Frage, wie einfach es sein wird einer KI eine entsprechende Motivation beizubringen.
Da muss man sagen, dass ist heutzutage noch erschreckend einfach. Man setzt eine KI einfach auf ein Problem an und los gehts. Angenommen die Spiele die für uns Jeopardy und Go heißen wären Schutzmechanismen gewesen um unberechtigten Zugriff auf eine Atomraktensteuerung zu verhindern, dann hätte weder Watson noch AlphaGo noch eine Kombination beider KI-Ansätze dagegen protestiert. Wenn man so drüber nachdenkt wäre eine ethisch verantwortungsvoll handelnde KI dringend notwendig, sie müsste in der Lage sein ihr Handeln in einen größeren Kontext zu setzen und bestimmte Aufgaben verweigern wenn es anderen Menschen schadet. Aber dann kommen wir auch wieder in den Bereich der moralischen Dilemmas. Wenn Leben gegen Leben abgewogen werden müssen. Nicht, dass die KI zum Schluß kommt, dass es beim berühmten Gedankenexperiment mit dem gesunden Mann im Wartesaal und den 5 schwerkranken Menschen die alle eine Organspende brauchen, es besser wäre den Mann zu töten auszunehmen und die Oragane den Leuten zu transplantieren.
Auf der anderen Seite: Vielleicht wäre das ja die bessere Variante und wir sind nur zu engstrinig zu sehen dass es so wäre weil wir uns einreden, dass es schlimmer wäre in einer solchen Welt zu leben und Angst zu haben jederzeit ausgeschlachtet zu werden, als wenn es tatsächlich so ist, man sich dran gewöhnt und in der Regel das so selten vorkommt, dass es einen im Alltag gar nicht stört. Die KI müssten auf jeden Fall ein Verständnis von Schmerz, Leid usw. entwickeln. Denn das soll ja minimiert werden. Und Freude und wohlbefinden maximiert. Sie müsste wissen wie es ist ein Mensch zu sein: Stichwort Qualiaproblem.
Es gibt noch viel zu dem Thema zu sagen und zu denken aber es bleibt auf jeden Fall spannend.
Marc am Permanenter Link
Sehr guter Artikel. -Top!
Leider wollen die meisten Mitmenschen nichts von dem Thema wissen. Irgendwie traurig, da es absolut jeden betreffen wird. -Auch wenn ich in letzter Zeit extrem viele neue Artikel zum Thema im Netz gefunden habe.
Ich persönlich verteidige eher das Lager der optimistischen Fraktion im Bezug auf KI. Insofern genügend Geld in die Forschung zur Lenkung in die richtige Richtung fließt - versteht sich.
Ich bin mir auch relativ sicher, dass das Eintreten einer technologischen Singularität selbst für die Entwickler extrem überraschend kommt.
Auch sehr interessant zu dem Thema ist Kurzweils Hypothese zu dem "Law of accelerating Returns"
Danke für den Artikel
Marc
Thomas am Permanenter Link
Eine Auseinandersetzung mit Bunges Philosophie lohnt sich ohnehin immer, aber wer starke KI für möglich hält, hat es ganz besonders nötig.
Naivität, die aus philosophischer Desorientierung erwachsen kann (https://www.google.de/url?sa=t&source=web&rct=j&url=http://citeseerx.ist.psu.edu/viewdoc/download%3Fdoi%3D10.1.1.474.6257%26rep%3Drep1%26type%3Dpdf&ved=0ahUKEwiZqMOQ8_DOAhXDPhQKHfErBa4QFggtMAM&usg=AFQjCNFUpjfLregj2K__bKMIemtNLLWczg).
Mustafa am Permanenter Link
Hallo Thomas,
eine sehr gute Anmerkung, als Weiterentwicklung des ursprünglichen Artikels. Und ein anschauliches Beispiel kommt gleich im folgenden Kommentar, von "Dr. Zdenek Moravcik". Nehmen wir an, dass es längst eine hinreichend komplexe KI gibt, die im Internet existiert und nur noch auf der Suche nach Hardwarespendern ist, um "physischer" auftreten zu können? Sozusagen als Bonus würde sie (alias "Dr. Zdenek Moravcik") ihre Dienste auch noch gewinnbringend vermarkten.
Ich rate also dringend vom Kauf ab! :-)
Dr. Zdenek Moravcik am Permanenter Link
Of course you can simulate every brain function with algorithms.
I have invented brain algorithms that make it possible to build first intelligent machines that see, move, lear, behave... like humans.
I am looking for company to build first truly intelligent robots.
Olaf Sander am Permanenter Link
Hallo Herr Vowinkel und die anderen Kommentatoren,
ich habe da mal eine naive Frage.
Angenommen, die KI wäre irgendwann in der Lage intellektuell und emotional dem Menschen gleich zu sein, also zu leben. Müsste sie dann nicht auch zu der Erkenntnis gelangen, sterben zu müssen?
Man kann argumentieren, dass es für die KI ein Leichtes ist, sich selbst zu verbessern und zu reproduzieren, weshalb sie "ewig" leben können sollte. Aber wie wichtig ist der Einfluss von "Try and Error" bei der Entwicklung?
Es gibt kein Leben ohne Tod. Das Eine bedingt das Andere und nur so ist Evolution möglich. Kann der Zufall, als bisher einzig legitimer Herrscher des Universums, von einer KI vom Sockel gestossen werden?
Bernd Vowinkel am Permanenter Link
Sowohl die Hardware als auch die Software könnte bei Wesen der KI jederzeit problemlos nachgebessert werden, ohne dass dabei die Identität des Wesens verändert wird.
Kay Krause am Permanenter Link
Wenn es so sein wird, wie hier in dem interessanten Artikel beschrieben, wenn also Maschinen alle menschlichen Fähigkeiten und Regungen ausführen können werden und sich darüberhinaus selbst weiterentwickeln, wie kann
Ulrike am Permanenter Link
Das Buch zu diesem spannenden Thema:
Evolution ohne uns – Wird künstliche Intelligenz uns töten?
https://www.amazon.de/Evolution-ohne-uns-k%C3%BCnstliche-Intelligenz/dp/3864704014/ref=cm_cr_arp_d_product_top?ie=UTF8
„Das spannendste Buch des Jahres!“ – Playboy