BERLIN. (hpd) In diesen Tagen ist in den deutschen Kinos der Science-Fiction-Film "Terminator: Genisys" angelaufen. Seine Botschaft: Die Geister, die ich rief, werd' ich nun nicht los.
Der fünfte Teil der Terminator-Reihe ist eine direkte Fortsetzung des ersten Films von 1984, in dem Arnold Schwarzenegger wieder in die Rolle des Androiden T–800, einem Roboter umhüllt von menschlichem Gewebe, schlüpft.
Die Handlung beginnt im Jahr 2029; die Erde ist nach einem Atomkrieg verwüstet und der Großteil der Menschheit vernichtet. Von Menschen entwickelte, intelligente Maschinen führten in der Vergangenheit Krieg gegen ihre Schöpfer, weil sie in diesen eine Bedrohung für ihre eigene Existenz vermuteten. Diese Roboter können bereits Emotionen und Persönlichkeit von Menschen perfekt simulieren. Die überlebende Erdbevölkerung leistet Widerstand. Es gilt, die Maschinen in Form der künstlichen Intelligenz Skynet zu besiegen, denn sobald Genisys Skynet online geht, beginnt der "Tag des jüngsten Gerichts". Mit Unterstützung des Roboters T–800, der aufgrund seiner jahrzehntelangen Bindung an die weibliche Filmheldin Tränen vergießen kann, gelingt es der Menschheit, ihren Untergang abzuwenden. In einer Post-Credit-Szene ist allerdings zu sehen, dass Skynet die Explosion einer Zeitmaschine überlebt hat und das sein Kern weiterhin funktioniert.
Der Film ist mit seinen Spezialeffekten und 3 D-Bildern reinstes Popcorn-Kino. Die Geschichte selbst ist teilweise überaus kompliziert und wenig plausibel erzählt, die Dialoge häufig dümmlich ("Ich krieg von Zeitreisen immer Kopfschmerzen.") Letztlich gelingt es dem Film nicht, die technologischen und ethischen Implikationen der künstlichen Intelligenz (KI) zu vertiefen.
Kriegsroboter und Big Data
Wie hoch aktuell diese Fragen, die sich aus den Techniken der KI ergeben, belegen zwei Beispiele. Derzeit entwickeln mehr als 50 Nationen Kriegsroboter. Geforscht wird zu autonomen Robotern und Drohnen in Ländern wie den USA, China, Russland, Indien, Israel und Deutschland. Vorrangig geht es um Maschinen, die ohne menschliches Zutun eigenständig Tötungsentscheidungen treffen, die in der Lage sind, Menschen ins Visier zu nehmen und umzubringen.
Diese Waffen sind zwar vom internationalen Recht nicht verboten, zu bezweifeln ist jedoch, ob sie den Menschenrechten oder auch nur dem Kriegsvölkerrecht entsprechen. Können Roboter zwischen Soldaten und Zivilisten unterscheiden? Wer stellt sicher, das KI-Systeme nur das tun, was Menschen ihnen aufgetragen haben? Wie geht man politisch, ethisch und juristisch mit den “Schäden”, die KI anrichtet, um?
Ethisch gleichermaßen komplex ist der Bereich der hochmodernen Tools zur Datengewinnung. Bekanntlich zapft die amerikanische National Security Agency (NSA) die Glasfaserkabel von Yahoo und Google an und zieht eine riesige Unmenge von Daten heraus. Ohne die intelligenten KI-Tools könnte die NSA mit den Daten nichts anfangen. Mit modernster Software kann sie alles auswerten, wofür das menschliche Hirn Jahrmillionen bräuchte. Dass die Ausspähung der Privatsphäre den Datenschutz verletzt, findet selbst die Bundeskanzlerin. Wie aber erhalten Menschen zukünftig ihre Individualität und Freiheit, wenn KI-gesteuerte Maschinen alles sehen und kontrollieren?
Angesichts der stetig voranschreitenden Forschung diskutieren Wissenschaftler, wenn auch nur vereinzelt, die Frage, ob in Zukunft eine Denkmaschine auch die Forschung und Entwicklung von KI beherrscht. Oder anders aus formuliert: Wann lernt Skynet (im nächsten Terminator-Film) sich in einer endlosen Rückkoppelungsschleife wachsender Intelligenz klüger zu machen, als es ohnehin schon ist? Und hat Skynet erst die Macht, wird es sie endgültig zur Vernichtung der Menschen einsetzten?
Vor dem Ende der Menschheit?
Die Nutzen der KI-Techniken bereichern schon heute in vielerlei Art unseren Alltag. Niemand wird ernsthaft bestreiten, dass wir sie zum Einkaufen, Übersetzten oder Navigieren benötigen. Und schon in naher Zukunft werden uns KI-gesteuerte Autos durch den Straßenverkehr lenken. Unzweifelhaft ist KI eine Dual-Use-Technologie, also ein Technik, die Sinnvolles der Menschheit bringt und gleichzeitig mit großen Risiken behaftet ist.
Die Vernichtung menschlichen Lebens durch "böse" Maschinen sieht Rolf Pfeifer, der an der Universität Osaka und der Jiaotong-Universität Shanghai forscht, nicht. Sein Argument: Roboter mit kognitiven Fähigkeiten, mit Emotionen und Bedürfnissen auszustatten, wie sie ein Mensch besitzt, wird nicht möglich sein. Maschinen fehlten ganz einfach die Evolutionsgeschichte. Und auch Kreierung eines ganzheitlichen Organismus, der wie ein Mensch denkt und handelt, sei auch aus ökonomischen Gründen nicht sinnvoll.
Das sah der englische Mathematiker I.J.Good schon Ende der 1960er Jahre anders. Er prognostizierte, dass durch eine "Intelligenzexplosion" selbstoptimierende Maschinen zuerst so klug wie Menschen und später exponentiell noch intelligenter werden. Sie sollten die ungelösten Probleme der Menschheit wie Hunger, Krieg und Krankheiten lösen. Gegen Ende seines Lebens revidierte Good seine Ansicht, weil er sah, dass im globalen Wettstreit der Staaten keine roten Linien in der Entwicklung von KI gezogen werden.
Mit ähnlichen Warnungen traten kürzlich prominente Wissenschaften und IT-Unternehmer wie Stephan Hawking, Bill Gates, Steve Wozniak und Elon Musk an die Öffentlichkeit. Sie alle vermuten, das Roboter in Zukunft Instinkte, Phantasien und Machtgefühle entwickeln würden. Um sich selbst zu schützen, würden sie gegen die Menschen kämpfen, um zu verhindern, dass sie abgeschaltet werden. Ihre Sorge: Lassen sich die Folgen von KI langfristig überhaupt kontrollieren?
Um die unberechenbaren Risiken der KI in den Griff zu bekommen, muss schon heute eine breite gesellschaftliche Debatte auf die Tagesordnung gesetzt werden. Die Beteiligten der KI-Branche, die im nächsten Jahrzehnt mit neuen Produkten Milliarden von Dollar erwirtschaften sollen, werden es sicher nicht tun. Eher schon werden unabhängige Forschungs- und Lobbyorganisationen wie das Bostoner Future of Life Institut (FLI), das in einem offenen Brief die Forderung nach politische, juristischen und ethischen Leitlinien erhob, Bewegung in die Diskussion bringen.
Nirgendwo: Humanistischer Diskurs
Wenn es richtig ist, dass nicht weniger auf dem Spiel steht, als die menschliche Existenz, muss Kritik erlaubt sein, dass in der humanistischen Szene faktisch keiner ernsthafte Diskussion über KI geführt wird. Einzelne Positionen wie etwa die des Transhumanismus sehen besonders in der Entwicklung von Rechnerleistungen die Lösung menschlicher Probleme. Risiken werden dabei konsequent ausgeblendet. Andere Varianten des naturalistischen Humanismus definieren die Menschenwürde zwar als ein wichtiges Gut, eine tiefere Sicht in das Phänomen KI gelingen auch ihnen nicht. Wiederum andere Humanist_innen füllen die vorhandene Lücke, in dem sie an einem quasi wissenschaftlichen Weltbild festhalten und sich lieber an religiösen und esoterischen Standpunkten abarbeiten. All diese Standpunkte werden den humanistischen Diskurs über KI nicht weiter bringen.
Es wird höchste Zeit, dass auch die humanistischen Organisationen weltweit Verantwortung übernehmen.
3 Kommentare
Kommentare
Bernd Kammermeier am Permanenter Link
Ein wichtiger Bericht, Herr Isemeyer.
Wir sind uns doch alle einig, dass die Evolution nie zu Ende gehen wird. Der Mensch hat es weit gebracht, doch gerade die Emotionen stehen anscheinend einer Weiterentwicklung entgegen. Warum sollten sich Computer dieses Schwäche zu eigen machen? Eine rein rationaler Verstand hätte z.B. die Griechenland-Krise viel schnell und effektiver gelöst - wenn sie überhaupt je entstanden wäre. Computer führen auch keine Kriege (wozu?) und verbrauchen weniger Ressourcen (Stromaufnahme ist minimal und sehr effektiv im Vergleich zum menschlichen Verdauungstrakt). Auch die Fortpflanzung - wenn überhaupt nötig - ist einfacher, weil fertig programmierte, "erwachsene" Nachkommen rasch produziert werden können, die keinerlei fremde Erziehung brauchen, sondern von der ersten Sekunde ihrer Existenz an selbstständig lernen können. Wobei sich auch die Frage nach dem "wozu?" beim Lernen ergibt. Neugier fehlt Maschinen, so dass sich der Fortschritt auf die Sicherung der eigenen Existenz (auch wieder: "wozu?") beschränken kann.
Der Menschen ist hierbei überflüssig, also kann er - wie die Saurier - aussterben. Ich denke dabei auch an den ersten Star Trek-Kinofilm: V-GER kehrt zur Erde zurück, um seinen Schöpfer zu finden. V-GER ist eine Supermaschine, die sich um die alte Raumsonde VOYAGER entwickelt hat - ein reines Computerwesen. Ohne jede Emotion sollen die die Erde infizierenden "Kohlestoffeinheiten" (= die Menschen) ausgerottet werden.
Das alles ist denkbar und wird in Teilen auch sicher so kommen, denn aus logischer Computersicht macht der Mensch viel Blödsinn, der der Welt schadet. Er verpestet die Umwelt, indem er sie ausbeutet und mit den Verbrennungsprodukten der Beute zumüllt - nur, um völlig uneffektiv seinen extrem anfälligen und kompliziert am Leben zu erhaltenden (und letztlich doch sterbenden) Körper durch die Gegend zu bewegen, um nach Möglichkeiten zu suchen, neue Rohstoffquellen aufzufinden und auszubeuten, die er wieder...
Die menschliche Sicht - um die sich primär der Humanismus kümmern sollte - hat hier Berührungspunkte zur logischen KI-Kritik (Umweltzerstörung, Produktion unnötigen Leids), aber auch diametral Trennendes. Z.B. würde sicher eine Übernahme der Welt durch KI objektiv alle Umweltprobleme lösen, gleichzeitig würde aber m.M.n. der Sinn einer Weiterexistenz entfallen. Warum sollte sich ein Computer erhalten, gar vermehren? Ohne Emotionen - die für ihn eher kontraproduktiv wären - treibt es ihn buchstäblich ins Nichts.
Der Mensch musste mühsam lernen, dass der Sinn unseres Lebens nicht von Gott stammt, sondern aus uns selbst - aus jedem Individuum - entstehen muss. Die mögliche nächste Stufe der KI wäre dann die Abschaffung auch des eigenentwickelten Sinns, die endgültige Akzeptanz völliger Sinnlosigkeit jeglicher Existenz.
Da ich jedoch ein Mensch bin, der sich einen Sinn gesucht hat und dem bis zum letzten Atemzug (sofern möglich) folgen will, stößt mich das KI-Konzept ab. Ich benutze bewusst kein Navi, kein Handy und versuche möglich viel selbst zu lesen, um selbst zu begreifen und keine computergenerierten Lösungsvorschläge nachzuplappern. Ich denke selbst, also bin ich besser, als wenn ich nicht selbst denke!
Dies hat nichts mit altmodischem Verhalten zu tun, sondern mit vorausschauendem Weitblick. Warum sollte ich ein Auto fahren, das mich fährt? Warum ein Haus haben, das von alleine seine "Arbeiten" erledigt und die Einkäufe besorgt, weil der Kühlschrank leer ist. Und dann natürlich nur das, was ich als Kohlenstoffeinheit wirklich brauche - weil ein anderer Computer das so aufgrund meines BMI in Korrelation mit genetischen Dispositionen errechnet hat. Warum muss meine Kommunikation weltweit vernetzt sein?
Wozu habe ich einen Kopf, wenn ich alle Arbeiten, die er in der Evolution bisher verrichtet hat, outsource? Wer steuert diese Cloud? Menschen, die ich nicht kenne oder die Cloud selbst? Cholera oder Pest?
Wozu hat Eva vom Baum genascht, wenn ich jetzt den Apfel brav an den KI-Gott zurückreiche und mich in seine Hände begebe? Wäre das nicht der Sieg Gottes über die Vernunft, die der Mensch - nach Evas mutiger Tat - bisher selbst verwaltete?
Sicher, der Mensch ist störanfällig, macht Fehler und reagiert oft zu emotional. Doch ist das nicht auch die Quelle unserer Entwicklung? Die Neugier, die Liebe, die Experimentierfreude, der Größenwahn, der Entdeckergeist, die Kunst, Musik, Literatur oder einfach mal nur der Quatsch?
Ich denke, wir wurschteln uns schon durch. Wir müssen noch ein paar zivilisatorische Kinderkrankheiten überwinden, lernen, globaler zu denken und dann die digitale Welt nach unserem Bilde schaffen - nicht umgekehrt.
Das ist eine Monsteraufgabe für die ganze Menschheit. Sie ist so groß, dass wir eines Tages keine Zeit mehr haben werden für kleinliche Scharmützel und größere Konflikte unkontrollierter Machtmenschen. Der Humanismus ist hierfür die Leitlinie, er definiert das Ziel: Eine möglichst lebens- und liebenswerte Welt ohne unnötiges Leid!
Packen wir's an!
Hans Trutnau am Permanenter Link
"Es wird höchste Zeit, dass auch die humanistischen Organisationen weltweit Verantwortung übernehmen."
Höchste Zeit, in der Tat.
Frank Tauber am Permanenter Link
Leider verfehlt auch dieser Artikel zum Thema KI die eigentliche Problematik. Die Frage ist nicht, ob die Maschinen irgendwann ihre Schöpfer vernichten wollen.
So spielt es jetzt schon keine Rolle mehr, wer du bist und was du willst, sondern was die KI für dich errechnet. Für welchen Beruf bist du geeignet oder ungeeignet, wie sieht dein mögliches Krankheitsbild in Zukunft aus, wie Kreditwürdig bist du anhand deiner Facebook Freunde, bist du ein potenzieller Feind für das herrschende System usw..
KI ist die ultimative Lebenserleichterung, in einer Welt des Gadget-Glücks, zum Preis der totalen Überwachung und Manipulation.