Wissenschaftler warnen vor den Gefahren künstlicher Intelligenz

Kann T-800 die Menschheit retten?

terminator.png

Screenshot des Trailers zum Film "Terminator: Genisys"
Screenshot des Trailers zum Film "Terminator: Genisys"

BERLIN. (hpd) In diesen Tagen ist in den deutschen Kinos der Science-Fiction-Film "Terminator: Genisys" angelaufen. Seine Botschaft: Die Geister, die ich rief, werd' ich nun nicht los.

Der fünfte Teil der Terminator-Reihe ist eine direkte Fortsetzung des ersten Films von 1984, in dem Arnold Schwarzenegger wieder in die Rolle des Androiden T–800, einem Roboter umhüllt von menschlichem Gewebe, schlüpft.

Die Handlung beginnt im Jahr 2029; die Erde ist nach einem Atomkrieg verwüstet und der Großteil der Menschheit vernichtet. Von Menschen entwickelte, intelligente Maschinen führten in der Vergangenheit Krieg gegen ihre Schöpfer, weil sie in diesen eine Bedrohung für ihre eigene Existenz vermuteten. Diese Roboter können bereits Emotionen und Persönlichkeit von Menschen perfekt simulieren. Die überlebende Erdbevölkerung leistet Widerstand. Es gilt, die Maschinen in Form der künstlichen Intelligenz Skynet zu besiegen, denn sobald Genisys Skynet online geht, beginnt der "Tag des jüngsten Gerichts". Mit Unterstützung des Roboters T–800, der aufgrund seiner jahrzehntelangen Bindung an die weibliche Filmheldin Tränen vergießen kann, gelingt es der Menschheit, ihren Untergang abzuwenden. In einer Post-Credit-Szene ist allerdings zu sehen, dass Skynet die Explosion einer Zeitmaschine überlebt hat und das sein Kern weiterhin funktioniert.

Der Film ist mit seinen Spezialeffekten und 3 D-Bildern reinstes Popcorn-Kino. Die Geschichte selbst ist teilweise überaus kompliziert und wenig plausibel erzählt, die Dialoge häufig dümmlich ("Ich krieg von Zeitreisen immer Kopfschmerzen.") Letztlich gelingt es dem Film nicht, die technologischen und ethischen Implikationen der künstlichen Intelligenz (KI) zu vertiefen.

Kriegsroboter und Big Data

Wie hoch aktuell diese Fragen, die sich aus den Techniken der KI ergeben, belegen zwei Beispiele. Derzeit entwickeln mehr als 50 Nationen Kriegsroboter. Geforscht wird zu autonomen Robotern und Drohnen in Ländern wie den USA, China, Russland, Indien, Israel und Deutschland. Vorrangig geht es um Maschinen, die ohne menschliches Zutun eigenständig Tötungsentscheidungen treffen, die in der Lage sind, Menschen ins Visier zu nehmen und umzubringen.

Diese Waffen sind zwar vom internationalen Recht nicht verboten, zu bezweifeln ist jedoch, ob sie den Menschenrechten oder auch nur dem Kriegsvölkerrecht entsprechen. Können Roboter zwischen Soldaten und Zivilisten unterscheiden? Wer stellt sicher, das KI-Systeme nur das tun, was Menschen ihnen aufgetragen haben? Wie geht man politisch, ethisch und juristisch mit den “Schäden”, die KI anrichtet, um?

Ethisch gleichermaßen komplex ist der Bereich der hochmodernen Tools zur Datengewinnung. Bekanntlich zapft die amerikanische National Security Agency (NSA) die Glasfaserkabel von Yahoo und Google an und zieht eine riesige Unmenge von Daten heraus. Ohne die intelligenten KI-Tools könnte die NSA mit den Daten nichts anfangen. Mit modernster Software kann sie alles auswerten, wofür das menschliche Hirn Jahrmillionen bräuchte. Dass die Ausspähung der Privatsphäre den Datenschutz verletzt, findet selbst die Bundeskanzlerin. Wie aber erhalten Menschen zukünftig ihre Individualität und Freiheit, wenn KI-gesteuerte Maschinen alles sehen und kontrollieren?

Angesichts der stetig voranschreitenden Forschung diskutieren Wissenschaftler, wenn auch nur vereinzelt, die Frage, ob in Zukunft eine Denkmaschine auch die Forschung und Entwicklung von KI beherrscht. Oder anders aus formuliert: Wann lernt Skynet (im nächsten Terminator-Film) sich in einer endlosen Rückkoppelungsschleife wachsender Intelligenz klüger zu machen, als es ohnehin schon ist? Und hat Skynet erst die Macht, wird es sie endgültig zur Vernichtung der Menschen einsetzten?

Vor dem Ende der Menschheit?

Die Nutzen der KI-Techniken bereichern schon heute in vielerlei Art unseren Alltag. Niemand wird ernsthaft bestreiten, dass wir sie zum Einkaufen, Übersetzten oder Navigieren benötigen. Und schon in naher Zukunft werden uns KI-gesteuerte Autos durch den Straßenverkehr lenken. Unzweifelhaft ist KI eine Dual-Use-Technologie, also ein Technik, die Sinnvolles der Menschheit bringt und gleichzeitig mit großen Risiken behaftet ist.

Die Vernichtung menschlichen Lebens durch "böse" Maschinen sieht Rolf Pfeifer, der an der Universität Osaka und der Jiaotong-Universität Shanghai forscht, nicht. Sein Argument: Roboter mit kognitiven Fähigkeiten, mit Emotionen und Bedürfnissen auszustatten, wie sie ein Mensch besitzt, wird nicht möglich sein. Maschinen fehlten ganz einfach die Evolutionsgeschichte. Und auch Kreierung eines ganzheitlichen Organismus, der wie ein Mensch denkt und handelt, sei auch aus ökonomischen Gründen nicht sinnvoll.

Das sah der englische Mathematiker I.J.Good schon Ende der 1960er Jahre anders. Er prognostizierte, dass durch eine "Intelligenzexplosion" selbstoptimierende Maschinen zuerst so klug wie Menschen und später exponentiell noch intelligenter werden. Sie sollten die ungelösten Probleme der Menschheit wie Hunger, Krieg und Krankheiten lösen. Gegen Ende seines Lebens revidierte Good seine Ansicht, weil er sah, dass im globalen Wettstreit der Staaten keine roten Linien in der Entwicklung von KI gezogen werden.

Mit ähnlichen Warnungen traten kürzlich prominente Wissenschaften und IT-Unternehmer wie Stephan Hawking, Bill Gates, Steve Wozniak und Elon Musk an die Öffentlichkeit. Sie alle vermuten, das Roboter in Zukunft Instinkte, Phantasien und Machtgefühle entwickeln würden. Um sich selbst zu schützen, würden sie gegen die Menschen kämpfen, um zu verhindern, dass sie abgeschaltet werden. Ihre Sorge: Lassen sich die Folgen von KI langfristig überhaupt kontrollieren?

Um die unberechenbaren Risiken der KI in den Griff zu bekommen, muss schon heute eine breite gesellschaftliche Debatte auf die Tagesordnung gesetzt werden. Die Beteiligten der KI-Branche, die im nächsten Jahrzehnt mit neuen Produkten Milliarden von Dollar erwirtschaften sollen, werden es sicher nicht tun. Eher schon werden unabhängige Forschungs- und Lobbyorganisationen wie das Bostoner Future of Life Institut (FLI), das in einem offenen Brief die Forderung nach politische, juristischen und ethischen Leitlinien erhob, Bewegung in die Diskussion bringen.

Nirgendwo: Humanistischer Diskurs

Wenn es richtig ist, dass nicht weniger auf dem Spiel steht, als die menschliche Existenz, muss Kritik erlaubt sein, dass in der humanistischen Szene faktisch keiner ernsthafte Diskussion über KI geführt wird. Einzelne Positionen wie etwa die des Transhumanismus sehen besonders in der Entwicklung von Rechnerleistungen die Lösung menschlicher Probleme. Risiken werden dabei konsequent ausgeblendet. Andere Varianten des naturalistischen Humanismus definieren die Menschenwürde zwar als ein wichtiges Gut, eine tiefere Sicht in das Phänomen KI gelingen auch ihnen nicht. Wiederum andere Humanist_innen füllen die vorhandene Lücke, in dem sie an einem quasi wissenschaftlichen Weltbild festhalten und sich lieber an religiösen und esoterischen Standpunkten abarbeiten. All diese Standpunkte werden den humanistischen Diskurs über KI nicht weiter bringen.

Es wird höchste Zeit, dass auch die humanistischen Organisationen weltweit Verantwortung übernehmen.