Ein Moralkompass für Maschinen

richtig-falsch.jpg

Selbstfahrende Autos, Pflegeroboter, medizinische Systeme: Künstliche Intelligenzen werden in Zukunft immer häufiger tiefgreifende Entscheidungen fällen. Damit drängt sich die Frage auf, welche ethischen Grundlagen die Handlungen von KI-Systemen bestimmen sollen. Ein Forscherteam der TU Darmstadt präsentiert nun eine neue Lösung: Die Wissenschaftler bringen den Maschinen Moral bei.

Wenn beim führerlosen selbstfahrenden Auto die Bremsen versagen: Wäre es besser, wenn der Wagen auf dem Zebrastreifen in eine Gruppe von Fußgängern brettert? Oder sollte er einen Weg wählen, bei dem die Insassen ums Leben kommen? Ein altbekanntes moralisches Dilemma gewinnt durch die Weiterentwicklung der künstlichen Intelligenz und deren zunehmende Verbreitung im Alltag neue Aktualität.

Wie können wir sicherstellen, dass künstliche Intelligenzen sinnvolle und moralische Entscheidungen treffen? Seit 2018 bemüht sich eine neu eingesetzte Datenethikkommission der Bundesregierung darum, "ethische Leitlinien für den Schutz des Einzelnen, die Wahrung des gesellschaftlichen Zusammenlebens und die Sicherung und Förderung des Wohlstands im Informationszeitalter entwickeln". Geschehen soll all dies auf Basis von wissenschaftlicher und technischer Expertise.

Neben IT-Experten, Juristen und Verbraucherschützern ist auch die Theologin Johanna Haberer Mitglied des 16-köpfigen Gremiums. Die Professorin von der Uni Erlangen tritt mit einem steilen Committment an: "Wir müssen angesichts der Vermessung der Welt durch computergetriebene Rechnungen in der Theologie überhaupt wieder lernen, von der Seele des Menschen zu sprechen." Wie dies nach Haberers Vorstellung genau aussehen soll, erfahren wir vielleicht im Herbst, wenn die Kommission ihre Handlungsempfehlungen bekannt gibt.

Währenddessen arbeiten Forscherinnen und Forscher schon seit längerem daran, künstlichen Intelligenzen moralische Werte zu vermitteln. In Entscheidungssituationen sollen sie beispielsweise Pflegerobotern, selbstfahrenden Autos und medizinischen Systemen als Orientierung dienen.

Wenn das Team um Prof. Kristian Kersting und Prof. Constantin Rothkopf vom Centre for Cognitive Science richtigliegt , dann sind Maschinen in der Lage, genau das von uns Menschen zu lernen.

"Ein autonomer Roboter muss wissen, dass er Menschen nicht, Zeit aber sehr wohl totschlagen darf. Er muss wissen, dass man Brot toastet, jedoch keine Hamster", formuliert es die TU Darmstadt.

Als "Moralkompass" für die intelligenten Maschinen haben die Forscher einen umfangreichen Katalog von Frage-Antwort-Dialogen für vielfältige Handlungssituationen erstellt, aus dem sich eine Art Pflichtethik ableiten lässt. Soll man lügen? Stehlen? Das Leben von Menschen beenden? Zeit totschlagen? Das Material fanden sie durch Untersuchung von Texten, die Menschen verfasst haben. Je näher die jeweilige Frage mit der Antwort "Ja" oder "Nein" assoziiert ist, desto mehr gilt sie als moralisch wegweisend.

Frühere, einfachere Versuche hatten wenig befriedigende Resultate erbracht. Fütterte man die Hightech-Systeme mit riesigen Mengen von Internet-Texten, extrahieren sie daraus ganze Bündel von kulturellen Vorurteilen und überholten gesellschaftlichen Rollenmustern. Männliche Vornamen, die in der afro-amerikanischen Bevölkerung üblich waren, wurden als unangenehm bewertet, "weiße" Vornamen dagegen als angenehm; weibliche Vornamen eher mit Familie assoziiert und männliche mit Karriere, wie ein britisch-amerikanisches Forscherteam 2017 zeigte. Dies konnte geschehen, weil der Lernprozess auf einem Training von neuronalen Netzwerken beruhte, bei dem die Bedeutung von Wörtern (Semantik) als Koordinaten eines mehrdimensionalen Raums ausgedrückt wurden. Bei der Berechnung der semantischen Beziehungen auf dieser Basis werden in vielen Fällen diskriminierende Verbindungen reproduziert – selbst die modernste Hightech-Intelligenz entschied dann nach Leitsätzen aus der Mottenkiste.

Mag sein, dass die Debatte um eine sinnvolle und praktikable Maschinenethik gerade erst begonnen hat. Im Fachjournal Nature fordern 23 Wissenschaftlerinnen und Wissenschaftler von führenden Unternehmen und renommierten Hochschulen und Instituten in Europa und den USA einen ganz neuen Forschungszweig: "Machine Behaviour" – eine Art Verhaltensforschung für Maschinen.