Selbstfahrende Autos, Pflegeroboter, medizinische Systeme: Künstliche Intelligenzen werden in Zukunft immer häufiger tiefgreifende Entscheidungen fällen. Damit drängt sich die Frage auf, welche ethischen Grundlagen die Handlungen von KI-Systemen bestimmen sollen. Ein Forscherteam der TU Darmstadt präsentiert nun eine neue Lösung: Die Wissenschaftler bringen den Maschinen Moral bei.
Wenn beim führerlosen selbstfahrenden Auto die Bremsen versagen: Wäre es besser, wenn der Wagen auf dem Zebrastreifen in eine Gruppe von Fußgängern brettert? Oder sollte er einen Weg wählen, bei dem die Insassen ums Leben kommen? Ein altbekanntes moralisches Dilemma gewinnt durch die Weiterentwicklung der künstlichen Intelligenz und deren zunehmende Verbreitung im Alltag neue Aktualität.
Wie können wir sicherstellen, dass künstliche Intelligenzen sinnvolle und moralische Entscheidungen treffen? Seit 2018 bemüht sich eine neu eingesetzte Datenethikkommission der Bundesregierung darum, "ethische Leitlinien für den Schutz des Einzelnen, die Wahrung des gesellschaftlichen Zusammenlebens und die Sicherung und Förderung des Wohlstands im Informationszeitalter entwickeln". Geschehen soll all dies auf Basis von wissenschaftlicher und technischer Expertise.
Neben IT-Experten, Juristen und Verbraucherschützern ist auch die Theologin Johanna Haberer Mitglied des 16-köpfigen Gremiums. Die Professorin von der Uni Erlangen tritt mit einem steilen Committment an: "Wir müssen angesichts der Vermessung der Welt durch computergetriebene Rechnungen in der Theologie überhaupt wieder lernen, von der Seele des Menschen zu sprechen." Wie dies nach Haberers Vorstellung genau aussehen soll, erfahren wir vielleicht im Herbst, wenn die Kommission ihre Handlungsempfehlungen bekannt gibt.
Währenddessen arbeiten Forscherinnen und Forscher schon seit längerem daran, künstlichen Intelligenzen moralische Werte zu vermitteln. In Entscheidungssituationen sollen sie beispielsweise Pflegerobotern, selbstfahrenden Autos und medizinischen Systemen als Orientierung dienen.
Wenn das Team um Prof. Kristian Kersting und Prof. Constantin Rothkopf vom Centre for Cognitive Science richtigliegt , dann sind Maschinen in der Lage, genau das von uns Menschen zu lernen.
"Ein autonomer Roboter muss wissen, dass er Menschen nicht, Zeit aber sehr wohl totschlagen darf. Er muss wissen, dass man Brot toastet, jedoch keine Hamster", formuliert es die TU Darmstadt.
Als "Moralkompass" für die intelligenten Maschinen haben die Forscher einen umfangreichen Katalog von Frage-Antwort-Dialogen für vielfältige Handlungssituationen erstellt, aus dem sich eine Art Pflichtethik ableiten lässt. Soll man lügen? Stehlen? Das Leben von Menschen beenden? Zeit totschlagen? Das Material fanden sie durch Untersuchung von Texten, die Menschen verfasst haben. Je näher die jeweilige Frage mit der Antwort "Ja" oder "Nein" assoziiert ist, desto mehr gilt sie als moralisch wegweisend.
Frühere, einfachere Versuche hatten wenig befriedigende Resultate erbracht. Fütterte man die Hightech-Systeme mit riesigen Mengen von Internet-Texten, extrahieren sie daraus ganze Bündel von kulturellen Vorurteilen und überholten gesellschaftlichen Rollenmustern. Männliche Vornamen, die in der afro-amerikanischen Bevölkerung üblich waren, wurden als unangenehm bewertet, "weiße" Vornamen dagegen als angenehm; weibliche Vornamen eher mit Familie assoziiert und männliche mit Karriere, wie ein britisch-amerikanisches Forscherteam 2017 zeigte. Dies konnte geschehen, weil der Lernprozess auf einem Training von neuronalen Netzwerken beruhte, bei dem die Bedeutung von Wörtern (Semantik) als Koordinaten eines mehrdimensionalen Raums ausgedrückt wurden. Bei der Berechnung der semantischen Beziehungen auf dieser Basis werden in vielen Fällen diskriminierende Verbindungen reproduziert – selbst die modernste Hightech-Intelligenz entschied dann nach Leitsätzen aus der Mottenkiste.
Mag sein, dass die Debatte um eine sinnvolle und praktikable Maschinenethik gerade erst begonnen hat. Im Fachjournal Nature fordern 23 Wissenschaftlerinnen und Wissenschaftler von führenden Unternehmen und renommierten Hochschulen und Instituten in Europa und den USA einen ganz neuen Forschungszweig: "Machine Behaviour" – eine Art Verhaltensforschung für Maschinen.
7 Kommentare
Kommentare
Nora Koch am Permanenter Link
Viel Glück dabei, ihr werdet es brauchen!
David See am Permanenter Link
wenn die Maschine Moral kennt, ist diese weiter entwickelt als so mancher mensch. eine überlegene Lebensform.
Andreas E. Kilian am Permanenter Link
Ich habe ein paar Jahre am GMD und am Fraunhofer Institut für Autonome Intelligente Systeme (Robotik) gearbeitet.
Dies ist alles heiße Luft von Informatikern, die weder die Begriffe Moral und Ethik noch den Begriff Intelligenz überhaupt zweckdienlich definieren können. Die wollen nur Gelder und Aufmerksamkeit!
Die können froh sein, wenn sie einen Algorithmus im Sinne des Behaviorismus programmieren können. Zu mehr reicht es eh nicht.
Hans Trutnau am Permanenter Link
"Wir müssen angesichts der Vermessung der Welt durch computergetriebene Rechnungen in der Theologie überhaupt wieder lernen, von der Seele des Menschen zu sprechen." - Wieso müssen wir?
Christian Mai am Permanenter Link
Siehe auch: Birnbacher, Dieter und Wolfgang: Automatisiertes Fahren. Ethische Fragen an der Schnittstelle von Technik und Gesellschaft, 2016.
Gibt es eigentlich verlässliche Daten darüber, wieviele Verkehrstote aus Dilemmasituationen resultieren?
Kay Krause am Permanenter Link
Wie sollen Roboter ausgerechnet von Menschen Moral erlerrnen, von Menschen, deren Leben in erster Linie von Gier, Machtstreben, Neid und Eifersucht geleitet wird?
Oh Mensch in Deinem Wahn, halte inne!
Thomas R. am Permanenter Link
"Ein altbekanntes moralisches Dilemma gewinnt durch die Weiterentwicklung der künstlichen Intelligenz und deren zunehmende Verbreitung im Alltag neue Aktualität."
-
-
"Neben IT-Experten, Juristen und Verbraucherschützern ist auch die Theologin Johanna Haberer Mitglied des 16-köpfigen Gremiums."
-
Was hat eine professionelle Verblöderin mit Wahnvorstellungen dort zu suchen???