Entwickelt eine KI abstrakte Modelle der Realität? Dieser Frage nähern sich Forschende der Albert-Ludwigs-Universität Freiburg mit Hilfe des Konzepts interner Weltmodelle.
Menschen, das ist aus bisherigen Forschung zu internen Weltmodellen bekannt, sind sehr gut darin, Unbekanntes zu navigieren. Wenn eine Person eine Reise in eine fremde Stadt plant, fängt sie nicht bei null an. Von früheren Städtereisen weiß sie, was Straßenbahnen von U-Bahnen unterscheidet und dass Sehenswürdigkeiten häufig im Stadtzentrum liegen. Wie würde eine KI eine Städtereise planen? KI bezieht Wissen, auch das über Städte, nicht aus eigenen Erfahrungen. Hat sie trotzdem eine Vorstellung davon, was mit dem Begriff "Stadt" gemeint ist? Entwickelt eine KI abstrakte Modelle der Realität? Diesen Fragen nähern sich Prof. Dr. Joschka Bödecker (Informatik), Prof. Dr. Ilka Diester (Biologie), und Jun.-Prof. Dr. Monika Schönauer (Neuropsychologie) von der Albert-Ludwigs-Universität Freiburg mit Hilfe des Konzepts interner Weltmodelle.
Weltmodelle von Menschen: Von Erfahrungen zu Vorhersagen
Menschen treffen auf Grundlage von Erfahrungen Vorhersagen darüber, was sie in bestimmten Kontexten erwartet. "Wir entwickeln mit der Zeit ein internes Weltmodell, das einen, möglicherweise verzerrten, Spiegel der uns umgebenden, physischen Welt darstellt", so Ilka Diester. Dieses Weltmodell beziehe sich nicht nur auf unser räumliches Vorstellungsvermögen, wie etwa in einer fremden Stadt, ergänzt Monika Schönauer, sondern auch auf Verhaltensweisen in bestimmten sozialen Kontexten. Solche Weltmodelle helfen unter anderem dabei, mit neuen Situationen klarzukommen: "Eine neue Situation ist für uns deswegen nicht bedrohlich, weil wir eine Erwartung daran haben, was passieren wird", sagt Schönauer. Dass Menschen Weltmodelle haben, decken Psycholog*innen einerseits über Fragebögen auf. Gleichzeitig erkennen sie aber auch in Gehirnaktivitäten Muster, die auf solche Schemata hinweisen.
Weltmodelle Künstlicher Intelligenzen: Weniger flexibel als bei Menschen
Das Prinzip, nach dem KI programmiert wird, orientiert sich am Aufbau menschlicher Gehirne. Mehrere Ebenen von Rechenknoten sind miteinander verknüpft, ähnlich wie Neuronen, die über ihre Synapsen ein Netzwerk bilden. "Technische Systeme lernen, sich in bestimmten Umgebungen und bei bestimmten Aufgabestellungen optimal zu verhalten. Das Gelernte spiegelt sich dann darin wider, wie die verschiedenen Verknüpfungen zwischen Knoten gewichtet sind", erklärt Joschka Bödecker. Die Vorstellungen, die KI von der Welt hat, speisen sich also allein aus den kontextspezifischen Daten, die sie zur Verfügung hat. Entsprechend sind KI weniger flexibel als Menschen, die mit der Welt oft spontan und spielerisch agieren, ganz ohne bestimmte Optimierungsvorgaben. Wie wichtig deshalb eine umfassende Datengrundlage ist, zeigt sich etwa beim Training von Robotern. "Roboter, die durch Ausprobieren in der 'echten Welt' lernen, ihre Gelenke und Motoren zu steuern, tun das deutlich besser als solche, die wir nur mittels Simulationen trainieren", so Bödecker.
Dadurch, dass sich das Weltwissen von KI nur aus vorgefilterten Daten speist, entsteht ein Problem: KI übernehmen Verzerrungen in Datensätzen eins zu eins in ihr Weltmodell. "Einem Menschen kann ich rational erklären, warum beispielsweise die meisten Vielverdiener*innen männlich sind – und dass das nicht etwa aus geringeren Fähigkeiten von Frauen folgt. Eine KI hingegen lernt diese Statistik und bewertet es anschließend als grundsätzlich unwahrscheinlich, dass eine Frau einen sehr gut bezahlten Führungsposten übernehmen könnte", sagt Monika Schönauer. Die Lösung dieser Schwierigkeit ist ein aktuelles Forschungsthema.
Voneinander lernen: Ganzheitliche Forschung zu internen Weltmodellen
Trotz dieses Defizits hinsichtlich ihrer Flexibilität sind KI wichtige Puzzleteile bei der Erforschung von Weltmodellen. So können die Wissenschaftler*innen gezielt einzelne Parameter anpassen und prüfen, wie sich die KI dadurch verändert. "Um alle Facetten interner Weltmodelle zu verstehen, arbeiten wir über Disziplingrenzen hinweg zusammen", sagt Ilka Diester. "Während Menschen ihre Überlegungen verbalisieren können, messen wir bei Tieren stattdessen die Neuronenaktivität sehr genau und erkennen darin Muster je nach Entscheidung. So können wir physiologisch die Verortung von Weltmodellen bestimmen. Die KI wiederum hilft uns einerseits bei der Datenanalyse, andererseits dient sie uns als Modellsystem, das wir von Grund auf designen und flexibel anpassen, um Vorhersagen zu testen."