Interview

Wie intelligent ist die künstliche Intelligenz?

wolf_singer.jpg

Prof. Wolf Singer, Referent beim "Symposium Kortizes" am 14. November.
Prof. Wolf Singer

Prof. Wolf Singer ist emeritierter Direktor am Frankfurter Max-Planck-Institut für Hirnforschung und Gründungsdirektor des Ernst-Strüngmann-Institutes und des Frankfurt Institute for Advanced Studies. Darüber hinaus initiierte er die interdisziplinäre Konferenzreihe "Ernst-Strüngmann-Forum". Am Samstag, 14. November, wird Wolf Singer im Rahmen des heute beginnenden virtuellen "Symposiums Kortizes" über die Unterschiede zwischen natürlicher und künstlicher Intelligenz sprechen. Im Vorfeld hat sich Inge Hüsgen mit ihm unterhalten.

hpd: Herr Prof. Singer, im Kern Ihres Vortrags wird es um den Unterschied zwischen natürlicher und künstlicher Intelligenz gehen. Worin bestehen diese Unterschiede?

Prof. Wolf Singer: Da gibt es sehr viel mehr Unterschiede als Ähnlichkeiten. Das maschinelle Lernen, das häufig als "künstliche Intelligenz" bezeichnet wird, beruht auf simplen Architekturen, die von Teilaspekten des Nervensystems abgeschaut und vereinfacht nachgebaut wurden. Auch moderne Systeme sind noch dem Perzeptron nachempfunden, einem vereinfachten neuronalen Netzwerk, dessen erste Version bereits 1958 entwickelt wurde.

Diese Systeme bestehen aus mehreren Schichten, die streng hierarchisch angeordnet sind. Ganz unten liegt eine Eingangsschicht von Rezeptoren, die optische, akustische oder andere Signale in einen digitalen Code übersetzt. Sie kann dabei nicht auf die Informationen aus höheren Schichten zurückgreifen.

Im Grunde geht es darum, die Verbindungen von der Eingangs- zur Ausgangsschicht so zu gewichten, dass ein bestimmtes Eingangsmuster einem vorher festgelegten Ausgangsmuster zugeordnet wird. Deshalb bedarf es wiederholter Lernschritte mit Millionen von Mustern, um das System so zu trainieren, dass es die gewünschte Zuordnung herstellt. Und selbst dann bleibt es fehleranfällig.

Könnten Sie das an einem Beispiel erklären?

Nehmen wir an, man trainiert eine Maschine, um in einer Gruppe verschiedener Tiere den Elefanten zu finden. Dies geschieht, indem man dem System beibringt, einzelne Merkmale des Elefanten zu erkennen. Es kann passieren, dass sich das System die typische runzlige Hautoberfläche aussucht. Stößt das System dann auf ein Tier, an dem es elefantenähnliche Hautstrukturen entdeckt, reagiert es darauf genauso wie auf den Elefanten.

Oder stellen wir uns ein System zur Erkennung von Verkehrsschildern vor. Selbst eine geringfügige Abweichung vom gelernten Bild – wenn etwa ein Kind einen Aufkleber auf das Schild gepappt hat – kann zu einem gravierenden Fehler in der Bilderkennung führen. Hält die Maschine solch ein Stoppschild beispielsweise für eine Geschwindigkeitsbegrenzung, sind Gefahren für den Straßenverkehr absehbar.

Bei der Bilderkennung werden die Defizite künstlicher Systeme ganz augenfällig. Die Maschine wird jedes Bildelement isoliert verarbeiten und aus der Summe der Merkmale Schlussfolgerungen ziehen. Natürliche Systeme verbinden die Bildelemente miteinander und interpretieren diese im Kontext. In künstlichen Systemen fließt Information nur in eine Richtung. In den Neuronen-Netzwerken natürlicher Systeme, also zum Beispiel in der Großhirnrinde, interagieren die Neuronen wechselseitig miteinander, was zu sehr komplexen, dynamischen Aktivitätsmustern führt.

Verknüpfungen zwischen Neuronen, die häufig zeitgleich aktiviert werden, verstärken sich. Wenn zwei Merkmale in der Natur oft gemeinsam auftreten, spiegelt sich dies in der Struktur der Verbindungen wider. Gehirne, von Insekten wie von Menschen, speichern also ein Modell der Welt und bilden deren Gesetzmäßigkeiten ab. Natürliche neuronale Netze sind spontan aktiv und spielen in Ruhe ständig Modelle der Welt durch.

Das bedeutet, das Netz kann bei der Interpretation von Sinnessignalen bereits auf Wissen über die Bedingungen draußen zurückgreifen. Hinzu kommt, dass das Gehirn über Bewertungssysteme verfügt, die das Wahrgenommene einordnen: Ist es erwartet oder überraschend? Muss ich mich fürchten? War eine Handlung erfolgreich?

Insofern sind künstliche Systeme gegenüber dem Gehirn deutlich unterlegen. Ist es dann überhaupt angemessen, von künstlicher Intelligenz zu sprechen?

Auf keinen Fall. Ich würde diesen Systemen Intelligenz absprechen. Ihr Modell der Welt ist begrenzt auf das, was man ihnen gezeigt hat. Sie lernen nichts als Korrelationen und Kontingenzen. Um neue Ideen zu entwickeln, bräuchten sie assoziative Mechanismen.

Das Fehlen solcher Mechanismen erschwert ihnen die Lösung von Aufgaben wie dem bekannten "Problem des Handlungsreisenden", bei dem eine Reiseroute gesucht werden soll, die alle Orte auf kürzestem Wege zu besuchen erlaubt. Wir nutzen unsere assoziativen Fähigkeiten, um zu einer Lösung zu kommen. Dagegen muss ein Rechner nacheinander alle Kombinationen ausrechnen und dann die Kilometerzahlen vergleichen. Bereits bei 25 bis 30 Orten gibt es so viele Kombinationen, dass die Maschine tagelang beschäftigt ist.

Oft wird die Sorge geäußert, dass künstliche Systeme uns den Lebensraum streitig machen werden. Wie schätzen Sie diese Gefahr ein?

Diese Sorge habe ich nicht. Um das nachzubauen, was die Evolution über Jahrmillionen entwickelt hat, müssten wir über ein vollständiges Verständnis des natürlichen Systems verfügen – und davon sind wir weit entfernt.

Viel mehr Sorge bereiten sollte uns die Praxis des Data Mining in den sozialen Netzwerken. Mit dieser Methode optimieren Anbieter wie Amazon, Facebook oder Google ihre Algorithmen so, dass jeder Nutzer nur das angeboten bekommt, was er am liebsten mag. Um ihn bei der Stange zu halten, bietet ihm das System immer mehr davon an. Auf diese Weise entstehen Filterblasen, die Nutzer in ihren Ansichten bestätigen und die jeweiligen Tendenzen immer weiter verstärken. Das kann gefährliche Auswirkungen haben, bis zur Spaltung der Gesellschaft, was sich etwa in den USA beobachten lässt.

Wie könnten aus Ihrer Sicht Gegenstrategien aussehen?

Ein bedeutender Schritt wären Verbote von selbstverstärkenden Algorithmen. Darüber hinaus könnten die Plattformen einen kostenpflichtigen, aber ehrlichen Service anbieten. Ich bin gern bereit, für Google zu bezahlen, wenn ich dafür authentische Informationen erhalte.

Welche Zukunftsstrategien wünschen Sie sich für Ihr Fachgebiet?

Wir brauchen ein stärkeres Bewusstsein dafür, wie kostbar die Ergebnisse der Grundlagenforschung sind. Gerade in diesen Tagen wird dies am Beispiel Corona deutlich. Die rasche Entwicklung der Tests und nun des Impfstoffs waren nur möglich, weil wir dafür auf Wissen zurückgreifen konnten, das über Jahre in der molekularbiologischen Grundlagenforschung erworben wurde.

Ein vergleichbares Maß an Grundlagenforschung würde ich mir auch für mein Fach wünschen. Noch immer haben wir keine ursächlichen Therapien für gravierende Erkrankungen des Gehirns, auf diesem Gebiet haben wir seit 50 Jahren keine wirklich neuen Entwicklungen. Hier brauchen wir dringend Erkenntnisse, die wir nur durch Grundlagenforschung erlangen können.

Zum heute beginnenden "Symposium Kortizes" kann man sich hier anmelden.

Unterstützen Sie uns bei Steady!