KI-Anbieter fluten den Markt mit ihren neuesten Entwicklungen. Wohin das führt, weiß derzeit niemand. Die EU bemüht sich nun, die Sache halbwegs in den Griff zu bekommen – offenbar mit ersten Erfolgen.
Wenn Maschinen anfangen, selbstständig zu lernen, dann liegt die Befürchtung nicht fern, dass uns die Sache entgleiten könnte. Tatsächlich ist das Tempo rasant, mit dem zur Zeit neue KI-Lösungen das Licht der Öffentlichkeit erblicken. Künstliche Intelligenz bringt einen massiven Zuwachs an Effizienz für alle, die sie nutzen – und an Macht für alle, die sie bereitstellen.
Was uns entgleitet ist allerdings nicht die oft befürchtete Selbstständigkeit der Prozesse, sondern die gesellschaftliche Dynamik, die damit ausgelöst wird. Die Abfolge von Brüchen in unserer Lebenswelt ist inzwischen so beschleunigt, dass wir keine Zeit mehr haben für eine wirkliche Technikfolgenabschätzung. Sogar von einem freiwilligen Moratorium der Industrie war kürzlich in einem offenen Brief die Rede. Naturgemäß wird daraus nichts – und tatsächlich wäre der Sache schon gedient, wenn die Unterzeichnenden sich selbst an eine Reihe von ethischen Standards und vor allem Transparenzpflichten halten würden.
Nun arbeitet die EU seit zwei Jahren an einem "Artificial Intelligence Act" (zu deutsch: "KI-Verordnung"), der die weltweit erste umfassende Regulierung von KI darstellen wird. In einem "riskobasierten Ansatz" sollen die Gefahren benannt und Vorkehrungen dagegen getroffen werden. Immerhin ist die EU der bisher wirksamste Regulator in der digitalen Entwicklung weltweit – was manche Unternehmen nervt, letztlich aber dafür sorgt, dass zumindest eine Handvoll essenzieller Regeln eingehalten werden. Im Falle der KI wird uns das nicht davor bewahren, dass sich zum Beispiel unsere Arbeitswelt und das Bildungswesen rapide verändern werden. Aber zumindest was die Auswirkungen auf Grundrechte angeht, ist die EU als Gesetzgeber die richtige Adresse.
Nach Kommission und Rat hat nun auch das EU-Parlament seine Position zu der Verordnung vorgelegt, mit der es in die Trilog-Verhandlungen geht. Einige heiße Eisen wurden dabei angefasst und das Ergebnis ist durchaus vielversprechend.
Verboten werden soll demnach:
- eine "biometrische Fernidentifizierung in Echtzeit" (z.B. Gesichtserkennung) im öffentlichen Raum. Auch eine Analyse im Nachhinein soll nur unter strengen Auflagen zulässig sein.
- eine diskriminierende biometrische Kategorisierung.
- Systeme zur Emotionserkennung in den Bereichen Strafverfolgung, Bildung, Grenzkontrolle und am Arbeitsplatz.
- Vorhersagende Polizeisysteme auf der Grundlage von Personenprofilen.
Einige Formen der anlasslosen Massenüberwachung würden damit als "mit europäischen Werten nicht vereinbar" eingestuft. So dürfen wir hoffen, dass sie künftig von den ständigen Wunschlisten der Innenpolitik verschwinden. Ausnahmen wurden allerdings zugestanden, etwa in nationalen Notlagen oder bei der Profilauswertung von Migrantinnen und Migranten.
Bessere Transparenz und größere Rechenschaftspflicht
Eine wichtige Erfahrung mit KI ist, dass wir schnell nicht mehr verstehen, wie sie funktioniert, wie sie von einem bestimmten Input auf den "richtigen" Output kommt. ChatGPT wurde zum Beispiel von Prof. Emily Bender als "stochastischer Papagei" bezeichnet, dem es egal sei, ob das, was er wiedergebe, wahr sei oder nicht. Die Nachvollziehbarkeit und Transparenz von KI ist aber ein wesentliches Kriterium für einen verantwortungsvollen Umgang damit.
Nicht nur das Ergebnis muss richtig sein, auch der Rechenweg sollte überprüfbar sein. Dieses Prinzip wird schon heute beispielsweise von den Betreibern von ChatGPT 4 nicht erfüllt: Sie räumten ein, nicht mehr zu verstehen, was genau vor sich ginge. Bei einem Textmodell mag das ein Problem sein (etwa bei antrainierten Unwahrheiten oder Ungerechtigkeiten). Bei KI-Systemen, die über Leben und Tod entscheiden (etwa in Fahrzeugen, im Medizinbereich oder in Waffen) wäre es dann fatal.
Für die europäische KI-Verordnung fordert das Parlament daher ein Mindestmaß an Transparenz und Selbstreflexion von den Betreibern ein:
- Betreiber von "risikoreichen KI-Systemen" müssen sich in eine EU-Datenbank eintragen und darin Auskunft geben, was genau in ihrem System passiert.
- Eine verpflichtende Folgenabschätzung soll analysieren, welche Grundrechte davon betroffen sein könnten.
Das ist nüchtern betrachtet natürlich nicht viel und macht notgedrungen den Bock zum Gärtner. Aber was will man ausrichten in einem Markt, der sich rasend schnell, unter hohem Konkurrenzdruck und in jeder Hinsicht mit überwältigendem Potenzial entwickelt?
Umweltstandards
KI kann helfen, Umweltprobleme zu lösen – sie kann aber auch selbst schädlich werden. Der Energieverbrauch für die Rechenleistungen ist zum Beispiel natürlich gewaltig und steigend. Daher die Maßgabe:
- Es muss ermittelt werden, wie umweltverträglich die KI-Systeme sind.
- Sie müssen europäischen Umweltstandards entsprechen, wenn sie innerhalb der EU angeboten werden.
Fazit
Stellen wir uns die KI als einen Drachen vor, auf dem wir reiten, so hat er doch eine verwirrende Vielzahl von Köpfen und nicht alle sind uns freundlich gesonnen.
Die EU ist angetreten, die sichtbarsten Auswirkungen der KI zu regulieren, und das ist zumindest etwas. Insgesamt muss man anerkennen, dass hier ein paar Wichtige Pflöcke eingeschlagen wurden. So charakterisierte die NGO AlgorithmWatch das Votum als großen Erfolg: "Das Ergebnis der Abstimmung ist … ein wichtiger Schritt, um demokratisch zu kontrollieren, wie KI in unserer Gesellschaft eingesetzt wird", so Angela Müller. Auch der Pirat Patrick Breyer – Mitglied im federführenden LIBE-Ausschuss – zeigte sich hocherfreut.
Gegen ein sehr reales Problem von KI ist allerdings jede Regulierung machtlos: Die Ungleichverteilung der Ressourcen. Wer im Rennen um diese Machtmaschinen die Nase vorn hat (Google, Microsoft und OpenAI, "die" Chinesen, …), bestimmt ganz wesentlich, wohin die Reise geht. Wer die KI regelmäßig nutzt, macht sich schnell abhängig und liefert mit Begeisterung seine Daten ab.
Hier hat Deutschland und Europa durch Unterlassen und schöne Sonntagsreden eine Zuschauerrolle eingenommen. Es mangelt massiv an staatlichen Investitionen, Wagniskapital und Pioniergeist. Die der KI innewohnenden "Werte" kommen also durch die Datennetze von anderswo zu uns nach Europa. Wir können sie dann allenfalls noch ein wenig regulieren.
Hörtipp von unserem Autor Peder Iblher:
Der digital human rights podcast – Folge 1: Im Gespräch mit Philipp Möller.