Ein Rückblick auf das Stuttgarter Zukunftssymposium

Glanz oder Elend der Zukunft – wohin führt uns KI?

Wer Fragen über die Zukunft stellt, bekommt schon seit jeher zwei Arten von Antworten: verklärende, utopische einerseits und verstörende, dystopische anderereits. Gerade das Thema "Künstliche Intelligenz" (KI) bietet besonders viel Stoff für Überlegungen beider Art. Einen sachlich fundierten Überblick versprach das Stuttgarter Zukunftssymposium 2019. Es widmete sich konsequent der Frage, wohin unsere Reise mit der KI gehen wird oder wohin sie gehen sollte. Im Fokus stand dabei die Arbeitswelt, in der die Menschen derzeit wohl die konkretesten Auswirkungen von KI für sich erwarten.

Den Anspruch, einen eindeutigen oder gültigen Ausblick auf die KI zu erreichen, sollte und wollte man gar nicht erst formulieren. Das breite Spektrum der Speaker machte deutlich, wie unbestimmt die allernächste Zukunft vor uns liegt – und wie weit sie uns teilweise schon erreicht hat. Denn viele KI-Anwendungen sind längst Realität und wir nutzen sie täglich – unter handlichen Namen wie "googeln", "Navi" oder "Alexa". Dass dabei wichtige ethische Fragen unbeantwortet bleiben, liegt auf der Hand.

Etwa im Militär. Hier ist der Innovationsdruck so hoch, dass quasi erst geschossen und dann – eventuell – gefragt wird. Der Autor und Fernsehjournalist Jay Tuck lieferte hierzu ein haarsträubendes Beispiel nach dem anderen, etwa von wildgewordenen Roboter-Geschützen, die bei einer Vorführung plötzlich unkontrolliert um sich schießen. Das anekdotische seines Vortrages sollte nicht darüber hinwegtäuschen, dass wir es hier mit sehr ernsten Fragen zu tun haben – zum Beispiel der nach einer Ächtung von Waffen, die automatisch über Leben und Tod entscheiden.

Auch Thomas Metzinger machte klar, dass man sich an sehr grundsätzliche Fragen wird gewöhnen müssen. Was ist Kreativität? Kann ein Computer sie lernen und was macht dann noch unsere Identität aus? Was ist Leid und wie verhielten wir uns einer Maschine gegenüber, die tatsächlich leidensfähig wäre? Und schließlich eine drastische Erkenntnis: Es ist auch deshalb so schwer, Automaten eine Ethik einzubauen, weil wir Menschen aus unterschiedlichsten Motiven handeln und uns kaum auf eine gemeinsame Ethik einigen können. So wird es immer auszuhandeln sein, wessen Ethik gilt. Mit klassischen oder mit neu verteilten Machtrollen und mit unfassbar mächtigen Werkzeugen im Hintergrund.

Ein Lied davon – und hier kommen wir zur Arbeitswelt – können die Gewerkschaften singen. Denn bei grundlegenden Entscheidungen zur KI bleiben die betroffenen Belegschaften fast immer ausgeklammert. Ein Pionier auf dem Gebiet der digitalen Mitbestimmung ist Welf Schröter, der vor gefühlten Urzeiten das Forum Soziale Technikgestaltung ins Leben gerufen hat. Über die wechselnden Modebegriffe wie "Cyber", "Smart" oder "4.0" kann er inzwischen nur noch milde lächeln. Er zeigte auf, dass selbst in der deutschen Großindustrie oft erst mit zehn, fünfzehn Jahren Verspätung nachholend digitalisiert wird. Die viereinhalb tausend Mitglieder seines gewerkschaftlichen Forums haben eher damit zu tun, in Betrieben etwas anzuschieben, als zu bremsen. Seine Forderung, hier auf Augenhöhe mitzureden, dürfte in dem von Angst und Hierarchien beherrschten Wirtschaftsleben hierzulande einen schweren Stand haben. Die gesetzlich verankerte Mitbestimmung als Chance zu sehen, kommt vielen im mittleren Management nicht in den Sinn.

Ein freundliches Bild der KI-Zukunft zeichnete Tags darauf Dr. Matthias Peissner, vom Fraunhofer IAO: Ethische Grundsätze, wie sie 2019 von der EU-Kommission entwickelt wurden, sollen helfen, die Zusammenarbeit mit KI verantwortungsvoll zu gestalten. Dazu gehören die Achtung der menschlichen Autonomie, Chancengleichheit oder die Erklärbarkeit von KI-Systemen. Der erfolgreichste Anwendungsbereich von KI sei ohnehin nicht die Ersetzung des Menschen, sondern die Kooperation von Mensch und Maschine. Am Beispiel der DSGVO wurde deutlich: Europa besitzt genug kritische Masse, um mit seinen Maßstäben auch global einen Pflock einzuschlagen. Und zunehmend wird eine funktionierende digitale Ethik auch als Wettbewerbsvorteil gegenüber totalitären Systemen wahrgenommen. Ob die hohen Ansprüche eingelöst werden können, steht dabei in den Sternen – die Erklärbarkeit, Verstehbarkeit oder Nachvollziehbarkeit automatischer Entscheidungen ist zum Beispiel durchaus umstritten.

Doch damit waren die Themen längst nicht ausgeschöpft: In weiteren Vorträgen ging es um Arbeitszeitreduzierung, Führungskultur und den Mentalitätswandel in der Arbeitswelt. Denn in einer flüssigeren Welt, in der sich Informationen im Sekundentakt ändern können, sind andere Kompetenzen gefragt. Auf den Punkt brachte es der Einwurf eines Zuhörers aus der Auto-Zulieferindustrie, der seine Erfahrungen mit der agilen Arbeitswelt bei Tesla machte. "Da kommen Leut’ rein, die haben blaue Haare, die haben eine ganz andere Arbeitskultur als wir. Und wenn die merken, wir können das nicht, wir sind da nicht flexibel, dann sagen die: Sorry, dann können wir es mit euch nicht machen."

Empfehlenswert – als kleines Bonbon – war schließlich die Vorführung von Prof. Ulrike von Luxburg (Universität Tübingen). Sie zeigte eine analoge "Software" aus Briefumschlägen mit Handlungsoptionen, die auf das simple Spiel "Drei gewinnt" angelernt wurde. Mit genügend Training konnte hier, ganz ohne Elektronik, ein treffsicherer Algorithmus erstellt werden. Kein "Deep Learning" im neuronalen Netz, aber eine anschauliche Demonstration von ganz einfach lernender Software.

Mein Fazit der Veranstaltung: Hochkarätige Hintergrundinformation zu einem Thema, das mit Sicherheit eines der prägendsten für die kommende Generation wird. Einfache Antworten sind hier nicht zu erwarten, aber wer jenseits von Hype und Panik mitreden oder gar mitgestalten will, sollte sich die Nachbereitung auf der Website anschauen und das nächste Stuttgarter Zukunftssymposium im Auge behalten.

Veranstaltet wurde das Stuttgarter Zukunftssymposium von der Integrata-Stiftung, der Giordano-Bruno-Stiftung, dem Weltethos-Institut und weiteren Verbänden. Der Autor hielt einen Vortrag über den Mentalitätswandel in der Arbeitswelt sowie einen Workshop zu digitalen Grundrechten.

Unterstützen Sie uns bei Steady!

Anmerkung der Redaktion: Am 13. Februar 2020 wurde eine klarstellende Korrektur vorgenommen. Die vorherige Version des Artikels enthielt eine Formulierung, die die vom Journalisten Jay Tuck referierten Beispiele implizit in den Bereich der Fiktion rückte. Das war nicht die Absicht des Autors. Tatsächlich handelt es sich um journalistisch seriös recherchierte Fakten. Wir entschuldigen uns dafür und haben die Stelle geändert.