Interview

Wie Computer denken

"Digital. Wie Computer denken" heißt das neue Buch von Jürgen Beetz. Darin erklärt er nicht nur, wie Computer funktionieren, sondern auch, wie die Daten und Geschäftsprozesse in die Maschine hinein kommen. Der umfangreichste Teil ist jedoch die Analyse der gesellschaftlichen Auswirkungen der Digitalisierung. Was dabei heraus gekommen ist, darüber sprach hpd mit dem Autor.

hpd: Sie sind ja eigentlich ein Wissenschaftserklärer, wenn man das so nennen kann. Sie haben schon in ihrem letzten Buch "Feedback", zu dem wir Sie im Januar 2016 befragt haben, die gesellschaftlichen Auswirkungen von technischen Prinzipien geschildert. Erläutern Sie diesmal nur, wie Computer "denken", denn so lautet ihr Untertitel?

Jürgen Beetz: Ja, das sieht so aus, als wäre es nur ein Buch über Bits und Bytes. Im ersten Teil erkläre ich zwar, wie die Maschine intern funktioniert. Aber ich betrachte den Computer schon aus einer speziellen Perspektive, die der Physiker und Nobelpreisträger Philip W. Anderson mit dem Schlagwort "Mehr ist anders" zusammengefasst hat. Durch eine Veränderung der Quantität entsteht eine neue Qualität. Das ist die kürzeste Definition von "Emergenz". Und genau das trifft hier zu: Indem clevere Ingenieure immer mehr Hüllen um das primitive Innenleben des Computers, das nur 0 und 1 kennt, herumgebaut haben, ist auch hier eine neue Qualität entstanden – ein universelles programmierbares "Denkzeug". Für Interessierte erkläre ich am Anfang die technischen Einzelheiten – bis hin zu künstlichen "neuronalen Netzen".

Der zweite Teil hat auch ein spezielles Thema. Gibt es dafür Gründe?

Ja, denn zu wenige Bücher, die sich mit Computern beschäftigen, erläutern, wie Daten und Geschäftsprozesse der realen Welt im Computer abgebildet werden. Ein methodisches Vorgehen, bei dem die Systemanalytiker versuchen, sozusagen wie ein Computer zu denken. Das ist nämlich die doppelte Bedeutung meines Untertitels.

Die ganze Theorie der Daten- und Prozessanalyse?

Nein nein, nur grundlegende Prinzipien und in Geschichten verpackt. Wenn ein Systemanalytiker …

… der Sie auch mal waren.

Ja. Wenn er oder sie in ein Walzwerk kommt, um Computeranwendungen zu finden, dann fühlt es sich für sie an wie für einen Alien auf der Erde. Keine Ahnung, was da los ist. Diese Situation beschreibe ich anschaulich und jeder versteht die Theorie dahinter.

Müssen wir also wie Computer denken?

Ja, gewissermaßen schon … und nicht nur bei der Aufbereitung der Realität in Form von Modellen, die die Maschine bearbeiten kann, sondern auch bei ihrer Bedienung. Wir müssen ihnen folgen. Sie erziehen uns nämlich und steuern unser Verhalten. Ihre Algorithmen sind unbestechlich und unerbittlich. Man kann mit ihnen nicht verhandeln. Ein Sternchen in einer Eingabemaske verlangt, dass sie ausgefüllt werden muss, auch wenn wir diese Information für unerlaubt, unsinnig oder überflüssig halten. Ein Einwanderungsbeamter an der Grenze zur USA ist flexibel dagegen. Bei Amazon prüft ein Algorithmus, ob die Bewertung von Büchern oder anderen Produkten echt oder getürkt ist, ähnlich wie bei Hotelportalen. Was er entscheidet, gilt. Bei einem Menschen könnten Sie vielleicht Einspruch erheben ("Aber ich bin nicht mit dem Autor verwandt"), bei ihm nicht.

Cover

Ihre Themen sind aber hauptsächlich die gesellschaftlichen Auswirkungen der Digitalisierung, nicht wahr? Da geht es um Gefahren durch Hacker, Jobverlust durch Digitalisierung und Robotik, künstliche Intelligenz, Wohnungsnot durch Airbnb, Gesichtserkennung und Überwachung, autonomes Fahren, Big Data, das Internet der Dinge … kurz: alles was zur Zeit diskutiert wird.

Ja, das ist mehr als die Hälfte des Buches. Die ersten beiden Teile kann man notfalls auch überschlagen. Das Hauptthema wird schon durch das Geleitwort des Vorsitzenden des Ethikbeirats der Unternehmen Ulf D. Posé unterstrichen. Technik ist nicht einfach nur Technik, sondern sie hat immer gesellschaftliche Konsequenzen. Ein Algorithmus, mit dem Internetnutzer etwa nach einem Arzt suchen, ist nicht neutral, wenn er nicht den besten Arzt anzeigt, sondern den, der am meisten für Werbung ausgeben kann. Bei Hotelsuchportalen, Ferienwohnungen und vielen anderen Seiten haben wir dasselbe Problem. Die Annahme einer wertneutralen Technik ist kompletter Unsinn.

Aber viele behaupten genau das.

Die amerikanische Waffenlobby NRA argumentiert ja gerne mit dem Satz, mit einem Hammer könnte man einen Nagel in die Wand schlagen, aber auch einen Menschen töten. Das ist eine billige Ausrede dafür, sich über die Folgen von technischen Entwicklungen keine Gedanken zu machen. Zweifellos gibt es viele Dinge, die sowohl zum Guten als auch zum Bösen verwendet werden können. Auf der anderen Seite ist der moralische Wert einer Atombombe von dem eines Rollators gut zu unterscheiden. Bei Kettensägen habe ich da schon meine Einordnungsprobleme. Da brauchen wir über Sturmgewehre in den Händen biederer Bürger gar nicht zu diskutieren.

Ähnlich verhält es sich mit der Behauptung von Facebook, es sei "nur eine Technologieplattform". Aber es ist ein Medienunternehmen, eine Nachrichtenplattform, deren Inhalte in keiner Weise reguliert sind. Im Jahr 2017 nutzten 45 Prozent der US-Amerikanerinnen und Amerikaner Facebook als Nachrichtenseite, und wiederum 50 Prozent dieser Gruppe nutzen Facebook als einzige Nachrichtenquelle. Facebook selektiert die Nachrichten aufgrund seiner über 100 individuellen Merkmale der jeweiligen Benutzer. Zusätzlich sind aus Konsumenten von Nachrichten "Prosumenten" geworden: Menschen, die zugleich Produzenten sind. Sie "malen selbst am düsteren Bild jener Welt mit, in der sie zu leben glauben", wie es eine Zeitung formulierte. Diese intellektuelle Wolke der eigenen Überzeugungen, die durch die auf eben diese Überzeugungen zugeschnittenen Informationen noch verstärkt wird, wird inzwischen als "Echokammer" oder "Filterblase" bezeichnet. Dadurch wird das Netz zu einer Bestätigungsmaschine – man findet Bestätigung und Unterstützung für eine Meinung, die man ohnehin schon hat. News in Form eines neuen Blickwinkels bekommt man nicht zu sehen.

Das kennen wir aber schon vom dörflichen Stammtisch.

Ja, aber "mehr ist anders". Im Netz hat der Blasenredner in seiner Echokammer statt nur sieben vielleicht 7.000, 70.000 oder noch mehr Follower.

Das ist einer Ihrer Kritikpunkte an den "sozialen Medien" …

… die viele prominente Kritiker schon "asoziale Medien" nennen. Sie beuten die menschliche Sehnsucht nach Anerkennung und Zugehörigkeit kommerziell aus. Vor dem Zweiten Weltkrieg war das Kino ein wirkungsvolles Propagandainstrument, heute hat das Internet diese Funktion übernommen. Fakten erscheinen plötzlich als verhandelbar, als Meinung, zu der es auch "alternative Fakten" gibt. Ich sehe auch Bedenken bei den angeblich so segensreichen "autonomen Fahrzeugen". Die Forscher des MIT, des Massachusetts Institute of Technology, haben eine "Moralmaschine" entworfen. Damit testen sie durch eine Befragung im Internet die Einstellung von Menschen, ob ein autonomes Fahrzeug im Fall eines unausweichlichen Unfalls zum Beispiel lieber eine männliche Führungskraft und einen Kleinkriminellen oder drei Obdachlose und eine Katze überfahren soll. Denn die KI-Software des Autos muss ja eine solche "ethische Entscheidung" treffen. Fast vierzig Millionen Menschen aus 233 Ländern haben Lösungen für verschiedene solcher Dilemmata vorgeschlagen. Richard David Precht ist davon entsetzt und der Ansicht, Moral lasse sich nicht programmieren. Es müssen "Maschinen ohne Moral" sein. Aber wie soll die Software entscheiden?

Ein anderes Thema: So genannte Influencer können im Internet zu Ansehen und Reichtum gelangen.

Das Internet ist ein gigantischer Handelsplatz, auf dem Daten gegen Anerkennung getauscht werden. Die Leute kommentieren, posten, bloggen, teilen und präsentieren sich, was das Zeug hält. Sie opfern ihre Daten und damit ihre Privatsphäre und geschützte Individualität für ein paar Likes. Aber auch hier gilt die Weltumsegler-Weisheit: "100.000 träumen davon, 1.000 fahren los, 10 kommen an". Oder wie der Dichter sagt: "Und man siehet die im Lichte, // Die im Dunkeln sieht man nicht."

Und was ist mit Künstlicher Intelligenz? Hier unterscheidet man ja die starke von der schwachen KI. Erklären Sie das in Ihrem Buch?

Ja klar, ausführlich und mit vielen Beispielen. Die sogenannte "schwache KI" bezieht sich auf eng begrenzte Gebiete, zum Beispiel Diagnosen von Röntgenbildern, Erkennung von Gesichtern, Spiele wie Schach oder Go.

Übrigens, viele finden den Begriff "Künstliche Intelligenz" nicht passend und sprechen lieber von Maschinellem Lernen. Diese Systeme lernen in einem eng begrenzten Gebiet mit Abertausenden von Beispielen zum Beispiel Tumore zu erkennen. Sie sind dann oft treffsicherer als Fachleute.

Oder Strategiespiele, indem sie tagelang gegen sich selbst spielen und so ihre eigenen Strategien optimieren. Sie haben Lee Sedol, den südkoreanische Meister des hochkomplizierten Brettspiels Go, geschlagen. Ein Meilenstein in der Entwicklung der künstlichen Intelligenz. Die Maschine hatte zwar nicht ohne Fehler gespielt, aber sie hatte Sedol mit Zügen und Strategien überrascht, die kein Mensch je zuvor gesehen hatte.

Da es bei Go mehr Zugmöglichkeiten als Atome im Universum gibt, kann sie auch der schnellste Supercomputer nicht vorausberechnen. Die sogenannten künstlichen neuronalen Netze, die die Funktionen echter Neuronen nachbilden, stellen ihre Parameter so ein, dass das Ergebnis optimal ist. Die Entwickler allerdings verstehen oft nicht mehr, wie und warum die Maschine zu diesem oder jenem Ergebnis gekommen ist. Die Algorithmen sind völlig intransparent.

Die "starke KI" bedeutet nun, dass Maschinen auf allen Gebieten den Turing-Test bestehen, also hinsichtlich ihrer "Intelligenz" von Menschen nicht zu unterscheiden sind. Zur Zeit ist – wenn Sie mir das Wortspiel erlauben – die "schwache KI" stark und die "starke KI" schwach. Von ihr sind wir noch Lichtjahre entfernt. Denn – unter anderem – Computer haben noch kein kognitives Konzept von Zeit, Raum und Kausalität. Sie können in einer Menschenmenge jede Person erkennen, stutzen aber nicht, wenn sie eine zweite identische finden. Das Konzept "Zwilling" kennen sie nicht. Ich bin mir auch nicht sicher, ob die KI-Software des "selbstfahrenden Autos" den Kausalzusammenhang "Wenn Ball, dann Kind" kennt. Auch eine neue Chip-Architektur oder ein neuer Hype-Begriff – AGI, Artificial General Intelligence – ändert nichts daran, dass eine generelle, eine menschenähnliche oder gar übermenschliche KI noch utopisch ist.

Damit hängt ja auch spannende und vieldiskutierte Frage zusammen: ob Maschinen Bewusstsein haben oder haben werden.

Obwohl es noch keine starke KI gibt, ist die Antwort: haben sie. Heute schon.

Da staunen Sie, aber das steht und fällt natürlich mit der Frage, was Bewusstsein ist. Viele ideologische Gegensätze oder Streitigkeiten entstehen ja durch unsinnige Fragen oder unpräzise Begriffe. So ist auch diese Frage eigentlich unsinnig, denn erstens hat "Bewusstsein" zwei verschiedene Bedeutungen, wie man schon im Duden nachlesen kann. Und zweitens ist Bewusstsein keine binäre Eigenschaft, die man hat oder nicht hat. Also müsste man erst einmal präzisieren, worüber man redet.

Das bekannteste Wochenmagazin Deutschlands schreibt: "Lange Zeit galt als Besonderheit des Menschen, dass er im Gegensatz zum Tier ein Bewusstsein besitze. Man kann es definieren als die Gesamtheit aller psychischen Vorgänge, durch die ein Mensch sich seiner selbst und seiner Außenwelt gewahr wird. Nun stellt sich immer öfter die Frage, ob nicht auch Tiere ein Bewusstsein haben." Und natürlich ist ein Tier sich seiner selbst und seiner Außenwelt gewahr, sonst könnte es nicht überleben. So meinte der berühmte Paläontologe und Zoologe George Gaylord Simpson: "Der Affe, der keine realistische Wahrnehmung von dem Ast hatte, nach dem er sprang, war bald ein toter Affe – und gehört daher nicht zu unseren Urahnen." Roboter müssen das auch können, in rudimentärer Form.

Menschliches Bewusstsein kennen wir alle – aus eigener Erfahrung, denn so ist es ja definiert. Aber wir wissen schon von unseren nächsten Mitmenschen nicht, wie ihre Erfahrungen aussehen. Sehen und empfinden sie einen Sonnenuntergang genauso wie wir? Wie sieht ein Farbenblinder, gar ein vollständig Blinder, die Welt?

Wie gesagt, Bewusstsein ist kein binärer Zustand. Es ist graduell, und seine Untergrenze ist schwer zu definieren. Michio Kaku, der Popstar unter den Physikern, schreibt: "Bewusstsein ist der Prozess, unter Verwendung zahlreicher Rückkopplungsschleifen bezüglich verschiedener Parameter (zum Beispiel Temperatur, Raum, Zeit und in Relation zueinander) ein Modell der Welt zu erschaffen, um ein Ziel zu erreichen." Er unterscheidet sogar 4 Stufen des Bewusstseins, von Pflanzen bis zum Menschen – abhängig von der Zahl der Rückkopplungsschleifen, die von Stufe 0 bis Stufe 3 exponentiell ansteigen. Evolutionsbiologen zweifeln nicht länger daran, dass Bewusstsein kein Alleinstellungsmerkmal des Menschen ist, sondern evolutionär gewachsen ist.

Der Historiker Yuval Noah Harari nennt Bewusstsein einen "Strom subjektiver Erfahrungen" und sagt: "Jedes subjektive Erlebnis weist zwei grundlegende Merkmale auf: Empfindung und Verlangen. Roboter und Computer verfügen über kein Bewusstsein, weil sie trotz ihrer unzähligen Fähigkeiten nichts fühlen und nichts begehren. Ein Roboter erlebt nichts." Das klingt erst einmal nach einem Postulat, einer Behauptung. Denn woher weiß er das? Und was heißt "fühlen" und "begehren"? Die eigentliche Frage ist also: Werden sie menschliches Bewusstsein haben? Und die klare eindeutige Antwort darauf ist: vielleicht.

Wenn wir an unser eigenes komplexes Innenleben denken, sind wir geneigt zu sagen: nein, niemals. Andererseits werden Roboter mit Menschen zusammen im Team arbeiten und müssen uns "verstehen". In Computerspielen soll Google’s "Deep Mind"-KI jetzt der bessere Teamplayer sein. Die Forscher arbeiten nicht nur an künstlicher Intelligenz, sondern auch an künstlicher Empathie. Maschinen erkennen nicht nur unsere Gesichter, sie erkennen auch unsere Mimik und damit mindestens die von der Ethnie unabhängigen Grundstimmungen wie Freude, Wut, Hass, Ekel, Verachtung und so weiter. Sie werden im Vergleich zu uns ein niederes Bewusstsein haben müssen – vielleicht werden sie mit der Zeit so gut wie Hunde, die unsere Stimmungen lesen können. Und – um zum Anfang zurückzukommen – heute schon haben Roboter ein Modell von sich selbst in ihrer Umwelt. Ein einfaches "Bewusstsein", vielleicht auf Michio Kakus Level 1.

Das war jetzt eine lange Antwort …

… ist ja auch ein schwieriges und kontroverses Thema.

Jürgen Beetz, Foto: © Evelin Frerk
Jürgen Beetz, Foto: © Evelin Frerk

Davon gibt es bei der Digitalisierung viele. Ich denke da an die Überwachung der Bürger wie in Chinas Sozialkreditsystem. Was sagen Sie dazu?

Dort ist die Digitalisierung eine gesellschaftliche Revolution, denn sie erfasst jeden Bürger und seit Neuestem auch jedes Unternehmen. Das globale Dorf breitet sich aus, wie ein reales kleines Dorf: Jeder kennt jeden, der Bürgermeister kennt alle. Man ist miteinander vernetzt, wie man heutzutage sagt. Man hilft sich gegenseitig, man kennt die Sorgen und Probleme des anderen und bildet eine innige Gemeinschaft. Wer sich sozial verträglich verhält, wird allgemein geschätzt. Warum sollte man dieses heimelige Klima nicht durch digitale Werkzeuge unterstützen? So dachten sich die Erfinder des Social Scoring in China, wo der allgegenwärtige Überwachungsapparat die sozialen Leistungen jedes einzelnen erfasst und zum Teil auf öffentlichen Schautafeln darstellt. Tritt Frau Wu in die Partei ein (die einzige), bekommt sie 200 Kreditpunkte, geht sie bei Rot über die Straße (und die allgegenwärtige Gesichtserkennung ertappt sie dabei), dann gibt es Punkteabzug. Ihr Bild auf dem Display am Ortseingang mit dem Titel "Verdienter Bürger des Monats" rutscht nach unten. Dreht sich ihr Punktekonto ins Negative, bekommt sie keinen Bankkredit mehr, kann keinen Schnellzug mehr betreten und keinen Flug mehr buchen. Die meisten Bürger haben nichts dagegen einzuwenden, denn in China zählt die Gemeinschaft mehr als der einzelne, und ein angenehmes Sozialklima im Netz der Allgemeinheit wird von den meisten Bürgern der westlichen "persönlichen Freiheit" vorgezogen.

Was der Digitalisierung generell fehlt, ist eine Technikfolgenabschätzung, die Beurteilung von "Risiken und Nebenwirkungen". Eine vollständige Lebenszyklusbetrachtung, und zwar "von der Wiege bis zur Bahre" Stimmen Sie da zu?

Ja, absolut. Und darüber hinaus auch die komplette "Nachlassverwaltung". Die fehlt meist, wie man an der Atomkraft sieht. Niemand hat an den Müll gedacht. Greenpeace meldet zum Beispiel, dass in nur zehn Jahren weltweit über 7 Milliarden Smartphones produziert wurden. In Deutschland werden sie nur durchschnittlich 2,7 Jahre genutzt. Die langfristigen Folgen der Produktion und Entsorgung der vielen Geräte wird gänzlich außer Acht gelassen. Weniger als 16 Prozent des elektronischen Abfalls werden recycelt. Seit 2007 wurde ungefähr der Energieverbrauch Indiens für ein ganzes Jahr für die Herstellung von Smartphones aufgewandt.

Die digitale Vernetzung ist das größte soziale und technische Experiment der Menschheitsgeschichte. Jeder elektrischen Zahnbürste liegt ein Zettel in 23 Sprachen bei: "Nicht als Haarbürste verwenden!" Bei großen gesellschaftlichen Themen wie Energieversorgung, Daseinsvorsorge, Migration oder eben Digitalisierung haben wir keinen Beipackzettel. Wir wissen nicht, wohin sich das entwickelt, weil wir kaum darüber nachdenken. Wir (das heußt die uns repräsentierenden Politiker) sollten steuern, greifen aber nicht ein. Im Gegenteil, ein Wahlslogan wie "Digitalisierung first, Bedenken second" tötet jede gesellschaftliche Verantwortung. Wir behandeln das Thema offensichtlich nach der fernöstlichen Weisheit "Der Weg ist das Ziel"? Wollte Konfuzius uns das wirklich sagen? Aber der Vorwurf ist billig, denn es gelten zwei Lebensweisheiten: "Wenn wir es nicht machen, machen es die anderen" und "Warum machen wir das? Weil wir es können!" Es gibt eben keine weltumspannenden allgemeingültigen ethischen Grenzen.

Sie sprechen auch den "Cyberkrieg" an und sehen ihn anscheinend positiv: Dort fließe wenig Blut, schreiben Sie. Meinen Sie das ernst?

Der Eindruck täuscht. Leider ist nach Heraklit "der Krieg der Vater aller Dinge", aber positiv ist daran gar nichts. Angesichts des Hungers und des Leidens in dieser Welt sind die weltweiten Militärausgaben von rund 1,74 Billionen US-Dollar im Jahr 2017 obszön. Und die Computernutzung wurde schon von Anfang an durch den militärisch-industriellen Komplex gefördert. Die DARPA, die Defense Advanced Research Projects Agency, hat schon 1968 den Vorläufer des Internet entwickelt. Heute ist die Bedrohung der Zivilgesellschaft durch den "Cyberkrieg", die Zerstörung der digitalen Infrastruktur, gewachsen. Weniger Blut fließt vielleicht bei den Soldaten, die ihre Drohnen von der Oberpfalz oder von Texas aus steuern. Aber auch daran kann ich nichts Positives entdecken.

Ist das Internet kontrollierbar? Sollte und kann es geregelt werden? Kann die Politik Einfluss nehmen?

Das Internet wurde von industriellen und militärischen Akteuren angeschoben. Aber es ist ein sich selbst organisierendes System. Im "Internet der Dinge" werden menschliche Akteure durch Milliarden von Apparaten und Geräten ergänzt. Es wächst unkontrolliert und unreguliert und immer schneller, und niemand steuert. Seine Entwicklung hat weder eine klare Richtung (außer zu wachsen) noch gar ein Ziel im Sinne von "Nutzen für die Gesellschaft". Wie alle komplexen Systeme kann es Instabilitäten und chaotisches Verhalten zeigen, also nicht vorhersehbare extreme Zustände. Dasselbe gilt für die Algorithmen, insbesondere die "Künstliche Intelligenz". Sie ist bis heute eigentlich nur Maschinelles Lernen, doch ohne echtes "Verständnis".

Software zur Spracherkennung oder Sprachübersetzung wird immer besser, aber sie "versteht" die Bedeutung der Sätze nicht. Nicht umsonst streiten namhafte Experten über die Frage, ob das jemals dem menschlichen Bewusstsein und dem menschlichen Denkvermögen nahe kommt – oder es gar übertrifft. Wie gesagt: evolutionäres Wachstum, das niemand steuert.

Gefahr durch Hacker, Jobverlust durch KI, Wohnungsnot durch Airbnb und so weiter. Ihr Buch ist voller Schauergeschichten. Die Frage, ob Digitalisierung Segen oder Fluch ist, scheinen Sie entschieden zu haben. Da kann ich nur mit Erich Kästner fragen: "Herr Beetz, wo bleibt das Positive?"

"Segen oder Fluch", das fragen viele. Abgesehen von der unscharfen Definition dieser alttestamentarischen Begriffe ist natürlich jede Technik – wie viele andere kulturellen Eigenschaften auch – immer beides. Alle Entwicklungen der Menschheit bestehen immer aus beiden Komponenten. Deswegen ist das wieder eine völlig unsinnige Frage. Mathematiker würden sagen: Fortschritt ist gleich Segen minus Fluch.

Wir haben jetzt hier über die vielen augenfälligen Vorteile und Nutzen der Digitalisierung gar nicht gesprochen – aber wir kennen sie ja und nutzen sie deswegen auch so intensiv. Das ist da das Grundprinzip der Marktwirtschaft: Man muss Menschen locken oder auch verführen, aber man kann sie nicht zwingen. Die digitale Euphorie leidet unter ihrem Mangel an Folgenabschätzung. Denn der "Segen" ist uns willkommen – ich wollte aber auch auf den "Fluch", die Schattenseiten hinweisen. Zeigen, dass Technik – neuerdings sagt man ja "Technologie" dazu – eben nicht wertneutral ist.

In der Politik wird meist nur über technische Probleme geredet, zum Beispiel ob die Netzabdeckung in ländlichen Gebieten reicht. Die radikale gesellschaftliche Veränderung durch die Digitalisierung wird kaum thematisiert. Richard David Precht nennt diese Diskussion der technischen Scheinprobleme "das Umdekorieren der Liegestühle auf der Titanic". Mit meinem Buch wollte ich mehr auf den riskanten Kurs der Titanic eingehen.

Herr Beetz, wir danken Ihnen für das Gespräch.

Jürgen Beetz: Digital. Wie Computer denken, Springer, 2019. 377 Seiten, kartoniert, 24,99 Euro (19,99 Euro eBook), ISBN 978-3-662-58631-0

Siehe dazu auch den Artikel: "'Künstliche Intelligenz' – Fluch oder Segen?" von Jürgen Beetz bei www.wissenschaftsjahr.de