Künstliche Intelligenz kommt auch in religiösen Dingen immer mehr in Mode. Dabei kann sie skurril sein wie das Projekt "Ask Jesus", bei dem man einen Jesus-Bot alles fragen kann – auch, wie man einen Hot Dog zubereitet. Sie birgt aber auch Gefahren, indem sie – wie jüngst bei einigen hinduistischen Chatbots festgestellt – bei Antworten in Bezug auf religiöse Schriften auch die gewaltbejahenden Passagen der alten Texte ungefiltert wiedergibt.
Eine renommierte KI-Expertin in Spitzenposition bei IBM gibt Einblicke in eine Entwicklung, die große Hoffnungen und nicht minder große Ängste weckt. In ihrem Buch "Menschenversteher – Wie Emotionale Künstliche Intelligenz unseren Alltag erobert" beschreibt Kenza Ait Si Abbou einen, wie sie es bezeichnet, "Epochenbruch".
KI-Anbieter fluten den Markt mit ihren neuesten Entwicklungen. Wohin das führt, weiß derzeit niemand. Die EU bemüht sich nun, die Sache halbwegs in den Griff zu bekommen – offenbar mit ersten Erfolgen.
ChatGPT – ein Computermodell der Firma Open AI, das mithilfe Künstlicher Intelligenz auf die Verarbeitung sprachlicher Daten trainiert wurde – hat seit seiner Einführung im November 2022 weltweit für Aufmerksamkeit gesorgt. Im Auftrag des Bundestagsausschusses für Bildung, Forschung und Technikfolgenabschätzung hat das vom Karlsruher Institut für Technologie (KIT) betriebene Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) nun eine umfassende Einschätzung dieses technologischen Durchbruchs in der digitalen Sprachverarbeitung vorgelegt.
Am 20. März hat der Deutsche Ethikrat seine Stellungnahme "Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz" veröffentlicht. Die 287 Seiten starke Schrift untersucht die Auswirkungen digitaler Technologien auf menschliches Selbstverständnis und gesellschaftliches Miteinander. Professor Armin Grunwald vom Karlsruher Institut für Technologie (KIT) gehörte als Mitglied des Ethikrats der multidisziplinären Arbeitsgruppe "Mensch/Maschine" an, welche die Stellungnahme federführend erarbeitet hat.
Als im November 2022 ChatGPT veröffentlicht wurde, brachte uns das wieder mal eine Schockwelle der KI-Bewusstwerdung. Inzwischen hat das System gelernt, dass 1 kg Federn nicht leichter ist als 1 kg Blei. Aber wie geht es mit Wertefragen und Manipulationsversuchen um?
Künstliche Intelligenz wird immer menschenähnlicher. Oder erzeugt wenigstens diesen Eindruck. Bekannt wurde in diesem Sommer der Fall des Google-Mitarbeiters Blake Lemoine, der seine Kündigung erhielt, nachdem er erklärt hatte, dass das Chatbot-System LaMDA ein künstliches Bewusstsein entwickelt habe. hpd-Redakteurin Daniela Wakonigg sprach mit dem Philosophen und Kognitionsforscher Thomas Metzinger über erkenntnistheoretische und ethische Probleme rund um das Thema "künstliches Bewusstsein".
David Körner gewinnt bei einer Quizshow eine Million und kauft sich davon Adam_017, einen Androiden. So beginnt der Roman "Menschen wie ich" von Jürgen Beetz. Darin wird nicht nur erzählt, wie Adam lernt, was es heißt, ein Mensch zu sein. Der Autor verhandelt en passant zugleich zahlreiche technische und ethische Fragen, die mit künstlicher Intelligenz einhergehen. Der hpd hat mit Jürgen Beetz gesprochen.
Heute um 19.30 Uhr beginnt die diesjährige Vortragsreihe "Vom Reiz der Sinne – Wahrnehmung und Gehirn" des Instituts für populärwissenschaftlichen Diskurs Kortizes. Aktuelles Schwerpunktthema ist die Künstliche Intelligenz.
Wie lässt sich prüfen, ob Informationen echt und vertrauenswürdig sind – gerade solche, die über das Internet oder die Sozialen Medien verbreitet werden? Die Möglichkeit, etwa Videos und Fotos mit Hilfe Künstlicher Intelligenz (KI) zu manipulieren, machen eindeutige Antworten immer schwieriger. Forschende des Karlsruher Instituts für Technologie (KIT) haben sich im Auftrag des Europaparlaments mit den potenziellen Gefahren der Deepfake-Technologie beschäftigt und Optionen für eine bessere Regulierung entwickelt.
Maschinen, die Autos steuern, Symphonien komponieren oder Menschen im Schach besiegen, faszinieren uns. Während in der Künstlichen Intelligenz (KI) ständig neue Fortschritte gemacht werden, gibt es von Seiten der Wissenschaft und der Philosophie auch Warnungen vor den Gefahren einer unkontrollierbaren, superintelligenten KI. Ein internationales Forscherteam zeigt anhand theoretischer Berechnungen, dass es nicht möglich ist, eine superintelligente KI zu kontrollieren.
Für gewöhnlich empfindet der aufgeklärte Mensch die Maschine als Epitom der Objektivität. Unbefangen von Gefühlen, Glauben und Vorurteilen, einzig der Mathematik verpflichtet, so stellen wir sie uns vor, die binären Geister. Doch diese Vorstellung ist gefährlich naiv. Im vorerst letzten Teil der Reihe "Deus Ex Algorithmo" wollen wir uns der Fehlbarkeit der Maschine widmen und aufzeigen, warum blindes Vertrauen in die Entscheidungen von Algorithmen den Weg zu einer völlig neuen Dimension der Ungerechtigkeit ebnet.
Wer im Online-Marketing arbeitet, der hat in den letzten Jahren die Geburt eines Konzepts miterlebt, dessen Implikationen gleichermaßen begeistern wie erschrecken: Die Rede ist von der Hyper-Personalisierung. Mithilfe von Unmengen in Echtzeit gesammelter Daten wollen Akteure fast jeder Branche, von der Bank über die Kfz-Versicherung bis hin zu den Herstellern von Kühlschränken, ihre Angebote und Werbestrategien personalisieren. Der Preis dafür: unsere privatesten Daten.
Die ständig fortschreitende Leistungsfähigkeit unserer Großrechenanlagen wird es in einigen Jahren ermöglichen, die kompletten Abläufe in einem menschlichen Gehirn zu simulieren. Der nächste Schritt wäre dann die Simulation einer Gemeinschaft von vielen Hirnen bis hin zu einer ganzen Zivilisation und ihrer physischen Welt.
Prof. Wolf Singer ist emeritierter Direktor am Frankfurter Max-Planck-Institut für Hirnforschung und Gründungsdirektor des Ernst-Strüngmann-Institutes und des Frankfurt Institute for Advanced Studies. Darüber hinaus initiierte er die interdisziplinäre Konferenzreihe "Ernst-Strüngmann-Forum". Am Samstag, 14. November, wird Wolf Singer im Rahmen des heute beginnenden virtuellen Symposiums Kortizes über die Unterschiede zwischen natürlicher und künstlicher Intelligenz sprechen. Im Vorfeld hat sich Inge Hüsgen mit ihm unterhalten.