Vergangene Woche stellte Amnesty International seinen alljährlichen Lagebericht zur weltweiten Situation der Menschenrechte vor. Auf 418 Seiten, die sich mit 155 Nationen beschäftigen, skizziert die Organisation vier zentrale Gefahren, an denen die Vision universeller Menschenrechte scheitert – eine ungleiche Verteilung der Folgen ökonomischer Krisen zu Ungunsten der vulnerabelsten Gruppen, die schleichende Akzeptanz ziviler Kriegsopfer, zunehmender Widerstand gegen geschlechtsbasierte Antidiskriminierungsgesetzgebung und die Folgen moderner Technologien wie Sozialer Netzwerke und generativer Maschinenlernmodelle.
Entwickelt eine KI abstrakte Modelle der Realität? Dieser Frage nähern sich Forschende der Albert-Ludwigs-Universität Freiburg mit Hilfe des Konzepts interner Weltmodelle.
Zum Jahresabschluss ist noch einmal neurowissenschaftliche Prominenz zu Gast beim Institut für populärwissenschaftlichen Diskurs Kortizes: Zum Abschluss der Online-Reihe "Buch trifft Hirn" stellt Manfred Spitzer, Psychiater und Hirnforscher, am morgigen Donnerstag sein frisch erschienenes Sachbuch vor: "Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht".
Die Evangelische Kirche im Rheinland ließ auf ihrem YouTube-Kanal einen von Künstlicher Intelligenz gesteuerten Martin Luther Fragen beantworten. Die Sympathiewerte des Reformators konnte das nicht gerade steigern. Es gab viele äußerst kritische Fragen, unter anderem zu antisemitischen Äußerungen Luthers.
Roboter können den Menschen heute bereits bei manchen alltäglichen Aufgaben unterstützen. Doch unbekannte Umgebungen oder auch kleine Abweichungen in den Aufgaben, auf die sie trainiert sind, überfordern sie. Damit sie rascher lernen, sich auf Neues einzustellen, entwickeln die Forschungsgruppen von Michael Mühlebach und Jörg Stückler am Max-Planck-Institut für Intelligente Systeme in Tübingen neue Trainingsmethoden für die Maschinen. Ihre Roboter müssen sich dabei auch im Pingpong oder Bodyflying bewähren.
Die renommierte Open-Access-Zeitschrift "Proceedings of the National Academy of Sciences", die von der "National Academy of Sciences" der Vereinigten Staaten herausgegeben wird, hat wieder einen bemerkenswerten wissenschaftlichen Artikel veröffentlicht. Im Beitrag "Exposure to automation explains religious declines" berichten vier Wissenschaftler über ihre Studien zum Zusammenhang zwischen Automatisierung und religiösem Rückgang. Die Autoren gelangen zum Schluss, dass die Weiterentwicklung von Robotern und Künstlicher Intelligenz (KI) zu einer Verminderung von Religiosität führen wird.
Künstliche Intelligenz beeindruckt nicht nur durch ihre Leistung, sondern auch durch ihren Energiehunger. Und sie verbraucht umso mehr Energie, je anspruchsvoller die Aufgaben sind, für die sie trainiert wird. Víctor López-Pastor und Florian Marquardt, zwei Wissenschaftler des Max-Planck-Instituts für die Physik des Lichts in Erlangen, präsentieren nun eine Methode, mit der sich künstliche Intelligenz deutlich effizienter trainieren lassen könnte. Sie setzen dabei auf physikalische Prozesse statt der heute verwendeten digitalen künstlichen neuronalen Netze.
Trotz der überlegenen Leistungsfähigkeit von Künstlicher Intelligenz (KI) in vielen Bereichen wie Logistik, Verkehrssteuerung und Gesichtserkennung, zeigen Menschen oft eine Vorliebe für Empfehlungen von menschlichen Experten. Eine jüngst veröffentlichte experimentelle Studie legt nahe, dass die Akzeptanz von Empfehlungen durch KI beeinflusst werden kann, wenn man Menschen zuvor an Gott denken lässt.
Künstliche Intelligenz kommt auch in religiösen Dingen immer mehr in Mode. Dabei kann sie skurril sein wie das Projekt "Ask Jesus", bei dem man einen Jesus-Bot alles fragen kann – auch, wie man einen Hot Dog zubereitet. Sie birgt aber auch Gefahren, indem sie – wie jüngst bei einigen hinduistischen Chatbots festgestellt – bei Antworten in Bezug auf religiöse Schriften auch die gewaltbejahenden Passagen der alten Texte ungefiltert wiedergibt.
Eine renommierte KI-Expertin in Spitzenposition bei IBM gibt Einblicke in eine Entwicklung, die große Hoffnungen und nicht minder große Ängste weckt. In ihrem Buch "Menschenversteher – Wie Emotionale Künstliche Intelligenz unseren Alltag erobert" beschreibt Kenza Ait Si Abbou einen, wie sie es bezeichnet, "Epochenbruch".
KI-Anbieter fluten den Markt mit ihren neuesten Entwicklungen. Wohin das führt, weiß derzeit niemand. Die EU bemüht sich nun, die Sache halbwegs in den Griff zu bekommen – offenbar mit ersten Erfolgen.
ChatGPT – ein Computermodell der Firma Open AI, das mithilfe Künstlicher Intelligenz auf die Verarbeitung sprachlicher Daten trainiert wurde – hat seit seiner Einführung im November 2022 weltweit für Aufmerksamkeit gesorgt. Im Auftrag des Bundestagsausschusses für Bildung, Forschung und Technikfolgenabschätzung hat das vom Karlsruher Institut für Technologie (KIT) betriebene Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) nun eine umfassende Einschätzung dieses technologischen Durchbruchs in der digitalen Sprachverarbeitung vorgelegt.
Am 20. März hat der Deutsche Ethikrat seine Stellungnahme "Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz" veröffentlicht. Die 287 Seiten starke Schrift untersucht die Auswirkungen digitaler Technologien auf menschliches Selbstverständnis und gesellschaftliches Miteinander. Professor Armin Grunwald vom Karlsruher Institut für Technologie (KIT) gehörte als Mitglied des Ethikrats der multidisziplinären Arbeitsgruppe "Mensch/Maschine" an, welche die Stellungnahme federführend erarbeitet hat.
Als im November 2022 ChatGPT veröffentlicht wurde, brachte uns das wieder mal eine Schockwelle der KI-Bewusstwerdung. Inzwischen hat das System gelernt, dass 1 kg Federn nicht leichter ist als 1 kg Blei. Aber wie geht es mit Wertefragen und Manipulationsversuchen um?
Künstliche Intelligenz wird immer menschenähnlicher. Oder erzeugt wenigstens diesen Eindruck. Bekannt wurde in diesem Sommer der Fall des Google-Mitarbeiters Blake Lemoine, der seine Kündigung erhielt, nachdem er erklärt hatte, dass das Chatbot-System LaMDA ein künstliches Bewusstsein entwickelt habe. hpd-Redakteurin Daniela Wakonigg sprach mit dem Philosophen und Kognitionsforscher Thomas Metzinger über erkenntnistheoretische und ethische Probleme rund um das Thema "künstliches Bewusstsein".