Das Leben eines Menschen opfern, um das Leben vieler anderer Menschen zu retten? Dies mag zunächst absurd klingen und unseren alltäglichen, intuitiven Moralvorstellungen zuwiderlaufen. Ein zu Ende gedachter Effektiver Altruismus müsste dies jedoch konsequenterweise fordern.
Die relativ junge soziale Bewegung bzw. Philosophie des Effektiven Altruismus, mit ihrem bekanntesten Vertreter Peter Singer, hat sich auf die Fahne geschrieben, mit möglichst effizienten Mitteln Menschen zu helfen. Kerncharakteristika dabei ist das wissenschaftlich-rationale und empirische Vorgehen, welches das Fundament der Bewegung bildet. Durch eine unparteiliche, rationale Kosten-Nutzen-Analyse der Handlungsfolgen soll möglichst viel Leid vermieden und gleichzeitig Freude und Glück gefördert werden. Das grundlegende Prinzip besteht folglich in dem angestrebten größten Glück der größten Zahl.
Bei genauerer Betrachtung des theoretischen Argumentationskonstrukts lassen sich allerdings einige beträchtliche Probleme aufzeigen. Zunächst einmal mag es plausibel klingen, anhand einer teleologischen Betrachtung der Handlungskonsequenzen diejenige Handlungsalternative auszuwählen, die am meisten Glück für die betroffenen Individuen hervorruft bzw. das geringste Leid erzeugt, also das geringere Übel darstellt. Stünde beispielsweise ein Feuerwehrmann vor zwei brennenden Häusern, mit der Möglichkeit lediglich ein Haus löschen zu können, so müsste er im Sinne des Effektiven Altruismus das Haus löschen, in dem sich mehr Personen aufhalten. Nehmen wir aber mal an, dass drei schwer verletzte Menschen in ein Krankenhaus eingeliefert würden, die ohne Transplantation eines bestimmten Organs sterben. Nun begibt sich eine gesunde Person, welche all diese Organe liefern könnte, zur Routineuntersuchung in dasselbe Krankenhaus. Ist es moralisch gerechtfertigt diese eine gesunde Person gegen ihren Willen insgeheim zu opfern, damit so die anderen Menschen gerettet werden können? Freilich würde so das größte Glück der größten Zahl erzielt werden und demnach den Prinzipien des Effektiven Altruismus entsprechen. Jedoch würde hier aus Gründen des moralisch kontraintuitiven Widerstands wohl kaum jemand konform gehen.
Ferner scheint es höchst fragwürdig, inwiefern Glück und Leid überhaupt interpersonell erhoben und intrapersonell verglichen werden können. Zwar mag es theoretisch einfach klingen die Glückseinheiten von Menschen zu erfassen und miteinander zu verrechnen, wie diese jedoch im Alltag adäquat numerisch quantifiziert werden sollen, bleibt äußerst schleierhaft. Selbst wenn die Kommensurabilität von Glückseinheiten gelingen würde, müsste man konsequenterweise bei jeder geplanten Handlung darüber nachdenken, inwieweit die Handlungen möglichst viel Glück befördern, oder ob eventuell gewisse Handlungsalternativen dies mehr tun: Engagiere ich mich lieber ehrenamtlich im Kinderheim oder sollte ich eher mehr arbeiten und Geld verdienen, um dieses an verhungernde Kinder in Entwicklungsländern zu spenden? Eine kognitive Überforderung des Individuums wäre die Folge. Des Weiteren fallen im Effektiven Altruismus immaterielle Werte weitestgehend unter den Tisch. Wie lässt sich beispielsweise der Wert des Naturschutzes mit dem Wert des Baus eines Kindergartens, eines Bahnhofes o.Ä. vergleichen?
Demgegenüber sollte man dem Effektiven Altruismus zugutehalten, dass seine grundlegende Idee vielen Menschen auf der Welt möglichst effektiv zu helfen, zunächst einmal lobenswert ist. Das Auskommen ohne transzendente bzw. religiöse Bezüge und das rationale Vorgehen sind prinzipiell positiv einzuordnen. Trotz dessen dürfen die eben angesprochenen, signifikanten Probleme im theoretischen Fundament des Effektiven Altruismus nicht missachtet werden. Denn dies hätte schwerwiegende Konsequenzen zur Folge, die der Alltagsmoral vieler Menschen zuwiderlaufen und vermutlich auch nicht von den Befürwortern des Effektiven Altruismus so intendiert sind.
12 Kommentare
Kommentare
Stefan Dewald am Permanenter Link
Die Diskussion wird laut werden, wenn es selbstfahrende KFZs ernsthaft geben soll. Es muss geklärt werden, nach welchen Kriterien im Notfall die Software entscheidet.
Skydaddy am Permanenter Link
Das in dem Artikel dargestellte Problem lässt sich m.E. innerhalb des Rahmens des effektiven Altruismus (mit dem ich mich nicht auskenne) lösen:
In dem Moment, wo man verlangt, dass Menschen gegen ihren Willen zugunsten anderer Menschen geopfert werden, müssten ALLE Menschen ständig in der Furcht leben, dass sie plötzlich geopfert werden sollen. Diese gravierende dauerhafte Beeinträchtigung aller würde vermutlich den Nutzen weit mehr als zunichte machen.
Bei den selbstfahrenden Autos wäre die Frage, ob sie den eigenen Fahrer opfern, um mehrere andere Verkehrsteilnehmer zu retten. Das wäre in der Tat sinnvoll – von der reduzierten Zahl der Toten würden alle Verkehrsteilnehmer profitieren. Jeder Fahrer ist ja auch immer potenzieller Unfallgegner aller anderen Autos.
Kay Krause am Permanenter Link
Und dabei sollten wir nicht außer acht lassen, dass die Software (sofern sie funktioniert) letztlich nur das tut, was ihr von Experten eingetrichtert wurde.
Martin T am Permanenter Link
Dazu gab es eine Studie mit großer Umfrage.
Tobias Pulver am Permanenter Link
[Disclaimer: Ich arbeite bei der Stiftung für Effektiven Altruismus]
Erstmal vielen Dank für diese kritische Betrachtung des EA! Gerne möchte ich einige Anmerkungen machen:
Der Text suggeriert, dass der Effektive Altruismus dem Utilitarismus gleichzusetzen sei. Der EA ist jedoch keineswegs auf den Utilitarismus festgelegt. Tatsächlich legt wohl der Utilitarismus in der Praxis den EA nahe, aber dasselbe gilt für sehr viele nicht-utilitaristische Ethiken. Viele Mitglieder der EA-Bewegung, etwa der Philosoph Thomas Pogge, sind dem Utilitarismus gegenüber kritisch eingestellt.
Das im Artikel geschilderte Beispiel, in dem nahegelegt wird, dass EAs Leute opfern müssten, um mehr Leute zu retten, greift zu kurz. Es kritisiert einen naiv interpretierten Konsequentialismus, den in der Praxis kaum jemand tatsächlich vertritt (https://en.wikipedia.org/wiki/Straw_man). EAs realisieren natürlich, dass eine Gesellschaft gewisse Regeln braucht, um zu funktionieren. Dazu gehören auch Dinge wie ein striktes Folterverbot, oder ein Tötungsverbot. Eine Gesellschaft, in der es akzeptiert wäre, jemanden zu opfern, würde schlicht nicht funktionieren – und wäre insofern auch aus strikt utilitaristischer Perspektive nicht wünschenswert. So gesehen sind Deontologie und Utilitarismus keine Gegenspieler, sondern ergänzen sich.
Der EA kann als rationale lebenspraktische Synthese aus Utilitarismus, Deontologie und Tugendethik verstanden werden: Der Utilitarismus leistet insofern einen wichtigen Beitrag, als die Konsequenzen unseres (Nicht-)Handelns für das Leid in der Welt in der Tat von zentraler Bedeutung sind. Die Deontologie erinnert uns daran, dass es (gerade auch zur Erreichung des Ziels “Leidminderung”) höchst bedeutsam ist, gewisse Regeln strikt einzuhalten und auch rechtlich zu statuieren (Menschenrechte, Lügenverbot bzw. Vertragseinhaltung, etc.). Und die Tugendethik liegt insofern richtig, als es bedeutsam ist, einen guten Charakter zu kultivieren und sich und andere beispielsweise nicht zu überfordern, d.h. ausgewogen zu leben. Der EA kann so gesehen alle in der zeitgenössischen Ethik gängigen Theorien berücksichtigen – weil sie (kaum überraschend) allesamt Teilwahrheiten enthalten und sich, wohlwollend interpretiert, oft nicht widersprechen, sondern sinnvoll ergänzen. Mehr: Kritik des naiven Konsequentialismus (https://ea-stiftung.org/blog/kritik-des-naiven-konsequentialismus/) & Teile der Stellungnahme zum Disput zwischen Singer und Schmidt-Salomon (https://ea-stiftung.org/blog/singer-vs-schmidt-salomon-stellungnahme-aus-effektiv-altruistischer-sicht)
Trotzdem erfüllen solche Beispiele eine wichtige Funktion: Sie helfen uns als *Gedankenexperimente* im abstrakten und isolierten Raum (ohne Einbettung in eine Gesellschaft), unsere Ziele genauer zu identifizieren. Die Antwort auf ein Gedankenexperiment im isolierten Kontext muss allerdings nicht die selbe sein, wie die Antwort auf die gleiche Situation in der realen Welt. Gedankenexperimente dienen den Zweck, die normative von der empirischen Ebene vorerst zu trennen. Es ist insofern kein Widerspruch, wenn ein EA sagt, dass sie im klassischen Trolley-Gedankenexperiment den "Fat Man" schubsen würde (weil 5 Leben mehr sind als eines, und weil hinter dem Schleier des Nichtwissens alle im Gedankeneperiment beteiligten Personen der Handlungsregel "schubsen" zustimmen würden), es in der echten Welt aber natürlich trotzdem nicht tun würde. Mehr: http://gbs-schweiz.org/blog/gedankenexperimente-in-der-ethik/
Für das Argument der "kognitiven Überforderung" gilt ähnliches: Wenn EAs sich *tatsächlich* kognitiv überfordern liessen, dann würden sie am Ende nichts bewirken. Das ist aber so ganz offensichtlich nicht im Sinne des EAs. Daraus folgt, dass wer sich "kognitiv überfordern" lässt, den EA nicht optimal umsetzt :)
Zur Kritik, dass immaterielle Werte beim EA weitgehend unter den Tisch fallen: Nur weil etwas weniger gut messbar/quantifizierbar ist, bedeutet das nicht, dass wir es ignorieren sollten. Stattdessen sollten wir dann zu Schätzungen greifen, den Wert eines Gutes zumindest approximieren. Es wäre aber natürlich nicht im Sinne des EAs, immaterielle Güter nicht zu wertschätzen. Mehr: http://gbs-schweiz.org/blog/wie-wir-unsere-ziele-verwerfen/
Der Artikel unterstellt dem EA im Unterton, relativ naiv und unausgereift zu sein. Ich stimme zu, dass es für viele wichtigen Fragen noch keine befriedigenden Antworten gibt. Dennoch würde ich dem Autor die Lektüre der oben verlinkten Artikel nahelegen, die viele der vom Autor aufgeworfenen Fragen eingehend betrachten. Ich bin gespannt, was er dazu denkt! :)
Ansonsten empfehle ich gerne auch das folgende FAQ zum Effektiven Altruismus mit Antworten zu häufig gestellten Fragen bzw. Kritik: https://ea-stiftung.org/effektiver-altruismus/faq/
pavlovic am Permanenter Link
Sehr schöner problematisierender Artikel von Herrn Meer der sich wohltuend von sonst üblicher Presse abhebt. Tatsächlich erscheint mir bei Debatten um eine neue Ethik der Mangel an Realismus eklatant (z.B.
Wolfgang am Permanenter Link
zur Einleitung des Artikels:
Ich habe einige Bücher über den EA gelesen und diese Schlüsse in keinster Weise herausgezogen.
Womit können Sie dies belegen? Welcher Vertreter des EAs äußert dies in welchen Schriften? Bitte Zitate!
Paul am Permanenter Link
Vor 14 Tagen stand in unserer Tageszeitung folgende Begebenheit, ein 47 jähriger Mann ging abends mit dem Hund seiner Bekannten Gassi, als er in der Innenstadt auf 3 betrunkene junge Erwachsene traf.
Arnold am Permanenter Link
Zu dem Beispiel im Krankenhaus müsste man jedoch beachten, dass fremde Organe oft vom Körper abgestoßen werden.
Nach den Vorgaben des EA: "soll möglichst viel Leid vermieden und gleichzeitig Freude und Glück gefördert werden", ist das also keine zulässige Lösung.
little Louis am Permanenter Link
Zu:
"Trotz dessen dürfen die eben angesprochenen, signifikanten Probleme im theoretischen Fundament des Effektiven Altruismus nicht missachtet werden."
Dass zunächst abstrakt formulierte Ethiken immer eine unvermeidliche Kette von logischen Folgerungen bzw. Folgeproblemen erzeugen, ist aber in gewisser Weise banal und betrifft wohl alle Konzeptionen . Könnte es aber sein, dass logisch konsistentere (oder überzeugendere )Theorien etwas weniger Folgeprobleme erzeugen?
Persönlich (intuitiv) glaube ich allerdings zur Zeit, dass kein Kollektiv das Recht und die Macht besitzen sollte, ein Individuum zu zwingen, sich im Sinne einer "höheren Moral" für andere Individuen oder gar für das Kollektiv zu "opfern". Ein solches Opfer kann bzw. darf jeweils nur aufgrund einer persönlich privaten positiven Entscheidung möglich sein.
Und seien die vorgebrachten Rechtfertigungsgründe für ein jeweils konkretes Aufopfern selbst im Sinne eines "Effektiven Altruismus" noch so "vernünftig".
Denn als "vernünftig" könnte man ja auch die folgende maxime interpretieren: Du bist nichts - Dein Volk (oder Dein jeweiliges Kollektiv) - ist alles.
Thomas am Permanenter Link
"Das grundlege Prinzip besteht folglich in dem angestrebten größten Glück der größten Zahl."
-
-
"Ist es moralisch gerechtfertigt diese eine gesunde Person gegen ihren Willen insgeheim zu opfern, damit so die anderen Menschen gerettet werden können?"
-
Natürlich NICHT! Man braucht niemanden gegen seinen Willen zu töten, um an seine Organe zu kommen, denn es fallen ständig Leichen an, die man ethisch ganz unproblematischerweise "ausschlachten" könnte, weil sie mangels Empfindungsfähigkeit keine Interessen haben, die zu berücksichtigen wären (im Gegensatz zu den Menschen, die auf Spenderorgane warten). Wo das aufgrund einer ethisch orientierungslosen Gesetzeslage nicht durchführbar ist, gilt es, die Spendenbereitschaft der Menschen mit geeigneten Mitteln zu stimulieren. Überhaupt ist Ethik weder ein Instrument zur Rechtfertigung von Zwangsmaßnahmen, noch müßiges Gedankenspiel um die Lösung hergeholter Probleme, zu denen es in einer ethisch entwickelten Gesellschaft gar nicht oder nur äußerst selten käme. Vielmehr soll sie allen hinreichend entwickelten Wesen die Entschlossenheit vermitteln, ihr gesamtes Verhalten am Ziel der Leidvermeidung nach dem Prinzip der gleichen Berücksichtigung gleicher Interessen auszurichten. Das ist nicht nur möglich und zumutbar, es ist auch selbstverständlich für jeden Menschen, dem bewußt ist, daß er nur dann berechtigten Anspruch auf die leidvermeidende Berücksichtigung seiner Interessen hat, wenn er sich auch seinerseits um lückenloses moralisches Verhalten bemüht.
-
"Ferner scheint es höchst fragwürdig, inwiefern Glück und Leid überhaupt interpersonell erhoben und intrapersonell verglichen werden können."
-
Das mag schwierig sein, aber es bleibt uns nun mal nichts anderes übrig, als Leidensfähigkeiten und die mit ihnen verbundenen Interessen auf rationale Weise für uns selbst, vor- und miteinander sowie auf wissenschaftlicher Grundlage auch für nichtmenschliche Tiere zu hierarchisieren. Anderenfalls müßten wir das Unternehmen Ethik und Moralität verloren geben, was weit verheerender wäre, als trotz aller Bemühung hin und wieder (oder auch öfter) an seinen Anforderungen zu scheitern.
-
"Engagiere ich mich lieber ehrenamtlich im Kinderheim oder sollte ich eher mehr arbeiten und Geld verdienen, um dieses an verhungernde Kinder in Entwicklungsländern zu spenden?"
-
Das hängt auch von Ihren eigenen Interessen ab, die Sie selbstverständlich in Ihre Überlegungen einbeziehen dürfen. Wann immer Ethik nicht der erste Grund ist, etwas zu tun oder zu unterlassen, sollte sie wenigstens der letzte sein - das ist anspruchsvoll, OHNE zu überfordern. Der Gedanke an die mit einer moralischen Lebensführung verbundenen Einschränkungen mag ebensowenig verlockend wirken wie die Aussicht auf lebenslange Optimierungsarbeit, aber ist man erst Teil dieses Projektes, steht man mit Unverständnis vor der Frage, warum man sich ihm nicht schon viel früher angeschlossen hat. Immerhin liegen alle zwingenden Gründe dafür auf der Hand.
-
PS.: Den Begriff des Effektiven Altruismus halte ich übrigens für sehr unglücklich gewählt, denn wie auch der Egoismus impliziert er einen Verstoß gegen das Prinzip der gleichen (!) Berücksichtigung gleicher (!) Interessen.
agender am Permanenter Link
Die Programme in den Drohnen und fahrerlosen Autos werden das alles (Artikel und Kommentare) und weit über das menschliche Denken hinausführende andere Scheusslichkeiten ausführen - so einfach wie die Asimov´ schen Ro
Menschen sind allerdings durch die religiöse Erziehung zu einer Verwechslung von Intention und Effizienz fehlprogrammiert. Veranschaulichung Trolleyproblem:
1. Wie komme ich überhaupt an Informationen über die Lösung (reicht der Dicke aus, um den Wagen zu stoppen, wenn ja, wie kriege ich ihn über das Geländer? Wenn "ich" so ein Riese bin, der damit kein Problem hat, reicht meine Masse aus, und ich bin schneller wenn ich springe.) Eher wahrscheinlich, dass in einer solchen Situation Murphys Gesetz herrscht - was schiefgehen kann, wird auch schiefgehen.
2. Eine mir unbekannte, aber keineswegs geringe Anzahl von Menschen reagiert in Krisensituationen entweder panisch oder gar nicht, im Gegensatz zum Roboter hat jeder Mensch auch begrenzte Energie.
Deshalb: die "Ethik" für Maschinenprogrammierung mag Ähnlichkeiten mit der für Institutionen haben, aber die Anforderungen für Menschen und einigermassen intelligente andere Tierarten müssen unter vielen Gesichtspunkten völlig anders definiert werden.