Freies Feld

Ethik ist analog

Von CÉDRIC WEIDMANN.

Killerspiele: In ihnen geht es darum, Menschen zu töten. Typische Beispiele dafür sind die prominentesten Shooter wie jene der Call of Duty-Reihe — aber auch gelobte Grenzgänger und von den Kritikern als künstlerisch ausgezeichnete, wie etwa Halo oder Bioshock. All dies sind Killerspiele und werden von der einen Seite heftig kritisiert und von einer anderen heissblütig verteidigt. Interessant an dieser Diskussion aber ist, dass es dabei immer nur um die Vorbildfunktion des Spiels geht. Was man anklagt ist, dass tote Menschen und Blut zu sehen sind. Wir fragen uns aber: Wieso gibt es kein ethisches Problem damit, dass virtuelle Menschen getötet werden? Kritiker von Killerspielen beklagen nicht das Schicksal der getöteten Soldaten, die in Call of Duty das Schlachtfeld schmücken — sie beklagen nur die Wirkung, die diese Bilder auf den Spieler haben (wie etwa diese spannende Studie zu Menschenrecht in Videospielen). Aber warum?

Non serviam

1971 veröffentlichte Stanislaw Lem in einem Sammelband namens »Schlaflosigkeit« eine seiner berühmten fiktiven Rezensionen. Sie heisst »Arthur Dobb: Non Serviam« und zeichnet einmal mehr ein Bild der Zukunft vor: ›Personetik‹ heisst ein neuer Zweig der Wissenschaft, der sich mit der virtuellen Konstruktion von Persönlichkeiten beschäftigt. Die in Computern des MIT konstruierten Menschen werden mit einem Bewusstsein ausgestattet und die Rezension zeigt: Die Wissenschaftler der Zukunft haben grosse Probleme mit der Tatsache, dass sie mit intelligenten Wesen operieren. Die Rede ist von »Unwürdigem« und »Grausamem«, wenn die Wissenschaftler die Personen als ihre Untersuchungsobjekte betrachten. Diese Misshandlung der virutellen Persönlichkeiten sei aber nötig, um wissenschaftliche Erkenntnisse über den Menschen zu gewinnen.

Nun ist es nicht so einfach, diese Sache als literarische Fiktion und Science-Fiction-Spielerei abzutun. Denn was darin beschrieben steht, ist Wirklichkeit geworden. Wir haben eine Bandbreite künstlicher Intelligenzen geschaffen, die heute vom Schachcomputer, über die als Menschen dargestellte Zielscheiben der Ego-Shooter, bis zur digitalisierten Gehirnsimulation reicht. Wir sind also längst dort angekommen, was Lem als Zukunft beschreibt. Doch das, was der pessimistische Science-Fiction-Autor als Reaktion darauf vermutet, ist völlig ausgeblieben: Es gibt keine Debatte darüber, dass es grausam sei, Menschen künstlich zu erzeugen und nach der eigenen Nase tanzen zu lassen. Und das ist umso erstaunlicher, da die heutige Zivilsation doch von philosophischer Seite genug häufig auf das Problem künstlichen Lebens aufmerksam gemacht worden zu sein scheint.

Human Brain Project

Vor wenigen Wochen erhielt das Human Brain Project den Zuschlag heiss umworbener Europäischer Fördergelder. Man könnte bei folgendem Video (starring Matt Damon bei 0:34) in Euphorie geraten.

Ein künstliches Gehirn! Vollständig virtuell simuliert. Bottom-Up! Mit Supercomputer. Das Verständnis des Gehirns! Neue Möglichkeiten zur Behandlung von Gehirnkrankheiten! Und ich möchte diese Vorteile tatsächlich nicht in Frage stellen und freue mich.
Es scheint dabei aber so, als ob ein künstlicher Mensch geschaffen wird, oder, wie es das Video formuliert: »The result will be the most accurate model of the human brain ever produced.« Wieso aber sollte ein Computer, der über dieselben Gehirnregionen verfügt, nicht denselben Stellenwert erhalten wie ein Mensch? Er ist dann fühlendes und denkendes, vielleicht sogar ein Bewusstsein besitzendes Wesen. Dass dieses Gehirn verschiedensten Schocks und Untersuchungen unterliegt, stellt offenbar niemanden vor ein ethisches Problem. Aber warum eigentlich nicht? Wieso kümmert es niemanden, der Killerspiele spielt wirklich, dass der Niedergeschossene stirbt, sondern immer nur, welche Wirkung es auf den Spieler hat?

3 Wurzeln des Problems

Es gibt drei Wurzeln dieses Problems, denn ich glaube, es handelt sich dabei wirklich um ein Problem. Ich will nicht sagen, was hier in Videospielen oder beim Human Brain Project (HBP) geschehe, sei auf jeden Fall unmoralisch und verwerflich. Problematisch aber ist, dass sich niemand diese Fragen stellt, obwohl sie unweigerlich aufkommen müssten: Es muss eine Diskussion entstehen, die sich damit auseinandersetzt. Dennoch wird das durch ganz bestimmte, vorgeprägte Denkweisen verhindert.

1. Der Mangel an Überblick

Die erste Wurzel des Problems ist, dass wir mehr zu wissen glauben, als wir tatsächlich wissen. Es gibt zum Beispiel längst eine Auseinandersetzung mit der Ethik von Gentechnik, denn während die Wissenschaftler voller Tatendrang sind, stellen andere unangenehme Fragen: Können wir denn alle Folgen tatsächlich voraussagen? Und es gibt heftige Zweifel daran, dass die Folgen von Gentechnik überschaubar sind. In informatischen Systemen wie Computerspielen stellen wir diese Fragen gar nicht. Natürlich: Es ist ja auch nicht Gottes Schöpfung, in die eingegriffen wird, sondern die menschliche, künstliche Schöpfung. Alles ist determiniert. Ein Russe in Call of Duty wurde nie mit Bewusstsein ausgestattet, deshalb hat er auch keines. Dass dies nicht ganz zutrifft, weiss eigentlich jeder, der schon einmal versucht hat zu programmieren. Auch mit viel Erfahrung ist es bei grossen Programmen nicht möglich zu sagen, wie sich in Wechselwirkungen verschiedene Befehle aufeinander auswirken: Es kann sein, dass sich eine Spielfigur selbstständig macht und erst durch Debugging wird der Code wieder korrigiert. Dieses System des dauernden Korrigierens, das jeder Programmierer kennt, beweist, dass Programmieren überhaupt nicht deterministisch ist, sondern sehr experimentell vonstatten geht. Es ist also möglich, dass sich ein Fehler einschleicht und sich eine Figur verselbstständigt, plötzlich ein ›Eigenleben‹ entwickelt. Noch schlimmer beim HBP: Die kleinen, neuronalen Systeme werden hochgerechnet zu einer stochastisch erschreckenden Zahl. Was bei dieser Hochrechnung genau passiert, werden zwar viele Wissenschaftler genau zu beurteilen wissen, es wird dennoch nicht abschliessend vorherzusagen sein. In der Wissenschaft spricht man in dieser Hinsicht von Emergenz, also systemfremden Einflüssen. Auch das Bewusstsein bezeichnet man oft als emergente Eigenschaft, die man folglich auch mit grösstem Wissen nicht voraussagen kann. Wir können also nie ganz ausschliessen, dass auch virutelle Gehirne ein Bewusstsein besitzen.

2. Der Gradualismus des Bewusstseins

Ich habe hierbei oft von Bewusstsein gesprochen, weil ich denke, dass auch die strengeren Leser bewusste Wesen als leidensfähig und mitleidbedürftig auffassen. Ein Mensch dürfte etwa deshalb nicht wie im HBP misshandelt und zu Untersuchungen missbraucht werden, weil er über Bewusstsein verfügt. Ich sage: den strengeren, weil es wahrscheinlich ist, dass auch Tiere ohne Bewusstsein, etwa Fische, die nicht über Zentrale Nervensysteme verfügen, Schmerzen empfinden und rezipieren können. Ich, zum Beispiel, glaube auch, dass man keine Fische quälen sollte, aber ich gehöre eben nicht zu jenen Strengen, von denen die Rede ist.
Doch zurück zum Bewusstsein: Selbst einen strengen Massstab anzulegen, macht es nicht einfacher. Ab wann besitzt denn ein Lebewesen Bewusstsein? Ab einer bestimmten Komplexität des Gehirns. Wenn es bestimmte Denkprozesse verarbeiten kann. Es ist aber nicht klar, wann ein Organismus so weit ist. Ein Tintenfisch? Ein Schimpanse? Vielleicht nur der Mensch? Und wenn nur der Mensch — alle Menschen? Wenn man ein Gehirn langsam ›hochrechnet‹ könnte man doch an einen Punkt kommen, ab dem man eindeutig von einer grossen Komplexität — und also dem wahrscheinlichen Auftreten eines Bewusstseins — reden müsste. Die Frage stellt sich dann, wie man diese Grenze ziehen sollte. Klar scheint, dass die ›Menschen‹, die aus der Ferne in Sim City zu erkennen sind, weniger komplex strukturiert sind, als jene von Sims, die über Bedürfnisse und Fähigkeiten verfügen. Aber wo ist dann die Grenze zum lebendigen Denken? Ist nicht jede künstliche Intelligenz bereits eine Intelligenz?

Tintenfische sind die intelligentesten Weichtiere

3. Mind-Brain-Problem

Die dritte Wurzel ist wohl die dominanteste: Es ist unser Bild von der Abgegrenztheit vom Gehirn und der Seele oder dem Verstand. Nicht alles, was sich intelligent verhält — so denken die meisten Menschen — müsse auch eine Seele haben: Ein Roboter, der alle Bewegungen und Reaktionen eines Menschen perfekt imitiert, weiss deshalb noch lange nicht, was es bedeutet, ein Mensch zu sein, Schmerzen zu empfinden, zu lieben, er wird nicht das Gefühl haben, wie es sich anfühlt, die Farbe Rot zu sehen…
Diese Unterscheidung vom perfekt imitierenden Roboter und dem echten Menschen ist uns offenbar so eingeprägt, dass wir nie und nimmer Mitleid mit einer Gehirnsimulation oder Videospielgegnern haben werden, einfach schon aus dem Grund, dass wir wissen, dass es sich um Simulationen handelt.

Ich für meinen Teil glaube nicht am geringsten an diese letzte Wurzel: Ein perfekt imitierter Roboter ist für mich ein Mensch, weil er von einem Menschen nicht mehr unterschieden werden kann. Damit widerspreche ich einigen ganz wichtigen Persönlichkeiten, mitunter einigen gewichtigen Philosophen. Aber ich widerspreche hier mit einiger Überzeugung und denke, dass meine Auffassung nicht so unvorstellbar ist, sie benötigt nur ein wenig Phantasie.

Katharsisprinzip: Töte, um nicht zu töten

Zurück zu Videospielen. Das Katharsisprinzip benützen oft Verteidiger der Killerspiele. Spieler versuchen sich beim Spielen »abzureagieren«. Sie beruhigen sich durch die Aggressionsbewältigung des Spiels und werden dadurch im Leben weniger aggressiv. Ohne die menschliche Entwicklung dabei genau zu beobachten, lässt sich fragen, ob das denn ein gutes Argument sei? Man tötet schliesslich ebenso intelligentes Leben!

Ersatzhandlung als Kulturfortschritt

Es scheint natürlich vorteilhaft, virtuelle Menschen statt echten Menschen zu töten und Ersatzhandlungen auszuführen (wenn wir dem Katharsisprinzip einmal glauben schenken). Genauso lobenswert ist es, das HBP auf die Beine zu stellen, um weniger Tierversuche machen zu müssen (damit bewerben sie ihr Projekt). Ich bin mir sicher, dass diese Ersatzhandlungen kulturell und technologisch einen Fortschritt bedeuten. Das heisst aber nicht, dass wir diesen Fortschritt nicht in Frage stellen sollten. Ist denn das Ermodern oder Indizieren von Krankheiten in eine Gehirnsimulation nicht ebenso grausam wie bei einem echten Menschen? Und ist das Töten von virtuellen Russen nicht irgendwie ähnlich schlimm wie das Töten echter? Ich bin dafür, dass man diese Fragen (man muss sagen: wieder, wenn man an Lem denkt) thematisiert, und zwar breit.
Ich möchte noch zu bedenken geben, dass die Tendenz ist, diese Ersatzhandlungen an immer lebensechteren Modellen auszuführen: die Videospielgegner sollen immer stärker wie echte Menschen scheinen und die Simulationen immer genauere Abbilder sein — was die Auflösung der Grenze der Ersatzhandlung zur echten Handlung immer verschwommener zu machen scheint.

Advertisements
Dieser Beitrag wurde von Cedric Weidmann geschrieben und am 10. März 2013 um 23:19 veröffentlicht. Er ist unter Theorie abgelegt und mit , , , , , , , , , , , , , , getaggt. Lesezeichen hinzufügen für Permanentlink. Folge allen Kommentaren hier mit dem RSS-Feed für diesen Beitrag.

3 Gedanken zu „Ethik ist analog

  1. Pingback: Artikel für Freies Feld: Ethik ist analog | Quappe und die Welt

  2. Reblogged this on Quappe und die Welt und kommentierte:

    Ein Artikel auf FF zur digitalen Misshandlung der neusten Forschung.

  3. Pingback: God Games EINS ; Halbgötter in Schweiss & die Hand Gottes | Freies Feld

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s

%d Bloggern gefällt das: