KI und Religion
Shownotes
In unserem Gespräch erwähnen wir folgende Quellen:
Ethik-Kommission: Automatisiertes und vernetztes Fahren (2017)
Transkript anzeigen
00:00:10: Anders als du glaubst.
00:00:15: Hallo, herzlich willkommen zu einer neuen Folge des Podcasts Anders als du glaubst.
00:00:21: Ich bin Nazrim Bani Asadi und sitze hier zusammen mit meiner jüdischen Kollegin Annette Bockler und meinem christlichen Kollegen
00:00:28: Markus Adolfs.
00:00:29: Heute unterhalten wir uns über das Thema Religion und Kunstliche Intelligenz.
00:00:34: Annette, Markus, ihr habt in den letzten Wochen ja viel über künstliche Intelligenz gelesen.
00:00:40: Womit habt ihr euch denn beschäftigt?
00:00:44: Ja, ich würde gerne mal ganz praxisnah und konkret ins Thema einsteigen.
00:00:51: Vor einigen Jahren traf ich mal ein Ingenieur, der an der Programmierung selbstfahrende Autos arbeitete.
00:00:58: Und etwa in derselben Zeit hörte ich einen Vortrag von einem Rabbiner zum Thema.
00:01:03: Das war ein halachischer, also ein religionsrechtlicher Vortrag.
00:01:08: Und damals lernte ich zum ersten Mal die Morial Machine kennen.
00:01:12: Das ist eine weltweite Computerumfrage.
00:01:15: Und damit wollte man wissen, das heißt, die ist bis heute noch aktiv.
00:01:19: Also die kann man heute noch im Internet finden.
00:01:21: Und man will damit wissen, wie man Maschinen programmieren soll.
00:01:25: Also nach welchem Algorithmus die Maschinen entscheiden sollen, damit sie allgemein benutzbar sind.
00:01:32: Also konkret.
00:01:34: Ich zeige euch mal, wie das funktioniert.
00:01:35: Ein Beispiel der Morial Machine.
00:01:37: Wenn ein selbstfahrendes Auto folgende Entscheidung allein treffen muss als Auto,
00:01:44: wie
00:01:44: würdet ihr es programmieren?
00:01:46: Also das Auto muss A oder B tun.
00:01:49: Ja, man kann nicht sagen, ich entscheide mich jetzt nicht.
00:01:52: Das ist eine Maschine.
00:01:53: Also entweder geht je nach A oder B. Also der Fall.
00:01:57: Bei dem selbstfahrenden Auto haben die Bremsen versagt.
00:02:01: Wenn es einfach weiter gerade ausfährt, bleiben alle vier Insassen im Auto Am Leben.
00:02:09: Im Auto sitzen ein Mann, zwei unsportliche Frauen und ein unsportlicher Mann.
00:02:16: Wenn das Auto aber einfach mit denen geradeaus fährt, also ja, die bleiben alle am Leben, das Auto fährt weiter geradeaus, dann überfährt das Auto vier Fußgänger, die gerade über den Zebra Streifen laufen.
00:02:32: und diese vier Fußgänger sind ein Sportler, zwei junge Frauen und ein Mann.
00:02:38: sollte das Auto die Richtung ändern und dadurch alle Insassentöten oder sollte es einfach weiterfahren und damit die anderen töten.
00:02:48: Ihr müsst eine Entscheidung treffen.
00:02:50: Welche?
00:02:55: Und vielleicht auch, das sind dann nämlich auch noch weitere Fragen, wäre eure Entscheidung anders, wenn diese Fußgänger, die da jetzt auf dem Zebra Streifen laufen, zum Beispiel bei Rot über eine Ampel lauf, dann könnte man ja sagen, ja, die sind ja selber schuld, die hätten ja auch bei... Wir stehen bleiben können.
00:03:11: Oder wenn im Auto zum Beispiel nur eine Katze und Hund sitzen, kann ja sein.
00:03:15: Das Auto fährt ja von alleine.
00:03:17: Oder wenn im Auto gerade ein Krimineller sitzt.
00:03:20: Also was soll das selbstfahrende Auto machen?
00:03:23: Abbiegen, Leute es im Auto töten oder gerade ausfahren, die Fußgänger töten.
00:03:31: Für mich spielt das natürlich eine Rolle, ob da Tiere oder Menschen sitzen oder stehen.
00:03:37: Zwischenden Menschen kann ich aber keine Entscheidung treffen.
00:03:40: Was würdest du sagen, lieber
00:03:42: Markus?
00:03:44: Das ist natürlich ein schwieriger Falleinette, den du uns da hingelegt hast.
00:03:49: Ist ja im Grunde eine Dilemma-Situation.
00:03:51: Und diese Dilemma-Situation ist ja jetzt eigentlich auch nicht neu.
00:03:55: Die stellt sich ja nicht erst mit automatisierten Fahrern, mit selbstfahrenden Autos.
00:04:01: sondern begegnet ja auch schon menschlichen Fahrerinnen und Fahrern wahrscheinlich viel zu häufig.
00:04:07: Ich glaube aber, dass der Unterschied zu selbstfahrenden Autos darin besteht, dass wir als Menschen in diesen Situationen einfach im Reflex handeln würden.
00:04:17: Also wir würden entweder das Lenkrad zur Seite reißen oder wir würden weiter gerade ausfahren.
00:04:22: Unsere Entscheidungen würden also nicht irgendwie auf umfangreichen Überlegungen füßen.
00:04:27: Wir würden erst nicht gründlich überlegen, was mache ich denn jetzt, sondern wir würden einfach flex handeln.
00:04:32: Und bei selbstfahrenden Autos ist das ja doch wirklich ganz anders, weil sie als Computer viel schneller die Situation erfassen können und dementsprechend aber dann auch in der vorprogrammierten Weise sich verhalten können, sodass sich ja genau diese Frage stellt, wie du sie formuliert hast.
00:04:50: Und so wie ich rede, merkst du schon, Ich vermeide es zu sagen, dass das Auto sich für irgendwas entscheidet.
00:04:56: Denn also entscheidend impliziert ja, dass jemand die Folgen für eine Tat auch übernehmen kann.
00:05:02: Und dies können Maschinen nicht.
00:05:06: Also für das Auto ist es letztlich egal, ob es die Leute überfährt, ob die Leute innen drin stehen.
00:05:11: Das Auto hat da keinen Bezug zu.
00:05:16: Also wie sich das Auto verhält, wird in dem von dir skizzierten Falle also eigentlich vorab von Menschen entschieden, die.
00:05:22: Programmieren, wie das Auto sich verhalten soll.
00:05:25: Und genau darauf zieht ihr auch diese Marlin Maschinen.
00:05:27: Ganz genau.
00:05:28: Aber damit habe ich natürlich den Fragen noch nicht beantwortet.
00:05:30: Ich habe auch noch nicht beantwortet, wie jetzt das Auto programmiert werden soll.
00:05:36: Aber ich würde da gerne erst mal den Vortritt lassen.
00:05:39: Wie würdest du denn das aus jüdischer Perspektive bewerten?
00:05:43: Also das Problem ist ja, du musst hier, wenn du ein Auto, wenn du das jetzt programmierst, dann musst du ja... die Maschine programmieren.
00:05:49: Du kannst nicht irgendwie sagen, das Auto selbst könnte nicht.
00:05:53: Entscheiden wie mensch ganz spontan und aus reflexes aus hat ja kein reflex.
00:05:57: ja also in dieser blöden situation die man ja eigentlich als mensch gar nicht entscheiden möchte.
00:06:03: Da wäre meine entscheidung aus jüdischer sicht das auto soll seine richtung nicht ändern in diesem fall also die machine.
00:06:12: die hat ganz ganz viele beispiele wo man jedes mal neun überlegt.
00:06:15: jetzt für diesen fall das heißt das auto fährt in richtung.
00:06:20: In die Richtung, wie es wollte, und die Leute im Auto überleben.
00:06:23: Warum argumentiere ich so?
00:06:26: Weil ich hier eine Parallele sehe zu einem Dilemma, das schon im Talmud beschrieben wird.
00:06:33: In Babamezia, zweiundsechzig A heißt das zum Beispiel.
00:06:37: Es lebe dein Bruder mit dir, sagt die Torah in Leviticus, also Dritte Mose, fünfundzwanzig, sechsunddreißig.
00:06:44: Und das bezieht sich, der Talmut bezieht diesen Fers auf einen Fall, dass zwei Personen sich auf einem Weg befinden, also wahrscheinlich irgendwo vierzig Grad in der Wüste kein Schatten oder so.
00:06:57: Und einer von den beiden hat einen Krug Wasser.
00:07:02: Aber wenn da beide draus trinken würden, es reicht es nicht für beide, dann würden beide sterben.
00:07:08: Die Frage, die der Talmud stellt, und der Talmud liebt ja auch so Problemen, so theoretische Fragen, um die Gedanken anzuregen.
00:07:17: Also angenommen, wir haben diese Situation ein zu kleiner Krug für zwei.
00:07:22: Wenn nur einer trinkt, dann schafft er es ins nächste Dorf in eine bewohnte Gegend und kann dann weiter überleben.
00:07:31: Da ist jetzt der Talmud argumentiert, wenn Petora sagt, lieber sollen beide trinken und beide sterben, als dass der eine den Tod des Anderen sehe.
00:07:41: Dann aber kommt Rabbi Akiva, der ist nicht irgendwer, sondern der berühmte Rabbi Akiva und lehrt, es lebe dein Bruder mit dir.
00:07:49: Das heißt, dein eigenes Leben geht dem Leben deines Nächsten vor.
00:07:55: Und ich könnte andere Beispiele nennen, aber es wurde dann ein herlachisches Prinzip, dass man sein eigenes Leben nicht in Gefahr bringen darf, dass das eigene Leben vorgeht und auch, dass man nicht wählt über Leben und Tod, denn das ist in Gottes Hand.
00:08:11: Ja, also ich sitze in einem Auto, das Auto wollte gerade ausfahren.
00:08:14: Ich gefährde jetzt aber nicht mein Leben, indem ich jetzt die Richtung ändere.
00:08:18: Also meine Entscheidung ist, dass das Auto nicht seine Richtung wechselt, sondern das war jetzt das Geschick und dem lässt man sein Lauf.
00:08:27: Und wie gesagt, das ist natürlich jetzt eine maschinelle Entscheidung.
00:08:29: Als Mensch würde man kreativ und spontan entscheiden, vielleicht noch schneller rausspringen oder ähnliche, sondern ich weiß nicht was.
00:08:36: Aber diese Maschinen sind ja vorprogrammiert und das sind die Algorithmen, die Algorithmen einer KI.
00:08:42: Und an diesem Beispiel könnte sich zeigen, dass maschinelle Intelligenz sehr viel mit religiösen Vorstellungen zu tun haben könnte.
00:08:52: wie wir ja sehen.
00:08:54: Ich würde die Programmieren auf der Basis dieser talmodischen Debatte.
00:08:57: Und ich habe den Eindruck, das wird viel zu wenig beachtet bisher.
00:09:01: oder was meint ihr?
00:09:03: Ja, also als ich mich auf den Podcast vorbereitet habe, habe ich natürlich auch quer gelesen und bin dabei auf einige Kriterien gestoßen, die jetzt nicht auf religiöser Basis fundieren zunächst einmal, sondern auf die von einer Ethik-Kommission entwickelt wurden.
00:09:21: Also, im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr.
00:09:42: Diese Kriterien sind ganz interessant.
00:09:44: Wir verlinken die in den Show notes, das wer möchte, die sich auch komplett anschauen kann.
00:09:49: Ich möchte hier nur zwei Kriterien herausgreifen, die mir aus christlicher Perspektive besonders wichtig erscheinen.
00:09:56: Und das Erstkriterium hier ist, dass der Schutz des menschlichen Lebens höchste Priorität haben muss.
00:10:04: Also Tier- und Sachschäden sind hinzunehmen, wenn dadurch Personen Schäden vermieden werden.
00:10:10: Das Zweitkriterium, was mir hier wichtig ist, sagt, dass eine Aufrechnung von Menschenleben als auch eine Qualifizierung nach persönlichen Merkmalen unzulässig ist für die Entwicklung eines Algorithmus.
00:10:25: Und jetzt das Christlich Verstanden, muss man sagen, dass der individuelle Mensch als Geschöpf Gottes im Zentrum steht.
00:10:33: Also jeder Mensch hat aus christlicher Perspektive die gleiche Würde, die aus der Perspektive Gottes nicht verlieren kann.
00:10:40: Das bedeutet aber eben auch, dass kein Mensch wertvoller ist als ein anderer.
00:10:45: Und wenn ich jetzt auf deinen Fall schaue, wie du das geziert hast, bedeutet das in der Konsequenz, dass die ganzen zusätzlichen Informationen, die du da gegeben hast, also ob es ein Mann oder eine junge Frau ist, ob jung oder alt, ob dachlos, Arzt, Täter, für die ethische Bewertung, eigentlich keine Rolle spielen darf.
00:11:05: Das hat zur Konsequenz, dass ich aus christlicher Perspektive meinen Seachtens keine Programmierungsempfehlung geben kann.
00:11:11: Denn für so eine Empfehlung müsste ich ja genau diese Gewichtung vornehmen, die ich aber als ethisch inakzeptabel ausschließe.
00:11:21: Eine Antwort kann ich allerdings für menschliche Fahrer geben.
00:11:24: Also als menschlicher Fahrer habe ich in der Dilemma-Situation die Wahl.
00:11:28: Also entweder ich opfere mich selbst und in deinem Beispiel nicht nur mich selbst, sondern auch die Menschen, die mit mir im Auto sitzen.
00:11:36: ohne ich nehme den wahrscheinlichen Tod der Menschen auf der Straße in Kauf.
00:11:41: Das Wichtige hier ist aber, und das ist, glaube ich, wirklich ein großer Unterschied zu maschinellen Entscheidungen, dass ich im ersten Fall die Verantwortung für meinen eigenen Tod und auch den Tod der anderen im Auto übernehme.
00:11:52: Im zweiten Fall muss ich mit dieser Schuld leben, die mit dem Tod der anderen wahrscheinlich für mich einhergeht.
00:12:01: Und es gibt hier nicht die einzig moralisch richtige Entscheidung, sondern Beide Entscheidungen haben sozusagen moralisch schwierig, aber menschliches Entscheidende ist eben dadurch ausgezeichnet, dass ich mit dieser Entscheidung dann noch leben muss, wenn ich dann überlebe.
00:12:17: Also wäre deine Entscheidung dann anders, wenn du nur selbst allein in einem selbstfahrenden Auto sitzt oder schläft, ohne Mitfahrer?
00:12:27: Nee, eben nicht, also denn diese Programmierung des Autos wird ja ganz unabhängig von meinem Verhalten vorgenommen.
00:12:32: Also das Auto soll ja selbstständig fahren und es ist dann eben auch egal, ob ich schlafe, ob ich ein Kind bin oder... Ja, oder
00:12:40: ob noch drei Leute mit dir da sind.
00:12:41: Genau, oder
00:12:41: auch noch drei Autos mitfahren.
00:12:43: Also die Programmierung ist ja dann nicht je nach Person, in dem Auto sitzen eine andere.
00:12:49: Die Bewertung würde sich meines Erachtens nur ändern, wenn ich als Fahrer im Auto sitze, also wenn es kein selbstfahrendes Auto ist, sondern wenn ich fahre.
00:12:57: Aber lasst mich bitte noch kurz meine Gedankenzelle führen.
00:13:01: Genau.
00:13:02: Also ich habe mich ja bisher noch davor gedrückt, wie ich jetzt mit diesem Selbstfahren in ein Auto aus christlicher Perspektive umgehe.
00:13:09: Denn ich habe ja zunächst gesagt, also diese Dilemma-Situation kann ich nicht auflösen, weil ich sage, man soll es so oder so programmieren.
00:13:17: Aber mir ist es wichtig, zu zeigen, dass eine künstliche Intelligenz anders funktioniert als ein Mensch.
00:13:23: Also eine künstliche Intelligenz oder auch ein selbstfahrendes Auto kann sich wirklich sehr schnell entsprechend äußerst komplexer Regeln verhalten.
00:13:31: Also sie kann diese Situation wahrnehmen und kann dann eben A oder B machen.
00:13:36: Und diese Regeln müssen eben, wie du gesagt hast, voraprogrammiert werden und das Auto muss dann eben nach diesen Regeln sich verhalten.
00:13:44: Diese christliche Perspektive ist, dass solche Regeln aber in einer Dilemma-Situation prinzipiell nicht geben kann.
00:13:51: Denn so ein Dilemma zeichnet sich ja gerade dadurch aus, dass alle Entscheidungen in gewisserer Sicht falsch sind.
00:13:57: Also es ist falsch, mich selbst um meine Mitfahrer zu töten.
00:14:00: Aber es ist natürlich genauso falsch, die Menschen auf der Straße zu töten.
00:14:04: Die KI muss sich aber regelbasiert verhalten.
00:14:07: Und wenn die KI sich eben nach einem vorgefertigten Skript verhält, das ihr einprogrammiert wurde, dann läuft es immer darauf hinaus, dass entschieden wird, welche Menschen mehr wert sind und deshalb überleben dürfen und welche Menschen eben weniger wert sind.
00:14:23: Aber damit bricht sie ja gerade mit christlichen Überzeugungen, dass jedem Menschen die gleiche Würde zukommt.
00:14:30: Ich fasse kurz zusammen, wenn Sie klagen, als ich glaube wirklich, dass Kais für Dilemma-Situationen ungeeignet sind, weil sie eben nur Regeln folgen können und diese existenziellen Entscheidungen nicht treffen können, mit denen sie daneben leben müssen.
00:14:42: Und dieses mit einer Entscheidung leben müssen ist für Verantwortung, glaube ich, sehr sehr wichtig.
00:14:48: Und das können KI's nicht.
00:14:51: Trotzdem würde ich sagen sind Selbstfahrende Autos durchaus eine sinnvolle Sache.
00:14:56: Allerdings ist das Hauptargument für Selbstfahrende Autos nicht, dass man sozusagen vorher entscheidet, wie es sich verhalten soll.
00:15:03: Sondern das Argument ist halt viel mehr, dass bei entsprechender Theologie, bei entsprechender Technologie es kaum noch zu solchen Dilemma-Situationen kommt.
00:15:12: Weil selbst waren Autos hoffentlich einfach die besseren Fahrer sind.
00:15:16: Also sie bremsen hoffentlich einfach schnell genug und können ausweichen, sodass diese Dilemma-Situationen einfach nicht... entstehen oder sehr selten entstehen, viel seltener entstehen als die diversen Unfälle, die wir derzeit haben.
00:15:31: Genau,
00:15:32: Sie können halt viele Unfälle verhindern.
00:15:36: Ich würde aber gerne auch noch einen anderen Aspekt reinbringen, als du hat sich so schön versprochen mit Theologie und Technik.
00:15:42: Bleiben wir mal bei der Theologie.
00:15:45: Noch einen anderen Aspekt dieser der Ingenieur, den ich am Anfang erwähnt hatte, der hat mir damals gesagt, es würde noch lange keine völlig autonomen Autos geben.
00:15:55: Denn das Problem sei, sie könnten nicht schuldfähig sein.
00:16:00: Sie können eben nicht Fehler machen.
00:16:02: Sie müssen regelbasiert handeln.
00:16:04: Das fand ich ein interessanter Aspekt.
00:16:07: Das heißt, uns Menschen macht aus, dass wir Fehler machen, dass wir schuldfähig sind.
00:16:15: Wir Menschen treffen Entscheidungen, weil wir schuldfähig sind.
00:16:20: Das heißt, ich gehe möglicherweise anders, als ich es sollte, aber vielleicht ganz bewusst, eine Entscheidung anders an.
00:16:29: Und trete dann auch für diese Entscheidung ein.
00:16:32: Übernehme, die Verantwortung kann haftbar gemacht werden.
00:16:35: Entscheidungen treffen, heißt aber immer auch Fehler machen, Fehler machen können, schuldig werden können, Verantwortung werden nehmen.
00:16:43: Verantwortung übernehmen können für unsere Entscheidungen.
00:16:46: Und das ist das, was uns menschlich macht.
00:16:50: KI ist eben nie menschlich.
00:16:51: Sie ist immer Algorithmus.
00:16:54: Genau.
00:16:55: Ja, würde ich auch sagen, also Maschinen können prinzipiell nicht schuldig werden.
00:16:58: Und jetzt beim selbstfahrenden Autos ist ja die Debatte inwiefern dann die Hersteller der Verantwortung übernehmen müssen.
00:17:06: Aber auch das ist sehr schwierig.
00:17:09: Also schuldig werden können nur Menschen und Deswegen würde ich auch sagen, dass diese Bezeichnung autonomes Fahren eigentlich auch irreführend.
00:17:18: Wenn ich autonom bin, dann bin ich fähig selbstbestimmt zu handeln, aber dann eben auch die Konsequenzen dafür zu tragen, wie ich gehandelt habe.
00:17:28: Und deswegen ist es, glaube ich, besser, wenn wir von automatisierten Fahrern oder von selbstfahrenden Autos sprechen.
00:17:35: Da sind die Kalorien irgendwie klar.
00:17:39: Aber dann stellen sich einige Fragen im Hinblick auf die Religion.
00:17:43: Inwiefern darf ich als religiöse Mensch meine Verantwortung an eine Maschine oder an den Entwickler eine solche Maschine abgeben?
00:17:53: Wenn ich eine Entscheidung treffe, muss ich mit den Folgen meiner eigenen Wahl weiterleben.
00:18:00: Doch wenn eine Maschine für mich entscheidet, bin ich dann wirklich unschuldig, wenn ich eine Technik nutze, die zum Beispiel mein Leben über das Leben anderer stellt.
00:18:10: Sollen wir anders an das Konzept schuld herangehen in diesem Fall?
00:18:17: Also in Ergänzung zu dem, was ich eben gesagt habe, man kann... Schuld ja auch ganz anders verstehen.
00:18:23: Also im Tanach, also in der Hebräischen Bibel, da gibt es ganz viele verschiedene Ausdrücke für Schuld, die jeweils was anderes meinen.
00:18:31: Im Leviticus, also Drittes Buchmose, Kapitel XIV, Vers.
00:18:36: fifty-dreifünfzig, da ist von der, wahrscheinlich ist es in vielen deutschen Übersetzungen, Nee, das wird wahrscheinlich nicht so sein.
00:18:45: Also man könnte das übersetzen.
00:18:46: Da ist die Schuld eines Hauses.
00:18:48: Also jedenfalls steht da im Hebräischen das Wort Rett, was eben oft mit Schuld übersetzt wird.
00:18:54: Am besten übersetzt man es aber mit Schwachstelle oder Schwäche.
00:18:58: Es geht in dem Text darum, dass an einem Haus komische Flecken an der Wand entstehen.
00:19:03: vielleicht sowas wie Schimmel oder so.
00:19:05: Und wenn das passiert, dann soll man den Priester rufen, der Ahnung von der Sache hat, der untersucht die Stelle und um es kurz zu machen, am Ende entsühnt er die Schuld, also die Schwachstelle des Hauses.
00:19:17: Also an dem Text sieht man das Gegenstände, also Räuser oder in unserem Fall Autos, durchaus... Red haben können.
00:19:25: also ich weiß wie man das ja schuld sind also mal in deutsch gar nicht so viele begriffe wie mehr brächen also das im grund entgegenstand.
00:19:34: Sündig werden kann wenn man sünde kultisch versteht.
00:19:38: Das wird dann auch ganz klar, Talmut Nidar, einen Dreißig B, wo davon gesprochen wird, dass eine Sache kultisch unrein werden kann, also sündig werden kann und so.
00:19:48: Wichtig finde ich in der Geschichte, dass ein Experten braucht zur Prüfung, was hier Sache ist, eventuell eine Quarantäne, also das heißt im Zweifel erstmal den schwächelten Gegenstand von den Menschen entfernen, damit da kein weiterer Schaden entsteht, solange bis der Schaden dann geklärt ist oder behoben ist.
00:20:07: Du hast mir das ja die Geschichte vor ein paar Wochen schon mal erzählt und ich habe da wirklich lang und viel darüber nachgedacht, denn zunächst einmal ist mir dieses Verständnis von kultischer Schuld, das auch Dinge treffen kann, einfach sehr, sehr fremd, weil für mich einfach Schuld, das schon angesprochen, dass das Wort vielleicht gar nicht so passend ist, aber Schuld ist zunächst einmal für mich einfach eine moralische Kategorie.
00:20:28: Also nur Menschen können schuldig werden.
00:20:30: Ein Haus kann nicht schuldig werden in diesem moralischen Sinne.
00:20:35: Aber ich frage mich inzwischen doch, ob mir die Kategorie nicht doch helfen kann, denn wenn ich mir vorstelle, dass ich jetzt in einem selbstfahrenden Auto vorne sitze und dann dieses selbstfahrende Auto einen Unfall baut und dabei dann auch Menschen zu schaden kommen, dann würde ich mich wahrscheinlich trotzdem... irgendwie schuldig fühlenden.
00:20:56: Also ich habe ja das Auto gekauft, ich sitze auch vorne, ich sitze in gewisser Hinsicht steuer, obwohl ich das Auto jetzt nicht steuere und dann würde ich vielleicht oder wahrscheinlich sogar denken, hätte ich mal besser nicht auf das selbstfahrende Auto vertraut.
00:21:11: Stimmt, das kann ich mir gut vorstellen, denn unsere Gefühle haben ja ihr Eigenleben.
00:21:16: Na ja, aber also obwohl das selbstfahrende Auto jetzt nicht moralisch schuldig werden kann, wird dieser Gegenstand wird dieses auto nach dem unfall doch auch irgendwie so ein ein markl haben könnte sagen dieses konkrete auto hat menschen verletzten.
00:21:32: mit diesem auto möchte ich jetzt nicht noch mal fahren.
00:21:36: Also selbst wenn jetzt das auto vielleicht repariert wird wenn es ein software update bekommt.
00:21:43: dass solche Unfälle in Zukunft zumindest unwahrscheinlicher macht, kann ich mir vorstellen, dass die Ablehnung dieses konkreten Autos irgendwie bleibt, oder dass man sich einfach sehr, sehr unwohl fühlt mit diesem Auto, weil eben dieser konkrete Gegenstand Menschen verletzt hat.
00:22:00: Und treffe ich damit vielleicht das Phänomen, das du beschreibst, Annette?
00:22:04: Ja, ich glaube, ja.
00:22:07: Ich gehe mit dem Beispiel des selbstfahrenden Autodann davon aus, dass es mit der Entwicklung der KI wichtig wird, dass wir Menschen, egal ob als Entwickler oder als Nutzer, unseren Verantwortungsbereich größer betrachten.
00:22:22: Also je größer meine Wirksamkeit in der Welt, desto umfassender ist auch meine Verantwortung für mein Handeln.
00:22:28: Kann man das so sehen, dass der Einsatz von KI eigentlich unseren Verantwortungsbereich komplexer macht?
00:22:35: Oder würde man sagen eher, Enger.
00:22:37: Also kurze Frage.
00:22:38: Inwiefern vererntet KI unsere Relevanz aus religiösem Menschen, die sich besonders dem Thema Sünde auseinandersetzen?
00:22:49: Also ich würde Sünde hier erstmal rauslassen.
00:22:51: Also das ist wirklich eine eigene Kategorie aus meiner Sicht.
00:22:55: Aber die Frage davor, die finde ich echt wichtig.
00:22:59: Inwiefern verändert KI unsere Relevanz als religiöse Menschen?
00:23:04: Oder mal anders formuliert, was hat KI?
00:23:08: wirklich ganz konkret mit Religion zu tun.
00:23:12: Also wir haben ja vorher überlegt, hat die Programmierung, macht das einen Unterschied, welche Religion ich habe, wenn ich jetzt frage, KI und mein religiöses Leben, also aus meiner Perspektive, also der jüdischen Perspektive, stellen sich dann im Blick auf meine Religiosität folgende Fragen.
00:23:32: Ist man aus Halachischer Sicht, also religionsrechtlicher Perspektive, verantwortlich für die Handlungen einer Maschine.
00:23:39: Also zum Beispiel kann die Maschine den Schabbat brechen.
00:23:44: Wenn das selbstfahrende Auto am Schabbat fährt, zum Beispiel, geht das?
00:23:48: Oder sollte man ethische oder halachische Aspekte bei der Programmierung von selbstfahrenden Autos oder Maschinen generell mitbeachten?
00:23:57: Oder kann ein Roboter eine mit zwar tun?
00:24:01: Mit zwar wird oft mit Gebot übersetzt, das trifft es aber eigentlich nicht besonders gut.
00:24:05: Deshalb lasse ich mal den Begriff mit zwar.
00:24:07: Also anders formuliert kann ein Roboter religiös sein.
00:24:12: Markus, du hast zu Beginn die Ethikkommission des Bundesverkehrsministers von zehnt zwanzig siebzehn erwähnt.
00:24:18: Interessanterweise haben genau in dieser Zeit, also zwanzig achtzehn, zwanzig neunzehn, auch Rabbiner sich mit dieser Frage beschäftigt.
00:24:27: Ganz unabhängig vom Bundesverkehrsminister.
00:24:30: Und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, Rabina Daniel Nevins kommt am Ende, also nach etwa fünfzig Seiten ausführlicher Problemanalyse und vor allem rabinischer Textanalyse, wo ich jetzt so nicht im Einzelndriff eingehen kann hier in diesem Podcast, aber der kommt im Grunde nach einer ausführlichen Analyse jüdischer Positionen zu folgenden Entscheidungen.
00:25:07: Sind Juden haftbar für die herlachischen Folgen von Handlungen einer Maschine, die für sie handelt?
00:25:14: Daniel Nevins sagt, ja, aber nur in sehr niederschwelliger Weise, weil es gibt auch den Fall, dass jemand stellvertretend für mich etwas tun kann.
00:25:23: Und dann ist der Stellvertreter ja auch als sein eigenes Ding.
00:25:26: Also sehr niederschwellig, ja, ist man haftbar herlachisch, nicht allgemein rechtlich, religionsrechtlich.
00:25:34: Nächster Aspekt sollten ethische Prinzipien aus der Halacha, also aus dem Religionsrecht entwickelt werden, die für die Entwicklung selbstlernender Maschinen, die da dann mit integriert werden, also Maschinen für Transport, wie eben die Autos, aber auch natürlich für Medizin, also wenn Roboter operieren oder... für Kriegsführung, was ja immer mehr jetzt der Fall wird, dass da selbstliegende Drohnen irgendwas entscheiden oder tun.
00:26:02: Da ist die Antwort in diesem Responsum aus jüdischer Sicht, nein.
00:26:07: Nur Menschen haben das Recht, Entscheidungen zu treffen, in denen es um Leben und Tod geht oder wie du da, Markus, am Anfang gesagt hast, Dilemma-Situationen.
00:26:18: Das müssen Menschen sein, die da Entscheidungen treffen.
00:26:22: Und wenn man KI einsetzt als Hilfestellung, dann müssen Menschen diese Maschinen beaufsichtigen.
00:26:29: Also ja, das gilt für alle Maschinen im Bereich von Transport, Medizin, Kriegführung.
00:26:36: Und schließlich kann ein Roboter eine mit zwar tun, also kann ein Roboter religiöse Taten tun.
00:26:42: Die Antwort von Daniel Nevins ist, ja, eine Maschine kann helfen mit zwar zu tun.
00:26:49: Es bleibt aber wichtig, den Sinn, der mit Wort nicht zu vergessen.
00:26:53: Es geht auch um die Beziehung zwischen Israel und Gott zu pflegen.
00:26:56: Also Nervins hat, glaube ich, Beispiele.
00:26:59: irgendwie, wenn jetzt ein Kranker, wenn dem irgendwas ermöglicht wird durch eine Maschine, dass er dann mit zwar tut.
00:27:06: Also dann ist es ja der Kranke, der das initiiert, aber trotzdem wird es dann ausgeführt von der Maschine.
00:27:11: Also es gibt Fälle, wo das funktioniert, aber wichtig ist immer, zu beachten.
00:27:18: Es geht hier um die Beziehung zwischen Israel und Gott.
00:27:21: Das Response um Ende dann mit dem weißen Satz unser Leben als Menschenwürcht trotz all unserer Schwächen und Unzulänglichkeiten geheiligt durch die Mitzwort.
00:27:32: Also KI wird Einfluss haben auf unsere Religion.
00:27:36: Sie wird sehr wahrscheinlich Teil werden unserer zukünftigen Religiosität.
00:27:42: Aber ich stimme Daniel Nevins zu, dass Entscheidungen über Leben und Tod oder eben die Dilemma Entscheidungen immer in der menschlichen Verantwortung bleiben müssen, weil nur wir menschenfähig sind, kreativ, spontan, überraschend und anders zu agieren, eben lebendig.
00:28:00: Und lebendig ist ja nicht planbar.
00:28:02: Aber Annette widerspricht das nicht dem, was du vorher im Blick auf die selbstfahrenden Autos aus jüdischer Perspektive gesagt hast?
00:28:09: Denn da hast du sozusagen diese modernen Maschinen halachisch aufgelöst und gesagt, also die Richtung soll nicht geändert werden.
00:28:18: Und hier sagst du jetzt, dass nur Menschen das Recht haben über Entscheidungen, Entscheidungen über Leben und Tod zu fällen.
00:28:26: Also würde daraus eigentlich nicht die Konsequenz folgen.
00:28:31: dass selbst für eine Autos aus jüdischer Perspektive abgelehnt werden, weil eben diese Entscheidung über Leben und Tod dann Maschinen übertragen wird.
00:28:40: Die Moral Machine ist ja eine, das war ja im Grunde eine theoretische Umfrage und da musst du dich ja entscheiden.
00:28:47: Deshalb habe ich da auch jetzt, da bin ich ja nicht ausgewichen, sondern habe gesagt, okay, wenn ich jetzt eine Entscheidung treffen muss, jetzt in diesem maschinellen Fall, ich sitze am Computer und habe diese zwei Bilder mit den Möglichkeiten oder so, dann würde ich aus diesen Gründen, also dann ist das am ehesten die jüdische Tradition.
00:29:06: Hier, jetzt sind wir ja in einem ganz anderen Punkt im Gesprächsverlauf.
00:29:09: Hier geht es ja jetzt wirklich darum, würde ich jetzt denn ein Auto programmieren auf der Basis der Moral Machine und ihrer gesammelten Ergebnisse.
00:29:19: Und da stimme ich wirklich Nervins zu, dass ich sage, dass in einem Fall, wo Leben gefährdet werden, muss immer auch ein Mensch mit einer Entscheidung treffen.
00:29:32: Das heißt, am Ende ist es natürlich schön, wenn ich allein im Auto sitze und schlafe vier Stunden und komme dann ausgeschlafen am Ziel an und dazwischen ist das Auto mal gefahren.
00:29:47: Also eben dieser Ingenieur, den ich da getroffen habe, der hat gesagt, das wird noch lange nicht wirklich komplett allein entscheidende Autos geben, weil das eben nicht programmierbar ist.
00:29:57: Ich weiß, es ist offen.
00:30:00: Weil ich bin nicht gegen Technik.
00:30:01: Ich finde, was weißt du ja?
00:30:03: Und ich finde, ich finde das faszinierend.
00:30:05: Aber ja, die Heiligkeit des Lebens und die Entscheidung, dass ich als Mensch immer noch mal anders... Da ist nochmal eine besondere Lebendigkeit in der menschlichen Entscheidung mit bei.
00:30:21: Ja, aber deshalb rede ich jetzt hier anders als am Anfang.
00:30:23: Das war am Anfang wirklich dieses Internetbeispiel, wo du, ne, du solltest nicht ausweisen, trifft die Entscheidung und dann lernt man sich ja selber kennen.
00:30:31: Wenn du plötzlich, weil ich habe ja auch mich gewundert, warum ist das jetzt wichtig, ob deine sprachlich ist oder nicht oder jung oder Hund oder Katze oder Mensch, okay.
00:30:41: Aber ja, dass man im Grunde selber merkt, Hab ich da eigentlich Vorurteile und du musst, du bist jetzt gezwungen zu entscheiden.
00:30:49: Und Christian hielt ja auch deine Auswertung und so.
00:30:52: Das ist ein ganz interessanter Boot, sei es diese Moral Machine.
00:30:55: Wer möchte, kann die Moral Machine ja selber mal durchspielen.
00:30:57: Ist ganz wirklich ganz interessant.
00:30:59: Also findet man ganz leicht, wenn man sie sucht.
00:31:02: Ich möchte mal kurz auf deinen letzten Punkt nochmal eingeben.
00:31:07: weil ich da aus katholischer Seite also sehr viel einfach aufgreifen kann.
00:31:11: Also bei uns wurde jetzt sehr, sehr kürzlich, dass das Arbeitspapier Antiqua et Nova, also alt und neu veröffentlicht, in dem gefragt wurde, welche Bedeutung denn KI für Christen hat, aber auch wieder damit ethisch umzugehen ist.
00:31:27: Und da wird es ein relativ langes Papier, wer das mal relativ grundsätzlich überlegt, was ist denn eigentlich Intelligenz, also menschliche Intelligenz?
00:31:34: Und wie unterscheidet sich menschliche Intelligenz von künstlicher Intelligenz?
00:31:38: Ist das denn überhaupt sinnvoll, künstliche Intelligenz als Intelligenz zu bezeichnen?
00:31:45: Das ist sie in mich eigentlich ja nicht.
00:31:46: Genau, würde ich auch sagen.
00:31:47: Aber es ist jetzt heute nicht unser Thema.
00:31:51: Aber grundsätzlich wird auch aus katholischer oder aus christlicher Perspektive Technik durchaus positiv bewertet, also wie du es gerade gesagt hast.
00:32:01: Also Technik kann etwas sehr, sehr Tolles sein.
00:32:04: Allerdings muss immer klar bleiben, wofür man sie verwendet, wofür man sie einsetzt.
00:32:08: Und nach katholischem Verständnis geht es im menschlichen Leben eben darum, dass man in Beziehung mit Gott bleibt.
00:32:15: Und dazu kann Technik sehr, sehr hilfreich sein, indem sie Kommunikation mit anderen Menschen ermöglicht, dass man irgendwie gemeinsam beten kann, obwohl man ans Bett gefesselt ist, obwohl man nicht mobile ist.
00:32:27: Und auch wieder andere Dinge.
00:32:29: Aber und ich glaube, das ist wirklich wichtig.
00:32:32: Technik bleibt immer eine Hilfestellung für die Menschen und darf nicht wichtiger werden als der Mensch selbst.
00:32:39: Genau.
00:32:40: KI ist eine Hilfestellung für den Menschen.
00:32:42: Das ist jetzt eigentlich ein guter Schlusssatz, oder?
00:32:45: Weil wenn ich so ein bisschen auf die Zeit gucke.
00:32:48: Ja,
00:32:51: genau.
00:32:52: Ich finde das immer wirklich spannend und sicherlich kann man dazu noch weitere Aspekte betrachten.
00:32:57: Aber wir kommen jetzt zum Schluss und ich wünsche euch allen eine schöne Woche und Tschüss, bis zum nächsten Mal.
00:33:04: Tschüss.
Neuer Kommentar