Forum Computer, Internet und Fotos Neues von der Technologiefront Handeln künstliche Intelligenzen moralischer als Menschen?

Neues von der Technologiefront Handeln künstliche Intelligenzen moralischer als Menschen?

mausschubser
mausschubser
Mitglied

Handeln künstliche Intelligenzen moralischer als Menschen?
geschrieben von mausschubser

Das ist eine Frage, die man aus der Bauchgefühl heraus von sich weisen möchte: das kann doch nicht sein, das eine Maschine moralischer handelt  als ein Mensch! Schleißlich kennen KIs keine Moral, sondern nur Logik. Doch so einfach ist es nicht, wie ich an einem Beispiel zeigen möchte:

Ich war innerstädtisch auf einer vierspurigen Straße unterwegs, fuhr auf eine Kreuzung zu, die Ampel zeigte für mich grünes Licht. Als ich in die Kreuzung eingfuhr bog plötzlich aus dem Gegenverkehr ein Linksabbieger ab, es drohte ein Frontalzusammenstoß. Ich riß instinktiv das Steuer herum um dem Zusammenstoß auszuweichen, konnte aber nicht schnell genug bremsen und landete auf dem Fußweg. Nur durch einen glücklichen Zufall erwischte ich keinen Fußgänger. So weit der Ablauf. Ich möchte noch hinzufügen, daß ich berufsbedingt bei jedem Wetter und zu jeder Tages- und Nachtzeit unterwegs war und mit etwa 60.000 Kilometern pro Jahr wohl auch sehr viel Routine hatte.

Wie hätte eine KI in der gleichen Situation reagiert? Vermutlich völlig anders als ich es tat. Hätte ich das Steuer in die andere Richtung gedreht, dann wären die Autos höchstwahrscheinlich mit den Längsseiten kollidiert, mit hohem Sachschaden und wegen der Airbags nur geringem Personenschaden. So aber habe ich instinktiv (und erfolgreich) versucht einer Kollision zu entgehen und habe dafür die Gesundheit der Fußgänger riskiert. 

Das Ziel einer KI am Steuer eines Autos muß die Minimierung des Schadens sein. Die vernünftige Reaktion in der oben geschilderten Situation wäre die Kollision gewesen, denn das hätte maximal die zwei Fahrer getroffen. Selbst bei einem frontalen Aufprall hätten die Airbags die Fahrer geschützt. Ein Mensch handelt aber anders, er ist instinktiv bestrebt, sich zu schützen. 

An dieser Stelle könnte noch diskutiert werden, was unter Moral zu verstehen ist. Ich meine aber, daß das Ziel, den Gesamtschaden zu minimieren, eine ausreichende Definition für den Straßenverkehr ist. Das könnte in manchen Situation zu Lasten des Fahrers gehen, der (oder dessen Auto) zu entscheiden hat. Doch kann ein Mensch objektiv und im Sinne der Schadensminimierung handeln? Ich glaube, daß Menschen das nicht können wenn sie handeln müssen, ohne Zeit für rationale Abwägung zu haben. Der Selbsterhaltungstrieb wird immer die Kontrolle übernehmen.

Es gäbe noch viel dazu zu sagen, doch ich denke, daß das für den Anfang reicht.

det

WoSchi
WoSchi
Mitglied

RE: Handeln künstliche Intelligenzen moralischer als Menschen?
geschrieben von WoSchi
als Antwort auf mausschubser vom 18.09.2018, 12:11:45

ein interessantes Thema, zumal ich darüber erst vor einigen Tagen gelesen habe. Da ging es um genau das Thema: KI und Verkehrssituationen, in denen es um Schadensbegrenzung und Schutz von Leben ging. Die "Moral" muss nur erst definiert werden, bevor sie in Maschinen implementiert wird.
"Unmoralisch" handelnde künstliche Intelligenz gibt es ja immerhin schon zuhauf, mir fallen da spontan Militärroboter ein --

 

mausschubser
mausschubser
Mitglied

RE: Handeln künstliche Intelligenzen moralischer als Menschen?
geschrieben von mausschubser
als Antwort auf WoSchi vom 18.09.2018, 12:37:52

Das Dilemma um das Verhalten selbstfahrender Autos ist erheblich größer, als mein Beispiel aus dem ersten Beitrag zeigt. Eine fiktive, aber nicht unwahrscheinliche Situation verdeutlicht das. Sie ist dem ersten Beispiel ziemlich ähnlich:

Wenn ein Unfall unvermeidlich ist und die KI wählen muß, ob sie den Fahrzeuginsassen in Lebensgefahr bringt oder in eine Gruppe von Fußgängern fährt, wie soll sie entscheiden? Aus der Sicht der Schadensminimierung muß die KI gegen den Insassen entscheiden. Doch wer möchte in ein Auto steigen im Bewußtsein, daß es in einer Unfallsituation so handeln wird? Wenn ein Mensch sich instinktiv für das eigene Leben entscheidet und die Fußgänger umfährt, dann wird man ihm vermutlich keinen Vorwurf machen, wenn eindeutig geklärt ist, daß der Unfall unvermeidbar war. Doch werden wir genauso darüber denken, wenn eine Maschine handelt und ein Leben gegen mehrere abwägen muß?

Mit dem Auto unterwegs zu sein ist eine alltäglich Handlung und deswegen denken wir nie darüber nach, daß solche Situation leicht auftreten können und wie wir handeln würden. Geht es um die Diskussion, ob es gerechtfertigt wäre, ein entführtes Flugzeug abzuschießen, das auf ein Kernkraftwerk zusteuert, dann können wir relativ leicht eine Entscheidung fällen. Wir wären schließlich nicht der, der den Befehl gibt und auch nicht der, der den Abzug drückt. Doch daß wir bei einer stinknormalen Tätigkeit wie einer Autofahrt in eien ähnliche Situation kommen könnten, das wollen wir uns nicht vorstellen und blenden es völlig aus. 

Ich möchte nicht der sein, der die Grundregeln für das Handeln eines selbstfahrenden Autos vorgibt. Geht es nämlich nicht mehr nur um einen PKW, sondern um einen Tanklastzug mit hochentzündlicher Ladung, dann bekommen die Entscheidungen eine ganz andere Tragweite. Zu den Fragen gehört nämlich auch die, ob ein menschlicher Fahrer wirklich sinnvoller oder moralischer handeln könnte.

det


Anzeige

karl
karl
Administrator

RE: Handeln künstliche Intelligenzen moralischer als Menschen?
geschrieben von karl
als Antwort auf mausschubser vom 18.09.2018, 12:11:45

Hallo det,

das Problem der Menschen ist, dass sie langsamer reagieren als Maschinen.

Gehen wir einmal davon aus, dass wir Menschen und zukünftige autonome Fahrzeuge gleichermaßen darauf programmiert sind, den Personenschaden zu minimieren, dann hat die KI einfach die schnelleren Reaktionen, um dieses Ziel auch zu erreichen.

Ich würde also sagen: Sie handeln von der Motivation her nicht moralischer, aber schneller und deshalb effizienter. Ergebnis: weniger Verkehrstote.

Karl

P.S.: interessant in diesem Zusammenhang: Wenn Maschinen entscheiden: Maschinen-Ethik im Widerspruch zur Rechtslage

mausschubser
mausschubser
Mitglied

RE: Handeln künstliche Intelligenzen moralischer als Menschen?
geschrieben von mausschubser
als Antwort auf karl vom 21.09.2018, 17:40:46

Hallo Karl,

effizienter sind Maschinen auf jeden Fall, doch ich glaube auch, daß sie im Sinne der Schadensminimierung sinnvoller handeln würden als Menschen. Nehmen wir noch einmal den Fall eines Autos, das nur mit dem Fahrer besetzt ist. Steht der vor der Wahl, ob er einen Abhang hinunterfährt oder in eine Gruppe von Menschen, dann bin ich nicht sicher, ob er so handeln könnte, daß es nur einen Toten gibt, nämlich ihn, statt mehreren Toten aus der Gruppe. Für eine Maschine ausgelegt auf Schadensminimierung wäre die Entscheidung eindeutig. Ob man das "moralischer" nennt oder lieber "sinnvoller" ist für mich von sekundärer Bedeutung.

Das Beispiel mit meinem Fast-Unfall habe ich gewählt weil es zeigt, daß wir manchmal vor solchen oder ähnlichen Entscheidungen stehen, ohne daß wir es vermeiden könnten. Eine Maschine hätte an meiner Stelle vermutlich sinnvoller gehandelt, als ich es tat. Das Problem liegt nicht nur darin, daß Maschinen schneller reagieren als Menschen, sondern auch, daß Menschen in solchen Situationen keine bewußten Entscheidungen treffen können, weil es dazu viel zu schnell geht. Wir handeln instinktiv und wenn man solche Reaktionen nicht trainiert hat, dann kann man nicht vorhersagen, wie man reagieren wird, wenn das Unbewußte die Kontrolle übernimmt. Da war ich mehr als einmal von mir selbst erstaunt - positiv wie auch negativ.

det

karl
karl
Administrator

RE: Handeln künstliche Intelligenzen moralischer als Menschen?
geschrieben von karl
als Antwort auf mausschubser vom 21.09.2018, 23:36:26

Lieber Detlef,

Deine Antwort ist gut. Ich stimme Dir zu. 

Karl

arno
arno
Mitglied

RE: Handeln künstliche Intelligenzen moralischer als Menschen?
geschrieben von arno
als Antwort auf mausschubser vom 21.09.2018, 23:36:26

Moin, mausschubser21,

ich denke, dass die durch hohe Geschindigkeiten verursachten Schäden der KI (Künstl. Intelligenz)
immer durch entsprechende Entschleunigungen beseitigt werden können.
Das ist eine Gemeinsamkeit zwischen der normalen und der KI.

Wie man aus dem vom Karl eingestellten Video sieht, handelt es sich bei der KI
im eine Weiterentwicklung von Programmen für die Verarbeitung riesiger Datenmengen.

Unter KI habe ich immer eine interlektuelle Kommunikation über komplexe Sachverhalte
und nicht über die Auswertung riesiger Datenbestände verstanden!


Gruß arno


Anzeige