Forum Computer, Internet und Fotos Neues von der Technologiefront Handeln künstliche Intelligenzen moralischer als Menschen?

Neues von der Technologiefront Handeln künstliche Intelligenzen moralischer als Menschen?

Handeln künstliche Intelligenzen moralischer als Menschen?
geschrieben von ehemaliges Mitglied

Das ist eine Frage, die man aus der Bauchgefühl heraus von sich weisen möchte: das kann doch nicht sein, das eine Maschine moralischer handelt  als ein Mensch! Schleißlich kennen KIs keine Moral, sondern nur Logik. Doch so einfach ist es nicht, wie ich an einem Beispiel zeigen möchte:

Ich war innerstädtisch auf einer vierspurigen Straße unterwegs, fuhr auf eine Kreuzung zu, die Ampel zeigte für mich grünes Licht. Als ich in die Kreuzung eingfuhr bog plötzlich aus dem Gegenverkehr ein Linksabbieger ab, es drohte ein Frontalzusammenstoß. Ich riß instinktiv das Steuer herum um dem Zusammenstoß auszuweichen, konnte aber nicht schnell genug bremsen und landete auf dem Fußweg. Nur durch einen glücklichen Zufall erwischte ich keinen Fußgänger. So weit der Ablauf. Ich möchte noch hinzufügen, daß ich berufsbedingt bei jedem Wetter und zu jeder Tages- und Nachtzeit unterwegs war und mit etwa 60.000 Kilometern pro Jahr wohl auch sehr viel Routine hatte.

Wie hätte eine KI in der gleichen Situation reagiert? Vermutlich völlig anders als ich es tat. Hätte ich das Steuer in die andere Richtung gedreht, dann wären die Autos höchstwahrscheinlich mit den Längsseiten kollidiert, mit hohem Sachschaden und wegen der Airbags nur geringem Personenschaden. So aber habe ich instinktiv (und erfolgreich) versucht einer Kollision zu entgehen und habe dafür die Gesundheit der Fußgänger riskiert. 

Das Ziel einer KI am Steuer eines Autos muß die Minimierung des Schadens sein. Die vernünftige Reaktion in der oben geschilderten Situation wäre die Kollision gewesen, denn das hätte maximal die zwei Fahrer getroffen. Selbst bei einem frontalen Aufprall hätten die Airbags die Fahrer geschützt. Ein Mensch handelt aber anders, er ist instinktiv bestrebt, sich zu schützen. 

An dieser Stelle könnte noch diskutiert werden, was unter Moral zu verstehen ist. Ich meine aber, daß das Ziel, den Gesamtschaden zu minimieren, eine ausreichende Definition für den Straßenverkehr ist. Das könnte in manchen Situation zu Lasten des Fahrers gehen, der (oder dessen Auto) zu entscheiden hat. Doch kann ein Mensch objektiv und im Sinne der Schadensminimierung handeln? Ich glaube, daß Menschen das nicht können wenn sie handeln müssen, ohne Zeit für rationale Abwägung zu haben. Der Selbsterhaltungstrieb wird immer die Kontrolle übernehmen.

Es gäbe noch viel dazu zu sagen, doch ich denke, daß das für den Anfang reicht.

det

RE: Handeln künstliche Intelligenzen moralischer als Menschen?
geschrieben von ehemaliges Mitglied
als Antwort auf ehemaliges Mitglied vom 18.09.2018, 12:11:45

ein interessantes Thema, zumal ich darüber erst vor einigen Tagen gelesen habe. Da ging es um genau das Thema: KI und Verkehrssituationen, in denen es um Schadensbegrenzung und Schutz von Leben ging. Die "Moral" muss nur erst definiert werden, bevor sie in Maschinen implementiert wird.
"Unmoralisch" handelnde künstliche Intelligenz gibt es ja immerhin schon zuhauf, mir fallen da spontan Militärroboter ein --

 

RE: Handeln künstliche Intelligenzen moralischer als Menschen?
geschrieben von ehemaliges Mitglied
als Antwort auf ehemaliges Mitglied vom 18.09.2018, 12:37:52

Das Dilemma um das Verhalten selbstfahrender Autos ist erheblich größer, als mein Beispiel aus dem ersten Beitrag zeigt. Eine fiktive, aber nicht unwahrscheinliche Situation verdeutlicht das. Sie ist dem ersten Beispiel ziemlich ähnlich:

Wenn ein Unfall unvermeidlich ist und die KI wählen muß, ob sie den Fahrzeuginsassen in Lebensgefahr bringt oder in eine Gruppe von Fußgängern fährt, wie soll sie entscheiden? Aus der Sicht der Schadensminimierung muß die KI gegen den Insassen entscheiden. Doch wer möchte in ein Auto steigen im Bewußtsein, daß es in einer Unfallsituation so handeln wird? Wenn ein Mensch sich instinktiv für das eigene Leben entscheidet und die Fußgänger umfährt, dann wird man ihm vermutlich keinen Vorwurf machen, wenn eindeutig geklärt ist, daß der Unfall unvermeidbar war. Doch werden wir genauso darüber denken, wenn eine Maschine handelt und ein Leben gegen mehrere abwägen muß?

Mit dem Auto unterwegs zu sein ist eine alltäglich Handlung und deswegen denken wir nie darüber nach, daß solche Situation leicht auftreten können und wie wir handeln würden. Geht es um die Diskussion, ob es gerechtfertigt wäre, ein entführtes Flugzeug abzuschießen, das auf ein Kernkraftwerk zusteuert, dann können wir relativ leicht eine Entscheidung fällen. Wir wären schließlich nicht der, der den Befehl gibt und auch nicht der, der den Abzug drückt. Doch daß wir bei einer stinknormalen Tätigkeit wie einer Autofahrt in eien ähnliche Situation kommen könnten, das wollen wir uns nicht vorstellen und blenden es völlig aus. 

Ich möchte nicht der sein, der die Grundregeln für das Handeln eines selbstfahrenden Autos vorgibt. Geht es nämlich nicht mehr nur um einen PKW, sondern um einen Tanklastzug mit hochentzündlicher Ladung, dann bekommen die Entscheidungen eine ganz andere Tragweite. Zu den Fragen gehört nämlich auch die, ob ein menschlicher Fahrer wirklich sinnvoller oder moralischer handeln könnte.

det


Anzeige

Karl
Karl
Administrator

RE: Handeln künstliche Intelligenzen moralischer als Menschen?
geschrieben von Karl
als Antwort auf ehemaliges Mitglied vom 18.09.2018, 12:11:45

Hallo det,

das Problem der Menschen ist, dass sie langsamer reagieren als Maschinen.

Gehen wir einmal davon aus, dass wir Menschen und zukünftige autonome Fahrzeuge gleichermaßen darauf programmiert sind, den Personenschaden zu minimieren, dann hat die KI einfach die schnelleren Reaktionen, um dieses Ziel auch zu erreichen.

Ich würde also sagen: Sie handeln von der Motivation her nicht moralischer, aber schneller und deshalb effizienter. Ergebnis: weniger Verkehrstote.

Karl

P.S.: interessant in diesem Zusammenhang: Wenn Maschinen entscheiden: Maschinen-Ethik im Widerspruch zur Rechtslage

RE: Handeln künstliche Intelligenzen moralischer als Menschen?
geschrieben von ehemaliges Mitglied
als Antwort auf Karl vom 21.09.2018, 17:40:46

Hallo Karl,

effizienter sind Maschinen auf jeden Fall, doch ich glaube auch, daß sie im Sinne der Schadensminimierung sinnvoller handeln würden als Menschen. Nehmen wir noch einmal den Fall eines Autos, das nur mit dem Fahrer besetzt ist. Steht der vor der Wahl, ob er einen Abhang hinunterfährt oder in eine Gruppe von Menschen, dann bin ich nicht sicher, ob er so handeln könnte, daß es nur einen Toten gibt, nämlich ihn, statt mehreren Toten aus der Gruppe. Für eine Maschine ausgelegt auf Schadensminimierung wäre die Entscheidung eindeutig. Ob man das "moralischer" nennt oder lieber "sinnvoller" ist für mich von sekundärer Bedeutung.

Das Beispiel mit meinem Fast-Unfall habe ich gewählt weil es zeigt, daß wir manchmal vor solchen oder ähnlichen Entscheidungen stehen, ohne daß wir es vermeiden könnten. Eine Maschine hätte an meiner Stelle vermutlich sinnvoller gehandelt, als ich es tat. Das Problem liegt nicht nur darin, daß Maschinen schneller reagieren als Menschen, sondern auch, daß Menschen in solchen Situationen keine bewußten Entscheidungen treffen können, weil es dazu viel zu schnell geht. Wir handeln instinktiv und wenn man solche Reaktionen nicht trainiert hat, dann kann man nicht vorhersagen, wie man reagieren wird, wenn das Unbewußte die Kontrolle übernimmt. Da war ich mehr als einmal von mir selbst erstaunt - positiv wie auch negativ.

det

Karl
Karl
Administrator

RE: Handeln künstliche Intelligenzen moralischer als Menschen?
geschrieben von Karl
als Antwort auf ehemaliges Mitglied vom 21.09.2018, 23:36:26

Lieber Detlef,

Deine Antwort ist gut. Ich stimme Dir zu. 

Karl


Anzeige

arno
arno
Mitglied

RE: Handeln künstliche Intelligenzen moralischer als Menschen?
geschrieben von arno
als Antwort auf ehemaliges Mitglied vom 21.09.2018, 23:36:26

Moin, mausschubser21,

ich denke, dass die durch hohe Geschindigkeiten verursachten Schäden der KI (Künstl. Intelligenz)
immer durch entsprechende Entschleunigungen beseitigt werden können.
Das ist eine Gemeinsamkeit zwischen der normalen und der KI.

Wie man aus dem vom Karl eingestellten Video sieht, handelt es sich bei der KI
im eine Weiterentwicklung von Programmen für die Verarbeitung riesiger Datenmengen.

Unter KI habe ich immer eine interlektuelle Kommunikation über komplexe Sachverhalte
und nicht über die Auswertung riesiger Datenbestände verstanden!


Gruß arno

Karl
Karl
Administrator

RE: Handeln künstliche Intelligenzen moralischer als Menschen?
geschrieben von Karl
als Antwort auf arno vom 09.01.2019, 11:41:12

@arno

Das Wesen von Intelligenz ist es jedoch, die Zukunft innerhalb eines gewissen Zeitfensters möglichst genau zu prognostizieren, um die richtigen Entscheidungen treffen zu können. Deshalb steigt die so definierte Intelligenz an, wenn die Datenbasis für die Prognose vergrößert wird. Deshalb werden künstliche Systeme so bald sie sehr viel mehr Daten in dramatisch kürzerer Zeit als wir mit ähnlichen Algorithmen analysieren können, intelligenter sein als wir.

Karl

RE: Handeln künstliche Intelligenzen moralischer als Menschen?
geschrieben von ehemaliges Mitglied
als Antwort auf Karl vom 18.05.2019, 09:38:10

Für mich ein wahnsinnig interessantes aber auch sehr bedrohliches Thema .. denn behindern autonome Maschinen, die Entscheidungen fallen, nicht eventuell irgendwann auch unseren freien Willen und wird die Übernahme von Verantwortung durch diese Maschinen  nicht irgendwie auch zur Bedrohung?

Das bei vielen Begeisterten der künstlichen Intelligenz geradezu grenzenlose Vertrauen empfinden andere , darunter auch ich, als Bedrohung , schon weil es bisher immer wieder zu Katastrophen gekommen ist, wie zuletzt bei Boeing 737 und dem fatalen Softwarefehler ...

Was passiert, wenn man diese maschinen nicht mehr stoppen kann? Und wie wird die Zukunft aussehen, wenn wir Menschen Einschätzungen und Entscheidungen nicht mehr selbst vornehmen und dies alles inklusive der Vverantwortung an Maschinen weitergeben?

Wer kontrolliert, welche Tendenzen diese Systeme vorgegeben bekommen, nach denen sie aussortieren oder bevorzugen und in wie weit ist eine Diskriminierung bestimmter Personen oder Personengruppen dabei vielleicht beabsichtigt? Und wenn es nicht beabsichtigt war, so können sich wiederholende Algorhytmen und das maschinelle Lernen doch auch unbeabsichtigt dazu führen, dass bestimmte Menschen diskriminiert werden, Wie wird man in Zukunft damit umgehen? Und kann es eine Ethik der Algorhytmen und der Künstlichen Intelligenz geben? Sie wird eines sicher nicht haben: Alstruismus - und der ist entscheidend für das Überleben, oder nicht?

Der Wissensschafter Stephen Hawking und auch Unternehmer wie Bill Gates und Elon Musk warnten schon vor einigen Jahren davor, dass künstliche Intelligenz eine Bedrohung für die Menschheit ist - irgendwie scheint das aber niemand mehr wirklich hören zu wollen.

Karl
Karl
Administrator

RE: Handeln künstliche Intelligenzen moralischer als Menschen?
geschrieben von Karl
als Antwort auf ehemaliges Mitglied vom 18.05.2019, 12:08:32
Für mich ein wahnsinnig interessantes aber auch sehr bedrohliches Thema .. denn behindern autonome Maschinen, die Entscheidungen fallen, nicht eventuell irgendwann auch unseren freien Willen und wird die Übernahme von Verantwortung durch diese Maschinen  nicht irgendwie auch zur Bedrohung?
Das ist ein wichtiges Thema, woschi. Philosophen wie Nick Bostrom haben sich systematisch mit Szenarien auseinandergesetzt, die Entstehen könnten, wenn plötzlich Superintelligenz zur Realität wird.
 



An dem Zahnrad können deutsche Untertitel gewählt werden.

Eine der wichtigsten Aussagen: Superintelligenz wird die letzte Erfindung sein, die Menschen machen, denn danach sind die superintelligenten Maschinen einfach besser im Erfinden als wir. Unsere Zukunft wird dann mehr davon abhängen, was die Superintelligenz für sinnvoll ansieht als davon, was wir denken oder tun.

Der Vortrag passt hier zum Thema, denn Bostrom meint, dass wir eine Superintelligenz dazu bringen müssen, unsere Werte wertzuschätzen. Das ist das "Kontrollproblem", das gelöst werden sollte, bevor die erste Superintelligenz übernimmt.

Karl

 

Anzeige