Forum Politik und Gesellschaft Innenpolitik Braucht Deutschland bewaffnete "Drohnen"?

Innenpolitik Braucht Deutschland bewaffnete "Drohnen"?

Re: off topic: Selbstprogrammierung
geschrieben von ehemaliges Mitglied
als Antwort auf schorsch vom 31.01.2013, 11:34:06
So sehr ich mich freue darüber, dass eine Schweizer Forschergruppe etwa 1 Milliarde Euros für ihre Hirn/Computer-Forschungen erhält, muss ich doch daran zweifeln,
1) dass ein künstliches Hirn je das erreichen kann, was das Hirn der Säugetiere (zu denen ich den Menschen zähle)kann.
2) Das Hirn des Menschen kann z.B. neue Verbindungen schaffen und notfalls "Speicher anbauen".
3) Ein Computer braucht den Menschen, der ihm diese neuen Verbindungen einbaut[/u].


1) Künstliches Hirn?
Der Mensch und andere Wesen machen von hause aus schon zu viele Fehler, weil sie emotionell entscheiden, und zudem ihr begrenzter Wissenstand Grenzen setzt.
Und sie zu langsam sind, gar nicht die Zeit haben, alle Informationen zu sammeln - und diese dann bei einer Entscheidung noch zu vergessen.
Ein Computer hat weitaus mehr Möglichkeiten, alles auf Dauer zu berücksichtigen, und dann eine wertfreie (coole) und richtige Entscheidung zu treffen.
Beispiel Google (für die Menge der Informationen).
Ich denke, die Forschung sollte sich nicht auf den Weg machen, das menschliche Gehirn zu erforschen,
weil das schon zu beschränkt -und somit nicht wirklich brauchbar- ist.
Wir sollten uns auf unsere (zwangsweise beschränkte) 'Intelligenz' nicht zu viel einbilden,
auf eine Intelligenz, die stets bewertend wirkt, und die somit nicht alle bekannten Fakten weiß und somit auch nicht neutral bewerten kann.

2) Neue Verbindungen?
Das kann jeder Computer schon heute, schneller und effektiver. Und auch ein Mensch braucht vorher Informationen, um neue überhaupt entdecken zu können. Dazu gehen Menschen auf Schulen. Ein Computer kann das von hause aus in dem Moment wenn er eingeschaltet wird.

3) Menschen werden gebraucht?
Nein, durchaus nicht. Es reicht, dem Computer einmal eine Näherungsformel anzubieten, beizubringen,
nach der er zukünftig eben auch jene Erweiterungen selbständig und fehlerfrei automatisch durchführt. Unbemerkt von der Außenwelt.

Man mache sich auch frei von der Vorstellung,
daß in absehbarer Zukunft ein Computer das ist was wir uns heute vorstellen und was wir heute kennen.
Es geistert heute die Vorstellung (und die Realität) herum, daß ein Computer digital (1/0) ist oder nur sein kann.
Eine Informationsquelle hat heute lediglich zwei Zustände: Ja oder Nein.
Eben weil es noch nicht gelungen ist, andere Hardware zu bauen.

Das ist (zukünftig) ein Irrtum.
Zukünftig wird der Computer auch das 'Vielleicht in 25.000 Variationen/Schattierungen' kennen.
Zudem mit einer Geschwindigkeit und absoluter Zuverlässigkeit (Selbstüberprüfung), die heute noch unvorstellbar ist.
Diese Information wird in Zukunft mindestens (in der ersten Stufe) 60.000 Informationen
in einer einzigen Quelle -und damit zur sofortigen fehlerfreien Entscheidung- haben.
Hier hört auch das individuelle Programmieren einzelner Programme nach bekanntem Schema auf;
das kann der Computer dann allein. Er muss es können, eben weil (bisher) kein menschliches Gehirn diese Leistung erbringen kann.
(Weswegen dieses Szenarium mit uns beigebrachten Methoden eben nicht vorstellbar ist - 'dank' mangelhaftem, festgefahrenem Bildungssystem).
Eben auch Informationen zu einer Aufgabe selbständig sammeln und auswerten - fehlerfrei - sofort.

Unser Leben wird leichter.
Eben auch wenn man den Einsatz solcher Geräte in der Medizin betrachtet.
Und was ist in modernen Fahrzeugen, Flugzeugen ... schon Realität, woran vor 40 Jahren noch niemand geträumt hat; eben weil das für das menschliche Wesen nicht vorstellbar ist.
Für einen Computer gibt es (zukünftig) diese Grenze nicht.

Denkbar auch, dass sie dazu dienen, bedrohliche Informationen zu sammeln,
um zukünftige gewaltsame/bedrohliche Auseinandersetzungen schon im Keim zu erkennen und abzubauen - wertfrei, zuverlässig und cool.
Und nicht wie Menschen mit ihrer bewertenden Mentalität, und mit der Kriege nicht wirklich verhindert werden konnten.
Dazu könnten auch Drohnen dienen, oder wie immer man die Informationen zuverlässig sammelt.
Der Menschen Menge ist nun mal rapide angestiegen, demnach auch die Anzahl der 'Idioten/Fanatiker', die sich außerhalb jeglichen menschlichen Verhaltenscodecs stellen. Und gegen diese gilt es, sich zu schützen - mit allen verfügbarem Mitteln. Diese Aufageb überlasse ich noch gern jedem Computer, als daß ich in einem Bahnhof stehe und von einem Idioten in die Luft gesprengt werde.

Da hilft auch keine noch so 'fromme' Weltanschauung/Wunschvorstellung; dagegen gilt es sich zu schützen (und zwar vor dem Knall). Auch mittels Drohnen.
dutchweepee
dutchweepee
Mitglied

Re: off topic: Selbstprogrammierung
geschrieben von dutchweepee
als Antwort auf ehemaliges Mitglied vom 31.01.2013, 14:13:56
@digi

Mir gefällt Dein Beitrag und ich bin technisch gesehen hundertprozentig Deiner Meinung. Besonders: "Man mache sich auch frei von der Vorstellung, daß in absehbarer Zukunft ein Computer das ist was wir uns heute vorstellen und was wir heute kennen."

Viele denken sich einfach heutige Computer größer und schneller und denken sie könnten die Zukunft sehen. Jules Verne stellte sich auch Ballons und Luftschiffe mit 5.000 Passagieren vor und hatte keine Ahnung von Strahltriebwerken und Raketen.

Zukünftige Computer werden sich in der Architektur und Bauart von heutigen unterscheiden, wie das Wasserrad von der Brennstoffzelle. Schon jetzt werden organische Computer gebaut, die die Informationen durch Vorgänge auf Zellniveau speichern und verarbeiten.
Karl
Karl
Administrator

Re: off topic: Selbstprogrammierung
geschrieben von Karl
als Antwort auf ehemaliges Mitglied vom 31.01.2013, 14:13:56
@ digi,

wir stimmen in Bezug auf die Möglichkeiten und fehlenden Grenzen der Computerentwicklung überein. Ich kann nur nicht mit Deiner Sorglosigkeit in Bezug auf das Tun dieser Geschöpfe übereinstimmen.
- wertfrei, zuverlässig und cool.

Zuverlässig und cool wird wohl stimmen, aber "wertfrei" ist ein gewaltiger Irrtum, denn selbstverständlich werden intelligente Roboter bei ihren Entscheidungen eine Bewertungsskala dabei haben, sonst könnten überhaupt keine Entscheidungen getroffen werden!

Es kommt also auf diese Wertskala an und die müsste vorgegeben sein, z. B. wie bei den Gesetzen von Asimov.

1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen (wissentlich) Schaden zugefügt wird.

2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen - es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.

3. Ein Roboter muss seine Existenz beschützen, so lange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
geschrieben von Die Asimovschen Gesetze


Wenn allerdings Militärs diese Maschinen programmieren und Ihnen die Asimovschen Gesetze so beibringen, dass "Mensch" durch (nur als Beispiel) "Amerikaner" oder "Brite" oder "Christ" oder "Moslem" ersetzt wird, dann haben wir ein Problem.

Der Grund, warum ich mir Sorgen mache, ist genau dieser Punkt, dass die rasante, von der Mehrheit überhaupt nicht als brisant erkannte Robotorentwicklung ohne eine Diskussion dessen abläuft, was die Bewertungsmaßstäbe sein sollen und dass hier Militärs das Sagen haben.

Karl

Anzeige

hobbyradler
hobbyradler
Mitglied

Re: off topic: Selbstprogrammierung
geschrieben von hobbyradler
als Antwort auf Karl vom 31.01.2013, 14:35:14
Es kommt also auf diese Wertskala an und die müsste vorgegeben sein, z. B. wie bei den Gesetzen von Asimov.
geschrieben von karl


Jetzt kann ich dir vorbehaltlos zustimmen. Das waren ja mehrfach meine Hinweise. Der Mensch trägt immer die Verantwortung. Eine Maschine ist in ihren Entscheidungen nicht frei. Zumindest nie sofort nach ihrer Fertigstellung.

Ciao
Hobbyradler
dutchweepee
dutchweepee
Mitglied

Die Drohnen sind immernoch Mörderwaffen
geschrieben von dutchweepee
Oh fein! Nun haben wir alle recht und können im Hopserlauf Drohnen kaufen?
sammy
sammy
Mitglied

Re: Die Drohnen sind immernoch Mörderwaffen
geschrieben von sammy
als Antwort auf dutchweepee vom 31.01.2013, 15:19:53
Oh fein! Nun haben wir alle recht und können im Hopserlauf Drohnen kaufen?


Oh fein! Die "Drohnen-Hysterie" kann wieder "Puzelbäume" schlagen.... Warum kann man denn nicht differenziert das Thema behandeln, denn die Drohne,zumal unbemannt, muss doch nicht schädlich sein. Es kommt doch letztlich auf den Einsatz an, nämlich WIE und gegen WEN...! Hier gilt es früh genug zu intervenieren!

sammy

Anzeige

Re: off topic: Selbstprogrammierung
geschrieben von ehemaliges Mitglied
als Antwort auf Karl vom 31.01.2013, 14:35:14
Wenn allerdings Militärs diese Maschinen programmieren und Ihnen die Asimovschen Gesetze so beibringen, dass "Mensch" durch (nur als Beispiel) "Amerikaner" oder "Brite" oder "Christ" oder "Moslem" ersetzt wird, dann haben wir ein Problem.
geschrieben von Karl

Da sind wir (mal) einer Meinung, Karl.

Deswegen habe ich auch geschrieben, daß diese Computer Unrat selber rechtzeitig erkennen (sollen).
Damit würde auch das 'Programmieren durch Militärs' wegfallen.

Comutermäßiges Bewerten und Entscheiden ist neutral sowohl mit für Menschen erwünschten als unerwünschten Erscheinungen.
Jedoch - wonach entscheidet der Mensch?
Das könnte auch ein Computer übernehmen - mit allen Fakten - wertfrei; was ein Mensch gar nicht bringen kann.
Damit sind menschliche Fehlentscheidungen ein Menetekel, was ja die Vergangenheit auch beweist.
Das heißt aber nicht, daß es in Zukunft so bleiben muß. Menschen sind zu solch realen, nüchternen Entscheidungen auch gar nicht fähig - Computer schon.

'Mensch' Ami ...
Da unterscheiden wir uns nur ein wenig.
Natürlich würde ich keinen Menschen bedrohen.
Aber einen 'Idioten', der droht, mir eine scharfe Handgranate in die Hosentasche zu stecken, den würde ich durchaus nicht mit Frommen Worten abspeisen - denn der hat sich außerhalb menschlichen Verhaltens gestellt.
Und in dem Zusammenhang sehe ich auch Drohnen, als eines der Mittel zum Selbstschutz.

In Sachen Kriegsführung mittels Drohnen:
Sehe ich auch etwas bedenklich.
Aber ich frage mich immer nach der Ursache, wie es dazu kommen musste.
Ob ich nackt in einen aufgeregten Bienenstock steigen würde, bezweifele ich.
Aber ich hätte keine Bedenken, da ein 'Gerät' reinzuschicken (Endoscope), was mir berichtet - und notfalls! auch mal ordnend eingreift (bevor der ganze Kasten in die Luft fliegt). Natürlich gäbe es dabei 'Kollateralschäden', aber eine größerer Schaden wäre vielleicht doch abgewendet.

Drohnen in DE:
Klar, brauchen wir das 'Spielzeug' jetzt nicht.
Drei, vier Gründe sprechen jedoch für dieser DE-Drohnen.
1) Kostenbeteiligung für die Entwicklung -
2) Übung für einen eventuellen! Ernstfall -
3) Abschreckung -
4) Wir wollen ja unsere Söhne nicht an den Hindukusch schicken, um dort mal hinter einen Dornbusch zu schauen, hinter dem evtl ein Teufel aus dem Kasten steckt. Ich weiß nicht, ob sich hier jemand vorstellen kann, welche Angst derjenige hat, Angst um sein eigenes Leben (ich weiß es).

Deswegen sind auch DE-Drohnen gerechtfertig; ja es obliegt unserer gewählten Regierung, dafür zu sorgen, dass die Staatsbürger so gut wie möglich geschützt werden. Im Rahmen der militärischen Abkommen und der Unterstützung. Wir können nicht immer 'die anderen' die heißen Kohlen aus dem Feuer buddeln lassen. Da kann DE allerdings wenigstens helfend unterstützen. Auch mit Drohnen, anstelle die eigenen 'Jungs' zum Dornbusch zu schicken. Jedem anderen Staat ergeht es nicht anders.
Wer bedroht wird, dem steht das Recht zu, sich gebührend zu wehren und zu schützen.
Fanatismus und Dummheit sind gefährlich. Und wenn es dazu kommt, daß solche Gruppierungen die Herrschaft übernehmen, dann ist JEDES Mittel recht, sie daran zu hindern.

Ehe hier wieder Stänkerei oder übliche Polemik losgeht:
Es muß niemand mit dieser Meinung übereinstimmen.
hobbyradler
hobbyradler
Mitglied

Re: off topic: Selbstprogrammierung
geschrieben von hobbyradler
als Antwort auf ehemaliges Mitglied vom 31.01.2013, 15:46:41
Comutermäßiges Bewerten und Entscheiden ist neutral


Das ist nicht richtig. Ein Programm entscheidet nach den Kriterien die ihm vorgegeben sind.

Ciao
Hobbyradler
Re: off topic: Selbstprogrammierung
geschrieben von ehemaliges Mitglied
als Antwort auf hobbyradler vom 31.01.2013, 15:54:45
digi: Computermäßiges Bewerten und Entscheiden ist neutral
hobbyradler: Das ist nicht richtig. Ein Programm entscheidet nach den Kriterien die ihm vorgegeben sind. Ciao Hobbyradler

Da stimme ich Dir zu. Für heutzutage.
In 20 Jahren reden wir darüber nochmal

Vielleicht mag Dir objekt-orientierte Entscheidung etwas sagen -
im Gegensatz zu programm-orientiert?
Karl
Karl
Administrator

Re: off topic: Selbstprogrammierung
geschrieben von Karl
als Antwort auf hobbyradler vom 31.01.2013, 15:05:30
Jetzt kann ich dir vorbehaltlos zustimmen. Das waren ja mehrfach meine Hinweise. Der Mensch trägt immer die Verantwortung. Eine Maschine ist in ihren Entscheidungen nicht frei.

Nicht ganz. Unsere Anschauungen sind nicht deckungsgleich, weil wir eine Diskrepanz bei dem Verständnis des Begriffes "frei" haben. Eine Maschine kann ebenso freie (bzw. unfreie) Entscheidungen wie wir treffen. Auch unsere Entscheidungen kommen zustande, weil wir einen eingebauten Wertmaßstab (angeboren und erlernt) in uns tragen. So werden das Roboter auch tun.

Wir müssen dafür sorgen, dass ihre "angeborenen" (fest eingebauten) Werte die Menschen schützen.

Karl

Anzeige