Diese Frage ist gespeichert in:

Anzeige

Neueste Antworten

1076209
Ines91
Ines91 (Rang: Studentin)

Kann man den Kampfrobotern der zukünftigen Kriege moralisches Handeln beibringen?

Anzeige

5 Antworten

995920
osmondit

osmondit

Rang: Albert Einstein6 (76.669) | Politik (1.813), welt (58), Kriege (46)

8 Minuten nachdem die Frage gestellt worden ist (11.01.2017 22:15)

1

Hallo, was verstehst Du unter "moralisch"? Worin besteht "Moral" beim Abschlachten, Töten anderer Menschen? mfgo

4 Kommentare

1076209
Ines91
Ines91

Kriege gab es immer in der gesamten Menschheitsgeschichte.
Die meisten waren moralisch nicht gerechtfertigt.
Wird es mit Kampfrobotern in Zukunft nun besser oder schlechter?

995920
osmondit
osmondit

Hallo,
der große Seher Philip K. Dick hat diese Frage bereits beantwortet: Variante 2. Lies die mal. mfgo
https://de.wikipedia.org/wiki/Variante_Zwei kopieren
http://gedankenecke.com/2010/04/variante-2-von-philip-k-dick/ kopieren
https://www.youtube.com/watch?v=DpGaJViw--Q kopieren

1076209
Ines91
Ines91

Kannst du kurz in ein paar Sätzen zusammenfassen, was du mir sagen willst?

995920
osmondit
osmondit

Hallo, intelligente Roboter evolutionieren sich selbst. Schaue Dir mal neben meinen Links auch Blade Runner an, da gehts um Bekämpfung künstlichen Lebens. mfgo
https://www.youtube.com/watch?v=NoAzpa1x7 jU kopieren
https://www.youtube.com/watch?v=AYiUVS64a sE kopieren

Dein Kommentar zu dieser Antwort

Noch nicht registriert bei COSMiQ?
Melde dich hier an!

Bewertung:

hilfreich

Gute Antwort meinen:

letzte 10 Meinungen:

[Fenster schließen]
2

Als gute Antwort bewerten

Kommentare zur Antwort:

4

4 Kommentare

Anzeige
1071367
Kleidchen

Kleidchen

Rang: Nobelpreisträgerin (5.593) | Politik (492), welt (21)

5 Stunden nachdem die Frage gestellt worden ist (12.01.2017 02:19)

2

Moral ist beim Töten etwas merkwürdig. Eigentlich müssten Roboter mit dem Asimovschen Gesetz programmiert werden:
Die Asimov’schen Gesetze lauten:[1]

1. Ein Roboter darf kein menschliches Wesen (wissentlich[2]) verletzen oder durch Untätigkeit (wissentlich[2]) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
In dieser Reihenfolge.
Dann würden Drohnen nicht mehr töten können ebesowenig wie Atomraketen.

10 Kommentare

1076209
Ines91
Ines91

"Moral ist beim Töten etwas merkwürdig."

Wieso das?
Moral ist beim Töten ganz entscheidend.

"Dann würden Drohnen nicht mehr töten können ebesowenig wie Atomraketen."

Ja, Drohnen töten doch aber permanent.
Ohne Anklage, ohne Gerichtsverfahren, ohne Verteidiger, ohne Urteil. Und es kostet nachgewiesenermaßen wesentlich mehr Unschuldigen das Leben als vermeintlichen Terroristen. Das ist die US-Strategie, die ohne massive deutsche Beteiligung (siehe Ramstein) gar nicht durchgeführt werden könnte.

1071367
Kleidchen
Kleidchen

Das mit der Moral meinte ich so: gibt es überhaupt ein moralisch zu rechtfertigendes Töten? Die alte Frage nach dem Tyrannenmord.
Wenn man Robotern so etwas wie Moral beibringen könnte, wäre das z.B. in Form dieser Asimovschen Gesetze zu machen.... Und dann würden sie nicht mehr töten können.

1076209
Ines91
Ines91

"Das mit der Moral meinte ich so: gibt es überhaupt ein moralisch zu rechtfertigendes Töten?"

Natürlich.
Hättest du es denn nicht begrüßt, wenn das Stauffenberg-Attentat funktioniert hätte?

1071367
Kleidchen
Kleidchen

Das Stauffenberg-attentat ist genau was ich mit der alten Frage nach dem Tyrannenmord meinte. Die übrigens von den Sudenten der Weißen Rose und auch den Stauffenberg-Mitverschwörern damals heiß diskutiert wurde.
Im Einzelfall kann estwa für einen Mord sprecen, aber ich würde keinem Mord generell als moralisch bewerten können.
Im ähnlichem Sinne wurde der Finale Rettungsschuss diskutiert. Jemanden töten, der zu töten bereit ist.
Auf jeden Fall darf man solche entscheidungen nicht Maschinen überlassen.

1076209
Ines91
Ines91

"Auf jeden Fall darf man solche entscheidungen nicht Maschinen überlassen."

Aber Maschinen entscheiden doch in Zukunft so gut wie alles, sie fahren Auto, sie fliegen, sie fahren ÖPNV, sie regeln sämtliche Produktionsprozesse. Maschinen werden nicht müde, brauchen keine Erholungsphasen, sind immer aufmerksam, werden nicht von irrationalen Emotionen überwältigt und abgelenkt.
Und schon jetzt entscheiden eben *nicht* Menschen, sondern Computersysteme völlig autonom, welche Menschen per Drohne ausgelöscht werden und welche nicht.

1071367
Kleidchen
Kleidchen

Das eben ist der entscheidende Schritt, der nicht gegangen werden darf. enn die drohnen werden bisher noch durch Piloten ferngesteuert und der entscheidende Befahl zur Tötung kommt vom Menschen.
Gut finde ich das Alles nicht.

1076209
Ines91
Ines91

Nochmal: Nicht die Menschen entscheiden, welcher Mensch gedront wird.
Die Drohnen fliegen da ein paar Wochen über die Gebiete und beobachten.
Und die Computersysteme errechnen aufgrund von Bewegungsprofilen, wer möglicherweise ein Terrorist ist und wer nicht. Die Ramsteiner Soldaten, die die Drohnen fernsteuern, führen dann nur aus, die kennen oft nicht mal die Namen.

1071367
Kleidchen
Kleidchen

Nein, Ines, das glaube ich dir nicht. Dann müsstest du mir schon sagen, woher du diese Informationen hast.

1076209
Ines91
Ines91

Tja, das klingt nun auch nicht so, als hättest du Lust, dich mal in die Materie einzuarbeiten. Hast du dich denn schon mal mit 'targeting killings' und hier insbesondere mit 'signature strikes' auseinandergesetzt?
Was glaubst du denn nicht?
Bzw. was glaubst du?

1071367
Kleidchen
Kleidchen

Meine Materie ist nicht die Technik von Drohnen oder die Methode von Zielerkennung.
Meine Kenntnis reicht dahin, dass ich den prinzipiellen Aufbau der Drohnensteuerung erkannt habe. Und der sieht vor, dass die Entscheidung, welches Ziel getroffen werden soll, von Menschen gefällt wird.
Das ist schon problematisch genug, denn es fehlen rechtstaatliche Hürden.
also nenne mir Quellen, aus denen hervorgeht, dass Drohnen selbständig Menschen töten auf Basis der von dir erwähnten selbst erstellten Bewegungsbildern o.ä.

Dein Kommentar zu dieser Antwort

Noch nicht registriert bei COSMiQ?
Melde dich hier an!

Bewertung:

hilfreich

Gute Antwort meinen:

letzte 10 Meinungen:

[Fenster schließen]
2

Als gute Antwort bewerten

Kommentare zur Antwort:

10

10 Kommentare

648780
James.T.

James.T.

Rang: Albert Einstein2 (32.547) | Politik (392), welt (20), Kriege (8)

19 Minuten nachdem die Frage gestellt worden ist (11.01.2017 22:26)

3

Egal, wie man moralisches Handeln im Gefecht ausgelegt wird: bei einem Kampfroboter wäre dies wohl nur möglich, wenn die Technologie für eine hochwertige KI vorhanden wäre. Dies könnte jedoch auch zum Bumerang werden: wenn die KI zum Schluss käme, dass der Mensch die Wurzel allen Übels ist, könnte dies zur Ausrottung unserer Spezies führen.
Gottseidank sind wir im technologischen Fortschritt noch nicht ganz so weit...

6 Kommentare

1076209
Ines91
Ines91

Noch nicht ganz. Aber bald.

648780
James.T.
James.T.

Ich weiß, in einem meiner Bücher, an denen ich derzeit schreibe, gehe ich kurz auf diesen Aspekt ein...
Terminator und Robocop lassen grüßen...

1076209
Ines91
Ines91

Dann sende mir doch mal bitte das Script :)

648780
James.T.
James.T.

Sorry, aber das bleibt vorerst unter Verschluss - da könnte ein potentieller Verleger säuerlich reagieren, wenn es vorher im WWW herumgeistert.

1076209
Ines91
Ines91

Schade.
Aber dann poste hier den Link bitte, wenn das Buch erschienen ist.

648780
James.T.
James.T.

Nachdem das meiste ja eigentlich allgemein zugänglich ist, kann ich dir zumindest einige Themen nennen. Bzgl. der Aspekte Technologien geht es u.a. um Self-tracking, bionische Prothesen, um Exosekelette (z.B. HULC oder HAL), um Implantate mit Nanotechnologie, RFID und auch um optical Camouflage.

Dein Kommentar zu dieser Antwort

Noch nicht registriert bei COSMiQ?
Melde dich hier an!

Bewertung:

hilfreich

Gute Antwort meinen:

letzte 10 Meinungen:

[Fenster schließen]
1

Als gute Antwort bewerten

Kommentare zur Antwort:

6

6 Kommentare

1075307
aritter2016

aritter2016

Rang: Nobelpreisträgerin (5.807) | Politik (60), welt (8)

10 Stunden nachdem die Frage gestellt worden ist (12.01.2017 07:31)

4

wenn also ein roboter dem menschen immer ähnlicher werden soll, dann stellt sich die frage in wie weit moral und ethik in sein programm gehören.

für militärs ist das purer luxus.

ein richtiger soldat durchläuft auch eine gewisse hirnwäsche. wird erst stück für stück kaputt gemacht und dann aufgebaut und trainiert.

und dabei mit einer gewissen treue zum land geimpft.

die freund-feind-erkennung der technik hilft dabei die eigene seite zu schützen.

ein roboter würde genau so hergestellt werden oder per fernsteuerung von einem so trainierten menschen gesteuert werden ...

2 Kommentare

1076209
Ines91
Ines91

Zum letzten Satz: Ich glaube, diese Roboter können bald auch autonom handeln und müssen nicht mehr ferngesteuert werden.

1075307
aritter2016
aritter2016

danke für den komentar und er sagt das selbe aus, wie ich mit meinem satz. würde so hergestellt werden. das die robotertechnik schon weiter voran ist, wie wir meinen liegt daran, daß die berichte im fernsehen teilweise konserven sind, die schon jahre in den archiven liegen.

sieht man den robotor von google an, stellt sich nur noch die frage was der an gehirnleistung braucht.

Dein Kommentar zu dieser Antwort

Noch nicht registriert bei COSMiQ?
Melde dich hier an!

Bewertung:

hilfreich

Gute Antwort meinen:

letzte 10 Meinungen:

[Fenster schließen]
1

Als gute Antwort bewerten

Kommentare zur Antwort:

2

2 Kommentare

1026400
Schandi

Schandi

Rang: Albert Einstein (16.686) | Politik (332), welt (35)

15 Stunden nachdem die Frage gestellt worden ist (12.01.2017 12:16)

5

Ja, man kann sie darauf programmieren, sich gegenseitig zu zerstören
und die Menschen in Ruhe zu lassen.
Die sind nämlich dann genug damit belastet, diese ganzen Kampfroboter zu produzieren.

1 Kommentar

1076209
Ines91
Ines91

Das wäre eine Super-Idee. Vorausgesetzt, die Menschen wären wirklich voll ausgelastet mit der Produktion und hätten keine Zeit mehr, selbst Kriege anzuzetteln.

Dein Kommentar zu dieser Antwort

Noch nicht registriert bei COSMiQ?
Melde dich hier an!

Bewertung:

hilfreich

Gute Antwort meinen:

letzte 10 Meinungen:

[Fenster schließen]
1

Als gute Antwort bewerten

Kommentare zur Antwort:

1

1 Kommentar

Anzeige

Diese Frage ist bereits geschlossen, daher sind keine Antworten mehr möglich. Du kannst jedoch einzelne Antworten kommentieren oder einen Kommentar hinterlassen.

Diese Frage:

  • Kommentare
31697
herbert-h
herbert-h

Nein, denn es gibt keine moralischen Kriege.

1076209
Ines91
Ines91

War es nicht moralisch indiziert, den Hitlerfaschismus zu bekämpfen?

31697
herbert-h
herbert-h

Tyrannenmord vs. Krieg da reicht das Kommentarfeld nicht. Da sind wir dann schnell bei 200 Mio Leben im Kampf für die Freiheit, nicht wahr?

1076209
Ines91
Ines91

Also war es NICHT moralisch indiziert, den Hitlerfaschismus zu bekämpfen?

886981
PhyberOptik
PhyberOptik

Autonome Kampfroboter mit digitalisiertem Gewissen wird es aus meiner Sicht niemals geben.

Dazu bedürfte es eines komplexen Programmes, viel aufwändiger als jenes für seine militärischen Fähigkeiten. Dadurch erhöht sich die Gefahr, dass sich die Software aufhängt oder diese manipuliert wird. Zudem kostet dies Energie und Rechenleistung, wodurch die Einheit schwerfälliger würde. Deutlich teurer sowieso.

In seiner eigentlichen Funktion (dem Kriegführen) würde ein Ethik-Programm die taktischen Fähigkeiten und den Eigenschutz stark beschneiden. Womöglich schießt die Einheit nicht auf Gebäude, auf die hastig ein Rotes Kreuz gemalt wurde - oder auf Gegner, die sich im Schutz eines Kinderwagens nähern. Vielleicht verteidigt er sich nicht gegen ein Kind, das seelenruhig eine Mine an ihm befestigt. Zumindest wird er zögern und ein wenig herumrechnen wollen.

Krieg ist grausam und niemals moralisch. Jede Seite akzeptiert unschuldige Tote, ob Diktatur oder Demokratie. Allen ist der militärische Erfolg näher als das Verhindern zivilen Leides. Aus der Sicht eines Militärs oder eines Politikers, der autonome Kampfsysteme finanzieren soll, ist digitale Ethik kontraproduktiv.

Daher wird es so etwas m.E. niemals geben. "Kampfroboter" wird man (falls es vollautonome Verbände überhaupt je geben wird) dort einsetzen, wo auf alles geschossen werden soll, was sich bewegt.

1076209
Ines91
Ines91

Aber die Ziele der Drohneneinsätze in Afghanistan und im Jemen werden doch schon von Computerprogrammen berechnet und ausgesucht. Das machen keine Menschen mehr. Die Drohnenpiloten in Ramstein führen dann nur noch aus.

1076209
Ines91
Ines91

herbert-h, den versuchten Tyrannenmord meine ich nicht.

31697
herbert-h
herbert-h

Ich meine natürlich auch den erfolgreich ausgeführten. Wer der Tyrann ist, entscheidet einfach, wer zur Durchführung des Anschlags in der Lage ist, oder wie stellst du dir das vor? "Can't we just drone this guy?"
Ich würde eben sagen: Moral erübrigt sich, wo schon das Recht fehlt. Im Krieg gibt es spätestens seit dem ersten Weltkrieg keine Moral mehr.

1076209
Ines91
Ines91

@herbert-h
"Ich meine natürlich auch den erfolgreich ausgeführten."

Und ich meinte gar keinen Tyrannenmord. Sondern den Krieg der Alliierten gegen Hitlerdeutschland. Es geht ja hier um Kriege.

"Can't we just drone this guy?"

Ja, "Mr-can't-we-drone-this-guy" bekommt nächste Woche die Atomkoffer.

"Ich würde eben sagen: Moral erübrigt sich, wo schon das Recht fehlt."

Wie das denn?
Man könnte im Gegenzug auch sagen, im rechtsfreien Raum, wenn sich niemand an Gesetze halten muss, wird Moral bzw. die Ethik, die uns innewohnt, erst richtig interessant.

"Im Krieg gibt es spätestens seit dem ersten Weltkrieg keine Moral mehr."

Naja, auch im Krieg gibt es ein paar Regeln: Man tötet keine Zivilisten, man tötet keine Kriegsgefangenen, man bombardiert keine Krankenhäuser, etc.
Wenn all das dennoch passiert, wird es angeprangert. D.h. es gibt zumindest theoretisch auch im Krieg Moral.

1076209
Ines91
Ines91

@Phyberoptik
Warum das als Kommentar, es erfüllt die Kriterien für eine Antwort.

1076209
Ines91
Ines91

"Aus der Sicht eines Militärs oder eines Politikers, der autonome Kampfsysteme finanzieren soll, ist digitale Ethik kontraproduktiv."

Nicht unbedingt, denn um Kriege zu rechtfertigen, bedarf es heutzutage mehr und mehr auch der Zustimmung der Bevölkerung. Und nicht umsonst versäumen die USA es nicht, immer darauf hinzuweisen, dass ihre Raketenangriffe präzise und chirurgisch genau erfolgen (was natürlich Blödsinn ist)

31697
herbert-h
herbert-h

"Wenn all das dennoch passiert, wird es angeprangert. D.h. es gibt zumindest theoretisch auch im Krieg Moral."
Na dann prangere doch mal ein wenig an. Eine schöne Moral ist das, sie man ohne Konsequenzen ignorieren kann! Warum werden denn nicht beim internationalem Gerichtshof die ganzen Kriegsverbrechen und völkerrechtswidrigen Vorgänge wie der militärische Einmarsch in ein Land angezeigt? Warum werden Menschen ohne Gerichtsverhandlung in einem nicht kriegsführendem Land von Drohnen einfach ermordet?
"Can't we just drone this guy?" hat zum Glück den Koffer nicht bekommen. Hillary Clinton soll dies (lachend) über Assange gesagt haben. Wohldokumentiert und geleakt.

 

Das könnte Dich auch interessieren:

Nicht gefunden wonach Du suchst?

Dann stelle Deine Frage doch schnell und kostenlos!