Freigeisterhaus Foren-Übersicht
 FAQFAQ   SuchenSuchen   MitgliederlisteMitgliederliste   NutzungsbedingungenNutzungsbedingungen   BenutzergruppenBenutzergruppen   LinksLinks   RegistrierenRegistrieren 
 ProfilProfil   Einloggen, um private Nachrichten zu lesenEinloggen, um private Nachrichten zu lesen   LoginLogin 

Logik & Moral
Gehe zu Seite 1, 2  Weiter
 
Neues Thema eröffnen   Neue Antwort erstellen   Drucker freundliche Ansicht    Freigeisterhaus Foren-Übersicht -> Wissenschaft und Technik
Vorheriges Thema anzeigen :: Nächstes Thema anzeigen  
Autor Nachricht
zelig
Kultürlich



Anmeldungsdatum: 31.03.2004
Beiträge: 25405

Beitrag(#1935317) Verfasst am: 19.07.2014, 20:31    Titel: Logik & Moral Antworten mit Zitat

Frage SZ vom 19. Juli 2014:
Zitat:
Lässt sich nicht auch Moral nach logischen Regeln in Computer und Roboter einbauen? Manche Computerwissenschaftler plädieren für Moralprogramme etwa in Drohnen, weil sie sich an die Regeln besser halten als Menschen, die vielleicht gerade in Todesangst entscheiden müssen.


Antwort Helmut Veith, Logiker TU Wien:

Zitat:
Schwierige Frage. Ja, eine Drohne läuft nicht Amok. Dennoch wäre es im eigentlichen Sinn des Wortes unmenschlich, Entscheidungen über Leben und Tod dem Computer zu überlassen. Es sei denn, zwei Drohnen erschießen sich gegenseitig, das wäre mir sympathisch - allerdings könnte man den Krieg dann gleich als Computersimulation führen. Aber im Ernst, ich halte es mit Robert Musil, der geschrieben hat, dass Moral die Seele durch Logik ersetzt. Was aber geschieht, wenn der Computer auf Situationen stößt, wo ihm eine logische Regel keine Antwort gibt? Und die Seele fehlt? Ich denke auch an jene berühmten Situationen im kalten Krieg, wo jemand wie Stanislaw Petrow 1983 dann doch nicht auf den Knopf für die Atomraketen gedrückt hat, weil sein INstinkt nicht an den gegnerischen Angriff geglaubt hat, den ihm die Computer gemeldet hatten.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Casual3rdparty
dauerhaft gesperrt



Anmeldungsdatum: 21.07.2012
Beiträge: 6255

Beitrag(#1935327) Verfasst am: 19.07.2014, 21:02    Titel: Antworten mit Zitat

ein problem ist, dass soldaten bereits heute amoralische weisungen erhalten. israelische soldaten schießen steinewerfenden jugendlichen den Unterschenkel weg, auf weisung von oben.
oder piloten bombardieren häuser mit der gewissheit, dass statistisch dabei eine gewisse anzahl zivilisten getötet werden. warum sollten die gleichen weisungsbefugten den drohnen eine bessere moral einpflanzen? oder nimmt helmut veith an, dass über das moralicshe logikprogramm von drohnen inhaltlich detailliert demokratisch abgestimmt wird, das ganze also, anders als Soldaten, einer art höheren parlamentarischen kontrolle unterliegen wird?
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Samson83
registrierter User



Anmeldungsdatum: 18.01.2013
Beiträge: 6833

Beitrag(#1935334) Verfasst am: 19.07.2014, 21:14    Titel: Antworten mit Zitat

Ich bin tatsächlich der Ansicht, dass Drohnen zu einer gewissen humanisierung der Kriegsführung beitragen können, zivile Opfer vermidnern und natürlich die Schäden bei der eigenen Truppe minimieren. Daher ist mir nicht ganz einsichtig, wieso Drohnen besändig als Übel dargestellt werden, meist ohne Begründung.

Wahr ist, dass sich das Verhalten logisch bestimmen und planen lässt, wenn vorher gewisse Wertmaßstäbe begründet sind - in Bezug auf die Drohne etwa, nicht auf Ziele unter 1,60 (wahrscheinlich Kinder) zu schießen. Keine Ahnung ob das technisch geht.

Aber die Wertmaßstäbe selbst sind keineswegs logischen Ursprungs.
_________________
An alle: Lasst Euch dadurch nicht in die Irre führen. Dieser braune Burschi muss bearbeitet werden - immer hart an der Sache. Macht ihn mürbe! (Kramer)
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
beachbernie
male Person of Age and without Color



Anmeldungsdatum: 16.04.2006
Beiträge: 45792
Wohnort: Haida Gwaii

Beitrag(#1935340) Verfasst am: 19.07.2014, 21:21    Titel: Antworten mit Zitat

Ich plaediere dafuer die "3 Regeln der Robotik" nach Issac Asimov in alle "intelligenten Maschinen" zu implementieren.

1. Ein Roboter darf keinen Menschen toeten oder verletzen.

2. Ein Roboter muss allen Befehlen eines Menschen gehorchen.

3. Ein Roboter darf sich nicht selbst zerstoeren oder seine Existenz gefaehrden.

Wobei die 3 Regeln hierarchisch zu verstehen sind: Regel 3 gilt nur, wenn dadurch weder Regel 1 noch Regel 2 verletzt wird. Regel 2 gilt nur, wenn dadurch Regel 1 nicht verletzt wird.


Nach diesen Regeln waere der Bau von militaerischen Kampfdrohnen nicht zulaessig.
_________________
Defund the gender police!! Let's Rock
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Casual3rdparty
dauerhaft gesperrt



Anmeldungsdatum: 21.07.2012
Beiträge: 6255

Beitrag(#1935347) Verfasst am: 19.07.2014, 21:34    Titel: Antworten mit Zitat

beachbernie hat folgendes geschrieben:

Nach diesen Regeln waere der Bau von militaerischen Kampfdrohnen nicht zulaessig.

eben.
die ersten Drohnen waren in der lage sprengfallen zu finden, oft durch auslösen dieser. das wäre nach den gesetzen von asimov wohl noch möglich und auch hilfreich. trotzdem dürfte sie keine befehle von gegnerischen menschen entgegen nehmen.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
beachbernie
male Person of Age and without Color



Anmeldungsdatum: 16.04.2006
Beiträge: 45792
Wohnort: Haida Gwaii

Beitrag(#1935349) Verfasst am: 19.07.2014, 21:37    Titel: Antworten mit Zitat

Casual3rdparty hat folgendes geschrieben:
beachbernie hat folgendes geschrieben:

Nach diesen Regeln waere der Bau von militaerischen Kampfdrohnen nicht zulaessig.

eben.
die ersten Drohnen waren in der lage sprengfallen zu finden, oft durch auslösen dieser. das wäre nach den gesetzen von asimov wohl noch möglich und auch hilfreich. trotzdem dürfte sie keine befehle von gegnerischen menschen entgegen nehmen.


Bereits Regel 1, die in der Hierarchie hoechste, schliesst militaerische Kampfdrohnen von vorneherein aus.
_________________
Defund the gender police!! Let's Rock
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Samson83
registrierter User



Anmeldungsdatum: 18.01.2013
Beiträge: 6833

Beitrag(#1935352) Verfasst am: 19.07.2014, 21:40    Titel: Antworten mit Zitat

beachbernie hat folgendes geschrieben:
Casual3rdparty hat folgendes geschrieben:
beachbernie hat folgendes geschrieben:

Nach diesen Regeln waere der Bau von militaerischen Kampfdrohnen nicht zulaessig.

eben.
die ersten Drohnen waren in der lage sprengfallen zu finden, oft durch auslösen dieser. das wäre nach den gesetzen von asimov wohl noch möglich und auch hilfreich. trotzdem dürfte sie keine befehle von gegnerischen menschen entgegen nehmen.


Bereits Regel 1, die in der Hierarchie hoechste, schliesst militaerische Kampfdrohnen von vorneherein aus.

Aha. Du bist also gegen Drohnen, weil du gegen Drohnen bist und weil ein guter Science Fiction Autor da ein paar Gesetze formuliert hat. Ganz großes Tennis mal wieder Mit den Augen rollen
_________________
An alle: Lasst Euch dadurch nicht in die Irre führen. Dieser braune Burschi muss bearbeitet werden - immer hart an der Sache. Macht ihn mürbe! (Kramer)
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Casual3rdparty
dauerhaft gesperrt



Anmeldungsdatum: 21.07.2012
Beiträge: 6255

Beitrag(#1935353) Verfasst am: 19.07.2014, 21:40    Titel: Antworten mit Zitat

Samson83 hat folgendes geschrieben:

Wahr ist, dass sich das Verhalten logisch bestimmen und planen lässt, wenn vorher gewisse Wertmaßstäbe begründet sind - in Bezug auf die Drohne etwa, nicht auf Ziele unter 1,60 (wahrscheinlich Kinder) zu schießen. Keine Ahnung ob das technisch geht.
die soldaten, die die kampfdrohnen steuern, schießen doch bereits heute auf autos, von denen sie wissen, dass neben dem ziel auch kinder im auto sitzen. eine drohne wäre dann im kampfwert benachteiligt und würde wohl nicht eingesetzt werden.
deine argumentation bedeutet, dass Drohnen, solcher maßen im kampfwert zurückgestuft, eher für routineaufgaben, etwa überwachen eingesetzt würden und für die kill-jobs wieder menschen.
ich weiß nicht, ob das für die opfer einen unterschied macht.
die ganze argumentation in diesem thread geht aber davon aus, dass wir zivilisten wissen werden und auch gefragt werden, wie unsere Militärs ihre Drohnen programmieren werden. ich denke, da unsere militärs uns nicht fragen, was für moralische anweisungen sie unseren soldaten geben, werden sie uns auch nicht fragen, wie sie ihre drohnen programmieren sollen.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Casual3rdparty
dauerhaft gesperrt



Anmeldungsdatum: 21.07.2012
Beiträge: 6255

Beitrag(#1935354) Verfasst am: 19.07.2014, 21:42    Titel: Antworten mit Zitat

beachbernie hat folgendes geschrieben:
Casual3rdparty hat folgendes geschrieben:
beachbernie hat folgendes geschrieben:

Nach diesen Regeln waere der Bau von militaerischen Kampfdrohnen nicht zulaessig.

eben.
die ersten Drohnen waren in der lage sprengfallen zu finden, oft durch auslösen dieser. das wäre nach den gesetzen von asimov wohl noch möglich und auch hilfreich. trotzdem dürfte sie keine befehle von gegnerischen menschen entgegen nehmen.


Bereits Regel 1, die in der Hierarchie hoechste, schliesst militaerische Kampfdrohnen von vorneherein aus.

regel 1 schließt aus, dass eine drohne eine mine findet, indem sie diese auslöst?
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Shadaik
evolviert



Anmeldungsdatum: 17.07.2003
Beiträge: 26377
Wohnort: MG

Beitrag(#1935457) Verfasst am: 20.07.2014, 10:43    Titel: Antworten mit Zitat

Casual3rdparty hat folgendes geschrieben:
beachbernie hat folgendes geschrieben:
Casual3rdparty hat folgendes geschrieben:
beachbernie hat folgendes geschrieben:

Nach diesen Regeln waere der Bau von militaerischen Kampfdrohnen nicht zulaessig.

eben.
die ersten Drohnen waren in der lage sprengfallen zu finden, oft durch auslösen dieser. das wäre nach den gesetzen von asimov wohl noch möglich und auch hilfreich. trotzdem dürfte sie keine befehle von gegnerischen menschen entgegen nehmen.


Bereits Regel 1, die in der Hierarchie hoechste, schliesst militaerische Kampfdrohnen von vorneherein aus.

regel 1 schließt aus, dass eine drohne eine mine findet, indem sie diese auslöst?
Das wäre zwar eine Drohhne, aber keine KAMPFdrohne, da sie weder bewaffnet ist noch Gegner angreift.

Viel interessanter wird es bei der Frage von Drohnenabwehrdrohnen.
Das ist eine Entwicklung, die wir zuvor bei den Flugzeugen haben, sehr bald nach der Einführung militärischer Fluggeräte kamen Flugzeuge auf, deren einziger Zweck es war, andere Flugzeuge vom Himmel zu holen (vor allem diverse Subklassen der Jäger bzw. Fighter).
Die Tatsache ist, dass wir davon ausgehen müssen, dass eine technisch mögliche Waffenklasse auch eingesetzt wird, wenn auch nicht von uns. Und dann brauchen wir Abwehrkapazitäten.
_________________
Fische schwimmen nur in zwei Situationen mit dem Strom: Auf der Flucht und im Tode
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden Website dieses Benutzers besuchen
smallie
resistent!?



Anmeldungsdatum: 02.04.2010
Beiträge: 3726

Beitrag(#1935490) Verfasst am: 20.07.2014, 13:15    Titel: Re: Logik & Moral Antworten mit Zitat

zelig hat folgendes geschrieben:
Frage SZ vom 19. Juli 2014


Lässt sich nicht auch Moral nach logischen Regeln in Computer und Roboter einbauen?

Einbauen ist nicht das Problem.

Die logischen Regeln sind es - gibt es denn überhaupt quantitative Moralsysteme?

Technisch wäre es möglich, etwas in der Form: "tue Gutes, vermeide Böses" oder "maximiere den Gesamtnutzen, minimiere den Schaden" zu programmieren. Ich wünsche schon jetzt viel Spaß beim Streit um Gut- und Böse, um Schaden- und Nutzenskoeffizienten. Pfeifen

Spätestens wenn das erste Scharmützel verloren wurde, weil die Kampfroboter zu zimperlich waren, würde Rufen nach etwas robusterer Parameterwahl laut. Wieviel Kolateralschaden darf es sein, um ein wichtiges militärisches Ziel zu erreichen?


Manche Computerwissenschaftler plädieren für Moralprogramme etwa in Drohnen,

Was zum Teufel ist ein Moralprogramm? Müßten bisherige Kampfroboter nicht bereits ein rudimentäres Moralprogramm haben - etwa eine Freund-Feind-Erkennung? Die Dinger werden doch nicht einfach auf alles ballern, was ihnen vor die Linse kommt.


Manche Computerwissenschaftler plädieren für Moralprogramme etwa in Drohnen, weil sie sich an die Regeln besser halten als Menschen.

Hier überhaupt von "Moral" zu sprechen ist eine unglückliche Wahl, das wird keine Software in nächster Zukunft leisten können. Ein besserer Name wäre Zivilistenschutzmodul oder Kollateralschadensabwehr.

Denn: Moral gestehe ich nur dem zu, der Regeln reflektieren und nötigenfalls ablehnen kann. Eine Kampfmaschine wäre nur dann moralisch, wenn sie einen Einsatzbefehl aus Gewissensgründen ablehnen kann.


Ja, eine Drohne läuft nicht Amok.

Ach, die können bei der DARPA und in den Rüstungsschmieden inzwischen garantiert fehlerfreie Programme schreiben? Na, dann bin ich ja beruhigt. zwinkern


Dennoch wäre es im eigentlichen Sinn des Wortes unmenschlich, Entscheidungen über Leben und Tod dem Computer zu überlassen.

Auch Menschen können unmenschliche Entscheidungen fällen.

Szenario:

1) Es ist Krieg. Gerade eben sind diese miesen XXX in mein Dorf einmarschiert. Schon treten sie meine Haustür ein, und zwei Krieger ducken sich mit der Maschinenpistole im Anschlag herein. Mir fällt ihre Geringschätzung für meinen Stamm ein.

2) Es ist Krieg. Gerade eben sind diese miesen XXX in mein Dorf einmarschiert. Schon surrt eine Kampfmaschine zur Tür herein.

Das zweite Szenario hat einen gewissen Reiz, wenn man befürchten muß, daß die miesen XXX einmarschieren könnten.


An dieser Stelle würde ich gerne mehr wissen, über geplante Einsatzarten von Kampfrobotern. Auch würde ich gerne wissen, was die wirklich können. Was ich bisher gesehen habe, war eher ein Hype. Bestimmt ein profitabler Hype für die amerikanische Rüstungsindustrie. Cool



Was aber geschieht, wenn der Computer auf Situationen stößt, wo ihm eine logische Regel keine Antwort gibt?

In Star Treck sprühten die Computer dann Funken und brannten aus.

Im Ernst: die Antwort "nichtstun" wird die häufigste Antwort im Leerlauf sein. Sie ist die Rückfalloption, wenn keine Entscheidung zustande kommt. Ich denke nicht, daß "keine Antwort" ein Problem ist. Eher schon falsche Antworten.
_________________
"There are two hard things in computer science: cache invalidation, naming things, and off-by-one errors."
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Lord Snow
I am the one who knocks



Anmeldungsdatum: 05.09.2006
Beiträge: 6445
Wohnort: Würzburg

Beitrag(#1935499) Verfasst am: 20.07.2014, 13:54    Titel: Antworten mit Zitat

Samson83 hat folgendes geschrieben:

Wahr ist, dass sich das Verhalten logisch bestimmen und planen lässt, wenn vorher gewisse Wertmaßstäbe begründet sind - in Bezug auf die Drohne etwa, nicht auf Ziele unter 1,60 (wahrscheinlich Kinder) zu schießen. Keine Ahnung ob das technisch geht.


Nö, da muss sich der Terrorist nur kleiner wie 1,60 machen und schon fällt er durch das Raster!
_________________
Ich irre mich nie! Einmal dachte ich, ich hätte mich geirrt, aber da hatte ich mich getäuscht

"Der Gott, der Gott sterben läßt, um Gott zu besänftigen"...Hundert Folianten, die für oder wider das Christentum geschrieben worden sind, ergeben eine geringere Evidenz als der Spott dieser zwei Zeilen.
Denis Diderot
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
sehr gut
dauerhaft gesperrt



Anmeldungsdatum: 05.08.2007
Beiträge: 14852

Beitrag(#1935503) Verfasst am: 20.07.2014, 14:15    Titel: Antworten mit Zitat

'Selbstfahrende' Autos werden bald kommen, da geht es immer mehr um Haftungsfragen. Denn um Unfälle wirklich zu vermeiden müsste man so fahren wie man es üblicherweise nicht macht. Man kann zB nicht mit 50km/h an einem Bürgersteig mit einem Kind drauf vorbeifahren und darauf vertrauen das dieses Kind nicht doch plötzlich auf die Strasse läuft. Wenn es danach ginge könnte man in vielen Bereichen kaum schneller wie 15km/h fahren wo man heute 3-4x so schnell fährt.

d.h. auch die computergesteuerten Fahrzeuge werden Unfälle mit Personenschaden verursachen, auch wenn sie sich korrekt an die StVO halten, weil bestimmte Unfälle damit nicht ausgeschlossen werden können.
Bei derartigen 'Unfällen' wo der Fahrer korrekt fuhr wär eben die Aufsichtsperson des Kindes Schuld, die hätte aufpassen müssen.

Auf bewaffnete Drohnen bezogen ist es absurd davon auszugehen eine Rakete in eine eng bebaute Gegend zu schiessen ohne einzukalkulieren das auch Unbeteiligte dadurch verletzt oder getötet werden. Wenn man dies wirklich ausschliessen will kann man kaum noch Raketen abschiessen.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Fake
auf eigenen Wunsch deaktiviert



Anmeldungsdatum: 11.11.2011
Beiträge: 3548

Beitrag(#1935646) Verfasst am: 21.07.2014, 08:24    Titel: Antworten mit Zitat

Die ursprüngliche Frage, die zelig hier aufgeworfen hat, war doch: sollten Computer Entscheidungen treffen können? Hypothetisch eine interessante Frage aber völlig ohne praktische Relevanz, denn für solche Drohnen gibt es gar kein Bedürfnis. Niemand will Drohnen losschicken mit dem Auftrag "führe Krieg". Es geht immer um konkrete Einsätze, wie "zerstöre Haus xy". Die Frage der Moral stellt sich dann aber nicht mehr.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Ahriman
Tattergreis



Anmeldungsdatum: 31.03.2006
Beiträge: 17976
Wohnort: 89250 Senden

Beitrag(#1935661) Verfasst am: 21.07.2014, 10:37    Titel: Antworten mit Zitat

Ihr solltet bedenken, daß Computer gar keine Entscheidungen treffen können. Die trifft immer nur der Programmierer
if a>b then
Computer haben kein Urteilsvermögen, und ohne eine richtige artifizielle Intelligenz werden sie es nie haben. Wie unterscheidet eine Drohne einen Jungen mit Spielzeugpistole von einem bewaffneten jugendlichen Rauschgiftdealer? Das dürfte schon für den Menschen schwer möglich sein, der vor dem Bildschirm am Fernsteuerpult einer Drohne sitzt.
In den USA ist es schon vorgekommen, daß Polizisten auf vermeintlich bewaffnete Kinder schossen, und da haben auch schon Kinder mit vermeintlichen Spielzeugpistolen Polizisten umgelegt. Und Polizisten sollten wohl doch etwas mehr Intelligenz haben als ein Computer. Hoffe ich.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden E-Mail senden
Smode
registrierter User



Anmeldungsdatum: 13.06.2013
Beiträge: 308

Beitrag(#1935962) Verfasst am: 22.07.2014, 15:41    Titel: Antworten mit Zitat

Ahriman hat folgendes geschrieben:
Ihr solltet bedenken, daß Computer gar keine Entscheidungen treffen können. Die trifft immer nur der Programmierer
if a>b then
Computer haben kein Urteilsvermögen, und ohne eine richtige artifizielle Intelligenz werden sie es nie haben.


Ich denke das ist eher eine Glaubensfrage. Ich glaube ja, dass wir irgendwann dahintersteigen welche nullen und einsen dafuer im zusammenspiel dafuer sorgen, uns ein bewusstsein vorzugaukeln. dass man die chemischen vorgaenge die dahinterstehen ob ein neuron feuert oder nicht, nicht simulieren kann ist denke ich auch nicht undenkbar(letztlich ist das auch inhibition > reiz), mal abgesehen davon dass es gar nicht so wichtig ist. man muss ja kein biologische wesen nachbauen, sondern "nur" etwas, dass ein ich verstaendnis hat. statte dieses ich mit der faehigkeit aus sich selbst zu programmieren oder neues zu programmieren und ruckzuck haben wir eine KI gegen die der menschliche aparat wie kinderkram aussieht.

und aufs thema bezogen:

moral ist wohl ein wenig zu hochgegriffen fuer die momentanen moeglichkeiten, aber wenn man einer drohne zb einimpft, dass sie nicht auf eine gruppe feuert solange nicht waffen identifiziert werden koennen, waere das doch moralisch wertvoll. aber wer, der waffen verwendet will eine waffe die ihm den dienst aus moralgruenden verweigert?
_________________
Every man takes the limits of his own field of vision for the limits of the world.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Shadaik
evolviert



Anmeldungsdatum: 17.07.2003
Beiträge: 26377
Wohnort: MG

Beitrag(#1935972) Verfasst am: 22.07.2014, 16:14    Titel: Antworten mit Zitat

Die Unterscheidung setzt auch voraus, dass es einen echt und zweifellos freien Willen gibt, sonst ist auch jede menschliche Entscheidung von Parametern in Gehirn und Umgebung abhängig. Dann sprechen wir von etwas, was nicht nur für Elektronenhirne, sondern ganz grundsätzlich für jedes System unmöglich ist.
Noch weiter: Schafften wir es, eine solche Intelligenz zu entwickeln, hätten wir etwas geschaffen, was sich mit besserer Begründung als frei und entscheidungsfähig bezeichnen kann als wir arme Fleischsäcke.
_________________
Fische schwimmen nur in zwei Situationen mit dem Strom: Auf der Flucht und im Tode
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden Website dieses Benutzers besuchen
step
registriert



Anmeldungsdatum: 17.07.2003
Beiträge: 22782
Wohnort: Germering

Beitrag(#1936229) Verfasst am: 23.07.2014, 16:29    Titel: Antworten mit Zitat

Ahriman hat folgendes geschrieben:
Ihr solltet bedenken, daß Computer gar keine Entscheidungen treffen können. Die trifft immer nur der Programmierer
if a>b then ...

- nicht wenn der Programmierer programmiert, daß die Entscheidung aufgrund gelernter Datensätze geschehen soll.
- nach Deinem Argument könnte man ebenso behaupten, der Mensch treffe keine Entscheidungen, denn auch er bewertet ja nur nach gelernten Regeln, Erfahrungen u.ä.
_________________
Was ist der Sinn des Lebens? - Keiner, aber Leere ist Fülle für den, der sie sieht.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
caballito
zänkisches Monsterpony



Anmeldungsdatum: 16.07.2003
Beiträge: 12112
Wohnort: Pet Sematary

Beitrag(#1936244) Verfasst am: 23.07.2014, 18:06    Titel: Antworten mit Zitat

step hat folgendes geschrieben:
Ahriman hat folgendes geschrieben:
Ihr solltet bedenken, daß Computer gar keine Entscheidungen treffen können. Die trifft immer nur der Programmierer
if a>b then ...

- nicht wenn der Programmierer programmiert, daß die Entscheidung aufgrund gelernter Datensätze geschehen soll.

Auch dann. Es ist der Programmierer, der vorgibt, was für Datensätze zu "lernen" sind und welche "Entscheidungen" daraus folgen sollen.

step hat folgendes geschrieben:

- nach Deinem Argument könnte man ebenso behaupten, der Mensch treffe keine Entscheidungen, denn auch er bewertet ja nur nach gelernten Regeln, Erfahrungen u.ä.

Und? Ist doch so ... Schulterzucken
_________________
Die Gedanken sind frei.

Aber nicht alle Gedanken wissen das.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden E-Mail senden
Smode
registrierter User



Anmeldungsdatum: 13.06.2013
Beiträge: 308

Beitrag(#1936285) Verfasst am: 23.07.2014, 20:02    Titel: Antworten mit Zitat

caballito hat folgendes geschrieben:


step hat folgendes geschrieben:

- nach Deinem Argument könnte man ebenso behaupten, der Mensch treffe keine Entscheidungen, denn auch er bewertet ja nur nach gelernten Regeln, Erfahrungen u.ä.

Und? Ist doch so ... Schulterzucken


Definiert wird es als Entscheidungen treffen. Wie das zustande kommt ist fuer dieses Problem doch irrelevant.
_________________
Every man takes the limits of his own field of vision for the limits of the world.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
AlexJ
Supermarktoverlord



Anmeldungsdatum: 11.04.2008
Beiträge: 2353
Wohnort: Köln

Beitrag(#1936287) Verfasst am: 23.07.2014, 20:06    Titel: Antworten mit Zitat

beachbernie hat folgendes geschrieben:
Ich plaediere dafuer die "3 Regeln der Robotik" nach Issac Asimov in alle "intelligenten Maschinen" zu implementieren.

1. Ein Roboter darf keinen Menschen toeten oder verletzen.

2. Ein Roboter muss allen Befehlen eines Menschen gehorchen.

3. Ein Roboter darf sich nicht selbst zerstoeren oder seine Existenz gefaehrden.

Wobei die 3 Regeln hierarchisch zu verstehen sind: Regel 3 gilt nur, wenn dadurch weder Regel 1 noch Regel 2 verletzt wird. Regel 2 gilt nur, wenn dadurch Regel 1 nicht verletzt wird.


Nach diesen Regeln waere der Bau von militaerischen Kampfdrohnen nicht zulaessig.


Regel 1 führt doch schon zur gleichen Problematik wie bei den Fragen die früher benutzt wurden um Wehrdienstverweigerer zum Kriegsdienst zu zwingen. D.h. Situationen die nur Handlungsmöglichkeiten vor geben an dessen Ende Menschen getötet werden. Wahrnehmungsfähigkeit und Abstraktionsvermögen sind weitere Eigenschaft die den Erfolg der ersten Regeln stark beeinflussen.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Tarvoc
would prefer not to.



Anmeldungsdatum: 01.03.2004
Beiträge: 44650

Beitrag(#1936313) Verfasst am: 23.07.2014, 21:41    Titel: Re: Logik & Moral Antworten mit Zitat

smallie hat folgendes geschrieben:
Dennoch wäre es im eigentlichen Sinn des Wortes unmenschlich, Entscheidungen über Leben und Tod dem Computer zu überlassen.

Nein. Das Problem ist doch nicht eins der Roboterethik. Wenn es ein Problem ist, Computern die Entscheidung über Leben und Tod zu überlassen, dann deshalb, weil es ethisch bereits mindestens problematisch ist, wenn Menschen solche Entscheidungen treffen. Die ganze Idee der Roboterethik scheitert doch nicht an den Robotern, sondern von Anfang an daran, dass wir schon damit Probleme haben, menschliches Denken und Handeln ethisch zu gestalten.
_________________
"Die Tradition der Unterdrückten belehrt uns darüber, daß der Ausnahmezustands in dem wir leben, die Regel ist."
- Walter Benjamin, VIII. These zum Begriff der Geschichte
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
caballito
zänkisches Monsterpony



Anmeldungsdatum: 16.07.2003
Beiträge: 12112
Wohnort: Pet Sematary

Beitrag(#1936315) Verfasst am: 23.07.2014, 21:46    Titel: Antworten mit Zitat

Smode hat folgendes geschrieben:
caballito hat folgendes geschrieben:


step hat folgendes geschrieben:

- nach Deinem Argument könnte man ebenso behaupten, der Mensch treffe keine Entscheidungen, denn auch er bewertet ja nur nach gelernten Regeln, Erfahrungen u.ä.

Und? Ist doch so ... Schulterzucken


Definiert wird es als Entscheidungen treffen. Wie das zustande kommt ist fuer dieses Problem doch irrelevant.

Für dich. Für mich. Vielleicht für viele. Für den Der-Mensch-ist-aber-keine-Maschine-Gläubigen nicht (weil der Mensch einfach nicht ein programmierter Roboter sein kann, weil es eben nicht so sein kann). Und für den Es-gibt-aber-keinen-freien-Willen-Dogmatiker auch nicht (weil Entscheidung ja nur im Sinne der Der-Mensch-ist-aber-keine-Maschine-Gläubigen verstanden werden kann).
_________________
Die Gedanken sind frei.

Aber nicht alle Gedanken wissen das.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden E-Mail senden
zelig
Kultürlich



Anmeldungsdatum: 31.03.2004
Beiträge: 25405

Beitrag(#1936321) Verfasst am: 23.07.2014, 21:54    Titel: Antworten mit Zitat

Vorausgesetzt, moralische Entscheidungen wären anhand logischer Operatoren abbildbar, und man könnte nun die Entscheidungsfindung einer zuverlässigen AI überlassen. Dann wäre zunächst eine Überlegung, ob die Entscheidungen der AI nicht der menschlichen Entscheidung überlegen, da weniger störanfällig wäre. Menschen begehen Fehler in Stresssituationen, die eine AI nicht kennt. Jetzt kommt aber Helmut Veith und erinnert an Stanislaw Petrow, der die logische Entscheidung verwirft, und durch eine fehlerhafte Entscheidung - im Sinne einer zuverlässig funktionierenden AI fehlerhaft- ersetzt.
Wir werten die Entscheidung Petrows als eine gute Entscheidung. Es hätte für eine AI keinen Weg gegeben, zu dieser Entscheidung zu gelangen. Dafür müsste sie menschlich werden, und gegen die Logik auf eine Zukunft setzen können, die auf so was wie Vertrauen gebaut war.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
step
registriert



Anmeldungsdatum: 17.07.2003
Beiträge: 22782
Wohnort: Germering

Beitrag(#1936325) Verfasst am: 23.07.2014, 22:05    Titel: Antworten mit Zitat

caballito hat folgendes geschrieben:
step hat folgendes geschrieben:
Ahriman hat folgendes geschrieben:
Ihr solltet bedenken, daß Computer gar keine Entscheidungen treffen können. Die trifft immer nur der Programmierer
if a>b then ...
- nicht wenn der Programmierer programmiert, daß die Entscheidung aufgrund gelernter Datensätze geschehen soll.
Auch dann. Es ist der Programmierer, der vorgibt, was für Datensätze zu "lernen" sind und welche "Entscheidungen" daraus folgen sollen.

Das muß man keineswegs so sehen. Der Programmierer weiß möglicherweise zum Zeitpunkt des Programmierens nicht, was für Datensatzinhalte überhaupt vorkommen, so daß seine Vorgaben nur sehr abstrakter Natur sind. Ähnlich abstrakt möglicherweise wie die biologischen Vorgaben in einem lernenden Kind.

Generell finde selbst ich als Determinist es verzerrend, in einem solchen Kontext noch von "Vorgaben" zu reden.

Das sieht bei konkreten, Asimov-artigen Vorgaben natürlich anders aus - die stellen für den Computer einen äußeren oder innneren Zwang dar, und es wäre mE fraglich, ob diese Einschränkungen überhaupt ethisch zumutbar wären.

caballito hat folgendes geschrieben:
step hat folgendes geschrieben:
- nach Deinem Argument könnte man ebenso behaupten, der Mensch treffe keine Entscheidungen, denn auch er bewertet ja nur nach gelernten Regeln, Erfahrungen u.ä.
Und? Ist doch so ... Schulterzucken

Genau, meine Entgegnungen richteten sich gegen unterschiedliche Ebenen der Behauptung, je nach Couleur - muß ich Dir ja nun wirklich nicht erklären zwinkern
_________________
Was ist der Sinn des Lebens? - Keiner, aber Leere ist Fülle für den, der sie sieht.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
step
registriert



Anmeldungsdatum: 17.07.2003
Beiträge: 22782
Wohnort: Germering

Beitrag(#1936326) Verfasst am: 23.07.2014, 22:11    Titel: Antworten mit Zitat

zelig hat folgendes geschrieben:
Wir werten die Entscheidung Petrows als eine gute Entscheidung. Es hätte für eine AI keinen Weg gegeben, zu dieser Entscheidung zu gelangen. Dafür müsste sie menschlich werden, ...

Ist das wirklich so? Petrovs Entscheidung basiert nmV auf der Erkenntnis, daß, wenn er den Knopf drückt, eine global vernichtende Kette in Gang gesetzt wird, die den Untergang großer Teile der Menschheit zur Folge hat. Ich denke nicht, daß eine AI generell unfähig wäre, ein solches Kriterium zu berücksichtigen.

Zumal dieses Argument unter einer Art anthropischem Makel leidet: Petrov hätte leicht anders entscheiden können, sehr leicht!
_________________
Was ist der Sinn des Lebens? - Keiner, aber Leere ist Fülle für den, der sie sieht.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
zelig
Kultürlich



Anmeldungsdatum: 31.03.2004
Beiträge: 25405

Beitrag(#1936336) Verfasst am: 23.07.2014, 22:29    Titel: Antworten mit Zitat

step hat folgendes geschrieben:
zelig hat folgendes geschrieben:
Wir werten die Entscheidung Petrows als eine gute Entscheidung. Es hätte für eine AI keinen Weg gegeben, zu dieser Entscheidung zu gelangen. Dafür müsste sie menschlich werden, ...

Ist das wirklich so? Petrovs Entscheidung basiert nmV auf der Erkenntnis, daß, wenn er den Knopf drückt, eine global vernichtende Kette in Gang gesetzt wird, die den Untergang großer Teile der Menschheit zur Folge hat. Ich denke nicht, daß eine AI generell unfähig wäre, ein solches Kriterium zu berücksichtigen.


Ob das des Punkt genau erfasst? Die Entscheidung war, ob man selber auf einen Schlag verzichtet, wenn alles darauf hindeutet, daß der Gegner den Schlag ausführt. Man hätte keine Katastrophe verhindert, wenn das zutreffend gewesen wäre. Man hätte nur nicht zurückgeschlagen. Die Überlegung war nach meinem Verständnis eher, setze ich darauf, daß hier ein Irrtum vorliegt?

Die Verallgemeinerung dieses Verhaltens wäre daher aus meiner Sicht die Fähigkeit, sich von Vorgaben zu lösen, um eine Entscheidung mit anderen Prämissen neu zu überdenken. Ob das programmierbar wäre?
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
caballito
zänkisches Monsterpony



Anmeldungsdatum: 16.07.2003
Beiträge: 12112
Wohnort: Pet Sematary

Beitrag(#1936350) Verfasst am: 23.07.2014, 22:57    Titel: Antworten mit Zitat

step hat folgendes geschrieben:
caballito hat folgendes geschrieben:
step hat folgendes geschrieben:
Ahriman hat folgendes geschrieben:
Ihr solltet bedenken, daß Computer gar keine Entscheidungen treffen können. Die trifft immer nur der Programmierer
if a>b then ...
- nicht wenn der Programmierer programmiert, daß die Entscheidung aufgrund gelernter Datensätze geschehen soll.
Auch dann. Es ist der Programmierer, der vorgibt, was für Datensätze zu "lernen" sind und welche "Entscheidungen" daraus folgen sollen.

Das muß man keineswegs so sehen. Der Programmierer weiß möglicherweise zum Zeitpunkt des Programmierens nicht, was für Datensatzinhalte überhaupt vorkommen, so daß seine Vorgaben nur sehr abstrakter Natur sind. Ähnlich abstrakt möglicherweise wie die biologischen Vorgaben in einem lernenden Kind.

Dass er den Input nicht kennt, und damit den Output nicht vorhersehen kann, ändert nichts daran, dass er, er allein und vollständig determiert vorgibt, wie er Input zu Output verwurstet wird. Ebensowenig, dass er, hinreichende Komplexität vorausgesetzt, nicht voraussehen kann, welchen konkreten Output ein konkreter Input liefern wird. Das mag unübersichtlich und unvorhersehbar sein - aber abstrakt ist es nicht.

step hat folgendes geschrieben:
Generell finde selbst ich als Determinist es verzerrend, in einem solchen Kontext noch von "Vorgaben" zu reden.

Nur, wenn die Komplexität und daraus resultierende Unübersichtlichkeit aus den Augen verliert.

Leider tendieren manche Deterministen allerdings dazu, in der Abwehr des Dauerfaselbeschusses von den höheren Daseinsebenen sich sosehr auf das Elementare zu konzentrieren, dass sie dabei die höheren Abstraktiosnebenen aus den Augen verlieren, und, bildlich gesprochen, den Wald vor lauter Bäumen nicht sehen. Und natürlich ist es verzerrend, wenn man den Wald auf eine Ansammlung von Bäumen reduziert. Aber deswegen wird doch die Feststellung nicht falsch, dass der Wald nunmal eine Ansammlung von Bäumen ist. Besonders nicht denen gegenüber, die konstanter Wahnhaftigkeit dem Wald eine von den Bäumen unabhängige Substanz zumessen wollen.

Ebenfalls zu bedenken in dem Kontext ist dann auch noch, dass Nondeterministen dazu tendieren, Deterministen diese beschränkte Sichtweise einfach zu unterstellen, und Deterministen bei der Verteidigung gegen solche Unterstellungen oft ein schlechtes Bild abgeben. Nicht zuletzt aus der Angst heriuas, man würde ihnen ihr Wort von der höheren Abstraktionsebene im Mund herum zur höheren Daseinsebene verdrehen, wozu Nondeterministen ja ebenfalls tendieren. Dass es wirklich nicht einfach ist, sich nach beiden Seiten abzugrenzen, werde ich dir wohl nicht erklären müssen.

step hat folgendes geschrieben:

Das sieht bei konkreten, Asimov-artigen Vorgaben natürlich anders aus - die stellen für den Computer einen äußeren oder innneren Zwang dar, und es wäre mE fraglich, ob diese Einschränkungen überhaupt ethisch zumutbar wären.

Wenn sie im Kern der "Persönlichkeit" einprogramnmiert wären, würden Sie nicht als Einschränkung wahrgenommen.

step hat folgendes geschrieben:

caballito hat folgendes geschrieben:
step hat folgendes geschrieben:
- nach Deinem Argument könnte man ebenso behaupten, der Mensch treffe keine Entscheidungen, denn auch er bewertet ja nur nach gelernten Regeln, Erfahrungen u.ä.
Und? Ist doch so ... Schulterzucken

Genau, meine Entgegnungen richteten sich gegen unterschiedliche Ebenen der Behauptung, je nach Couleur - muß ich Dir ja nun wirklich nicht erklären zwinkern

Mir nicht. Aber all denen, die die Ebenen nicht unterscheiden können. Und denen, deren Horizont nur für eine solche Ebene Platz bietet. Und denen, die über allen Ebenen auch noch eine metaphysische sehen wollen.
_________________
Die Gedanken sind frei.

Aber nicht alle Gedanken wissen das.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden E-Mail senden
Ahriman
Tattergreis



Anmeldungsdatum: 31.03.2006
Beiträge: 17976
Wohnort: 89250 Senden

Beitrag(#1936373) Verfasst am: 24.07.2014, 00:09    Titel: Antworten mit Zitat

Alles ganz gut und schön. Aber allzu oft geht es bei einer Entscheidung darum, von zwei oder mehr Übeln das am wenigsten üble rauszufinden. Ich erinnere euch nur an die Bundestagswahlen. Ich fürchte, das wird für einen Computer noch schwieriger als für mich.

Zum schon zitierten Robotergesetz:
Eine der Regeln muß lauten: Erhalte und schütze deine Existenz mit allen Mitteln, solange nicht die Interessen deines Herrn etwas anderes erforderlich machen.
Wichtige Bedingung, sonst haut dir die Maschine eins auf die Birne, wenn du die Hand ausstreckst um sie abzuschalten.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden E-Mail senden
Smode
registrierter User



Anmeldungsdatum: 13.06.2013
Beiträge: 308

Beitrag(#1936395) Verfasst am: 24.07.2014, 08:56    Titel: Antworten mit Zitat

Ahriman hat folgendes geschrieben:
Alles ganz gut und schön. Aber allzu oft geht es bei einer Entscheidung darum, von zwei oder mehr Übeln das am wenigsten üble rauszufinden. Ich erinnere euch nur an die Bundestagswahlen. Ich fürchte, das wird für einen Computer noch schwieriger als für mich.


Das sehe ich komplett anders. Fuer mich ist es jedesmal wieder eine Qual herauszufinden, welcher Partei ich nun meine Stimme geben muss. Und letztlich koennte ich das genauso gut einer Maschine ueberlassen, ob nun dabei a oder b aus dem pool der fuer mich akzeptablen alternativen herauskommt, macht letztlich leider keinen großen unterschied.
_________________
Every man takes the limits of his own field of vision for the limits of the world.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Beiträge der letzten Zeit anzeigen:   
Neues Thema eröffnen   Neue Antwort erstellen   Drucker freundliche Ansicht    Freigeisterhaus Foren-Übersicht -> Wissenschaft und Technik Alle Zeiten sind GMT + 1 Stunde
Gehe zu Seite 1, 2  Weiter
Seite 1 von 2

 
Gehe zu:  
Du kannst keine Beiträge in dieses Forum schreiben.
Du kannst auf Beiträge in diesem Forum nicht antworten.
Du kannst deine Beiträge in diesem Forum nicht bearbeiten.
Du kannst deine Beiträge in diesem Forum nicht löschen.
Du kannst an Umfragen in diesem Forum nicht mitmachen.



Impressum & Datenschutz


Powered by phpBB © 2001, 2005 phpBB Group