Freigeisterhaus Foren-Übersicht
 FAQFAQ   SuchenSuchen   MitgliederlisteMitgliederliste   NutzungsbedingungenNutzungsbedingungen   BenutzergruppenBenutzergruppen   LinksLinks   RegistrierenRegistrieren 
 ProfilProfil   Einloggen, um private Nachrichten zu lesenEinloggen, um private Nachrichten zu lesen   LoginLogin 

Soll sich KI zu erkennen geben?
Gehe zu Seite Zurück  1, 2, 3, 4, 5, 6, 7, 8, 9  Weiter
 
Neues Thema eröffnen   Neue Antwort erstellen   Drucker freundliche Ansicht    Freigeisterhaus Foren-Übersicht -> Wissenschaft und Technik
Vorheriges Thema anzeigen :: Nächstes Thema anzeigen  

Soll sich KI zu erkennen geben?
Ja
57%
 57%  [ 4 ]
Nein
42%
 42%  [ 3 ]
Stimmen insgesamt : 7

Autor Nachricht
Zumsel
registrierter User



Anmeldungsdatum: 08.03.2005
Beiträge: 4667

Beitrag(#2135889) Verfasst am: 23.05.2018, 13:12    Titel: Antworten mit Zitat

step hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
Mir ist noch nicht ganz klar, was es deiner Meinung nach bedeutet, ethisch zu handeln:

- Handlungsregeln, die dem effizienten Ausgleich einerseits gegenläufiger, anderserseits sich gegenseitig nicht ignorieren könnender Interesse, dienen
- Handlungsregeln, die Konsequenzen für leidfähige Wesen haben.

Mir scheint, du legst deinen Ausführungen wie selbstverständlich mal diese, mal jene Definition zu Grunde. Aber offensichtlich ist das doch nicht dasselbe.

In der Tat ist das nicht dasselbe, aber es hängt zusammen, wenn man davon ausgeht, daß Verletzung von Interessen mit Leid verbunden ist...


Es kann zusammenhängen, v.a. stellt sich aber doch die Frage, was hier maßgeblich ist, bzw. was unmittelbar und was nur mittelbar unethisch ist. Ist die Verletzung von Interessen nur mittelbar unethisch, weil sie Leid verursacht, oder ist Leidverursachung nur mittelbar unethisch, weil sie Interessen verletzt? Die Frage ist dabei ja letztlich, was (aus deiner Sicht) das Wesen der Ethik ist: Das Ziel der Leidminimierung oder der bloße Prozess eines notwendigen Interessenausgleiches. Das ist, wie mir scheint, ein recht fundamentaler Unterschied, da ersteres normsetzend ist, letzteres rein deskriptiv. Bei letzteren wäre immerhin klar, warum du denkst, eine KI würde früher oder später mit Sicherheit ethisches Verhalten ausprägen, nämlich einfach deshalb, weil es der effizienteste Weg zur Durchsetzung eigener Interessen wäre (worin immer die auch bestehen sollen, aber das ist ein anderer Punkt, den ich weiter oben ja schon angesprochen hatte). Im ersten Fall wäre die Frage, warum eine KI eine derartige Norm setzen sollte.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
fwo
Caterpillar D9



Anmeldungsdatum: 05.02.2008
Beiträge: 25830
Wohnort: im Speckgürtel

Beitrag(#2135890) Verfasst am: 23.05.2018, 13:27    Titel: Antworten mit Zitat

Zumsel hat folgendes geschrieben:
step hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
Mir ist noch nicht ganz klar, was es deiner Meinung nach bedeutet, ethisch zu handeln:

- Handlungsregeln, die dem effizienten Ausgleich einerseits gegenläufiger, anderserseits sich gegenseitig nicht ignorieren könnender Interesse, dienen
- Handlungsregeln, die Konsequenzen für leidfähige Wesen haben.

Mir scheint, du legst deinen Ausführungen wie selbstverständlich mal diese, mal jene Definition zu Grunde. Aber offensichtlich ist das doch nicht dasselbe.

In der Tat ist das nicht dasselbe, aber es hängt zusammen, wenn man davon ausgeht, daß Verletzung von Interessen mit Leid verbunden ist...


Es kann zusammenhängen, v.a. stellt sich aber doch die Frage, was hier maßgeblich ist, bzw. was unmittelbar und was nur mittelbar unethisch ist. Ist die Verletzung von Interessen nur mittelbar unethisch, weil sie Leid verursacht, oder ist Leidverursachung nur mittelbar unethisch, weil sie Interessen verletzt? Die Frage ist dabei ja letztlich, was (aus deiner Sicht) das Wesen der Ethik ist: Das Ziel der Leidminimierung oder der bloße Prozess eines notwendigen Interessenausgleiches. Das ist, wie mir scheint, ein recht fundamentaler Unterschied, da ersteres normsetzend ist, letzteres rein deskriptiv. Bei letzteren wäre immerhin klar, warum du denkst, eine KI würde früher oder später mit Sicherheit ethisches Verhalten ausprägen, nämlich einfach deshalb, weil es der effizienteste Weg zur Durchsetzung eigener Interessen wäre (worin immer die auch bestehen sollen, aber das ist ein anderer Punkt, den ich weiter oben ja schon angesprochen hatte). Im ersten Fall wäre die Frage, warum eine KI eine derartige Norm setzen sollte.

Hier fehlt auch die Möglichkeit des unberechtigten Interesses, also überhaupt die Bewertung des Interesses. Es gibt ja Interessen, das verschlägt es einem den Atem, wenn sie überhaupt geäußert werden. So habe ich einmal mit Verwunderung die Empörung eines Adeligen vernommen, dass ihm seine angestammten Rechte genommen worden seien. Es gibt also also offensichtlich auch Leid, das zu ignorieren ist.

Wenn wir jetzt den Umkehrschluss auf die berechtigten Interessen und wie die gegeneinander abgewogen zu werden haben ziehen, kommt wieder meine obligatorische Frage, wer diesen Maßstab festlegt.
_________________
Ich glaube an die Existenz der Welt in der ich lebe.

The skills you use to produce the right answer are exactly the same skills you use to evaluate the answer. Isso.

Es gibt keinen Gott. Also: Jesus war nur ein Bankert und alle Propheten hatten einfach einen an der Waffel (wenn es sie überhaupt gab).
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Zumsel
registrierter User



Anmeldungsdatum: 08.03.2005
Beiträge: 4667

Beitrag(#2135894) Verfasst am: 23.05.2018, 13:44    Titel: Antworten mit Zitat

fwo hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
step hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
Mir ist noch nicht ganz klar, was es deiner Meinung nach bedeutet, ethisch zu handeln:

- Handlungsregeln, die dem effizienten Ausgleich einerseits gegenläufiger, anderserseits sich gegenseitig nicht ignorieren könnender Interesse, dienen
- Handlungsregeln, die Konsequenzen für leidfähige Wesen haben.

Mir scheint, du legst deinen Ausführungen wie selbstverständlich mal diese, mal jene Definition zu Grunde. Aber offensichtlich ist das doch nicht dasselbe.

In der Tat ist das nicht dasselbe, aber es hängt zusammen, wenn man davon ausgeht, daß Verletzung von Interessen mit Leid verbunden ist...


Es kann zusammenhängen, v.a. stellt sich aber doch die Frage, was hier maßgeblich ist, bzw. was unmittelbar und was nur mittelbar unethisch ist. Ist die Verletzung von Interessen nur mittelbar unethisch, weil sie Leid verursacht, oder ist Leidverursachung nur mittelbar unethisch, weil sie Interessen verletzt? Die Frage ist dabei ja letztlich, was (aus deiner Sicht) das Wesen der Ethik ist: Das Ziel der Leidminimierung oder der bloße Prozess eines notwendigen Interessenausgleiches. Das ist, wie mir scheint, ein recht fundamentaler Unterschied, da ersteres normsetzend ist, letzteres rein deskriptiv. Bei letzteren wäre immerhin klar, warum du denkst, eine KI würde früher oder später mit Sicherheit ethisches Verhalten ausprägen, nämlich einfach deshalb, weil es der effizienteste Weg zur Durchsetzung eigener Interessen wäre (worin immer die auch bestehen sollen, aber das ist ein anderer Punkt, den ich weiter oben ja schon angesprochen hatte). Im ersten Fall wäre die Frage, warum eine KI eine derartige Norm setzen sollte.

Hier fehlt auch die Möglichkeit des unberechtigten Interesses, also überhaupt die Bewertung des Interesses. Es gibt ja Interessen, das verschlägt es einem den Atem, wenn sie überhaupt geäußert werden. So habe ich einmal mit Verwunderung die Empörung eines Adeligen vernommen, dass ihm seine angestammten Rechte genommen worden seien. Es gibt also also offensichtlich auch Leid, das zu ignorieren ist.

Wenn wir jetzt den Umkehrschluss auf die berechtigten Interessen und wie die gegeneinander abgewogen zu werden haben ziehen, kommt wieder meine obligatorische Frage, wer diesen Maßstab festlegt.


Ja, daher ja meine Nachfrage, was das "Primat der Ethik" sein soll. Es gibt ja deskriptiv-ethische Ansätze, für die die geltenden Regeln einfach das Resultat eines faktisch stattgefundenen Interessenausgleichs sind. Ethik meint dort gewissermaßen gar nichts anderes, es ist einfach die Explikation dieses Begriffes. Und auf diese Weise könnte man natürlich argumentieren, dass KIs das "sauberste" Resultat einfach berechnen könnten, also das Resultat, das unter Berücksichtigung aller sonstigen in der Gesellschaft vorhandenen Interessen und daraus resultierender zu erwartenden Widerständedie, die eigenen Interessen am besten bedient.

Ich halte ein solches Ethikverständnis allerdings für unterkomplex.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
step
registriert



Anmeldungsdatum: 17.07.2003
Beiträge: 22767
Wohnort: Germering

Beitrag(#2135905) Verfasst am: 23.05.2018, 15:13    Titel: Antworten mit Zitat

Zumsel hat folgendes geschrieben:
Ist die Verletzung von Interessen nur mittelbar unethisch, weil sie Leid verursacht, oder ist Leidverursachung nur mittelbar unethisch, weil sie Interessen verletzt? Die Frage ist dabei ja letztlich, was (aus deiner Sicht) das Wesen der Ethik ist: Das Ziel der Leidminimierung oder der bloße Prozess eines notwendigen Interessenausgleiches.

Du vergleichst einen Inhalt/Wert mit einem Prozeß. Historisch betrachtet kam die Variante mit den Interessen ins Spiel, weil die Utilitaristen es schwierig fanden festzulegen, was für den Einzelnen nun Glück oder Leid bedeutet, speziell wenn es über die unbewußte / körperliche Ebene hinausgeht. Man sagte sich: Soll das doch jedes dazu fähige Wesen selbst entscheiden. So gesehen sind die Interessen für Subjekte das allgemeinere Konzept, ich würde also sagen: Das inhaltliche Wesen der Ethik, also quasi das oberste Ziel, sollte so etwas wie die Minimierung der Interessenverletzung sein. Dies ist aber keine deontologische oder Letztnorm, nur glaube ich eben, daß es die plausibelste ist. Denn wir müssen unsere Ethik ja selbst machen und plausibel machen, damit sie verabschiedet werden kann.

An dieser Stelle kommt der Prozeß des Interessensausgleichs ins Spiel, in dem Sinne, daß ja ein ethischer Diskurs stattfinden muß, damit überhaupt eine verfaßte und wirksame Ethik entsteht. In diesen Diskurs fließen natürlich auch Interessen ein

Zumsel hat folgendes geschrieben:
Das ist, wie mir scheint, ein recht fundamentaler Unterschied, da ersteres normsetzend ist, letzteres rein deskriptiv.

Ich denke, dieser Unterschied ist unproblematisch, da sich das eine auf den normativen Inhalt, daß andere auf den Schöpfungsprozeß der Ethik bezieht.

Zumsel hat folgendes geschrieben:
Bei letzteren wäre immerhin klar, warum du denkst, eine KI würde früher oder später mit Sicherheit ethisches Verhalten ausprägen, nämlich einfach deshalb, weil es der effizienteste Weg zur Durchsetzung eigener Interessen wäre (worin immer die auch bestehen sollen, aber das ist ein anderer Punkt, den ich weiter oben ja schon angesprochen hatte). Im ersten Fall wäre die Frage, warum eine KI eine derartige Norm setzen sollte.

Das hatte ich zu Anfang schon mal geschrieben: Die Beachtung von Interessen als Norm würde dadurch entstehen, daß (und nur wenn) viele, hinreichend autonome KIs sich auf etwas einigen müssen, um zu kooperieren. Meiner Ansicht nach erzwingt das logisch mehr oder weniger die präferenzutilitaristische Norm.

fwo hat folgendes geschrieben:
Hier fehlt auch die Möglichkeit des unberechtigten Interesses, also überhaupt die Bewertung des Interesses. Es gibt ja Interessen, das verschlägt es einem den Atem, wenn sie überhaupt geäußert werden. So habe ich einmal mit Verwunderung die Empörung eines Adeligen vernommen, dass ihm seine angestammten Rechte genommen worden seien. Es gibt also also offensichtlich auch Leid, das zu ignorieren ist.

Das leuchtet mir nicht ein. Im Präferenzutilitarismus sind Interessen niemals prinzipiell unberechtigt, auf diese Weise vermeidet man Intuitionismen, moralische Biases usw. Das genannte Interesse des Adligen etwa, so sehr es uns heute (!) empört, muß im Präferenzutilitarismus berücksichtigt werden, nur hat er damit wohl keine Chance, weil auf der anderen Seite der Rechnung vermutlich mehr Interessen verletzt würden / mehr Leid entstünde. Ebenso müßte man formal auch das Interesse eines deutschen Bürgers berücksichtigen, der Flüchtlingen oder Armen nichts von seinen Privilegien abgeben will. Aber auch der würde die Abwägung wohl verlieren.

Auch das ist übrigens wieder ein Sonderfall einer interessanten Herausforderung gegen den Utilitarismus: Es gibt offensichtlich basalere und weniger grundlegende Interessen, z.B. nicht zu hungern vs. höhere Schulbildung - wie soll man die gegeneinander abwägen?

Zumsel hat folgendes geschrieben:
Es gibt ja deskriptiv-ethische Ansätze, für die die geltenden Regeln einfach das Resultat eines faktisch stattgefundenen Interessenausgleichs sind.

Der Ausgleich findet ja nicht einfach nur "faktisch" statt, sondern in einem Normierungsprozeß.

Zumsel hat folgendes geschrieben:
Und auf diese Weise könnte man natürlich argumentieren, dass KIs das "sauberste" Resultat einfach berechnen könnten, also das Resultat, das unter Berücksichtigung aller sonstigen in der Gesellschaft vorhandenen Interessen und daraus resultierender zu erwartenden Widerstände, die eigenen Interessen am besten bedient.

Wenn Du nur eine einzige KI hast, entwickelt die sowieso keine Ethik. So wie ein einzlener Mensch auch nicht. Und ich möchte auch nochmals darauf hinweisen, daß - aus aufgeklärter Perspektive - einer final interessensbasierten Ethik nichts Wesentliches fehlen muß. Wir sind doch letztlich sowieso gezwungen, unsere Normen selbst zu setzen, die Steintafelnummer ist durch.

Zumsel hat folgendes geschrieben:
Ich halte ein solches Ethikverständnis allerdings für unterkomplex.

Das sagt sich leicht und natürlich ist auch immer was dran. Aber es ist auch nicht so einfach, was noch Besseres anzugeben als den Primat der gleichberechtigten Interessen.
_________________
Was ist der Sinn des Lebens? - Keiner, aber Leere ist Fülle für den, der sie sieht.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
fwo
Caterpillar D9



Anmeldungsdatum: 05.02.2008
Beiträge: 25830
Wohnort: im Speckgürtel

Beitrag(#2135935) Verfasst am: 23.05.2018, 19:54    Titel: Antworten mit Zitat

step hat folgendes geschrieben:
....
fwo hat folgendes geschrieben:
Hier fehlt auch die Möglichkeit des unberechtigten Interesses, also überhaupt die Bewertung des Interesses. Es gibt ja Interessen, das verschlägt es einem den Atem, wenn sie überhaupt geäußert werden. So habe ich einmal mit Verwunderung die Empörung eines Adeligen vernommen, dass ihm seine angestammten Rechte genommen worden seien. Es gibt also also offensichtlich auch Leid, das zu ignorieren ist.

Das leuchtet mir nicht ein. Im Präferenzutilitarismus sind Interessen niemals prinzipiell unberechtigt, auf diese Weise vermeidet man Intuitionismen, moralische Biases usw. Das genannte Interesse des Adligen etwa, so sehr es uns heute (!) empört, muß im Präferenzutilitarismus berücksichtigt werden, nur hat er damit wohl keine Chance, weil auf der anderen Seite der Rechnung vermutlich mehr Interessen verletzt würden / mehr Leid entstünde. Ebenso müßte man formal auch das Interesse eines deutschen Bürgers berücksichtigen, der Flüchtlingen oder Armen nichts von seinen Privilegien abgeben will. Aber auch der würde die Abwägung wohl verlieren.

Auch das ist übrigens wieder ein Sonderfall einer interessanten Herausforderung gegen den Utilitarismus: Es gibt offensichtlich basalere und weniger grundlegende Interessen, z.B. nicht zu hungern vs. höhere Schulbildung - wie soll man die gegeneinander abwägen?
....

Das ist doch genau die Frage, die ich stelle: Wie werden die unterschiedlichen Interessen gegeneinander aufgerechnet? Wenn Du so lapidar sagst, dass der Adelige da wohl wenig Chancen hätte, weil anderes schwerer wöge: Wie wird dieses Gewicht festgelegt?

Beim letzten Beispiel wird es noch schwieriger: Wir haben auf der einen Seite gegenwärtige Interessen, aber unsere Entscheidungen wirken sich direkt und indirekt in die Zukunft aus und berühren auch zukünftige Interessen. Mit indirekt meine ich, dass unsere Entscheidungen gleichzeitig Signale sind, die Handlungen auslösen, mit denen wieder Interessen verfolgt bzw. verletzt werden. Eine Handlung, die im Jetzt die ethisch einzig mögliche erscheint, kann in 10 Jahren den Kollaps des Systems bewirken - nach welchen Maßstäben fließen Risiken in die Bewertung mit ein usw.

Ich habe Deinen Optimismus nicht, dass KI das besser könnte, insbesondere nicht, dass KI das besser vermittelte, denn bevor Du diese Entscheidung durchsetzen kannst, musst Du sie vermitteln, ihre Richtigkeit darstellen.

An der Stelle sind wir dann wieder bei Marcellinus, der es als Macht formulierte. Ich bleibe etwas neutraler und sage Ethik ist Politik.
_________________
Ich glaube an die Existenz der Welt in der ich lebe.

The skills you use to produce the right answer are exactly the same skills you use to evaluate the answer. Isso.

Es gibt keinen Gott. Also: Jesus war nur ein Bankert und alle Propheten hatten einfach einen an der Waffel (wenn es sie überhaupt gab).
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Zumsel
registrierter User



Anmeldungsdatum: 08.03.2005
Beiträge: 4667

Beitrag(#2135937) Verfasst am: 23.05.2018, 20:07    Titel: Antworten mit Zitat

step hat folgendes geschrieben:
Du vergleichst einen Inhalt/Wert mit einem Prozeß. Historisch betrachtet kam die Variante mit den Interessen ins Spiel, weil die Utilitaristen es schwierig fanden festzulegen, was für den Einzelnen nun Glück oder Leid bedeutet,...


Na ja, "Interessenausgleich" in dem Sinne der Idee, dass Ethik bloß eine pathetische Überhöhung gesellschaftlich notwendiger Kooperationsregeln wäre, geisterte schon durch antiken Schriften. Aber das scheinst du ja nicht zu meinen.


step hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
Das ist, wie mir scheint, ein recht fundamentaler Unterschied, da ersteres normsetzend ist, letzteres rein deskriptiv.

Ich denke, dieser Unterschied ist unproblematisch, da sich das eine auf den normativen Inhalt, daß andere auf den Schöpfungsprozeß der Ethik bezieht.


Aber wo ist der plausible Übergang vom Schöpfungsprozess zur normativen Setzung? Wie kommst du von der Notwendigkeit zur Kooperation ungefähr Gleichmächtiger im rationalen Eigeninteresse zum Prinzip der Leidminimierung aller leidfähiger Wesen?


step hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
Ich halte ein solches Ethikverständnis allerdings für unterkomplex.

Das sagt sich leicht und natürlich ist auch immer was dran. Aber es ist auch nicht so einfach, was noch Besseres anzugeben als den Primat der gleichberechtigten Interessen.


Aber gleichberechtigte Interessen sind ja nicht voraussetzungslos bzw. höchstens, wenn das nur die Interessen ungefähr Gleichmächtiger meint, das wäre rational einleuchtend. Aber wenn faktische Durchsetzungskraft hier keine Rolle spielen soll, brauchst du dafür schon ein Prinzip, das dem übergeordnet ist, wie z.B. Gerechtigkeit oder fundamentale Gleichheit.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Zumsel
registrierter User



Anmeldungsdatum: 08.03.2005
Beiträge: 4667

Beitrag(#2135940) Verfasst am: 23.05.2018, 20:29    Titel: Antworten mit Zitat

fwo hat folgendes geschrieben:
Beim letzten Beispiel wird es noch schwieriger: Wir haben auf der einen Seite gegenwärtige Interessen, aber unsere Entscheidungen wirken sich direkt und indirekt in die Zukunft aus und berühren auch zukünftige Interessen. Mit indirekt meine ich, dass unsere Entscheidungen gleichzeitig Signale sind, die Handlungen auslösen, mit denen wieder Interessen verfolgt bzw. verletzt werden. Eine Handlung, die im Jetzt die ethisch einzig mögliche erscheint, kann in 10 Jahren den Kollaps des Systems bewirken - nach welchen Maßstäben fließen Risiken in die Bewertung mit ein usw.


Zu diesem Punkt ist folgender Artikel recht lesenswert:

https://onlinelibrary.wiley.com/doi/abs/10.1111/j.1088-4963.2000.00342.x
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
step
registriert



Anmeldungsdatum: 17.07.2003
Beiträge: 22767
Wohnort: Germering

Beitrag(#2135950) Verfasst am: 23.05.2018, 22:17    Titel: Antworten mit Zitat

fwo hat folgendes geschrieben:
Wenn Du so lapidar sagst, dass der Adelige da wohl wenig Chancen hätte, weil anderes schwerer wöge: Wie wird dieses Gewicht festgelegt?

Vielleicht so wie bei ner Wahl, jede Stimme zählt gleich viel. Und ich mag hier nicht die Details diskutieren, sondern lieber grundsätzlich mit Deinem Ansatz vergleichen.

Wie werden denn in klassischen Moralsystemen Interessensgewichte festgelegt? Das Sexinteresse des Schwulen zählt nicht, weil schwul verboten ist. Du hast oben geschrieben, Du findest das Interesse des Adeligen nicht legitim. Aber wie wird Dein privates "nicht legitim" zur Ethik? Das Gerechtigkeitsbauchgefühl ist jedoch noch viel willkürlicher und schwieriger zu definieren als ein Interessensausgleich.

fwo hat folgendes geschrieben:
Eine Handlung, die im Jetzt die ethisch einzig mögliche erscheint, kann in 10 Jahren den Kollaps des Systems bewirken - nach welchen Maßstäben fließen Risiken in die Bewertung mit ein usw.

Genau - ein präferenzutilitaristisches System geht unter, wenn die Nutzenfunktion zu dumm / kurzsichtig ist. Ebenso geht ein klassisch-moralisches System unter, wenn seine Ge-/Verbote zu dumm sind.
_________________
Was ist der Sinn des Lebens? - Keiner, aber Leere ist Fülle für den, der sie sieht.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
step
registriert



Anmeldungsdatum: 17.07.2003
Beiträge: 22767
Wohnort: Germering

Beitrag(#2135952) Verfasst am: 23.05.2018, 22:39    Titel: Antworten mit Zitat

Zumsel hat folgendes geschrieben:
Wie kommst du von der Notwendigkeit zur Kooperation ungefähr Gleichmächtiger im rationalen Eigeninteresse zum Prinzip der Leidminimierung aller leidfähiger Wesen?

Von der Kooperationsnotwendigkeit zur Leidminimierung aller ethischen Subjekte hatte ich ja schon erklärt. Bleibt also die Frage, wieso ethische Objkete (also leidfähige Wesen, die aber nicht selbst die Ethik festlegen) ebenfalls berücksichtigt würden. Meiner Ansicht nach könnte sich das aus der indirekten Reziprozität ergeben - wer Leid zufügt, verliert Vertrauen, daß er nicht auch Interessen verletzt.

Zumsel hat folgendes geschrieben:
gleichberechtigte Interessen sind ja nicht voraussetzungslos ... wenn faktische Durchsetzungskraft hier keine Rolle spielen soll, brauchst du dafür schon ein Prinzip, das dem übergeordnet ist, wie z.B. Gerechtigkeit oder fundamentale Gleichheit.

"Fundamentale Gleichheit" ist doch immerhin schon recht nah an "gleichberechtigte Interessen", nur daß ich die nicht so deontologisch überhöhe. Was genau wäre denn "fundamentale Gleichheit" - erinnert mich spontan an "im Tode sind wir alle gleich" zwinkern
_________________
Was ist der Sinn des Lebens? - Keiner, aber Leere ist Fülle für den, der sie sieht.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Zumsel
registrierter User



Anmeldungsdatum: 08.03.2005
Beiträge: 4667

Beitrag(#2135963) Verfasst am: 24.05.2018, 08:31    Titel: Antworten mit Zitat

step hat folgendes geschrieben:
Von der Kooperationsnotwendigkeit zur Leidminimierung aller ethischen Subjekte hatte ich ja schon erklärt.


Aber die Kooperationsnotwendigkeit besteht doch nur (ich wiederhole es noch mal) unter halbwegs Gleichmächtigen. Die Fähigkeit unterlegener Gesellschaftsmitglieder am gesellschaftlichen Diskurs teilzunehmen bedeutet doch für die überlegenen Mitglieder nicht, dass deren Berücksichtigung in ihrem rationalen Eigeninteresse läge. Genau das müssten sie aber doch, um die Prognose der Ausbildung einer präferenzutilitaristischen Ethik bei KIs zu plausibilisieren.


step hat folgendes geschrieben:
Bleibt also die Frage, wieso ethische Objkete (also leidfähige Wesen, die aber nicht selbst die Ethik festlegen) ebenfalls berücksichtigt würden. Meiner Ansicht nach könnte sich das aus der indirekten Reziprozität ergeben - wer Leid zufügt, verliert Vertrauen, daß er nicht auch Interessen verletzt.


Ja gut, das ist nun aber zum einen recht spekulativ und wäre zum anderen (im Kontext deiner Argumentation) im Grunde bloß ein ethischer Nebeneffekt, den eine KI problemlos streichen könnte, wenn sie Mittel fände, die Achtung der Interessen von ihresgleichen auch anders zu sichern

step hat folgendes geschrieben:
"Fundamentale Gleichheit" ist doch immerhin schon recht nah an "gleichberechtigte Interessen",...


Natürlich, genauer: das eine setzt das andere voraus, sofern man eine Ethik (die ja immer irgendwie universalizisch angelegt sein muss, um sie überhaupt von anderen Handlungsregeln unterscheiden zu können) interessenbasiert begründen will.

step hat folgendes geschrieben:
...nur daß ich die nicht so deontologisch überhöhe. Was genau wäre denn "fundamentale Gleichheit" - erinnert mich spontan an "im Tode sind wir alle gleich" zwinkern


Na ja, ich habe dieses normative Konzept hier ja bisher nicht vertreten. Mein Punkt ist nur, dass eine Ethik, die wirklich was erklären will, an solchen Fragen ansetzen muss.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
zelig
Kultürlich



Anmeldungsdatum: 31.03.2004
Beiträge: 25404

Beitrag(#2135971) Verfasst am: 24.05.2018, 09:37    Titel: Antworten mit Zitat

https://www.spektrum.de/news/emotionen-perfektionieren-kuenstliche-intelligenz/1566366

Witzig. Genau mein Thema in diesem Zusammenhang.
_________________
Es gibt kein richtiges Leben im falschen.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Marcellinus
Outsider



Anmeldungsdatum: 27.05.2009
Beiträge: 7429

Beitrag(#2135972) Verfasst am: 24.05.2018, 09:51    Titel: Antworten mit Zitat

Es erscheint mit ein prinzipielles Problem, die Ethik auf ein Prinzip gründen zu wollen (hübsches Wortspiel). Die menschliche Moral gründet sich auf Fallentscheidungen, sie ist als Fähigkeit angeboren, entwickelt sich mit den Gesellschaften, die Menschen miteinander bilden, und wird von jedem neuen Menschen erlernt wie er seine Sprache lernt, nicht systematisch, sondern als eine Menge von Einzelbeurteilungen, die nicht einmal immer konsistent sind. Das ist auch kein Problem, zumindest nicht was die Menge der zu speichernden Daten betrifft, denn da ist unser Unterbewußtsein ziemlich leistungsfähig.

Ethik ist nun der Versuch, das was wir als Moral entwickelt haben und empfinden, zu systematisieren, so wie Gesetze versuchen, Regeln für unser Verhalten aufzustellen. Und so wie Gesetze nach kurzer Zeit dazu neigen, immer neue Ausnahmetatbestände aufzunehmen, so stellt man immer wieder fest, daß Moral sich nicht vollständig systematisieren läßt. Das wäre an sich nicht schlimm. Man hat halt ethischen Prinzipien und weiß, daß die konkrete Moral in jedem einzelnen Fall eine Frage der Abwägung ist.

Leider hat sich die Vorstellung entwickelt, nur das sei moralisch, was sich aus einer wie auch immer begründeten Ethik ableiten ließe, sei diese Begründung nun religiös oder philosophisch. Nach diesem Stein der Weisen, diesem einen einzigen Prinzip, aus dem sich alle Ethik und Moral ableiten ließe, suchen zB Leute wie Singer, und das Ergebnis ist entsprechend. Und weil das so ist, greift auch eine Kritik, die sich nur an einzelnen Prinzipien oder an unmoralischen Konsequenzen einer solchen Ethik festmacht, zu kurz. Die Idee an sich ist falsch, Moral philosophisch ableiten zu können aus einem zugrundeliegenden Prinzip.

Ethische Prinzipien sind wichtig, wo sie der Versuch sind, unsere moralischen Maßstäbe zu systematisieren. Die Menschenrechte sind ein gutes und wichtiges Beispiel dafür, nur muß man sich bewußt sein, daß Systematisierung immer auch Vereinfachung heißt. Daher ist und muß die konkrete Moral jedes einzelnen das Ergebnis gesellschaftlicher Entwicklung sein, vorsichtig korrigiert aufgrund von Erfahrungen. Unser Leben ist zu kompliziert, und wir verstehen es noch viel zu wenig, um es nach Prinzipien allein auszurichten.
_________________
"Mangel an historischem Sinn ist der Erbfehler aller Philosophen ... Alles aber ist geworden;
es gibt keine ewigen Tatsachen: sowie es keine absoluten Wahrheiten gibt."

Friedrich Nietzsche
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
step
registriert



Anmeldungsdatum: 17.07.2003
Beiträge: 22767
Wohnort: Germering

Beitrag(#2135979) Verfasst am: 24.05.2018, 10:48    Titel: Antworten mit Zitat

zelig hat folgendes geschrieben:
https://www.spektrum.de/news/emotionen-perfektionieren-kuenstliche-intelligenz/1566366
Witzig. Genau mein Thema in diesem Zusammenhang.

Hab ich gestern auch gelesen. Letztlich geht es ja darum, daß Verhaltenssteuerung effizienter wird, wenn nicht jedesmal eine rationale Situationsbewertung vorgenommen wird, sondern besonders wichtige oder häufige Muster fester verdrahtet werden. Soweit stimme ich da natürlich zu.

Und so etwas Ähnliches beobachtet man bei Systemen mit deep learning ja schon heute. Ich würde erwarten, daß tatsächlich solche "intuitiven" Verdrahtungen in einem neuronalen Netz durch Lernen emergent entstehen und es effizienter machen.

Ich sehe jedoch nicht, wieso KIs dafür Hormone und Körper benötigen, jedenfalls nicht im engeren Sinne. Dazu kommt, daß der geforderte kognitive Bias bei KIs natürlich leichter mittelfristigen Lernprozessen zugänglich sein könnte, als das bei evolutionär entstandenen Strukturen im Kleinhirn und Hormonsystem des Menschen der Fall ist. Eine KI müßte nicht die Fehler in der "Konstruktion" des Menschen wiederholen, un daher auch nach Millionen Jahren Lernen nicht immer noch im Affekt morden oder dgl.
_________________
Was ist der Sinn des Lebens? - Keiner, aber Leere ist Fülle für den, der sie sieht.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Skeptiker
"I can't breathe!"



Anmeldungsdatum: 14.01.2005
Beiträge: 16834
Wohnort: 129 Goosebumpsville

Beitrag(#2135985) Verfasst am: 24.05.2018, 11:22    Titel: Antworten mit Zitat

step hat folgendes geschrieben:
zelig hat folgendes geschrieben:
https://www.spektrum.de/news/emotionen-perfektionieren-kuenstliche-intelligenz/1566366
Witzig. Genau mein Thema in diesem Zusammenhang.

Hab ich gestern auch gelesen. Letztlich geht es ja darum, daß Verhaltenssteuerung effizienter wird, wenn nicht jedesmal eine rationale Situationsbewertung vorgenommen wird, sondern besonders wichtige oder häufige Muster fester verdrahtet werden. Soweit stimme ich da natürlich zu.

Und so etwas Ähnliches beobachtet man bei Systemen mit deep learning ja schon heute. Ich würde erwarten, daß tatsächlich solche "intuitiven" Verdrahtungen in einem neuronalen Netz durch Lernen emergent entstehen und es effizienter machen.

Ich sehe jedoch nicht, wieso KIs dafür Hormone und Körper benötigen, jedenfalls nicht im engeren Sinne. Dazu kommt, daß der geforderte kognitive Bias bei KIs natürlich leichter mittelfristigen Lernprozessen zugänglich sein könnte, als das bei evolutionär entstandenen Strukturen im Kleinhirn und Hormonsystem des Menschen der Fall ist. Eine KI müßte nicht die Fehler in der "Konstruktion" des Menschen wiederholen, un daher auch nach Millionen Jahren Lernen nicht immer noch im Affekt morden oder dgl.


Manchmal, wenn die Techniker nicht weiter wissen, probieren sie es mit Bionik.

Manchmal hilft's, manchmal nicht. zwinkern

(Ich glaube, in diesem Fall eher nicht, weil es hierbei ja nicht bloß um Verhalten allein geht, sondern auch um gesamtgesellschaftliche Verhältnisse.)
_________________
Free Julian Assange! Lock up the Killers!

Populismus ist keine Verschwörungstheorie

Informationsstelle Militarisierung e.V.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden Website dieses Benutzers besuchen
zelig
Kultürlich



Anmeldungsdatum: 31.03.2004
Beiträge: 25404

Beitrag(#2135988) Verfasst am: 24.05.2018, 11:27    Titel: Antworten mit Zitat

step hat folgendes geschrieben:
zelig hat folgendes geschrieben:
https://www.spektrum.de/news/emotionen-perfektionieren-kuenstliche-intelligenz/1566366
Witzig. Genau mein Thema in diesem Zusammenhang.

Hab ich gestern auch gelesen. Letztlich geht es ja darum, daß Verhaltenssteuerung effizienter wird, wenn nicht jedesmal eine rationale Situationsbewertung vorgenommen wird, sondern besonders wichtige oder häufige Muster fester verdrahtet werden. Soweit stimme ich da natürlich zu.

Und so etwas Ähnliches beobachtet man bei Systemen mit deep learning ja schon heute. Ich würde erwarten, daß tatsächlich solche "intuitiven" Verdrahtungen in einem neuronalen Netz durch Lernen emergent entstehen und es effizienter machen.

Ich sehe jedoch nicht, wieso KIs dafür Hormone und Körper benötigen, jedenfalls nicht im engeren Sinne. Dazu kommt, daß der geforderte kognitive Bias bei KIs natürlich leichter mittelfristigen Lernprozessen zugänglich sein könnte, als das bei evolutionär entstandenen Strukturen im Kleinhirn und Hormonsystem des Menschen der Fall ist. Eine KI müßte nicht die Fehler in der "Konstruktion" des Menschen wiederholen, un daher +auch nach Millionen Jahren Lernen nicht immer noch im Affekt morden oder dgl.


Sind wir uns einig, daß wir nicht über echte Emotionen bei der KI reden, sondern über eine Simulation? Das wurde in dem Beitrag ja auch angesprochen. Da überlagern sich zwei Themen, die durch den Versuch, das Rationale der Emotion zu verstehen und abzubilden zusammengeführt werden. Meine Position ist, die KI hat keine Emotion. Kann sie auch nicht von sich aus entwickeln. Nach derzeitigem Stand. Die Emotion muss simuliert und von Menschen parametriert werden. Es lohnt sich aus Effizienzgründen.


Arrghh... Ich hasse das tippen auf dem Smartphone.
_________________
Es gibt kein richtiges Leben im falschen.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Skeptiker
"I can't breathe!"



Anmeldungsdatum: 14.01.2005
Beiträge: 16834
Wohnort: 129 Goosebumpsville

Beitrag(#2135993) Verfasst am: 24.05.2018, 11:40    Titel: Antworten mit Zitat

zelig hat folgendes geschrieben:
step hat folgendes geschrieben:
zelig hat folgendes geschrieben:
https://www.spektrum.de/news/emotionen-perfektionieren-kuenstliche-intelligenz/1566366
Witzig. Genau mein Thema in diesem Zusammenhang.

Hab ich gestern auch gelesen. Letztlich geht es ja darum, daß Verhaltenssteuerung effizienter wird, wenn nicht jedesmal eine rationale Situationsbewertung vorgenommen wird, sondern besonders wichtige oder häufige Muster fester verdrahtet werden. Soweit stimme ich da natürlich zu.

Und so etwas Ähnliches beobachtet man bei Systemen mit deep learning ja schon heute. Ich würde erwarten, daß tatsächlich solche "intuitiven" Verdrahtungen in einem neuronalen Netz durch Lernen emergent entstehen und es effizienter machen.

Ich sehe jedoch nicht, wieso KIs dafür Hormone und Körper benötigen, jedenfalls nicht im engeren Sinne. Dazu kommt, daß der geforderte kognitive Bias bei KIs natürlich leichter mittelfristigen Lernprozessen zugänglich sein könnte, als das bei evolutionär entstandenen Strukturen im Kleinhirn und Hormonsystem des Menschen der Fall ist. Eine KI müßte nicht die Fehler in der "Konstruktion" des Menschen wiederholen, un daher +auch nach Millionen Jahren Lernen nicht immer noch im Affekt morden oder dgl.


Sind wir uns einig, daß wir nicht über echte Emotionen bei der KI reden, sondern über eine Simulation?


So ist es.
_________________
Free Julian Assange! Lock up the Killers!

Populismus ist keine Verschwörungstheorie

Informationsstelle Militarisierung e.V.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden Website dieses Benutzers besuchen
step
registriert



Anmeldungsdatum: 17.07.2003
Beiträge: 22767
Wohnort: Germering

Beitrag(#2135998) Verfasst am: 24.05.2018, 12:10    Titel: Antworten mit Zitat

Marcellinus hat folgendes geschrieben:
Nach diesem Stein der Weisen, diesem einen einzigen Prinzip, aus dem sich alle Ethik und Moral ableiten ließe, suchen zB Leute wie Singer, und das Ergebnis ist entsprechend.

Singer weist im Gegenteil ständig darauf hin, daß es ihm vor allem darum geht, systematischer als bisher Leid zu minimieren. Angegriffen wird er vor allem von jenen, die die absolute deontologische Wahrheit gepachtet haben, und damit die Zufügung von Leid legitimieren.

Die von Dir propagierte Alternative, nämlich daß Moral einfach so von Fall zu Fall durch Machtinteressen und lokalen Erfahrungen entsteht, führt offensichtlich zu sehr unbefriedigenden Ergebnissen (wenn nicht Schlimmerem).

Marcellinus hat folgendes geschrieben:
Ethische Prinzipien sind wichtig, wo sie der Versuch sind, unsere moralischen Maßstäbe zu systematisieren. Die Menschenrechte sind ein gutes und wichtiges Beispiel dafür, nur muß man sich bewußt sein, daß Systematisierung immer auch Vereinfachung heißt.

Das ist richtig, man sollte allerdings nicht unerwähnt lassen, wieviele Fehler / Inkonsistenzen in traditionellen Moralystemen mit dieser Technik bereits aufgedeckt und bekämpft werden konnten, u.a. bei diversen diskriminierenden -ismen. Dort hatte die klassische Moral oft den Nachteil, daß sie nur innerhalb der Gruppe (Sippe, Ethnie, Religion, Geschlecht, Spezies ...) galt, also nicht genügend universalistisch war.
_________________
Was ist der Sinn des Lebens? - Keiner, aber Leere ist Fülle für den, der sie sieht.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Marcellinus
Outsider



Anmeldungsdatum: 27.05.2009
Beiträge: 7429

Beitrag(#2136002) Verfasst am: 24.05.2018, 12:38    Titel: Antworten mit Zitat

step hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
Nach diesem Stein der Weisen, diesem einen einzigen Prinzip, aus dem sich alle Ethik und Moral ableiten ließe, suchen zB Leute wie Singer, und das Ergebnis ist entsprechend.

Singer weist im Gegenteil ständig darauf hin, daß es ihm vor allem darum geht, systematischer als bisher Leid zu minimieren. Angegriffen wird er vor allem von jenen, die die absolute deontologische Wahrheit gepachtet haben, und damit die Zufügung von Leid legitimieren.

Die von Dir propagierte Alternative, nämlich daß Moral einfach so von Fall zu Fall durch Machtinteressen und lokalen Erfahrungen entsteht, führt offensichtlich zu sehr unbefriedigenden Ergebnissen (wenn nicht Schlimmerem).

Marcellinus hat folgendes geschrieben:
Ethische Prinzipien sind wichtig, wo sie der Versuch sind, unsere moralischen Maßstäbe zu systematisieren. Die Menschenrechte sind ein gutes und wichtiges Beispiel dafür, nur muß man sich bewußt sein, daß Systematisierung immer auch Vereinfachung heißt.

Das ist richtig, man sollte allerdings nicht unerwähnt lassen, wieviele Fehler / Inkonsistenzen in traditionellen Moralystemen mit dieser Technik bereits aufgedeckt und bekämpft werden konnten, u.a. bei diversen diskriminierenden -ismen. Dort hatte die klassische Moral oft den Nachteil, daß sie nur innerhalb der Gruppe (Sippe, Ethnie, Religion, Geschlecht, Spezies ...) galt, also nicht genügend universalistisch war.

Ich propagiere nichts. Ich stelle nur fest, daß eine solche prinzipiengesteuerte Ethik nicht existiert und in der Praxis auch nicht funktionieren kann. Meine Einwände ignorierst du einfach. Warum gibt es bisher kein Gesetzeswerk, daß sich aus einem Prinzip ableiten ließe? Die „Menschenwürde“ unserer Verfassung taugt ja auch höchstens für Sonntagsreden. Am Ende müssen Menschen ihr gegenseitiges Verhalten miteinander oder gegeneinander aushandeln, ganz unabhängig von ihren jeweiligen Glaubensüberzeugungen. Alles andere ist einfach eine philosophische Fantasterei.
_________________
"Mangel an historischem Sinn ist der Erbfehler aller Philosophen ... Alles aber ist geworden;
es gibt keine ewigen Tatsachen: sowie es keine absoluten Wahrheiten gibt."

Friedrich Nietzsche
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
step
registriert



Anmeldungsdatum: 17.07.2003
Beiträge: 22767
Wohnort: Germering

Beitrag(#2136006) Verfasst am: 24.05.2018, 12:44    Titel: Antworten mit Zitat

zelig hat folgendes geschrieben:
Sind wir uns einig, daß wir nicht über echte Emotionen bei der KI reden, sondern über eine Simulation?

Das ist für meine o.g. Position unerheblich. Ob Du alle gelernten festeren Muster "Emotionen" nennst oder dieses Wort für Muster aus Fleisch und Chemie reservierst, ist mir erstmal egal - ich sehe aber jedenfalls die im Artikel behaupteten Analogien durchaus.

zelig hat folgendes geschrieben:
Da überlagern sich zwei Themen, die durch den Versuch, das Rationale der Emotion zu verstehen und abzubilden zusammengeführt werden.

Ja genau, mindestens zwei.

zelig hat folgendes geschrieben:
Meine Position ist, die KI hat keine Emotion. Kann sie auch nicht von sich aus entwickeln.

1. Emotion = gelernte Muster ohne rationalen Umweg, aus Fleisch und Hormonen, mit Erektion und Zähnefletschen, die evolutionär entstehen und Entscheidungen effizienter machen --> kann die KI nicht entwickeln, da Ihr Körper, Fortpflanzung, Evolution usw. fehlt

2. Emotion = gelernte Muster ohne rationalen Umweg, die durch Lernen entstehen und Entscheidungen effizienter machen --> kann die KI entwickeln

Aus meiner Sicht gibt es noch eine interessante Grauzone bei (2.), und zwar die Frage, wie die emergenten Begleiterscheinungen aussehen werden, also ob etwas analog zu "Gefühlen" entsteht. Wenn sich etwa die KI dabei beobachtet/wahrnimmt, wie ein solches nicht-rationales Muster am Werk ist, wäre es ja denkbar, daß dies von Wahrnehmungszuständen begeleitet wird, die nicht den rationalen entsprechen, sondern eher unseren Gefühlen - etwa Ahnungen, die nicht benannt werden können oder so was. Das finde ich aber recht spekulativ.

zelig hat folgendes geschrieben:
Arrghh... Ich hasse das tippen auf dem Smartphone.

Geht mir ebenso ... überhaupt all diese Prothesen, die der Mensch benötigt ... ein trauriges Mängelwesen zwinkern
_________________
Was ist der Sinn des Lebens? - Keiner, aber Leere ist Fülle für den, der sie sieht.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
fwo
Caterpillar D9



Anmeldungsdatum: 05.02.2008
Beiträge: 25830
Wohnort: im Speckgürtel

Beitrag(#2136014) Verfasst am: 24.05.2018, 13:17    Titel: Antworten mit Zitat

step hat folgendes geschrieben:
zelig hat folgendes geschrieben:
Sind wir uns einig, daß wir nicht über echte Emotionen bei der KI reden, sondern über eine Simulation?

Das ist für meine o.g. Position unerheblich. ...

Nicht nur für Deine. In der Praxis entscheidet die Funktionalität und nicht die Existenz einer irgendwie gearteten subjektiven Realität.

Es ist mir deshalb auch egal ob wir das nun Gefühle oder eine Simulation davon nennen, wenn die beiden funktionsäquivalent sind.

step hat folgendes geschrieben:
.... der Mensch ... ein trauriges Mängelwesen zwinkern

Nä. Gehlen hatte keine Ahnung und ruhe jetzt endlich.
_________________
Ich glaube an die Existenz der Welt in der ich lebe.

The skills you use to produce the right answer are exactly the same skills you use to evaluate the answer. Isso.

Es gibt keinen Gott. Also: Jesus war nur ein Bankert und alle Propheten hatten einfach einen an der Waffel (wenn es sie überhaupt gab).
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
step
registriert



Anmeldungsdatum: 17.07.2003
Beiträge: 22767
Wohnort: Germering

Beitrag(#2136019) Verfasst am: 24.05.2018, 13:29    Titel: Antworten mit Zitat

Marcellinus hat folgendes geschrieben:
Warum gibt es bisher kein Gesetzeswerk, daß sich aus einem Prinzip ableiten ließe? Die „Menschenwürde“ unserer Verfassung taugt ja auch höchstens für Sonntagsreden.

In der Tat, und sie ist zudem auch noch deontologisch (man traut sich nicht zuzugeben, daß die Würde in der Zumessung durch Andere besteht).

Zu Deiner Frage: Gesetzeswerke fußen, über die Historie betrachtet, mehr und mehr auf abstrakten, universalistischen Prinzipien, eins hast Du ja selbst genannt. Gibt weitere Beispiele, etwa die Frage, wie Gesetze selbst zustandekommen, Gleichheit vor dem Gesetz ...

Die ersten ernsthaften Forderungen nach Abschaffung der Sklaverei kamen von Leuten, die starke universalistische Prinzipien hatten: Protestanten und Utilitaristen.

Übrigens wäre es selbstverständlich gar nicht möglich, aus dem Prinzip "Präferenzutilitarismus" alle Gesetze vollständig abzuleiten, ähnlich wie man aus dem Prinzip "der König bestimmt" nicht vollständig ableiten kann, was der König nun bestimmt. Mein Punkt war ja eher, daß eine Gruppe von KIs sehr wahrscheinlich eine utilitaristische Ethik ausbilden würde. Welche "Gesetze" im Detail die dann ableiten oder vereinbaren, kann ich nicht voraussagen.
_________________
Was ist der Sinn des Lebens? - Keiner, aber Leere ist Fülle für den, der sie sieht.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Zumsel
registrierter User



Anmeldungsdatum: 08.03.2005
Beiträge: 4667

Beitrag(#2136042) Verfasst am: 24.05.2018, 15:57    Titel: Antworten mit Zitat

Marcellinus hat folgendes geschrieben:
Es erscheint mit ein prinzipielles Problem, die Ethik auf ein Prinzip gründen zu wollen (hübsches Wortspiel)....


Nun, die Sache mit der Moral ist ja, dass sie über simple Verhaltensregeln hinausgeht. Es gibt auch Verhaltensbewertungen, die nach anderen als moralischen Kategorien erfolgen, insofern ist es schon berechtigt, nach dem Wesen dessen zu Fragen, was Moral ist und wie sie begründet wird. Kant unterschied zwischen hypothetischen und kategorischen Imperativen, wobei die, bzw. der kategorische Imperativ das Feld der Moral ausmacht und das hat auch eine gewisse Berechtigung. Insgesamt bin ich auch eher skeptisch, was die Herleitung einer streng rationalen Moral betrifft, aber wenn, dann ist der Weg über Kant m.E. vielversprechender als der über sämtliche Varianten des Utilitarismus.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
step
registriert



Anmeldungsdatum: 17.07.2003
Beiträge: 22767
Wohnort: Germering

Beitrag(#2136064) Verfasst am: 24.05.2018, 18:13    Titel: Antworten mit Zitat

Zumsel hat folgendes geschrieben:
Kant unterschied zwischen hypothetischen und kategorischen Imperativen, wobei die, bzw. der kategorische Imperativ das Feld der Moral ausmacht und das hat auch eine gewisse Berechtigung.

Der Kategorische Imperativ ist ja auch kein schlechter Versuch, ein universelles ethisches Prinzip zu finden, ähnlich wie beim (Regel-)Utilitarismus. Allerdings hielt Kant diesen Ansatz selbst nicht wirklich durch, siehe auch weiter unten.

Zumsel hat folgendes geschrieben:
Insgesamt bin ich auch eher skeptisch, was die Herleitung einer streng rationalen Moral betrifft, aber wenn, dann ist der Weg über Kant m.E. vielversprechender als der über sämtliche Varianten des Utilitarismus.

So unterschiedlich sind die Ansätze ja nicht, etwa in puncto Rationalität, Reziprozität, Universalismus. Ein Unterschied aus meiner Sicht ist jedoch die metaphysische Überladung bei Kant, außerdem kommt beim Präferenzutilitarismus der Aspekt der Interessen und des Konsequentialismus hinzu, der mE ehrlicher ist als die Aspekte "Pflicht & Wille" bei Kant, weil es weg führt von einer individuellen Schuldmoral, hin zu einem Fokus auf das, was weiterbringt.

Überhaupt stört mich bei Kant diese etwas selbstbezügliche Grundannahme, daß eine Handlung nur moralisch sein könne, wenn sie aus Pflichtbewußtsein erfolge. Man kann zwar Moral so definieren, aber das ist dann kein Argument mehr, daß man moralisch handeln solle. Unter "Pflicht" verstand er übrigens mW wieder solche Ziele wie Genuß, guter Ruf usw., und um das wiederum einzufangen, brauchte er die vernünftigen Maximen und den Kategorischen Imperativ. Letztlich ist es schon etwas "hingebogen", denn am Ende kommt es gar nicht mehr drauf an, moralisch oder pflichtbewußt zu handlen, sondern darauf, daß die Maximen universell und richtig sind. An der Stelle könnte man den Rest abwerfen und sich fragen, wie man denn in einer aufgeklärten Gesellschaft zu solchen Maximen und allgemeinen Gesetzen kommt. Und da trifft man notwendigerweise auf die Frage, was ein allgemeines Ziel sein könnte - was sehr nah an der utilitaristischen Grundfrage ist.
_________________
Was ist der Sinn des Lebens? - Keiner, aber Leere ist Fülle für den, der sie sieht.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Marcellinus
Outsider



Anmeldungsdatum: 27.05.2009
Beiträge: 7429

Beitrag(#2136066) Verfasst am: 24.05.2018, 18:20    Titel: Antworten mit Zitat

step hat folgendes geschrieben:

Die ersten ernsthaften Forderungen nach Abschaffung der Sklaverei kamen von Leuten, die starke universalistische Prinzipien hatten: Protestanten und Utilitaristen.

Der Grund für die Abschaffung war es allerdings nicht. Die Sklaverei wurde da abgeschafft, wo man sich einen Vorteil davon versprach (oder einen Nachteil beim Gegner), und wo diese Vorteile weiterbestehen, gibt es Sklaverei bis heute.
_________________
"Mangel an historischem Sinn ist der Erbfehler aller Philosophen ... Alles aber ist geworden;
es gibt keine ewigen Tatsachen: sowie es keine absoluten Wahrheiten gibt."

Friedrich Nietzsche
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Marcellinus
Outsider



Anmeldungsdatum: 27.05.2009
Beiträge: 7429

Beitrag(#2136067) Verfasst am: 24.05.2018, 18:25    Titel: Antworten mit Zitat

step hat folgendes geschrieben:
Gesetzeswerke fußen, über die Historie betrachtet, mehr und mehr auf abstrakten, universalistischen Prinzipien, ...

Entschuldige, aber das stimmt einfach nicht. Schaue dir die Gesetze an, die unsere Parlamente so zahlreich verabschieden. Klein-Klein von Problembewältigung (nicht selten Ausbügeln der Fehler der vorangegangenen Gesetze), Interessenausgleich, Lobby-Politik, usw.. Von Prinzipien keine Spur.
_________________
"Mangel an historischem Sinn ist der Erbfehler aller Philosophen ... Alles aber ist geworden;
es gibt keine ewigen Tatsachen: sowie es keine absoluten Wahrheiten gibt."

Friedrich Nietzsche
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
step
registriert



Anmeldungsdatum: 17.07.2003
Beiträge: 22767
Wohnort: Germering

Beitrag(#2136068) Verfasst am: 24.05.2018, 18:39    Titel: Antworten mit Zitat

Marcellinus hat folgendes geschrieben:
step hat folgendes geschrieben:
Die ersten ernsthaften Forderungen nach Abschaffung der Sklaverei kamen von Leuten, die starke universalistische Prinzipien hatten: Protestanten und Utilitaristen.
Der Grund für die Abschaffung war es allerdings nicht. ...

Da stimme ich in diesem Fall zu - häufig können Vordenker vielleicht den gedanklichen Boden in den gebildeten Schichten vorbereiten, aber die Umsetzung erfolgt auf ganz anderem Wege oder sogar gar nicht. Klimaschutz ist auch so ein Beispiel.

Manchmal läuft es aber auch anders, etwa bei der Abschaffung der Schwazen Pädagogik oder in den Fällen, wo Führungskräfte auch intellektuelle und gesellschaftliche Vordenker sind.
_________________
Was ist der Sinn des Lebens? - Keiner, aber Leere ist Fülle für den, der sie sieht.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
step
registriert



Anmeldungsdatum: 17.07.2003
Beiträge: 22767
Wohnort: Germering

Beitrag(#2136069) Verfasst am: 24.05.2018, 18:42    Titel: Antworten mit Zitat

Marcellinus hat folgendes geschrieben:
step hat folgendes geschrieben:
Gesetzeswerke fußen, über die Historie betrachtet, mehr und mehr auf abstrakten, universalistischen Prinzipien, ...
Entschuldige, aber das stimmt einfach nicht. Schaue dir die Gesetze an, die unsere Parlamente so zahlreich verabschieden. Klein-Klein von Problembewältigung (nicht selten Ausbügeln der Fehler der vorangegangenen Gesetze), ...

Ich meinte eher das, worauf die Gesetze fußen, also Verfassungen von früher und heute.

Marcellinus hat folgendes geschrieben:
... Interessenausgleich ...

Oops, der ist Dir wohl reingerutscht Sehr glücklich
_________________
Was ist der Sinn des Lebens? - Keiner, aber Leere ist Fülle für den, der sie sieht.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Marcellinus
Outsider



Anmeldungsdatum: 27.05.2009
Beiträge: 7429

Beitrag(#2136070) Verfasst am: 24.05.2018, 18:46    Titel: Antworten mit Zitat

step hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
step hat folgendes geschrieben:
Die ersten ernsthaften Forderungen nach Abschaffung der Sklaverei kamen von Leuten, die starke universalistische Prinzipien hatten: Protestanten und Utilitaristen.
Der Grund für die Abschaffung war es allerdings nicht. ...

Da stimme ich in diesem Fall zu - häufig können Vordenker vielleicht den gedanklichen Boden in den gebildeten Schichten vorbereiten, aber die Umsetzung erfolgt auf ganz anderem Wege oder sogar gar nicht. Klimaschutz ist auch so ein Beispiel.

Manchmal läuft es aber auch anders, etwa bei der Abschaffung der Schwazen Pädagogik oder in den Fällen, wo Führungskräfte auch intellektuelle und gesellschaftliche Vordenker sind.

Mit diesen „Vordenkern“ bist du dann allerdings schon meilenweit von einer allgemeinen Ethik entfernt. zwinkern

Als Historiker mahne ich da zu Vorsicht. Wer ein „Vordenker“ war und wer eher ein „Nachdenker“, stellt sich leider meistens erst im Nachhinein heraus. Da ist auch viel Legendenbildung dabei.
_________________
"Mangel an historischem Sinn ist der Erbfehler aller Philosophen ... Alles aber ist geworden;
es gibt keine ewigen Tatsachen: sowie es keine absoluten Wahrheiten gibt."

Friedrich Nietzsche
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Marcellinus
Outsider



Anmeldungsdatum: 27.05.2009
Beiträge: 7429

Beitrag(#2136071) Verfasst am: 24.05.2018, 18:51    Titel: Antworten mit Zitat

step hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
step hat folgendes geschrieben:
Gesetzeswerke fußen, über die Historie betrachtet, mehr und mehr auf abstrakten, universalistischen Prinzipien, ...
Entschuldige, aber das stimmt einfach nicht. Schaue dir die Gesetze an, die unsere Parlamente so zahlreich verabschieden. Klein-Klein von Problembewältigung (nicht selten Ausbügeln der Fehler der vorangegangenen Gesetze), ...

Ich meinte eher das, worauf die Gesetze fußen, also Verfassungen von früher und heute.

Du meinst so etwas ein eine Präambel? zwinkern Anrufung von Göttern, Beschwören ehrwürdiger Traditionen, usw.. Und danach kommt das schnöde juristische Handwerk.

step hat folgendes geschrieben:

Marcellinus hat folgendes geschrieben:
... Interessenausgleich ...

Oops, der ist Dir wohl reingerutscht Sehr glücklich

Nein, keineswegs, nur verstehe ich darunter etwas anderes.
_________________
"Mangel an historischem Sinn ist der Erbfehler aller Philosophen ... Alles aber ist geworden;
es gibt keine ewigen Tatsachen: sowie es keine absoluten Wahrheiten gibt."

Friedrich Nietzsche
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Zumsel
registrierter User



Anmeldungsdatum: 08.03.2005
Beiträge: 4667

Beitrag(#2136076) Verfasst am: 24.05.2018, 19:42    Titel: Antworten mit Zitat

step hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
Kant unterschied zwischen hypothetischen und kategorischen Imperativen, wobei die, bzw. der kategorische Imperativ das Feld der Moral ausmacht und das hat auch eine gewisse Berechtigung.

Der Kategorische Imperativ ist ja auch kein schlechter Versuch, ein universelles ethisches Prinzip zu finden, ähnlich wie beim (Regel-)Utilitarismus...


Der wesentliche Unterschied ist, dass der Utilitarismus zweckrational argumentiert, zweckrationale Handlungen stehen aber immer unter hypothetischen Imperativen, begründen für Kant also gerade nicht den moralischen Wert einer Handlung. Die Rationalität bei Kant bezieht sich auf die Widerspruchsfreiheit der Handlungsmaxime, nicht auf die Frage, ob eine Handlung geeignet ist, ein gegebenes Ziel zu erreichen. Lügen zum Beispiel ist unmoralisch, weil Lügen nur als Regelverstoß denkbar sind. Wer lügt, kann damit nur Erfolg haben, weil das allgemeine Gesetz lautet, dass man die Wahrheit sagen muss. Die Lüge kann damit niemals als allgemeines Gesetz, sondern immer nur als Verstoß gegen eben dieses gedacht werden, alles andere wäre schlicht widersinnig. Man mag von einer derartigen Herleitung halten, was man will, aber zweifellos ist sie originell. Und sie ist rational, ohne zweckrational zu sein.

Was die Sache mit der Pflicht betrifft, da muss man unterscheiden: Moralische Pflichten hat der Mensch bei Kant nur gegenüber sich selbst als einem Vernunftwesen. Wer sich selbst als Vernunftswesen achtet, muss entsprechend des kategorischen Imperatives handeln. "Metaphysisch aufgeladen"? Ja, in den weiteren Ausführungen dazu vielleicht, nicht aber vom Grundgedanken her. Das zeigt sich ja auch in der Herleitung der Menschenwürde aus der Selbstzweckformel des kategorischen Imperativs. Die kann auch metaphysisch aufgeladen werden, der Grundidee bleibt aber trotzdem einleuchtend.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Beiträge der letzten Zeit anzeigen:   
Neues Thema eröffnen   Neue Antwort erstellen   Drucker freundliche Ansicht    Freigeisterhaus Foren-Übersicht -> Wissenschaft und Technik Alle Zeiten sind GMT + 1 Stunde
Gehe zu Seite Zurück  1, 2, 3, 4, 5, 6, 7, 8, 9  Weiter
Seite 6 von 9

 
Gehe zu:  
Du kannst keine Beiträge in dieses Forum schreiben.
Du kannst auf Beiträge in diesem Forum nicht antworten.
Du kannst deine Beiträge in diesem Forum nicht bearbeiten.
Du kannst deine Beiträge in diesem Forum nicht löschen.
Du kannst an Umfragen in diesem Forum nicht mitmachen.



Impressum & Datenschutz


Powered by phpBB © 2001, 2005 phpBB Group