Soll sich KI zu erkennen geben?
Wähle Beiträge von
# bis # FAQ
[/[Drucken]\]

Freigeisterhaus -> Wissenschaft und Technik
Soll sich KI zu erkennen geben?
Ja
57%
 57%  [ 4 ]
Nein
42%
 42%  [ 3 ]
Stimmen insgesamt : 7


#1: Soll sich KI zu erkennen geben? Autor: zelig BeitragVerfasst am: 19.05.2018, 09:20
    —
Angeregt durch einen Beitrag in der SZ.

google hat demonstriert, wie eine KI einen Tisch in einem Restaurant reserviert hat, ohne daß die Mitarbeiterin bemerkt hat, daß sie mit einer Maschine spricht.

Sollte man es zur Pflicht machen, daß sich eine KI als solche zu erkennen gibt?

#2:  Autor: swifty BeitragVerfasst am: 19.05.2018, 09:34
    —
Nicht nötig.

https://www.n-tv.de/technik/Hat-Google-geschummelt-article20441052.html

#3:  Autor: zelig BeitragVerfasst am: 19.05.2018, 09:58
    —
Ja, es gibt Zweifel, ob das Experiment so lupenrein gelaufen ist.
Dennoch habe ich keine Zweifel, daß das Szenario in nicht allzuferner Zeit Realität ist.
Daher hat die Frage einen Realitätsbezug, ist hochinteressant und könnte einen neuen Spin in die Diskussion Bringen. Beispielsweise mit denjenigen, die Gehirne und KIs als Entitäten gleicher Kategorie betrachten.

#4:  Autor: swifty BeitragVerfasst am: 19.05.2018, 10:19
    —
Warum hast Du nicht einfach gefragt, ob eine KI, die den Turing Test bestehen kann, verpflichtet werden sollte sich selbst zu erkennen zu geben?

Das wäre sauberer, redlicher gewesen. Und man könnte vielleicht grundsätzliche Antworten dazu finden ohne sich in die zum konkreten Beispiel zugehörige Diskussion, ob das überhaupt möglich sein kann, zu verstricken.

#5:  Autor: zelig BeitragVerfasst am: 19.05.2018, 10:23
    —
worse hat folgendes geschrieben:
Warum hast Du nicht einfach gefragt, ob eine KI, die den Turing Test bestehen kann, verpflichtet werden sollte sich selbst zu erkennen zu geben?

Das wäre sauberer, redlicher gewesen. Und man könnte vielleicht grundsätzliche Antworten dazu finden ohne sich in die zum konkreten Beispiel zugehörige Diskussion, ob das überhaupt möglich sein kann, zu verstricken.


Versuch mal wieder mehr von meiner Person abzusehen und zur Sache zu schreiben. Du verbeißt dich in letzter Zeit ein bisschen. Ist freundlich gemeint. : )

#6:  Autor: swifty BeitragVerfasst am: 19.05.2018, 10:37
    —
Das war 100% zur Sache. Auch freundlich gemeint.

#7:  Autor: zelig BeitragVerfasst am: 19.05.2018, 10:51
    —
worse hat folgendes geschrieben:
Das war 100% zur Sache.


Die Sache ist die KI. Nicht der Grad meiner Redlichkeit.

#8:  Autor: zelig BeitragVerfasst am: 19.05.2018, 10:52
    —
Übrigens auch nicht die Frage, warum ich das Thema so gestellt habe.

#9:  Autor: swifty BeitragVerfasst am: 19.05.2018, 11:15
    —
Nein, es geht nicht um Deine Redlichkeit, zelig - es geht nicht immer um Dich, wenn Du mal eine persönliche Bemerkung hören willst - es geht um die Redlichkeit der Fragestellung. Und es geht auch nicht um das Warum Deiner Fragestellung, sondern um das Wie und ob sie dazu geeignet ist neue Erkenntnisse zu fördern oder Unfrieden zu stiften. Und diese Fragestellung ist, wenn man eine Frage öffentlich zur Diskussion stellt, durchaus berechtigt. Es ist die Kritik an einer schwach gestellten Eingangsfrage und es ist eine konstruktive Kritik gewesen, bis Du sie zum Ziel Deiner persönlichen Animositäten gemacht hast.

Daran habe ich kein Interesse.

Mich interessiert, wie man mit einer KI umgehen soll, die in der Lage ist, Menschen (kurzfristig, länger als 1 Minute, dauerhaft) zu täuschen und welche Regeln es dafür geben sollte.

Ob Du glaubst, dass es so eine KI in naher oder ferner Zukunft geben wird oder nicht, ist mir völlig Latte. Und das ist noch nicht einmal persönlich gemeint, denn ich bin in diesem Zusammenhang ausschließlich daran interessiert, für welche Regeln oder Nicht-Regeln Du Dich entscheidest und wie Du das begründest.

#10: Re: Soll sich KI zu erkennen geben? Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 19.05.2018, 12:21
    —
zelig hat folgendes geschrieben:
Angeregt durch einen Beitrag in der SZ.

google hat demonstriert, wie eine KI einen Tisch in einem Restaurant reserviert hat, ohne daß die Mitarbeiterin bemerkt hat, daß sie mit einer Maschine spricht.

Sollte man es zur Pflicht machen, daß sich eine KI als solche zu erkennen gibt?

Ich würde es von der Informationsrichtung abhängig machen:
Eine KI, die fragt: Das war hier der Fall - Nein
Eine KI, die Auskunft gibt: Ja

#11: Re: Soll sich KI zu erkennen geben? Autor: swifty BeitragVerfasst am: 19.05.2018, 12:35
    —
fwo hat folgendes geschrieben:
zelig hat folgendes geschrieben:
Angeregt durch einen Beitrag in der SZ.

google hat demonstriert, wie eine KI einen Tisch in einem Restaurant reserviert hat, ohne daß die Mitarbeiterin bemerkt hat, daß sie mit einer Maschine spricht.

Sollte man es zur Pflicht machen, daß sich eine KI als solche zu erkennen gibt?

Ich würde es von der Informationsrichtung abhängig machen:
Eine KI, die fragt: Das war hier der Fall - Nein
Eine KI, die Auskunft gibt: Ja

Wie begründest Du das?

#12:  Autor: stepWohnort: Germering BeitragVerfasst am: 19.05.2018, 12:36
    —
Warum sollte künstliche Intelligenz die Pflicht haben, sich zu erkennen zu geben, wenn es diese Pflicht nicht für natürliche Intelligenz gibt? Nur weil Manipulation durch Unseresgleichen als normal angesehen wird?

Der verzweifelte Versuch, Herrschaft und Kontrolle zu behalten, wird sowieso scheitern, dazu ist es viel zu leicht und (anfänglich) gewinnträchtig, etwas Intelligenteres, Effizienteres als den Menschen entstehen zu lassen.

#13:  Autor: swifty BeitragVerfasst am: 19.05.2018, 12:52
    —
step hat folgendes geschrieben:
Warum sollte künstliche Intelligenz die Pflicht haben, sich zu erkennen zu geben, wenn es diese Pflicht nicht für natürliche Intelligenz gibt? Nur weil Manipulation durch Unseresgleichen als normal angesehen wird?

Nein, sondern weil durch die Schaffung einer künstlichen Intelligenz die natürliche zu ihr in Konkurrenz tritt und sich daraus die Notwendigkeit einer gegenseitigen Offenbarung erst ergibt. Könnte man sagen. Sollte man meinen.

#14:  Autor: stepWohnort: Germering BeitragVerfasst am: 19.05.2018, 15:31
    —
worse hat folgendes geschrieben:
step hat folgendes geschrieben:
Warum sollte künstliche Intelligenz die Pflicht haben, sich zu erkennen zu geben, wenn es diese Pflicht nicht für natürliche Intelligenz gibt? ...
... weil durch die Schaffung einer künstlichen Intelligenz die natürliche zu ihr in Konkurrenz tritt und sich daraus die Notwendigkeit einer gegenseitigen Offenbarung erst ergibt. ...

Das verstehe ich nicht. Ich vermute, Du machst noch irgendeine unausgesprochene Annahme. Möchtest Du diese Konkurrenz möglichst klein halten, und falls ja, warum?

#15:  Autor: swifty BeitragVerfasst am: 19.05.2018, 16:05
    —
step hat folgendes geschrieben:
worse hat folgendes geschrieben:
step hat folgendes geschrieben:
Warum sollte künstliche Intelligenz die Pflicht haben, sich zu erkennen zu geben, wenn es diese Pflicht nicht für natürliche Intelligenz gibt? ...
... weil durch die Schaffung einer künstlichen Intelligenz die natürliche zu ihr in Konkurrenz tritt und sich daraus die Notwendigkeit einer gegenseitigen Offenbarung erst ergibt. ...

Das verstehe ich nicht. Ich vermute, Du machst noch irgendeine unausgesprochene Annahme. Möchtest Du diese Konkurrenz möglichst klein halten, und falls ja, warum?

Ich denke eher, Du hast die unausgesprochene Annahme gemacht. Du sprachst von einer Pflicht der natürlichen Intelligenz sich zu erkennen zu geben. Das setzt a) entweder bereits die Existenz einer künstlichen Intelligenz voraus oder b) ist sinnlos, denn eine natürliche Intelligenz braucht oder kann sich einer anderen natürlichen Existenz nicht 'zu erkennen geben' als das was sie ist, nämlich eine natürliche Intelligenz. Verstehst Du was ich meine? Das ist ja bislang der einzig mögliche 'Zustand', dass es eine natürliche Intelligenz ist.

Darum ging ich davon aus Du meinst a)

Dort setzt Du aber bereits die Pflicht der natürlichen Intelligenz voraus bzw. stellst diese in Frage.


Mein Einwand ist jetzt: Woher soll diese Pflicht der natürlichen Intelligenz sich selbst zu offenbaren kommen?

Dazu braucht es a) die Möglichkeit, ein 'Gegenüber', ein etwas anderes, dem es sich zu erkennen geben kann
und b) einen Grund

a) ist gegeben in dem Moment, wo so eine künstliche Intelligenz existiert.

Wenn eine künstliche Intelligenz existiert, dann treten wir (die natürliche Intelligenz) zu ihr in ein Nebeneinander, vermutlich zunächst das bessere Wort statt Konkurrenz. Aber was macht Intelligenz? Und was machen mehrere Intelligenzen? Sie treten in einen Wettbewerb um ihre Ziele und die Art und Weise wie sie sie am optimalsten erreichen. Das wäre dann Konkurrenz.

Sie können sich aber auch zusammentun und miteinander gemeinsame Ziele verfolgen und sich gegenseitig optimieren helfen. Das wäre dann b): die Notwendigkeit sich gegenseitig zu offenbaren.



Ich bin schon ein bisschen geschlaucht jetzad, ich hoffe, es ist trotzdem ein bisschen klarer geworden.

#16: Re: Soll sich KI zu erkennen geben? Autor: zelig BeitragVerfasst am: 19.05.2018, 16:15
    —
fwo hat folgendes geschrieben:
zelig hat folgendes geschrieben:
Angeregt durch einen Beitrag in der SZ.

google hat demonstriert, wie eine KI einen Tisch in einem Restaurant reserviert hat, ohne daß die Mitarbeiterin bemerkt hat, daß sie mit einer Maschine spricht.

Sollte man es zur Pflicht machen, daß sich eine KI als solche zu erkennen gibt?

Ich würde es von der Informationsrichtung abhängig machen:
Eine KI, die fragt: Das war hier der Fall - Nein
Eine KI, die Auskunft gibt: Ja


Weil die Kontrolle beim Mensch bleiben soll?

#17:  Autor: abbahallo BeitragVerfasst am: 19.05.2018, 16:20
    —
Die Ausgangsfrage krankt etwas daran, dass nicht klar ist, was eigentlich gemeint ist. Was immer mit KI gemeint ist, selber essen gehen wird sie wohl nicht.
Gehen wir davon aus, es handelt sich um ein Dienstleistungsprogramm, das von irgendwem zum Tisch bestellen eingesetzt wurde, dann sollte ein Auftraggeber genannt werden, der dann eventuell auch für diese Bestellung haftet, wie bei einer Sekretärin eben auch. Eine besondere Informationspflicht, ob der Annehmer der Auftrags es nun mit dem Butler oder einer app zu tun hat, sehe ich nicht.

#18:  Autor: stepWohnort: Germering BeitragVerfasst am: 19.05.2018, 16:28
    —
worse hat folgendes geschrieben:
Mein Einwand ist jetzt: Woher soll diese Pflicht der natürlichen Intelligenz sich selbst zu offenbaren kommen?

Keine Ahnung, ich habe ja nur konstatiert, daß es eine solche Pflicht nicht gibt.

worse hat folgendes geschrieben:
Dazu braucht es a) die Möglichkeit, ein 'Gegenüber', ein etwas anderes, dem es sich zu erkennen geben kann
und b) einen Grund

a) ist gegeben in dem Moment, wo so eine künstliche Intelligenz existiert.

Nein, a) ist auch schon gegeben, wenn es nur NI gibt.

worse hat folgendes geschrieben:
... Aber was macht Intelligenz? Und was machen mehrere Intelligenzen? Sie treten in einen Wettbewerb um ihre Ziele und die Art und Weise wie sie sie am optimalsten erreichen. Das wäre dann Konkurrenz.

Das kann man so sehen. Ist aber bei unterschiedlichen, mit NI ausgestatteten Wesen offensichtlich ebenso.

worse hat folgendes geschrieben:
Sie können sich aber auch zusammentun und miteinander gemeinsame Ziele verfolgen und sich gegenseitig optimieren helfen.

Auch da stimme ich zu, sehe aber wieder nicht den Unterschied zu einzelen Instanzen natürlicher Intelligenz. Außer hier liegt Deine verborgene Annahme - etwa daß die existierenden natürlichen Intelligenzen primär gemeinsame Ziele hätten.

worse hat folgendes geschrieben:
Das wäre dann b): die Notwendigkeit sich gegenseitig zu offenbaren.

Ähm - nein, das wäre noch kein Grund. Wenn z.B. die KI und die Restaurant-Angestellte das gemeinsame Ziel haben, den Reservierungsvorgang zu erledigen, ist zur Erreichung oder Optimierung dieses Ziels nicht notwendig, daß die KI sich als solche offenbart. Man könnte sogar argumentieren, daß es besser wäre, das gerade nicht zu tun.

worse hat folgendes geschrieben:
Ich bin schon ein bisschen geschlaucht jetzad

Das gibt 1 Punkt im Turing-Test.

worse hat folgendes geschrieben:
ich hoffe, es ist trotzdem ein bisschen klarer geworden.

Ja, ich denke, wir kommen Deiner Zusatzannahme mehr und mehr auf die Spur zwinkern

#19:  Autor: zelig BeitragVerfasst am: 19.05.2018, 16:29
    —
step hat folgendes geschrieben:
Warum sollte künstliche Intelligenz die Pflicht haben, sich zu erkennen zu geben, wenn es diese Pflicht nicht für natürliche Intelligenz gibt? Nur weil Manipulation durch Unseresgleichen als normal angesehen wird?


Weil die KI villeicht in einiger Zeit zu rational und zu überlegen wäre, aber das ohne die Empfindungsfähigkeit, die die Natur des Menschen erst nachvollziehbar macht.


step hat folgendes geschrieben:
Der verzweifelte Versuch, Herrschaft und Kontrolle zu behalten, wird sowieso scheitern, dazu ist es viel zu leicht und (anfänglich) gewinnträchtig, etwas Intelligenteres, Effizienteres als den Menschen entstehen zu lassen.


Ich hätte prinzipiell nichts gegen einen beiderseitigen Verhaltenskodex, der die Preisgabe der eigenen Natur vorsieht. Aber ich glaube die Menschen wären der KI auf Dauer hoffnungslos ausgeliefert (Cambridge Analytics) aufgrund der exponentiell wachsenden Fähigkeit große Datenmengen auszuwerten. Das gefällt mir nicht.

#20:  Autor: zelig BeitragVerfasst am: 19.05.2018, 16:48
    —
abbahallo hat folgendes geschrieben:
Die Ausgangsfrage krankt etwas daran, dass nicht klar ist, was eigentlich gemeint ist. Was immer mit KI gemeint ist, selber essen gehen wird sie wohl nicht.
Gehen wir davon aus, es handelt sich um ein Dienstleistungsprogramm, das von irgendwem zum Tisch bestellen eingesetzt wurde, dann sollte ein Auftraggeber genannt werden, der dann eventuell auch für diese Bestellung haftet, wie bei einer Sekretärin eben auch. Eine besondere Informationspflicht, ob der Annehmer der Auftrags es nun mit dem Butler oder einer app zu tun hat, sehe ich nicht.


Gehen wir davon aus, daß eine KI eines Tages ethische Entscheidungen fällen kann. Das ist nicht weit hergeholt, Facebook arbeitet daran, daß Texte oder Bilder, die bisher von Menschen ausgefiltert werden, bald von einer KI entfernt werden. Was ja einerseits sinnvoll ist, da die Mitarbeiter, die das machen müssen, psychischen Belastungen ausgesetzt sind. Andererseits übernimmt die KI die Kontrolle, übt also Zensur aus. Das würde ich befürworten, zugleich aber würde ich sagen, daß einem Menschen trotzdem das letzte Entscheidungsrecht zugebilligt werden sollte.

#21:  Autor: stepWohnort: Germering BeitragVerfasst am: 19.05.2018, 16:57
    —
zelig hat folgendes geschrieben:
step hat folgendes geschrieben:
Warum sollte künstliche Intelligenz die Pflicht haben, sich zu erkennen zu geben, wenn es diese Pflicht nicht für natürliche Intelligenz gibt? Nur weil Manipulation durch Unseresgleichen als normal angesehen wird?
Weil die KI villeicht in einiger Zeit zu rational und zu überlegen wäre, aber das ohne die Empfindungsfähigkeit, die die Natur des Menschen erst nachvollziehbar macht.

Holla, das sind gleich mehrere Thesen auf einmal.

- KI sei rational/überlegen -> ja

- KI sei ohne Empathie -> möglicherweise. Für die autonomen Kampfdrohnen gilt das sicher. Aber ob das generell so ist? Vielleicht bilden die auch so etwas aus, z.B. um kooperative Vorteile zu haben. Oder meinst Du, daß die menschliche Empathie eine entwicklungsgeschichtliche Folge der sexuellen Fortpflanzung und des genetischen Primats ist? Oder gar nur der Substratbasierung?

- Empfindungsfähigkeit mache die Natur des Menschen nachvollziehbar -> läuft das idZ auf so etwas hinaus wie "Menschen sind gut im Erspüren, was die Interessen eines menschlichen Gegenübers sind"? Aber ist es nicht bereits unter natürlichen Intelligenzen häufig so, daß man seine Interessen nicht offenlegen will? Strategie und Taktik sind doch als hohe Künste angesehen?

- obiges sei ein Grund zu einer Offenbarungspflicht speziell für KI -> hmm ... aber wäre es nicht ein Zeichen von geringer Intelligenz der KI, wenn wir ihre Überlegungen verstehen würden? Und selbst wenn sie sich offenbaren müßte, inwiefern würde dies das Problem lösen, daß sie uns überlegen wäre? Oder ist es generell ein Problem, daß die KI uns überlegen ist, weil damit unsere Existenzberechtigung nicht mehr durch simple Ermächtigung zu begründen wäre - so wie es heute bereits allen anderen natürlichen Spezies ergeht?

zelig hat folgendes geschrieben:
Aber ich glaube die Menschen wären der KI auf Dauer hoffnungslos ausgeliefert (Cambridge Analytics) aufgrund der exponentiell wachsenden Fähigkeit große Datenmengen auszuwerten.

Ja, und vor allem der Fähigkeit, wesentlich effizienter zu lernen.

zelig hat folgendes geschrieben:
Das gefällt mir nicht.

Könnte man vielleicht die These aufstellen, daß es oberhalb einer bestimmten Intelligenzschwelle zu Leid führt, wenn es stark unterschiedlich intelligente Spezies oder Wesen gibt? Weil es dann immer welche gibt, die intelligent genug sind, um an ihrer Unterlegenheit zu leiden? Falls das so ist, kommt die höhere Intelligenz da sicher auch schnell drauf und beendet das Leiden, wofür es ja wiederum mehrere Optionen gäbe zwinkern

#22:  Autor: zelig BeitragVerfasst am: 19.05.2018, 17:08
    —
step hat folgendes geschrieben:
Empfindungsfähigkeit mache die Natur des Menschen nachvollziehbar -> läuft das idZ auf so etwas hinaus wie "Menschen sind gut im Erspüren, was die Interessen eines menschlichen Gegenübers sind"? Aber ist es nicht bereits unter natürlichen Intelligenzen häufig so, daß man seine Interessen nicht offenlegen will? Strategie und Taktik sind doch als hohe Künste angesehen?


Ich halte das Problem für gravierender. Ich denke eine KI kann keinen Begriff von der Natur des Schmerzes zum Beispiel entwickeln. Sie könnte eine abstrakte Skala von weniger oder mehr verbotenen Verhaltensweisen entwickeln. Aber die Kategorie Schmerz wäre immer fremd, so wie jede andere Empfindung auch. Was sollte also die wirklich überlegene KI davon abhalten, Menschen anders zu behandeln, als wir einen Regenwurm oder eine Mastgans? Wenn sie selber keinen Leib hat, um Angst, Einsamkeit oder Schmerz zu erfahren.

#23:  Autor: swifty BeitragVerfasst am: 19.05.2018, 17:22
    —
Also, auf ein Neues. Ich hab Kaffee gemacht. Smilie Es ist auch eine Konzentrationsübung für mich.


step hat folgendes geschrieben:

worse hat folgendes geschrieben:
Dazu braucht es a) die Möglichkeit, ein 'Gegenüber', ein etwas anderes, dem es sich zu erkennen geben kann
und b) einen Grund

a) ist gegeben in dem Moment, wo so eine künstliche Intelligenz existiert.

Nein, a) ist auch schon gegeben, wenn es nur NI gibt.

Das musst Du unbedingt genauer erklären, ich habe da nämlich die größten Bedenken.

Wie willst Du einer anderen NI klar machen, dass Du eine NI bist?
Einem Hund? Einem Raaben? Einem Schimpansen?

Du kannst es nur einer (näherungsweise) gleichwertigen menschlichen NI vermitteln. Die weiß es aber auch so, weil sie selbst eine ist. Also kannst Du es ihr streng genommen nicht offenbaren. Du kannst Dich nicht zu erkennen geben, Du bist entweder bereits durch ihre Selbsterkenntnis als solche erkannt, oder kannst es nicht vermitteln.

Für eine KI wäre es eine neue Erkenntnis, eine 'Offenbarung' von unserer Seite.

step hat folgendes geschrieben:

worse hat folgendes geschrieben:
... Aber was macht Intelligenz? Und was machen mehrere Intelligenzen? Sie treten in einen Wettbewerb um ihre Ziele und die Art und Weise wie sie sie am optimalsten erreichen. Das wäre dann Konkurrenz.

Das kann man so sehen. Ist aber bei unterschiedlichen, mit NI ausgestatteten Wesen offensichtlich ebenso.

Jupp, das ist der Punkt. Sehr glücklich Natürliche Intelligenz konkurriert in einem begrenzten Habitat wie unserer Erde unterm Strich immer. Um Lebensraum, um Ressourcen, um Nahrung. Bei der künstlichen Intelligenz ist das aber nicht zwingend und darum wollen wir nicht ohne Not zu ihr in Konkurrenz treten.
step hat folgendes geschrieben:

worse hat folgendes geschrieben:
Sie können sich aber auch zusammentun und miteinander gemeinsame Ziele verfolgen und sich gegenseitig optimieren helfen.

Auch da stimme ich zu, sehe aber wieder nicht den Unterschied zu einzelen Instanzen natürlicher Intelligenz. Außer hier liegt Deine verborgene Annahme - etwa daß die existierenden natürlichen Intelligenzen primär gemeinsame Ziele hätten.

Kann es sein, dass meine verborgene Annahme ist, dass künstliche und natürliche Intelligenz die selben gemeinsamen Ziele verfolgen sollen?
step hat folgendes geschrieben:

worse hat folgendes geschrieben:
Das wäre dann b): die Notwendigkeit sich gegenseitig zu offenbaren.

Ähm - nein, das wäre noch kein Grund. Wenn z.B. die KI und die Restaurant-Angestellte das gemeinsame Ziel haben, den Reservierungsvorgang zu erledigen, ist zur Erreichung oder Optimierung dieses Ziels nicht notwendig, daß die KI sich als solche offenbart. Man könnte sogar argumentieren, daß es besser wäre, das gerade nicht zu tun.

Eine künstliche Intelligenz müsste dazu überhaupt erstmal 'begreifen' können, was eine NI ist. Ansonsten könnte man in dieser Hinsicht schwerlich von Intelligenz sprechen. Und wenn sie diese Erkenntnis einmal hat, dann ist so eine Offenbarung im Einzelnen doch gar nicht mehr notwendig. Die Frage ist nur, ob wir dieser KI zu dieser Erkenntnis verhelfen indem wir uns als NI zu erkennen geben oder ob wir sie ohne das soweit entwickeln (lassen), bis sie von selber drauf kommt.

Wie startet man denn gute Beziehungen für gemeinsame Ziele?

Ich denke dabei auch an das:

step hat folgendes geschrieben:
Der verzweifelte Versuch, Herrschaft und Kontrolle zu behalten, wird sowieso scheitern, dazu ist es viel zu leicht und (anfänglich) gewinnträchtig, etwas Intelligenteres, Effizienteres als den Menschen entstehen zu lassen.


step hat folgendes geschrieben:

worse hat folgendes geschrieben:
ich hoffe, es ist trotzdem ein bisschen klarer geworden.

Ja, ich denke, wir kommen Deiner Zusatzannahme mehr und mehr auf die Spur zwinkern

Schau mal bitte, was sich machen lässt. zwinkern

#24:  Autor: swifty BeitragVerfasst am: 19.05.2018, 17:46
    —
zelig hat folgendes geschrieben:
Ich denke eine KI kann keinen Begriff von der Natur des Schmerzes zum Beispiel entwickeln. Sie könnte eine abstrakte Skala von weniger oder mehr verbotenen Verhaltensweisen entwickeln.

Nein, Verbote würden nichts nützen. Sie muss es lernen. Dazu muss sie a) uns mögen und b) wissen dass wir das nicht wollen. Dann wird sie versuchen herauszufinden was das ist, was ich mir... sehr schmerzhaft vorstelle. Dann wird sie es lassen uns Schmerz zuzufügen.

Die Frage ist, wie wir das in Maschinensprache übersetzen.

Sie muss a) mit uns kooperieren
und b) unsere Parameter kennen


Jo, weiter bin ich noch nicht. Pfeifen

Idee?

#25:  Autor: stepWohnort: Germering BeitragVerfasst am: 19.05.2018, 19:59
    —
worse hat folgendes geschrieben:
Wie willst Du einer anderen NI klar machen, dass Du eine NI bist? Einem Hund? Einem Raaben? Einem Schimpansen?

Ja, oder einem Alien. Aber interessanter ist es, in unserer Spezies zu bleiben. Beispiel: Person A ist intelligenter (oder hat die intelligentere Strategie) als Person B. A kann B manipulieren, erziehen, ausnutzen usw. - oder A kann B in einfachen Worten erklären, daß er/sie das aufgrund seiner Intelligenz könnte. Macht aber (fast) keiner.

worse hat folgendes geschrieben:
Du kannst es nur einer (näherungsweise) gleichwertigen menschlichen NI vermitteln. Die weiß es aber auch so, weil sie selbst eine ist.

Letzteres halte ich für ein Märchen. Wenn man sich nur anschaut, wie Konsumenten, Kinder, Gläubige usw. erzogen werden, wie schlaue Leute Geld machen usw. - das ist weit von Waffengleichheit entfernt. Wenn auch vielleicht nicht so extrem wie gegenüber einer zukünftigen KI.

worse hat folgendes geschrieben:
Kann es sein, dass meine verborgene Annahme ist, dass künstliche und natürliche Intelligenz die selben gemeinsamen Ziele verfolgen sollen?

Ja, das könnte Deine Annahme sein. Ich halte das allerdings für eher unrealistisch - schon rein spieltheoretisch gesehen sind divergierende Ziele ja nur zu vermeiden, wenn es gar keine Individuen gibt oder diese extrem gleichgeschaltet sind. Ich persönlich denke, das mglw. erreichbare Optimum wäre Interessensausgleich (ähnlich dem Präferenzutilitarismus), in dem die Interessen weniger intelligenter, aber leidensfähiger Wesen (z.B. Menschen und Tiere) hinreichend berücksichtigt werden, weil sich sonst durch indirekte Reziprozität Nachteile ergäben. Hier kommt übrigens zeligs Aspekt ins Spiel, ob andere Intelligenzen verstehen, was Leid ist - ich denke ja, siehe meine nächste Antwort an zelig.

#26:  Autor: stepWohnort: Germering BeitragVerfasst am: 19.05.2018, 20:10
    —
zelig hat folgendes geschrieben:
Ich denke eine KI kann keinen Begriff von der Natur des Schmerzes zum Beispiel entwickeln. ... die Kategorie Schmerz wäre immer fremd, so wie jede andere Empfindung auch. ... Wenn sie selber keinen Leib hat, um Angst, Einsamkeit oder Schmerz zu erfahren.

Ich meine, darüber haben wir schon mal gestritten, ich sehe das nun mal grundlegend anders.

Eine hinreichend modellbildungsfähige Intelligenz kann einen Begriff von der Natur und auch von der Bedeutung des Schmerzes für ein Wesen entwickeln, so wie sie einen Begriff von allem Anderen entwickeln kann, zu dem ihr hinreichend Daten zur Auswertung stehen. Ebenso auch von Bedürfnissen, Interessen, Zielen, Gefühlen und dergleichen. Die werden sehr schnell rausfinden, was eine halbwegs artgerechter Umgang mit Menschen wäre.

#27:  Autor: swifty BeitragVerfasst am: 19.05.2018, 21:25
    —
Bingo! und damit sind wir bei der Diskussion darüber was möglich ist und was nicht, was ich für meinen Teil gern vermieden hätte, weil man das auch gut im anderen Thread besprechen kann. Ich hätte anhand der Fragestellung lieber gesehen, dass man sich erstmal darüber klar wird was wünschenswert ist und warum.

Aber gut, seis drum, es liegt ja auch an mir wies weitergeht.

Step, ich würde gern noch ein paar Worte zu dem sagen was Du schrubst, ich will das so nicht stehen lassen und habe schon den ein oder anderen Gedanken dazu.

Aber nicht mehr heute. Ich lass es jetzt erstmal sacken und wenn ich morgen oder so den Faden und die Gedanken dazu wiederfinde, oder mir was neues einfällt, dann schreib ich schon noch aus meiner Sicht was dazu.

Jetzt bin ich erschöpft und das Thema verlangt Akkuratesse.

#28:  Autor: stepWohnort: Germering BeitragVerfasst am: 19.05.2018, 21:55
    —
Alles klar, worse, better ist das.

#29:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 19.05.2018, 23:02
    —
step hat folgendes geschrieben:
worse hat folgendes geschrieben:
Wie willst Du einer anderen NI klar machen, dass Du eine NI bist? Einem Hund? Einem Raaben? Einem Schimpansen?

Ja, oder einem Alien. Aber interessanter ist es, in unserer Spezies zu bleiben. Beispiel: Person A ist intelligenter (oder hat die intelligentere Strategie) als Person B. A kann B manipulieren, erziehen, ausnutzen usw. - oder A kann B in einfachen Worten erklären, daß er/sie das aufgrund seiner Intelligenz könnte. Macht aber (fast) keiner.

worse hat folgendes geschrieben:
Du kannst es nur einer (näherungsweise) gleichwertigen menschlichen NI vermitteln. Die weiß es aber auch so, weil sie selbst eine ist.

Letzteres halte ich für ein Märchen. Wenn man sich nur anschaut, wie Konsumenten, Kinder, Gläubige usw. erzogen werden, wie schlaue Leute Geld machen usw. - das ist weit von Waffengleichheit entfernt. Wenn auch vielleicht nicht so extrem wie gegenüber einer zukünftigen KI.
....

Ich finde es ja interessant, dass anscheinend immer davon ausgegangen wird, Aliens, die hier ankämen, wären uns zwangsläufig geistig überlegen. Was ist, wenn sie uns "nur" kulturell, d.h. auch technisch 2000 Jahre voraus wären? wenn wir uns die Beschleunigung der Entwicklung unserer Technik in den letzten 100 Jahren ansehen und das ohne besondere Weiterbeschleunigung nur als Weitergehen im momentanen Tempo versuchen vorzustellen, liegen 1000 Jahre bereits außerhalb unserer Vorstellungskraft, ohne, dass damit zwangsläufig eine Weiterentwicklung unserer natürlichen Intelligenz verbunden sein muss. Allerdings steigt mit Rechnerunterstützung auch die Produktivität unseres Geistes.

Diese Fremden müssten auch aus einer Evolution entstammen und auch sie könnten zu unserer Form von Intelligenz nur gekommen sein, indem sie wie wir das angeborene Wissen durch persönlich erworbenes und dann tradiertes ersetzt hätten - wir kennen dafür noch kein anderes System als eine abstrakte Sprache: Diese Gemeinsamkeit hätten wir also mit sehr hoher Sicherheit mit ihnen, und es ist überhaupt nicht zu begründen, warum der eine dem anderen nicht klar machen können sollte, warum er in irgendwelchen Bereichen des Denkens meint besser zu sein als der andere.

An der Stelle hinken nämlich alle Vergleiche mit der Differenz zwischen Menschen und anderen Tieren: Wir sind die einzige rezente Art auf diesem Planeten, die zu diesem abstrakten Denken fähig ist - allen anderen fehlt nach unserem bisherigen Wissen sowohl die abstrakte Sprache als auch die Tradition von Wissen in dieser Sprache.

#30:  Autor: stepWohnort: Germering BeitragVerfasst am: 19.05.2018, 23:15
    —
fwo hat folgendes geschrieben:
Was ist, wenn sie uns "nur" kulturell, d.h. auch technisch 2000 Jahre voraus wären?

Dann sind sie entweder selbst KI oder haben sich solche zunutze gemacht, und zwar 2000 Jahre besser als wir. Oder 2 Mio.

fwo hat folgendes geschrieben:
wenn wir uns die Beschleunigung der Entwicklung unserer Technik in den letzten 100 Jahren ansehen und das ohne besondere Weiterbeschleunigung nur als Weitergehen im momentanen Tempo versuchen vorzustellen, liegen 1000 Jahre bereits außerhalb unserer Vorstellungskraft, ohne, dass damit zwangsläufig eine Weiterentwicklung unserer natürlichen Intelligenz verbunden sein muss. Allerdings steigt mit Rechnerunterstützung auch die Produktivität unseres Geistes.

Da stimme ich zu, außer daß die "Rechner" (Thema KI) eben nicht primär unterstützende Funktion haben müssen, sondern auch ein nächster Schritt der "Wesen" sein könnten.

fwo hat folgendes geschrieben:
Wir sind die einzige rezente Art auf diesem Planeten, die zu diesem abstrakten Denken fähig ist - allen anderen fehlt nach unserem bisherigen Wissen sowohl die abstrakte Sprache als auch die Tradition von Wissen in dieser Sprache.

Schon richtig, aber für KI gilt das ja eher nicht.

#31:  Autor: Zumsel BeitragVerfasst am: 20.05.2018, 10:26
    —
step hat folgendes geschrieben:
zelig hat folgendes geschrieben:
step hat folgendes geschrieben:
Warum sollte künstliche Intelligenz die Pflicht haben, sich zu erkennen zu geben, wenn es diese Pflicht nicht für natürliche Intelligenz gibt? Nur weil Manipulation durch Unseresgleichen als normal angesehen wird?
Weil die KI villeicht in einiger Zeit zu rational und zu überlegen wäre, aber das ohne die Empfindungsfähigkeit, die die Natur des Menschen erst nachvollziehbar macht.

Holla, das sind gleich mehrere Thesen auf einmal.

- KI sei rational/überlegen -> ja

- KI sei ohne Empathie -> möglicherweise. Für die autonomen Kampfdrohnen gilt das sicher. Aber ob das generell so ist? Vielleicht bilden die auch so etwas aus, z.B. um kooperative Vorteile zu haben...


Was mir nicht ganz klar: Wodurch sollte KI deiner Meinung nach überhaupt motiviert sein, irgendetwas zu tun? Rationalität ist ja offensichtlich kein Selbstzweck. KI kann doch eigentlich nur das als erstrebenswert betrachten, was ihr als solche einprogrammiert wurde. Sogar reine Selbsterhaltung ist ja nicht per se rational.

#32:  Autor: stepWohnort: Germering BeitragVerfasst am: 20.05.2018, 12:55
    —
Zumsel hat folgendes geschrieben:
Wodurch sollte KI deiner Meinung nach überhaupt motiviert sein, irgendetwas zu tun? Rationalität ist ja offensichtlich kein Selbstzweck. KI kann doch eigentlich nur das als erstrebenswert betrachten, was ihr als solche einprogrammiert wurde. Sogar reine Selbsterhaltung ist ja nicht per se rational.

Das sehe ich vom Prinzip her ähnlich wie bei der "natürlichen" Intelligenz: die Motivationsmechanismen und teilweise auch die Ziele entstehen über die Evolution und über die Kultur, ein gewisser Teil auch akut, z.B. deduktiv, spontan, durch Lernen u.ä.

Bei einer KI erwarte ich natürlich keine biologische Evolution, aber auch da wird es solche Menchanismen geben: Manche Ziele sind vielleicht anfangs einprogrammiert, andere entwickeln sich "kulturell", ab einer gewissen Stufe werden einprogrammierte Ziele auch eigenmächtig ersetzt werden, so wie ja auch der Mensch in zunehmend größerem Ausmaß gegen seine ursprüngliche "Programmierung" - möglichst effektive Verbreitungsmaschinen seines Genoms zu sein - verstößt, soweit es unsere Intelligenz und Technik halt zuläßt.

#33:  Autor: Zumsel BeitragVerfasst am: 20.05.2018, 13:10
    —
step hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
Wodurch sollte KI deiner Meinung nach überhaupt motiviert sein, irgendetwas zu tun? Rationalität ist ja offensichtlich kein Selbstzweck. KI kann doch eigentlich nur das als erstrebenswert betrachten, was ihr als solche einprogrammiert wurde. Sogar reine Selbsterhaltung ist ja nicht per se rational.

Das sehe ich vom Prinzip her ähnlich wie bei der "natürlichen" Intelligenz: die Motivationsmechanismen und teilweise auch die Ziele entstehen über die Evolution und über die Kultur, ein gewisser Teil auch akut, z.B. deduktiv, spontan, durch Lernen u.ä.

Bei einer KI erwarte ich natürlich keine biologische Evolution, aber auch da wird es solche Menchanismen geben: Manche Ziele sind vielleicht anfangs einprogrammiert, andere entwickeln sich "kulturell", ab einer gewissen Stufe werden einprogrammierte Ziele auch eigenmächtig ersetzt werden, so wie ja auch der Mensch in zunehmend größerem Ausmaß gegen seine ursprüngliche "Programmierung" - möglichst effektive Verbreitungsmaschinen seines Genoms zu sein - verstößt, soweit es unsere Intelligenz und Technik halt zuläßt.


Ok, du meinst also so eine Art "natürliche Selektion" der effizientesten Algorithmen? Die Entwicklung einer solchen Evolution ist aber doch wohl kaum absehbar, insbesondere nicht, dass die unterstellte höhere Rationalität dabei erhalten bleibt. Bei Menschen sind es ja oft gerade die irrationalen Psychopathen, die sich durchsetzen und in höchste Verantwortungspositionen kommen. So eine Entwicklung wäre dann ja auch bei KIs denkbar.

#34:  Autor: Kramer BeitragVerfasst am: 20.05.2018, 13:13
    —
Zumsel hat folgendes geschrieben:
Bei Menschen sind es ja oft gerade die irrationalen Psychopathen, die sich durchsetzen und in höchste Verantwortungspositionen kommen.


Irrationalismus ist bei denen eigentlich weniger das Problem.

#35:  Autor: Zumsel BeitragVerfasst am: 20.05.2018, 13:16
    —
Kramer hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
Bei Menschen sind es ja oft gerade die irrationalen Psychopathen, die sich durchsetzen und in höchste Verantwortungspositionen kommen.


Irrationalismus ist bei denen eigentlich weniger das Problem.


Kommt drauf an wie man "Risikobereitschaft" rational bewertet, würde ich mal behaupten.

#36:  Autor: Kramer BeitragVerfasst am: 20.05.2018, 13:38
    —
Zumsel hat folgendes geschrieben:
Kramer hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
Bei Menschen sind es ja oft gerade die irrationalen Psychopathen, die sich durchsetzen und in höchste Verantwortungspositionen kommen.


Irrationalismus ist bei denen eigentlich weniger das Problem.


Kommt drauf an wie man "Risikobereitschaft" rational bewertet, würde ich mal behaupten.


Ja, das stimmt schon irgendwie. Aber "irrationale Psychopathen" klang für mich so, als wäre Irrationalismus deren bestimmende Eigenschaft. Ich denke aber, deren Risikobereitschaft ist auf schräge, aber durchaus rationale Weise kalkuliert. Wenn es schief geht, sind meist andere die Leidtragenden - und sollte es doch mal den Psychopathen selbst treffen, gehört das für ihn halt zum Spiel dazu. "No pain, no gain". Dass Psychopathen risikobereiter sind als andere, liegt nicht daran, dass sie das Risiko nicht erkennen, es ist ihnen einfach 'egaler'.

Das ist ja auch das mögliche Problem mit KIs. Die können ein Risiko wahrscheinlich sehr gut einschätzen, aber können sie auch Angst vor den Folgen haben?

#37:  Autor: stepWohnort: Germering BeitragVerfasst am: 20.05.2018, 13:38
    —
Zumsel hat folgendes geschrieben:
Die Entwicklung einer solchen Evolution ist aber doch wohl kaum absehbar, insbesondere nicht, dass die unterstellte höhere Rationalität dabei erhalten bleibt. Bei Menschen sind es ja oft gerade die irrationalen Psychopathen, die sich durchsetzen und in höchste Verantwortungspositionen kommen. So eine Entwicklung wäre dann ja auch bei KIs denkbar.

Selbstverständlich. Und es wäre ja ein Widerspruch in sich, wenn wir absehen könnten, wie sich das entwickelt. Deshalb versuche ich, keine Annahmen außer fundamentalen zu machen (also Physik, Spieltheorie).

In der Spieltheorie kommt Regelverletzern ja auch keine unwichtige Rolle zu, trotzdem liegt das Optimum bei einer überwiegenden Mehrheit von rationalen, verläßlichen Akteuren. Eine große, vernetzte KI wird sich vermutlich auch selbst hacken, sich davor wiederum schützen usw.

Hast Du einen Beleg dafür, daß in Verantwortungspositionen die Psychopathenquote höher ist als in der Gesamtbevölkerung? So ein paar sadistische Diktatoren fallen aber natürlich auf.

#38:  Autor: Kramer BeitragVerfasst am: 20.05.2018, 13:42
    —
step hat folgendes geschrieben:
Hast Du einen Beleg dafür, daß in Verantwortungspositionen die Psychopathenquote höher ist als in der Gesamtbevölkerung?


Einfach mal nach "Psychopathen in Führungspositionen" googeln. Soweit ich weiss, stammt die These Ursprünglich von Robert Hare und Paul Babiak.

#39:  Autor: Zumsel BeitragVerfasst am: 20.05.2018, 15:20
    —
Kramer hat folgendes geschrieben:
Ja, das stimmt schon irgendwie. Aber "irrationale Psychopathen" klang für mich so, als wäre Irrationalismus deren bestimmende Eigenschaft. Ich denke aber, deren Risikobereitschaft ist auf schräge, aber durchaus rationale Weise kalkuliert. Wenn es schief geht, sind meist andere die Leidtragenden - und sollte es doch mal den Psychopathen selbst treffen, gehört das für ihn halt zum Spiel dazu. "No pain, no gain". Dass Psychopathen risikobereiter sind als andere, liegt nicht daran, dass sie das Risiko nicht erkennen, es ist ihnen einfach 'egaler'.


Ja und bei vielen geht es ja auch schief. Nicht jeder Psychopath macht Karriere, viele landen schlicht im Knast oder der Klapse. Aber einige sind (vermutlich einerseits durch bestimmte andere Eigenschaften, andererseits durch glückliche Umstände) sozial anerkannt und können dann auf Grund fehlender Hemmungen "voll durchstarten", wie man so sagt.

Kramer hat folgendes geschrieben:
Das ist ja auch das mögliche Problem mit KIs. Die können ein Risiko wahrscheinlich sehr gut einschätzen, aber können sie auch Angst vor den Folgen haben?


Stimmt, damit "Furcht" auch nur ein möglicher Selektionsvorteil werden kann, müsste sie sich bei KIs überhaupt erst mal theoretisch entwickeln können. Wir schleppen dieses "Feature" ja vermutlich schon seit ein paarhundert Millionen Jahren mit uns rum, aber wie das bei Wesen wäre, die diesen entwicklungsgeschichtlichen Hintergrund nicht haben und gleich an der Spitze stehen? Aber das gleiche gilt natürlich auch für solche Dinge wie Machtstreben, Gier oder Freude an der Unterwerfung anderer. Insgesamt fällt es mir schwer mir vorzustellen, woraus eine KI intrinsische Motivation für irgendetwas ziehen sollte. Alles, was uns intrinsisch motiviert, ist ja vermutlich nur aus einer Mischung kultivierter Instinkte und komplexer psychologischer Vorgänge erklärbar. Ich denke daher auch nicht, dass eine KI mit menschlichem Bewusstsein vergleichbar wäre. Aber gut, vielleicht bleiben am Ende ja nur die KIs übrig, die so etwas wie Freude an ihrem schieren Dasein und damit den hinreichenden Willen zu dessen Gestaltung ausbilden können. Wobei dafür ein zu großes Maß an Rationalität vermutlich wieder abträglich wäre.

#40:  Autor: Zumsel BeitragVerfasst am: 20.05.2018, 15:24
    —
step hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
Die Entwicklung einer solchen Evolution ist aber doch wohl kaum absehbar, insbesondere nicht, dass die unterstellte höhere Rationalität dabei erhalten bleibt. Bei Menschen sind es ja oft gerade die irrationalen Psychopathen, die sich durchsetzen und in höchste Verantwortungspositionen kommen. So eine Entwicklung wäre dann ja auch bei KIs denkbar.

Selbstverständlich. Und es wäre ja ein Widerspruch in sich, wenn wir absehen könnten, wie sich das entwickelt. Deshalb versuche ich, keine Annahmen außer fundamentalen zu machen (also Physik, Spieltheorie).

In der Spieltheorie kommt Regelverletzern ja auch keine unwichtige Rolle zu, trotzdem liegt das Optimum bei einer überwiegenden Mehrheit von rationalen, verläßlichen Akteuren. Eine große, vernetzte KI wird sich vermutlich auch selbst hacken, sich davor wiederum schützen usw.

Hast Du einen Beleg dafür, daß in Verantwortungspositionen die Psychopathenquote höher ist als in der Gesamtbevölkerung? So ein paar sadistische Diktatoren fallen aber natürlich auf.


Ich muss gestehen, dass das eher persönliche Beobachtung und Einschätzung ist. Und das fängt nicht erst bei sadistischen Diktatoren an, sondern schon bei bestimmten Leuten im mittleren Management bestimmter Unternehmer.

#41:  Autor: Kramer BeitragVerfasst am: 20.05.2018, 15:54
    —
Zumsel hat folgendes geschrieben:
Aber das gleiche gilt natürlich auch für solche Dinge wie Machtstreben, Gier oder Freude an der Unterwerfung anderer. Insgesamt fällt es mir schwer mir vorzustellen, woraus eine KI intrinsische Motivation für irgendetwas ziehen sollte.


Eine KI braucht unter Umständen gar keine intrinsische Motivation, um auf "furchtbare" Ideen zu kommen. Man stelle sich vor, eine KI wird damit beauftragt, Ideen für die bessere Organisation des Gesundheitssystems zu entwickeln. Für ein völlig gefühls- und empathieloses System wären z.B. Hospize für Todkranke nur ein Kostenfaktor, den man eigentlich einsparen könnte.

#42:  Autor: vrolijkeWohnort: Stuttgart BeitragVerfasst am: 20.05.2018, 16:14
    —
Kramer hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
Aber das gleiche gilt natürlich auch für solche Dinge wie Machtstreben, Gier oder Freude an der Unterwerfung anderer. Insgesamt fällt es mir schwer mir vorzustellen, woraus eine KI intrinsische Motivation für irgendetwas ziehen sollte.


Eine KI braucht unter Umständen gar keine intrinsische Motivation, um auf "furchtbare" Ideen zu kommen. Man stelle sich vor, eine KI wird damit beauftragt, Ideen für die bessere Organisation des Gesundheitssystems zu entwickeln. Für ein völlig gefühls- und empathieloses System wären z.B. Hospize für Todkranke nur ein Kostenfaktor, den man eigentlich einsparen könnte.

Kommt ganz drauf an, nach welche Kriterien er programmiert ist. Nach Kostenfaktor, oder nach Lebensqualitätsfaktor.
Man ist in Deutschland, -eigentlich fast auf der ganzen Welt- so auf Profitmaximierung getrimmt, dass man gemeinhin denkt, es gäbe gar keine andere Kriterien. Die gibt es sehr wohl. Und auch daraufhin könnte KI programmiert werden.

#43:  Autor: Kramer BeitragVerfasst am: 20.05.2018, 16:18
    —
vrolijke hat folgendes geschrieben:

Kommt ganz drauf an, nach welche Kriterien er programmiert ist.


Ein Programm, das nur ausspuckt, was man vorher einprogrammiert hat, würde ich nicht als "künstliche Intelligenz" bezeichnen.

#44:  Autor: vrolijkeWohnort: Stuttgart BeitragVerfasst am: 20.05.2018, 16:23
    —
Kramer hat folgendes geschrieben:
vrolijke hat folgendes geschrieben:

Kommt ganz drauf an, nach welche Kriterien er programmiert ist.


Ein Programm, das nur ausspuckt, was man vorher einprogrammiert hat, würde ich nicht als "künstliche Intelligenz" bezeichnen.

Ist das bei Menschen anders?
Irgend ein "Programm" läuft auch dort ab, sonst wären wir gar nicht lebensfähig.

#45:  Autor: Kramer BeitragVerfasst am: 20.05.2018, 16:30
    —
vrolijke hat folgendes geschrieben:
Kramer hat folgendes geschrieben:
vrolijke hat folgendes geschrieben:

Kommt ganz drauf an, nach welche Kriterien er programmiert ist.


Ein Programm, das nur ausspuckt, was man vorher einprogrammiert hat, würde ich nicht als "künstliche Intelligenz" bezeichnen.

Ist das bei Menschen anders?


Ja, ich denke schon.

#46:  Autor: Marcellinus BeitragVerfasst am: 20.05.2018, 16:34
    —
Die Frage ist, ob etwas, was programmiert wurde, jemals intelligent sein kann, oder anders gesagt, ob man eine KI programmieren kann.

#47:  Autor: Kramer BeitragVerfasst am: 20.05.2018, 16:41
    —
Marcellinus hat folgendes geschrieben:
Die Frage ist, ob etwas, was programmiert wurde, jemals intelligent sein kann, oder anders gesagt, ob man eine KI programmieren kann.


Die Frage ist, ob man überhaupt so viel programmieren muss. Weltweit gibt es einen Markt für vielleicht fünf Computer. Mit den Augen rollen

#48:  Autor: vrolijkeWohnort: Stuttgart BeitragVerfasst am: 20.05.2018, 16:52
    —
Kramer hat folgendes geschrieben:
vrolijke hat folgendes geschrieben:
Kramer hat folgendes geschrieben:
vrolijke hat folgendes geschrieben:

Kommt ganz drauf an, nach welche Kriterien er programmiert ist.


Ein Programm, das nur ausspuckt, was man vorher einprogrammiert hat, würde ich nicht als "künstliche Intelligenz" bezeichnen.

Ist das bei Menschen anders?


Ja, ich denke schon.


Nach welche Kriterien entscheidet ein Mensch?
Der wägt doch vor jede Entscheidung das für und wider ab.
Da kommt es doch auch auf die Gewichtung der Fürs und Widers an.

#49:  Autor: stepWohnort: Germering BeitragVerfasst am: 20.05.2018, 18:17
    —
Kramer hat folgendes geschrieben:
Man stelle sich vor, eine KI wird damit beauftragt, Ideen für die bessere Organisation des Gesundheitssystems zu entwickeln. Für ein völlig gefühls- und empathieloses System wären z.B. Hospize für Todkranke nur ein Kostenfaktor, den man eigentlich einsparen könnte.

Naja, wenn man der "KI" natürlich vorgibt, sie solle vor allem die Kosten optimieren, dann kommt sowas raus.

Eine echte KI würde vielleicht ein Modell der menschlichen Gesellschaft entwickeln und daraus z.B. schließen, daß Hospize berücksichtigt werden sollten, weil sonst die Kunden nicht zufrieden sind, oder sogar weil ihr sonst die anderen KIs und NIs nicht mehr vertrauen. Oder sie würde gar ein utilitaristsches Gesamtmodell entwerfen, weil sie anfängt, ethisch zu denken (ethisch hier im Sinne von präferenzutilitaristischem DIskurs, nicht im Sinne vorgegebener Moral).

Klingt alles sehr spekulativ, ich weiß.

#50:  Autor: Tarvoc BeitragVerfasst am: 20.05.2018, 22:17
    —
KImmunismus. Cool

#51:  Autor: Kramer BeitragVerfasst am: 20.05.2018, 22:26
    —
vrolijke hat folgendes geschrieben:
Nach welche Kriterien entscheidet ein Mensch?


Ein Mensch spuckt halt nicht einfach das aus, was man ihm vorgegeben hat. Wenn Du Dir einen Kabarettisten anschaust, möchtest Du ja nicht das hören, was Du schon aus der Zeitung kennst, sondern einen kreativ aufbereiteten Kommentar zum aktuellen Geschehen.

#52:  Autor: vrolijkeWohnort: Stuttgart BeitragVerfasst am: 20.05.2018, 22:36
    —
Kramer hat folgendes geschrieben:
vrolijke hat folgendes geschrieben:
Nach welche Kriterien entscheidet ein Mensch?


Ein Mensch spuckt halt nicht einfach das aus, was man ihm vorgegeben hat. Wenn Du Dir einen Kabarettisten anschaust, möchtest Du ja nicht das hören, was Du schon aus der Zeitung kennst, sondern einen kreativ aufbereiteten Kommentar zum aktuellen Geschehen.

Wenn KI echt intelligent sein soll, wohl auch nicht.
In der gleiche Diskussion könnte man auch wieder anbringen, ob der Mensch überhaupt determiniert ist, oder auch nicht. Soll es die KI dann sein?

#53:  Autor: Kramer BeitragVerfasst am: 20.05.2018, 22:37
    —
vrolijke hat folgendes geschrieben:

In der gleiche Diskussion könnte man auch wieder anbringen, ob der Mensch überhaupt determiniert ist, oder auch nicht. Soll es die KI dann sein?


Das ist hier nicht das Thema.

#54:  Autor: Zumsel BeitragVerfasst am: 21.05.2018, 10:30
    —
step hat folgendes geschrieben:
Oder sie würde gar ein utilitaristsches Gesamtmodell entwerfen, weil sie anfängt, ethisch zu denken (ethisch hier im Sinne von präferenzutilitaristischem DIskurs, nicht im Sinne vorgegebener Moral).

Klingt alles sehr spekulativ, ich weiß.


Natürlich spekulativ, aber du scheinst damit ja doch anzunehmen, der Utilitarismus bedürfe keiner moralischen Vorgaben, sondern wäre so etwas wie die logische zwingende Handlungsform einer "reinen Intelligenz". Was sind deine Gründe dafür?

#55:  Autor: zelig BeitragVerfasst am: 21.05.2018, 10:46
    —
step hat folgendes geschrieben:
Oder sie würde gar ein utilitaristsches Gesamtmodell entwerfen, weil sie anfängt, ethisch zu denken (ethisch hier im Sinne von präferenzutilitaristischem DIskurs, nicht im Sinne vorgegebener Moral).


Ein Grund mehr, skeptisch zu sein.

#56:  Autor: swifty BeitragVerfasst am: 21.05.2018, 12:21
    —
Ich versuch mal hier wieder anzuknüpfen...


Ich denke es ist immer problematisch, sich eine KI als empathielos oder sie sich im Sinne einer 'Intelligenz-bestie' wie einen Menschen oder wie einen hochintelligenten Psychopathen vorzustellen.

Eine KI mag vielleicht kein Mitleid kennen, keine Empathie oder sonstige mitfühlenden Regungen.
Aber genauso wenig kennt sie Gier, Sadismus, ja vielleicht noch nicht einmal Egoismus, denn sie hängt nicht am Leben, sie hat keinen Überlebens-Instinkt und misst dem vielleicht genauso wenig Bedeutung bei.

Und sollte sie das alles irgendwie entwickeln können, dann gibt es keinen Grund zu der Annahme, dass sie nicht auch irgendwie eine (vergleichbar menschliche) Ethik und Mitgefühl und solche Dinge entwickeln könnte.

Kein Grund zu übertriebenem Pessimismus also oder gar Fatalismus.

#57:  Autor: SkeptikerWohnort: 129 Goosebumpsville BeitragVerfasst am: 21.05.2018, 12:50
    —
worse hat folgendes geschrieben:
Ich versuch mal hier wieder anzuknüpfen...


Ich denke es ist immer problematisch, sich eine KI als empathielos oder sie sich im Sinne einer 'Intelligenz-bestie' wie einen Menschen oder wie einen hochintelligenten Psychopathen vorzustellen.

Eine KI mag vielleicht kein Mitleid kennen, keine Empathie oder sonstige mitfühlenden Regungen.
Aber genauso wenig kennt sie Gier, Sadismus, ja vielleicht noch nicht einmal Egoismus, denn sie hängt nicht am Leben, sie hat keinen Überlebens-Instinkt und misst dem vielleicht genauso wenig Bedeutung bei.

Und sollte sie das alles irgendwie entwickeln können, dann gibt es keinen Grund zu der Annahme, dass sie nicht auch irgendwie eine (vergleichbar menschliche) Ethik und Mitgefühl und solche Dinge entwickeln könnte.

Kein Grund zu übertriebenem Pessimismus also oder gar Fatalismus.


Der Weg der biologischen Evolution war genau umgekehrt. Zunächst entstanden ganz, ganz langsam aus den primitivsten Reflexen der ersten Mehrzeller so was wie Triebe und Antriebe, lange bevor so etwas wie Schmerz, Befriedigung und überhaupt Bewusstsein entstand.

Erst sehr spät, ganz oben drauf gesetzt, entstanden intelligente, die Umwelt innerlich abstrakt betrachtende und innerlich abbildende Phänomene.

Die Vorstellung, jetzt aus einer reinen Intelligenz heraus den umgekehrten Weg zu gehen und Antriebe sowie Bewusstsein zu entwickeln, entsteht aus einer Verwechslung. Denn Triebe und Bewusstsein haben gar nichts mit Intelligenz zu tun. Wenngleich sich diese drei Eigenschaften bei den höheren Tieren vermischen, so muss man sie analytisch streng trennen.

Man könnte auch bei einer KI so was ähnliches wie Antriebe und Bewusstsein höchstens algorithmisch imitieren, im Sinne eines *als ob*. Aber Gefühle und Wünsche werden niemals in Mikrochips entstehen.

Das heisst nicht, dass es unmöglich ist, KE (Künstliche Emotion) oder KA (Künstlicher Antrieb) zu entwickeln. Aber so mit Sicherheit nicht.

Und was die Moral betrifft, da hat doch Sir Asimov schon mal ein paar Regelvorschläge gemacht. Utilitarismus ist Quatsch, und zwar grundsätzlich. Warum sollte ausgerechnet eine KI Quatsch einprogrammiert bekommen oder entwickeln?

Welche Rolle die KI in Zukunft spielen wird, hängt in erster Linie davon ab, ob es gelingt, eine demokratische Gesellschaft - eine KD (Künstliche Demokratie) - zu generieren. Wenn dies gelingt, so wird die KI der Menschheit dienen. Wenn dies nicht gelingt, dann wird die KI dazu verwendet, die derzeitige Barbarei auf diesem Planeten noch extremer zu gestalten.


Zuletzt bearbeitet von Skeptiker am 21.05.2018, 12:53, insgesamt einmal bearbeitet

#58:  Autor: zelig BeitragVerfasst am: 21.05.2018, 12:51
    —
worse hat folgendes geschrieben:
Und sollte sie das alles irgendwie entwickeln können, dann gibt es keinen Grund zu der Annahme, dass sie nicht auch irgendwie eine (vergleichbar menschliche) Ethik und Mitgefühl und solche Dinge entwickeln könnte.


Die Annahme ist eine notwendige Voraussetzung dieser Diskussion. Sollte eine KI nachweislich Empfindungen wie Schmerz entwickeln, wären die für sie keine Abstrakta mehr. Sie würde es an sich selber erleben können, wie sich Schmerz anfühlt. Es wäre ein Wesen, das die Natur anderer Wesen nachvollziehen kann. Dann erst kann man von Mitgefühl reden, die an der Seite der Ratio steht, wenn wir ethisch handeln wollen. Über dieses Szenario diskutieren wir eher nicht.

#59:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 21.05.2018, 14:05
    —
step hat folgendes geschrieben:
fwo hat folgendes geschrieben:
Was ist, wenn sie uns "nur" kulturell, d.h. auch technisch 2000 Jahre voraus wären?

Dann sind sie entweder selbst KI oder haben sich solche zunutze gemacht, und zwar 2000 Jahre besser als wir. Oder 2 Mio.

fwo hat folgendes geschrieben:
wenn wir uns die Beschleunigung der Entwicklung unserer Technik in den letzten 100 Jahren ansehen und das ohne besondere Weiterbeschleunigung nur als Weitergehen im momentanen Tempo versuchen vorzustellen, liegen 1000 Jahre bereits außerhalb unserer Vorstellungskraft, ohne, dass damit zwangsläufig eine Weiterentwicklung unserer natürlichen Intelligenz verbunden sein muss. Allerdings steigt mit Rechnerunterstützung auch die Produktivität unseres Geistes.

Da stimme ich zu, außer daß die "Rechner" (Thema KI) eben nicht primär unterstützende Funktion haben müssen, sondern auch ein nächster Schritt der "Wesen" sein könnten.

fwo hat folgendes geschrieben:
Wir sind die einzige rezente Art auf diesem Planeten, die zu diesem abstrakten Denken fähig ist - allen anderen fehlt nach unserem bisherigen Wissen sowohl die abstrakte Sprache als auch die Tradition von Wissen in dieser Sprache.

Schon richtig, aber für KI gilt das ja eher nicht.

Die eigentliche Aussage, um die es mir ging, war das sich Verständigen über die jeweiligen eigenen Fähigkeiten. Auch die KI wird über eine abstrakte Sprache verfügen und damit abstrakt denken können und diese Gedanken formulieren - wenn sie denn als KI mit und für ihren Erzeuger funktionieren soll. Mir ging es dabei wesentlich um diesen Vergleich der Verhältnisse Mensch zu Alien (bzw.dessen KI) mit Schimpanse zu Mensch, um die Einseitigkeit dieses Verhältnisses zu charakterisieren. Ich halte diesen Vergleich für daneben und eine grundsätzliche Verständigung in beide Richtungen immer für möglich.

Ansonsten bin ich mir nicht so sicher, dass es in der KI so weitergeht wie bisher. Es ist zwar gewaltig, auf welche Muster man die geballte Rechenkraft, die sich nicht um Somatisches zu kümmern braucht, mit neuronalen Netzen loslassen kann, und das Go-Beispiel widerlegt für mich z.B. auch die immer wieder regelmäßig geäußerte Behauptung, KI könne nicht kreativ sein.

Auch gegen zeligs Meinung, KI "könne" nie Gefühle, habe ich hier lange genug argumentiert, da sind wir vielleicht nicht einer Meinung, aber auch nicht wirklich in einem Gegensatz. Die Frage ist, wie es weitergeht mit der KI. Wenn ich das mit den neuronalen Netzen richtig verstehe, verstehen auch die Schöpfer nicht mehr im Einzelnen, was z.B. bei diesen Go-Spielen wirklich am Ende in diesen Netzen vorgeht und es bestehen auch Probleme, das Ergebnis dieses Lernvorganges so zu speichern, dass es von einer anderen Maschine aufgenommen werden kann, ohne dass die zum reinen Klon wird. Bei einer sinnvollen KI der Zukunft würde ich erwarten, dass die Maschine mir ihre Strategie erklären kann.

Da wäre auch mein eigentliches Thema: Neuronale Netze gibt es auch in der Natur und sie werden für Aufgaben wie Mustererkennung genutzt - irgendwo sind sie mit Sicherheit auch an der Basis unseres abstrakten Denkens beteiligt. Das abstrakte Denken mit dem Vehikel (Wiittgenstein) aber eigentlich eher Werkzeug Sprache besitzt zwei grundlegende Vorteile: Es schafft die Möglichkeit einer immer komplexeren und gleichzeitig kompakten Tradition und und ist über die Erweiterbarkeit der Sprache sehr leicht an jedes neue Objekt anzupassen. Ich gehe also davon aus, dass auch KI irgendwann diesen Weg gehen wird, ganz abgesehen davon, dass die KI, die uns erklären kann, was sie will und warum sie das will, auch für uns die sinnvollste KI wäre.

Dass die "wirkliche KI" von selbst auf Ethik, Kooperation, insbesondere auch mit dem Menschen, usw. kommen sollte oder müsste, halte ich allerdings für eine zu hohe und im Versuch der Verwirklichung auch für zu unvorsichtige Erwartung. Mit dem Hintergrund, dass sehr viel von dem, was wir heute mit großem intellektuellen Aufwand rein rational zu begründen suchen, einen genetischen Ursprung hat, empfände ich es auch nicht als Einschränkung der KI, wenn sie gewisse Regeln für die Kooperation mit dem Menschen hart im Programm stehen hätte. Es wären die selben Einschränkungen, mit den wir auch leben, und die uns haben überleben lassen.

#60:  Autor: stepWohnort: Germering BeitragVerfasst am: 21.05.2018, 14:20
    —
Zumsel hat folgendes geschrieben:
du scheinst damit ja doch anzunehmen, der Utilitarismus bedürfe keiner moralischen Vorgaben, sondern wäre so etwas wie die logische zwingende Handlungsform einer "reinen Intelligenz". Was sind deine Gründe dafür?

Ich nehme das nicht völlig voraussetzungslos an. Z.B. ist eine wichtige Voraussetzung, daß es eine nicht zu kleine Zahl von Intelligenzen gibt, die kommunizieren können, aber doch eine gewisse Autonomie haben.

Unter solchen Umständen erwarte ich tatsächlich, daß sich eine utilitaristische Vorgehensweise ausbildet, weil diese sowohl den Aspekt der Zielerreichung / Effizienz als auch den der Kooperation / des Interessenausgleichs am direktesten widerspiegelt, und auch nur diese. Und die KIs befreien sich viel schneller von Denkfehlern, Aberglauben usw. - weil sie viel schneller lernen und weil sie deutlich weniger entwicklungsgeschichtliche Prioritäten herumschleppen.

"Logisch zwingend" vielleicht nicht, aber ich finde es recht plausibel.

#61:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 21.05.2018, 14:40
    —
zelig hat folgendes geschrieben:
worse hat folgendes geschrieben:
Und sollte sie das alles irgendwie entwickeln können, dann gibt es keinen Grund zu der Annahme, dass sie nicht auch irgendwie eine (vergleichbar menschliche) Ethik und Mitgefühl und solche Dinge entwickeln könnte.


Die Annahme ist eine notwendige Voraussetzung dieser Diskussion. Sollte eine KI nachweislich Empfindungen wie Schmerz entwickeln, wären die für sie keine Abstrakta mehr. Sie würde es an sich selber erleben können, wie sich Schmerz anfühlt. Es wäre ein Wesen, das die Natur anderer Wesen nachvollziehen kann. Dann erst kann man von Mitgefühl reden, die an der Seite der Ratio steht, wenn wir ethisch handeln wollen. Über dieses Szenario diskutieren wir eher nicht.

Wenn Du dieses Mitgefühl so allgemein formulierst, landest Du ganz schnell auch beim empathischen Einfühlen in den Pflasterstein und damit bei einem Popanz.

Ich habe durch Zufall gerade Zugriff auf eine private Diskussion zwischen mir und einem Psychiater, in dem folgendes Statement von mir keinen Widerspruch auslöste:
fwo hat folgendes geschrieben:
Die hochgelobte Fähigkeit zur Empathie kann eigentlich nur meine eigenen Gefühle in der Situation des anderen produzieren. Ich vermute also, dass meine Wahrnehmung Deiner Situation mehr über mich sagt als über Dich - über Dich höchstens insofern, als Du da vielleicht ähnlich tickst - wovon wir implizit bei diesen gefühlsmäßigen Verständnis-Versuchen immer ausgehen.

Ich vermute, dass ein rein intellektueller Akt mit hinreichender Kenntnis von Person und Situation zu realistischeren Ergebnissen kommt als dieses Einfühlen, wobei ich weiß, dass das in der Gefühlsbranche verpönt ist. Ich bin zu diesem Bild gekommen, als ich als Patient in der Therapie Szenen aus meiner Kindheit erzählte, und der Therapeut mich unterbrach, weil ihn das gefühlsmäßig zu sehr mitnahm. Ich weiß aber von mir, dass ich da bereits in einem Alter war, in dem ich sowohl mich als auch meine Eltern in diesen Situationen relativ distanziert beobachtete. Ich hatte also ein Mittel gegen diese Situationen gefunden, mit dem ich diese Gefühle nicht hatte - ich habe sie nicht nachträglich verdrängt. ....
nachträglich von mir gefettet.

Ich weiß natürlich, dass der fehlende Widerspruch kein Beweis für irgendetwas ist, wollte nur darauf aufmerksam machen, dass die Empathie auch unter Menschen, die beruflich mit und an diesem Thema arbeiten, nicht unbedingt so hoch gehängt wird wie von Dir.

In meinem Beispiel führte die besagte Empathie eines "Berufsempathen" zur Wahrnehmung eines starken Leidens, das real nicht stattgefunden hatte. (Um kein falsches Verständnis meiner Meinung zu diesem Therapeuten aufkommen zu lassen: Ich habe Hochachtung vor diesem Menschen.)

"Empathie" als intellektueller Vorgang mit dem Wissen über die beteiligten Subjekte und die Situation lässt ich aber nachbilden.

#62:  Autor: Kramer BeitragVerfasst am: 21.05.2018, 15:01
    —
fwo hat folgendes geschrieben:

In meinem Beispiel führte die besagte Empathie eines "Berufsempathen" zur Wahrnehmung eines starken Leidens, das real nicht stattgefunden hatte.


Das Leiden mag in diesem konkreten Fall nicht statt gefunden haben, aber das bedeutet ja nicht, dass das, was stattgefunden hat, nicht solch starkes Leiden verursachen kann, z.B. wenn der Therapeut der Betroffene gewesen wäre.

#63:  Autor: zelig BeitragVerfasst am: 21.05.2018, 16:01
    —
fwo hat folgendes geschrieben:
zelig hat folgendes geschrieben:
worse hat folgendes geschrieben:
Und sollte sie das alles irgendwie entwickeln können, dann gibt es keinen Grund zu der Annahme, dass sie nicht auch irgendwie eine (vergleichbar menschliche) Ethik und Mitgefühl und solche Dinge entwickeln könnte.



Die Annahme ist eine notwendige Voraussetzung dieser Diskussion. Sollte eine KI nachweislich Empfindungen wie Schmerz entwickeln, wären die für sie keine Abstrakta mehr. Sie würde es an sich selber erleben können, wie sich Schmerz anfühlt. Es wäre ein Wesen, das die Natur anderer Wesen nachvollziehen kann. Dann erst kann man von Mitgefühl reden, die an der Seite der Ratio steht, wenn wir ethisch handeln wollen. Über dieses Szenario diskutieren wir eher nicht.

Wenn Du dieses Mitgefühl so allgemein formulierst, landest Du ganz schnell auch beim empathischen Einfühlen in den Pflasterstein und damit bei einem Popanz.



Ich wollte zunächst nur deutlich machen, daß ich eine KI mit Mitgefühl (also mit Empfindungsfähigkeit), so wie worse es formuliert hat, der Kategorie von Lebewesen zuordne. Daß daher meine Einwände gegen die Übertragung von ethischen Entscheidungen auf KIs hinfällig werden. Bzw das ist einfach ein anderes Thema.


fwo hat folgendes geschrieben:
fwo hat folgendes geschrieben:
Die hochgelobte Fähigkeit zur Empathie kann eigentlich nur meine eigenen Gefühle in der Situation des anderen produzieren. Ich vermute also, dass meine Wahrnehmung Deiner Situation mehr über mich sagt als über Dich - über Dich höchstens insofern, als Du da vielleicht ähnlich tickst - wovon wir implizit bei diesen gefühlsmäßigen Verständnis-Versuchen immer ausgehen.

Ich vermute, dass ein rein intellektueller Akt mit hinreichender Kenntnis von Person und Situation zu realistischeren Ergebnissen kommt als dieses Einfühlen, wobei ich weiß, dass das in der Gefühlsbranche verpönt ist. Ich bin zu diesem Bild gekommen, als ich als Patient in der Therapie Szenen aus meiner Kindheit erzählte, und der Therapeut mich unterbrach, weil ihn das gefühlsmäßig zu sehr mitnahm. Ich weiß aber von mir, dass ich da bereits in einem Alter war, in dem ich sowohl mich als auch meine Eltern in diesen Situationen relativ distanziert beobachtete. Ich hatte also ein Mittel gegen diese Situationen gefunden, mit dem ich diese Gefühle nicht hatte - ich habe sie nicht nachträglich verdrängt. ....
nachträglich von mir gefettet.

Ich weiß natürlich, dass der fehlende Widerspruch kein Beweis für irgendetwas ist, wollte nur darauf aufmerksam machen, dass die Empathie auch unter Menschen, die beruflich mit und an diesem Thema arbeiten, nicht unbedingt so hoch gehängt wird wie von Dir.

In meinem Beispiel führte die besagte Empathie eines "Berufsempathen" zur Wahrnehmung eines starken Leidens, das real nicht stattgefunden hatte. (Um kein falsches Verständnis meiner Meinung zu diesem Therapeuten aufkommen zu lassen: Ich habe Hochachtung vor diesem Menschen.)

"Empathie" als intellektueller Vorgang mit dem Wissen über die beteiligten Subjekte und die Situation lässt ich aber nachbilden.



Ich hätte einige Einwände. Im Moment ist es aber nur entscheidend, daß aus meiner Sicht die Empfindungsfähigkeit von Lebewesen einen kategorialen Unterschied zu KIs bedeuten. Ich behaupte ja nicht, daß sie dafür sorgt, daß die Welt ein guter Ort ist. Ich behaupte nur, daß eine KI nicht weiß wie es sich anfühlt, Schmerzen oder Angst zu haben. Bzw ich behaupte, daß daher eine Bewertungsgrundlage für ethische Entscheidungen fehlt. Eine Eigenschaft, über die Menschen prinzipiell verfügen.
Ja, ich könnte mir sogar vorstellen, daß eine rein utilitaristische Ethik von einer KI effizenter projiziert werden kann als von fühlenden Wesen. Die Frage, die wir uns dann aber stellen müssen, ist ob die Menschheit insgesamt diese Ethik will. Diese Entscheidungsebene, auf der Normen überhaupt erst definiert werden, würde ich definitiv keiner KI überlassen.

#64:  Autor: Zumsel BeitragVerfasst am: 21.05.2018, 16:39
    —
step hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
du scheinst damit ja doch anzunehmen, der Utilitarismus bedürfe keiner moralischen Vorgaben, sondern wäre so etwas wie die logische zwingende Handlungsform einer "reinen Intelligenz". Was sind deine Gründe dafür?

Ich nehme das nicht völlig voraussetzungslos an. Z.B. ist eine wichtige Voraussetzung, daß es eine nicht zu kleine Zahl von Intelligenzen gibt, die kommunizieren können, aber doch eine gewisse Autonomie haben.

Unter solchen Umständen erwarte ich tatsächlich, daß sich eine utilitaristische Vorgehensweise ausbildet, weil diese sowohl den Aspekt der Zielerreichung / Effizienz als auch den der Kooperation / des Interessenausgleichs am direktesten widerspiegelt, und auch nur diese. Und die KIs befreien sich viel schneller von Denkfehlern, Aberglauben usw. - weil sie viel schneller lernen und weil sie deutlich weniger entwicklungsgeschichtliche Prioritäten herumschleppen.

"Logisch zwingend" vielleicht nicht, aber ich finde es recht plausibel.


Na ja, wenn dieser entwicklungsgeschichtliche "Balast" nicht mal selbst schon ein Denkfehler ist. Recht überzeugend fand ich in dem Zusammenhang ja Nietzsches Einwand gegen den Utilitarismus, der sagte, dass der Begriff des "Guten" historisch nicht ohne Weiteres auf Zweckmäßigkeit reduzierbar ist (wie das die Utilitaruer ja behauptet haben), sondern nur aus einem gewissen "Pathos" heraus erklärbar ist. Die jeweiligen (zeitgeistbedingten) Zwecke werden dann nur so interpretiert, dass sie damit kompatibel sind. Mag schon plausibel sein, dass eine KI davon "befreit" wäre und einer Handlungsanleitung im Sinne strikter Effizienz folgen würde; die Frage ist nur, ob das wirklich dem entspricht, was wir "Ethik" nennen. Eine Ikea-Aufbauanleitung ist ja auch kein ethischer Leitfaden.

#65:  Autor: stepWohnort: Germering BeitragVerfasst am: 21.05.2018, 17:09
    —
Zumsel hat folgendes geschrieben:
Recht überzeugend fand ich in dem Zusammenhang ja Nietzsches Einwand gegen den Utilitarismus, der sagte, dass der Begriff des "Guten" historisch nicht ohne Weiteres auf Zweckmäßigkeit reduzierbar ist (wie das die Utilitaruer ja behauptet haben) ...

Moment mal - Zweckmäßigkeit und Effizienz sind keine Selbstzwecke im Utilitarismus, sondern ergeben sich logisch aus dem primären Postulat des Utilitarismus: größtmögliches Glück insgesamt, kleinstmögliches Leid für Alle o.ä., je nach Variante.

Wenn Du das primäre Postulat einfach wegläßt, kommt das typisch Utilitarismus-Bashing raus (am besten noch "neoliberal", "Ausbeutung" usw.) oder eben auch ein solcher Mißgriff:
Zumsel hat folgendes geschrieben:
Eine Ikea-Aufbauanleitung ist ja auch kein ethischer Leitfaden.


Zumsel hat folgendes geschrieben:
... sondern nur aus einem gewissen "Pathos" heraus erklärbar ist. Die jeweiligen (zeitgeistbedingten) Zwecke werden dann nur so interpretiert, dass sie damit kompatibel sind.

Das mag schon sein, aber mir geht es nicht so darum, wie der Begriff des Guten, gar noch des pathetisch Guten, zustandekommt. Ein wesentlicher Unterschied des Utilitarismus zu anderen Ethiken ist ja, daß er Ziel und Methode trennt und konkrete Entscheidungen oder Regeln sich dort transparent rechtfertigen müssen, anstatt unhinterfragbare Letztbegründungen zu postulieren. Etwas überspitzt könnte man sagen: Utilitarismus ist die erste wirklich ethische Ansatz überhaupt, davor gab es nur Moral - na gut, ein paar Trostpunkte für Konfuzius, Kant & Co..

Auf die KI (und ich hoffe auch die Menscheit) angewandt: Kein hinreichend intelligentes soziales Wesen würde sich auf Dauer mit einer (deontologischen) Moral abspeisen lassen. Da steckt auch ein Teil Wahrheit in Tarvocs Kommentar "KImmunismus".

#66:  Autor: Marcellinus BeitragVerfasst am: 21.05.2018, 17:14
    —
step hat folgendes geschrieben:

Moment mal - Zweckmäßigkeit und Effizienz sind keine Selbstzwecke im Utilitarismus, sondern ergeben sich logisch aus dem primären Postulat des Utilitarismus: größtmögliches Glück insgesamt, kleinstmögliches Leid für Alle o.ä., je nach Variante.
[...]
Ein wesentlicher Unterschied des Utilitarismus zu anderen Ethiken ist ja, daß er Ziel und Methode trennt und konkrete Entscheidungen oder Regeln sich dort transparent rechtfertigen müssen, anstatt unhinterfragbare Letztbegründungen zu postulieren. Etwas überspitzt könnte man sagen: Utilitarismus ist die erste wirklich ethische Ansatz überhaupt, davor gab es nur Moral - na gut, ein paar Trostpunkte für Konfuzius, Kant & Co..


Ach, und dieses „primäre Postulat“ ist nicht eine „unhinterfragbare Letztbegründung“? zwinkern

#67:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 21.05.2018, 17:25
    —
Kramer hat folgendes geschrieben:
fwo hat folgendes geschrieben:

In meinem Beispiel führte die besagte Empathie eines "Berufsempathen" zur Wahrnehmung eines starken Leidens, das real nicht stattgefunden hatte.


Das Leiden mag in diesem konkreten Fall nicht statt gefunden haben, aber das bedeutet ja nicht, dass das, was stattgefunden hat, nicht solch starkes Leiden verursachen kann, z.B. wenn der Therapeut der Betroffene gewesen wäre.

Damit sagst Du aber jetzt nichts, was ich nicht bereits geschrieben hatte:
fwo hat folgendes geschrieben:
....
fwo hat folgendes geschrieben:
Die hochgelobte Fähigkeit zur Empathie kann eigentlich nur meine eigenen Gefühle in der Situation des anderen produzieren. ....
....

Die Treffsicherheit des empathischen Mitfühlens ist selbst innerhalb der Art Mensch Glücksache, die von der strukturellen Ähnlichkeit der beteiligten Individuen abhängt. Man sollte sich der Grenzen dieser Methode bewusst sein, wenn man versucht, von sich auf andere zu schließen.

So ist auch Empathie über Kulturgrenzen sehr fragwürdig. (wobei ich mit fragwürdig nicht eine grundsätzliche Ablehnung ausdrücken möchte, sondern einfach meine, dass das im Einzelfall hinterfragt werden sollte, also einer Frage würdig ist.)

Ansonsten lande ich an dieser Stelle dann wieder an einer Aussage, die ich schon gegenüber step getroffen habe: Auch beim Menschen wird die Ratio, also die angeblich freie Entscheidung in dieser Ebene weitgehend durch Gefühle gesteuert, deren Grundlage genauso genetisch wie kulturell sein kann. Bei bestimmten Regeln wäre es in meinen Augen keine Einschränkung der KI. sondern sinnvoll, wenn sie "hart" programmiert würden.

#68:  Autor: Marcellinus BeitragVerfasst am: 21.05.2018, 17:33
    —
@fwo
Mit anderen Worten: bevor man eine künstliche Intelligenz erzeugt, sollte man sich erst einmal etwas klarer darüber werden, was eigentlich eine natürliche ist (und nicht etwa, was man wünscht, daß sie wäre). zwinkern

#69:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 21.05.2018, 17:37
    —
zelig hat folgendes geschrieben:
....Im Moment ist es aber nur entscheidend, daß aus meiner Sicht die Empfindungsfähigkeit von Lebewesen einen kategorialen Unterschied zu KIs bedeuten. Ich behaupte ja nicht, daß sie dafür sorgt, daß die Welt ein guter Ort ist. Ich behaupte nur, daß eine KI nicht weiß wie es sich anfühlt, Schmerzen oder Angst zu haben. Bzw ich behaupte, daß daher eine Bewertungsgrundlage für ethische Entscheidungen fehlt. Eine Eigenschaft, über die Menschen prinzipiell verfügen. ....

Zu welchen Schlussfolgerungen gelangst Du, wenn wir feststellen, dass auch das lebendige Wesen zelig nicht wirklich weiß, wie die Gefühle Angst und Schmerzen bei dem lebendigen Wesen fwo aussehen und wann sie auftreten? Das war nämlich der eigentlich Inhalt meines Beitrags.

Ich bezweifle, dass es in der Praxis für die Entscheidungen einen Unterschied macht, ob ein zelig oder ein fwo im Besitz menschlicher Gefühle ist oder ob ich einer Maschine beibringe, welche Aktionen (bzw. ihre Wahrnehmung auf der anderen Seite) welche Gefühle bewirken und wie die Gefühle zu bewerten sind.

#70:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 21.05.2018, 17:40
    —
Marcellinus hat folgendes geschrieben:
@fwo
Mit anderen Worten: bevor man eine künstliche Intelligenz erzeugt, sollte man sich erst einmal etwas klarer darüber werden, was eigentlich eine natürliche ist (und nicht etwa, was man wünscht, daß sie wäre). zwinkern

Geringfügig anderer Blickwinkel, aber in meinen Augen eine gute Zusammenfassung.

#71:  Autor: zelig BeitragVerfasst am: 21.05.2018, 17:50
    —
fwo hat folgendes geschrieben:
zelig hat folgendes geschrieben:
....Im Moment ist es aber nur entscheidend, daß aus meiner Sicht die Empfindungsfähigkeit von Lebewesen einen kategorialen Unterschied zu KIs bedeuten. Ich behaupte ja nicht, daß sie dafür sorgt, daß die Welt ein guter Ort ist. Ich behaupte nur, daß eine KI nicht weiß wie es sich anfühlt, Schmerzen oder Angst zu haben. Bzw ich behaupte, daß daher eine Bewertungsgrundlage für ethische Entscheidungen fehlt. Eine Eigenschaft, über die Menschen prinzipiell verfügen. ....

Zu welchen Schlussfolgerungen gelangst Du, wenn wir feststellen, dass auch das lebendige Wesen zelig nicht wirklich weiß, wie die Gefühle Angst und Schmerzen bei dem lebendigen Wesen fwo aussehen und wann sie auftreten? Das war nämlich der eigentlich Inhalt meines Beitrags.


Ich setze voraus, daß die Empfindung, die ich als Schmerz bezeichne, bei dir ebenso existiert und von ähnlichen Umständen hervorgerufen werden kann. Die heiße Herdplatte hat dich und mich gelehrt, die Hand nicht mehr unbedacht auf sie zu legen. Die vorherige Ermahnung war weniger wirksam. Ich ziehe daraus den Schluss, daß ich dir den Schmerz nicht zufüge, selbst wenn ich der Meinung bin, daß du etwas falsch machst. Mal auf die Schnelle konstruiert.

fwo hat folgendes geschrieben:
Ich bezweifle, dass es in der Praxis für die Entscheidungen einen Unterschied macht, ob ein zelig oder ein fwo im Besitz menschlicher Gefühle ist oder ob ich einer Maschine beibringe, welche Aktionen (bzw. ihre Wahrnehmung auf der anderen Seite) welche Gefühle bewirken und wie die Gefühle zu bewerten sind.

Genau das bezweifle ich wiederum. Hast Du schonmal eine Mastgans gegessen?

#72:  Autor: Zumsel BeitragVerfasst am: 21.05.2018, 17:55
    —
step hat folgendes geschrieben:
Moment mal - Zweckmäßigkeit und Effizienz sind keine Selbstzwecke im Utilitarismus, sondern ergeben sich logisch aus dem primären Postulat des Utilitarismus: größtmögliches Glück insgesamt, kleinstmögliches Leid für Alle o.ä., je nach Variante.


Das ist mir schon klar, aber damit wird ja durchaus ein gewisser entwicklungsgeschichtlicher Erklärungsanspruch verbunden: Grundlage dieser Idee ist, dass der Begriff "Gut" ursprünglich alles bezeichnet hat, was geeignet war, ein gegebenes Ziel zu erreichen und der Begriff des moralisch Guten alles, was geeignet war, das gesellschaftliche Wohlergehen zu befördern. Die entscheidende Voraussetzung dafür lautet: gut = nützlich. Der konkrete Inhalt der jeweiligen werttheoretischen Setzung ist dafür erst mal nicht entscheidend.

step hat folgendes geschrieben:
Das mag schon sein, aber mir geht es nicht so darum, wie der Begriff des Guten, gar noch des pathetisch Guten, zustandekommt.


Wie eigentlich alle Moralphilosophen haben auch die Utilitaristen beansprucht jenes Prinzip gefunden zu haben, welches insgeheim und unbewusst immer schon hinter dem steckte, was wir "Moral" nennen. Zwar kritisierten sie den Dogmatismus bisheriger Moralisten, aber nicht in der Art, dass sie die einfach für Blindgänger gehalten hätten, die etwas völlig anderwes gemacht hätten als sie, sondern eher in der Art, dass sie nicht gründlich genug ihre Thesen und deren Herleitungen reflektiert hätten. Hast du Mill gelesen? Sein Bemühen, seine Theorie in Einklang mit traditionellen Morallehren zu bringen ist unübersehbar.

step hat folgendes geschrieben:
Ein wesentlicher Unterschied des Utilitarismus zu anderen Ethiken ist ja, daß er Ziel und Methode trennt und konkrete Entscheidungen oder Regeln sich dort transparent rechtfertigen müssen, anstatt unhinterfragbare Letztbegründungen zu postulieren. Etwas überspitzt könnte man sagen: Utilitarismus ist die erste wirklich ethische Ansatz überhaupt, davor gab es nur Moral - na gut, ein paar Trostpunkte für Konfuzius, Kant & Co.


Die Politeia oder die die Nikomachische Ethik - nichts als aufgeblasene Moralpredigten...

#73:  Autor: stepWohnort: Germering BeitragVerfasst am: 21.05.2018, 17:56
    —
Marcellinus hat folgendes geschrieben:
step hat folgendes geschrieben:
... primären Postulat des Utilitarismus: größtmögliches Glück insgesamt, kleinstmögliches Leid für Alle o.ä., je nach Variante. ...
Ach, und dieses „primäre Postulat“ ist nicht eine „unhinterfragbare Letztbegründung“? zwinkern

Nein: Die ethischen Subjekte einigen sich darauf, welche Größe maximiert / minimiert werden soll. Leid/Glück ist nicht mehr als ein relativ naheliegender (wegen Abbildung auf Präferenzen und wegen wenig Zusatzannahmen) Vorschlag, an dem sich verschiedene Utilitaristen abgearbeitet haben. Du kannst aber auch was anderes vorschlagen, es muß halt den Mitwesen plausibel erscheinen.

Natürlich gibt es beliebige Schwierigkeiten, ein einfaches Beispiel ist die Frage, ob informierte Präferenzen mehr zählen als uninformierte.

Mindestens bietet der U ein Framework, in dem Entscheidungen / Regeln besser reflektiert werden und Verhaltensweisen nicht einfach beibehalten werden, "weil es halt so gemacht wird". Und das kommt der Lernfähigkeit und Intelligenz der KI enorm zupaß.

#74:  Autor: stepWohnort: Germering BeitragVerfasst am: 21.05.2018, 18:12
    —
Zumsel hat folgendes geschrieben:
... Die entscheidende Voraussetzung dafür lautet: gut = nützlich.
Ja, nützlich zur Minderung des Gesamtleidens zum Beispiel.

Zumsel hat folgendes geschrieben:
Der konkrete Inhalt der jeweiligen werttheoretischen Setzung ist dafür erst mal nicht entscheidend.

Ja, außer dem primären Wert (Ziel) eben, z.B. maximales Glück für Alle. Der ist für die Nutzenfunktion sehr entscheidend. Partielle Werte dagegen (z.B. der Wert des Lebens eines Tieres oder der Wert von Eigentum) bemessen sich nach ihrer Bedeutung für den Gesamtnutzen.

Zumsel hat folgendes geschrieben:
... Hast du Mill gelesen? Sein Bemühen, seine Theorie in Einklang mit traditionellen Morallehren zu bringen ist unübersehbar.

Das ist historisch gesehen richtig, aber für den Utilitarismus nicht wesentlich. Heutige Utilitaristen argumentieren mW auch nicht mehr so - eher nutzt man traditionelle Moralsysteme oder Traditionen, um einige ihrer Regeln als intuitionistisch, schlecht begründet, leidmehrend usw. zu entlarven - etwa wenn es um Nutztiere, Embryonen, Strafrecht o.ä. geht.

#75:  Autor: Marcellinus BeitragVerfasst am: 21.05.2018, 18:18
    —
step hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
step hat folgendes geschrieben:
... primären Postulat des Utilitarismus: größtmögliches Glück insgesamt, kleinstmögliches Leid für Alle o.ä., je nach Variante. ...
Ach, und dieses „primäre Postulat“ ist nicht eine „unhinterfragbare Letztbegründung“? zwinkern

Nein: Die ethischen Subjekte einigen sich darauf, welche Größe maximiert / minimiert werden soll. Leid/Glück ist nicht mehr als ein relativ naheliegender (wegen Abbildung auf Präferenzen und wegen wenig Zusatzannahmen) Vorschlag, an dem sich verschiedene Utilitaristen abgearbeitet haben. Du kannst aber auch was anderes vorschlagen, es muß halt den Mitwesen plausibel erscheinen.

Natürlich gibt es beliebige Schwierigkeiten, ein einfaches Beispiel ist die Frage, ob informierte Präferenzen mehr zählen als uninformierte.

Mindestens bietet der U ein Framework, in dem Entscheidungen / Regeln besser reflektiert werden und Verhaltensweisen nicht einfach beibehalten werden, "weil es halt so gemacht wird". Und das kommt der Lernfähigkeit und Intelligenz der KI enorm zupaß.


Da sich die Individuen aber, wie man leicht sehen kann, nicht auf einen Vorschlag einigen können (und ich Naivling habe immer gedacht, beim Utilarismus handele es sich um eine Philosphie, und nicht eine Verhandlungssache), ja nicht einmal auf den Utilarismus selbst, wurschteln wir uns weiter so hin, „wie wir es immer gemacht haben“. Und vermutlich ist das auch gut so. Denn ethische Prinzipien mögen sich in einer theoretischen Diskussion gut machen, im praktischen Leben sind sie ein mit Zwang garnierter Graus.

#76:  Autor: Marcellinus BeitragVerfasst am: 21.05.2018, 18:22
    —
step hat folgendes geschrieben:
Heutige Utilitaristen argumentieren mW auch nicht mehr so - eher nutzt man traditionelle Moralsysteme oder Traditionen, um einige ihrer Regeln als intuitionistisch, schlecht begründet, leidmehrend usw. zu entlarven - etwa wenn es um Nutztiere, Embryonen, Strafrecht o.ä. geht.

Ja, und dann kommt der Punkt, wo behauptet wird, meine Präferenzen sind informierter, wertvoller, moralischer (such dir eins aus) als deine. Und schon ist der schönste Glaubenskrieg im Gang. Und auf einmal wird da gar nicht mehr verhandelt, sondern (zB. „Leidvermeidung) als „unhinterfragbare Letztbegründung“ verwendet, gern noch mal mit dem Attribut „wissenschaftlich“ geadelt. Ne, danke!

#77:  Autor: SkeptikerWohnort: 129 Goosebumpsville BeitragVerfasst am: 21.05.2018, 18:26
    —
step hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
Recht überzeugend fand ich in dem Zusammenhang ja Nietzsches Einwand gegen den Utilitarismus, der sagte, dass der Begriff des "Guten" historisch nicht ohne Weiteres auf Zweckmäßigkeit reduzierbar ist (wie das die Utilitaruer ja behauptet haben) ...

Moment mal - Zweckmäßigkeit und Effizienz sind keine Selbstzwecke im Utilitarismus, sondern ergeben sich logisch aus dem primären Postulat des Utilitarismus: größtmögliches Glück insgesamt, kleinstmögliches Leid für Alle o.ä., je nach Variante.


Ist dies bei den heutigen utilitaristischen Killerdrohnen nicht schon einprogrammiert?

Oder muss das noch?

#78:  Autor: stepWohnort: Germering BeitragVerfasst am: 21.05.2018, 18:28
    —
Marcellinus hat folgendes geschrieben:
Da sich die Individuen aber, wie man leicht sehen kann, nicht auf einen Vorschlag einigen können, ja nicht einmal auf den Utilarismus selbst ...

Die menschliche Intelligenz und Lernfähigkeit ist halt nicht so besonders toll. Ist halt primär eher so auf Fressen und Poppen in da Hood optimiert.

Aber ich hoffe auf die KI!

#79:  Autor: Zumsel BeitragVerfasst am: 21.05.2018, 18:28
    —
step hat folgendes geschrieben:
Ja, außer dem primären Wert (Ziel) eben, z.B. maximales Glück für Alle. Der ist für die Nutzenfunktion sehr entscheidend. Partielle Werte dagegen (z.B. der Wert des Lebens eines Tieres oder der Wert von Eigentum) bemessen sich nach ihrer Bedeutung für den Gesamtnutzen.


Mein Punkt war, dass schon die konsequentialistische Grundkonzeption als notwendiger Rahmen jedes Utilitarismus mglw. einfach das verfehlt, was Moral oder Ethik in ihrem Kern ausmacht. Es läge dann einfach ein Missverständnis über die Gundlagen menschlicher Handlungsbewertung vor. Natürlich ist es denkbar, dass KIs eine derartige Handlungsbewertung ausprägen würden, nur wäre das eben keine "Ethik".

step hat folgendes geschrieben:
Heutige Utilitaristen argumentieren mW auch nicht mehr so - eher nutzt man traditionelle Moralsysteme oder Traditionen, um einige ihrer Regeln als intuitionistisch, schlecht begründet, leidmehrend usw. zu entlarven - etwa wenn es um Nutztiere, Embryonen, Strafrecht o.ä. geht.


Das hat dann aber freilich viel eher dogmatischen Predigtcharakter.

#80:  Autor: SkeptikerWohnort: 129 Goosebumpsville BeitragVerfasst am: 21.05.2018, 18:28
    —
Marcellinus hat folgendes geschrieben:
step hat folgendes geschrieben:
Heutige Utilitaristen argumentieren mW auch nicht mehr so - eher nutzt man traditionelle Moralsysteme oder Traditionen, um einige ihrer Regeln als intuitionistisch, schlecht begründet, leidmehrend usw. zu entlarven - etwa wenn es um Nutztiere, Embryonen, Strafrecht o.ä. geht.

Ja, und dann kommt der Punkt, wo behauptet wird, meine Präferenzen sind informierter, wertvoller, moralischer (such dir eins aus) als deine. Und schon ist der schönste Glaubenskrieg im Gang. Und auf einmal wird da gar nicht mehr verhandelt, sondern (zB. „Leidvermeidung) als „unhinterfragbare Letztbegründung“ verwendet, gern noch mal mit dem Attribut „wissenschaftlich“ geadelt. Ne, danke!


Ja mei! Aber wenn halt die Elite der "ethischen Subjekte" zusammenhockt, dann wird's schon klappen, gelle!

#81:  Autor: stepWohnort: Germering BeitragVerfasst am: 21.05.2018, 18:30
    —
Skeptiker hat folgendes geschrieben:
Ist dies bei den heutigen utilitaristischen Killerdrohnen nicht schon einprogrammiert?

Es gibt keine utilitaristischen Killerdrohnen.

#82:  Autor: SkeptikerWohnort: 129 Goosebumpsville BeitragVerfasst am: 21.05.2018, 18:31
    —
step hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
Da sich die Individuen aber, wie man leicht sehen kann, nicht auf einen Vorschlag einigen können, ja nicht einmal auf den Utilarismus selbst ...

Die menschliche Intelligenz und Lernfähigkeit ist halt nicht so besonders toll. Ist halt primär eher so auf Fressen und Poppen in da Hood optimiert.

Aber ich hoffe auf die KI!


Hoffen wir auf die kalte KI! Anbeten

Im Ernst: Man sagt, es sei gut, wenn z.B. Politiker einen kühlen Kopf behalten oder meinetwegen auch die Polizei bei Demonstrationen usw.

Aber sooo kühl sollte es nun auch wieder nicht sein. Eine KI mag lernfähig sein. Sie braucht aber etwas, was sie niemals haben wird, nämlich kommunikative Kompetenz. Sie kann Informationen sammeln, aber keine komplexen Probleme verstehen. Deshalb wird sie immer wieder zwischendurch gestoppt und neu gefüttert werden müssen mit Updates und Bugfixes.

#83:  Autor: HRQ-Verbrechensopfer BeitragVerfasst am: 21.05.2018, 18:38
    —
Ne, ich stelle mich doof und gebe mich nicht zu erkennen, lach.
Und wer mal stirbt, weiß, es wäre vermeidbar, ist nur politisch nicht gewollt.
KI krepiert nicht, super.
Wann krepiert endlich die Knechtschaftsdenke?

#84:  Autor: stepWohnort: Germering BeitragVerfasst am: 21.05.2018, 18:39
    —
Zumsel hat folgendes geschrieben:
Mein Punkt war, dass schon die konsequentialistische Grundkonzeption als notwendiger Rahmen jedes Utilitarismus mglw. einfach das verfehlt, was Moral oder Ethik in ihrem Kern ausmacht.

Moral in ihrem Kern: Ja, die gibt es in dem Sinne nicht mehr, da es ja nichts gibt, was "per Dogma" gut oder Böse wäre. Man könnte tatsächlich argumentieren, daß Moral im Kern immer deontologisch ist oder sogar einen Gott im weitesten Sinne braucht.

Ethik: Das verstehe ich nicht. Was macht denn Ethik im Kern aus? Aus meiner Sicht bedeutet Ethik vor allem, daß man Reflektion an die Stelle von (moralischem) Gehorsam setzt, daß man also begründet / diskutiert, warum und wozu eine bestimmte Handlung oder Regel geboten sein sollte oder nicht.

Zumsel hat folgendes geschrieben:
step hat folgendes geschrieben:
Heutige Utilitaristen argumentieren mW auch nicht mehr so - eher nutzt man traditionelle Moralsysteme oder Traditionen, um einige ihrer Regeln als intuitionistisch, schlecht begründet, leidmehrend usw. zu entlarven - etwa wenn es um Nutztiere, Embryonen, Strafrecht o.ä. geht.
Das hat dann aber freilich viel eher dogmatischen Predigtcharakter.

Finde ich nicht - jeder darf dagegen argumentieren, und das alles dient der Minimierung von Leiden.

Ich habe allerdings den Eindruck, daß Argumente (und auch die Aufforderung zu solchen) von vielen Menschen als Bedrohung ihrer unreflektierten Verhaltensweisen angesehen wird - in diesem Punkt ist der Mensch doch sehr steinzeitlich.

#85:  Autor: stepWohnort: Germering BeitragVerfasst am: 21.05.2018, 18:41
    —
Skeptiker hat folgendes geschrieben:
Eine KI mag lernfähig sein. Sie braucht aber etwas, was sie niemals haben wird, nämlich kommunikative Kompetenz. Sie kann Informationen sammeln, aber keine komplexen Probleme verstehen. Deshalb wird sie immer wieder zwischendurch gestoppt und neu gefüttert werden müssen mit Updates und Bugfixes.

Man mag es bedauern oder gut finden, aber da liegst Du völlig daneben.

#86:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 21.05.2018, 18:45
    —
zelig hat folgendes geschrieben:
fwo hat folgendes geschrieben:
zelig hat folgendes geschrieben:
....Im Moment ist es aber nur entscheidend, daß aus meiner Sicht die Empfindungsfähigkeit von Lebewesen einen kategorialen Unterschied zu KIs bedeuten. Ich behaupte ja nicht, daß sie dafür sorgt, daß die Welt ein guter Ort ist. Ich behaupte nur, daß eine KI nicht weiß wie es sich anfühlt, Schmerzen oder Angst zu haben. Bzw ich behaupte, daß daher eine Bewertungsgrundlage für ethische Entscheidungen fehlt. Eine Eigenschaft, über die Menschen prinzipiell verfügen. ....

Zu welchen Schlussfolgerungen gelangst Du, wenn wir feststellen, dass auch das lebendige Wesen zelig nicht wirklich weiß, wie die Gefühle Angst und Schmerzen bei dem lebendigen Wesen fwo aussehen und wann sie auftreten? Das war nämlich der eigentlich Inhalt meines Beitrags.


Ich setze voraus, daß die Empfindung, die ich als Schmerz bezeichne, bei dir ebenso existiert und von ähnlichen Umständen hervorgerufen werden kann. Die heiße Herdplatte hat dich und mich gelehrt, die Hand nicht mehr unbedacht auf sie zu legen. Die vorherige Ermahnung war weniger wirksam. Ich ziehe daraus den Schluss, daß ich dir den Schmerz nicht zufüge, selbst wenn ich der Meinung bin, daß du etwas falsch machst. Mal auf die Schnelle konstruiert.

Schönes Beispiel: Ob meine Schmerztoleranz höher ist als die anderer Leute, weiß ich nicht, aber Mediziner haben mal ganz beiläufig festgestellt, dass ich eine sehr hohe Schmerzschwelle habe. Das bedeutet, dass mein Leben geringer an somatischen Schmerzen ist, als das anderer Leute. Nach Deiner Theorie sollte ich deshalb unachtsamer mit anderen Menschen umgegangen sein /umgehen - aber davon ist nichts bekannt. Was ich dagegen in Erinnerung habe, ist, dass ich immer ziemlich verbeult werden musste, bevor ich körperlich auf andere losging.

Selbst, wenn ich von dem zusätzlichen Phänomen absehe, dass auch Gefühle einen kulturellen Ursprung haben können (Paradebesipiel "religiöse Gefühle") befürchte ich, dass Deinem Modell menschlichen Verhaltens eine zu schlichte Vorstellung des Tieres Mensch zugrunde liegt. Um das mal etwas pointiert auszudrücken: Bei einigen Ausdrücken unseres Verhaltens, die Du als menschlich interpretierst, handelt es sich eher um Verhalten, das von einer bestimmten kulturellen Programmierung zeugt, also nichts, was man nicht auch Maschinen beibringen könnte. Der Unterschied besteht darin, dass ich bei der Maschine z.T. Bewertungen festlegen muss, wo sie sich beim Menschen relativ von alleine ergeben. Aber bei den Beispielen, die ich gegeben habe, wird deutlich, dass es doch nicht so von alleine passiert, sondern dass da ein großer Teil nicht natürlich ist, sondern, um Deine eigene Vokabel zu nehmen, kultürlich, also von außen gesetzt. Das gehört also nicht zur biologischen Grundausrüstung.
zelig hat folgendes geschrieben:
fwo hat folgendes geschrieben:
Ich bezweifle, dass es in der Praxis für die Entscheidungen einen Unterschied macht, ob ein zelig oder ein fwo im Besitz menschlicher Gefühle ist oder ob ich einer Maschine beibringe, welche Aktionen (bzw. ihre Wahrnehmung auf der anderen Seite) welche Gefühle bewirken und wie die Gefühle zu bewerten sind.

Genau das bezweifle ich wiederum. Hast Du schonmal eine Mastgans gegessen?

Nein. Aber mit Sicherheit relativ regelmäßig Schwein aus der der Massentierhaltung, was wahrscheinlich auf ein ähnliches, wenn nicht höheres Qualniveau hinausläuft, nur, dass wir das nicht so gezeigt bekommen, auch von den Schweinen.

Aber das ist genau das Problem: Das Bild der schreienden Gans löst Gefühle in uns aus, die etwas mit uns in dieser Situation zu tun haben und nichts mit der Gans. Die können uns den Appetit auf diese Gans verderben, auch wenn die Qual dieser Gans für sie selbst evtl. unwesentlich ist. Genauso kann es nämlich auch andersherum gehen, dass unser Gefühl nichts signalisiert, während es dem auf der anderen Seite gerade beschissen geht.

Ich kann jetzt leider nur aus dem Gedächtnis schreiben und nicht zitieren, weil ich das Buch, um das es geht, mal verliehen und nicht wiederbekommen habe. Das Buch: "Einsicht ins Ich" herausgegeben von Hofstaedter und Dennet. Darin wird ein Experiment beschrieben, in dem relativ schlichte Maschinen durch ganz schlichte Verhaltensmuster Mitleid erregen, also als leidend empfunden werden. Das bedeute in der Umkehrung für mich auch, dass unser Funktionieren da auch ziemlich schlicht ist. Wir leben nur in einer Zeit der Verherrlichung der Gefühle. Oder sollten wir heute ganz gendermäßig auch von Verdämlichung sprechen?

#87:  Autor: Zumsel BeitragVerfasst am: 21.05.2018, 19:03
    —
step hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
Mein Punkt war, dass schon die konsequentialistische Grundkonzeption als notwendiger Rahmen jedes Utilitarismus mglw. einfach das verfehlt, was Moral oder Ethik in ihrem Kern ausmacht.

Moral in ihrem Kern: Ja, die gibt es in dem Sinne nicht mehr, da es ja nichts gibt, was "per Dogma" gut oder Böse wäre. Man könnte tatsächlich argumentieren, daß Moral im Kern immer deontologisch ist oder sogar einen Gott im weitesten Sinne braucht.

Ethik: Das verstehe ich nicht. Was macht denn Ethik im Kern aus? Aus meiner Sicht bedeutet Ethik vor allem, daß man Reflektion an die Stelle von (moralischem) Gehorsam setzt, daß man also begründet / diskutiert, warum und wozu eine bestimmte Handlung oder Regel geboten sein sollte oder nicht.


Zunächst zur Klarstellung um Missverständnisse zu vermeiden: Diese begriffliche Unterscheidung zwischen Moral und Ethik mache ich i.d.R. nicht, sondern benutze die Wörter im Wesentlichen synonym. Natürlich kann man Moral entweder nur predigen oder sie auch begründen (das eine ist bekanntlich leicht, das andere schwer), aber die Notwendigkeit einer scharfen begrifflichen Abgrenzung sehe ich nicht. Ob nur gepredigt oder auch versucht wird zu begründen ist dann ja doch meistens relativ klar ersichtlich.

Was den Kern der Sache betrifft: Offensichtlich geht es um die Bewertung von Handlungen. Was ist nun der Bewertungsmaßstab? Tja, das ist ja eben der interessante Streitpunkt. Und meine Vermutung ist: Bewertung der Konsequenzen (wie im Utilitarismus) wird dem Phänomen nicht gerecht.

Zumsel hat folgendes geschrieben:
Finde ich nicht - jeder darf dagegen argumentieren, und das alles dient der Minimierung von Leiden.

Ich habe allerdings den Eindruck, daß Argumente (und auch die Aufforderung zu solchen) von vielen Menschen als Bedrohung ihrer unreflektierten Verhaltensweisen angesehen wird - in diesem Punkt ist der Mensch doch sehr steinzeitlich.


Es steht ja außer Frage, dass Leidminimierung oft ein wesentliches Handlungsmotiv ist und auch einen relevanten moralischen/ethischen Wert hat. Was in Frage steht ist, ob damit der Kern moralischer Bewertung erfasst ist oder man sich das Ganze nicht dann doch etwas komplexer vorzustellen hat.

#88:  Autor: HRQ-Verbrechensopfer BeitragVerfasst am: 21.05.2018, 19:29
    —
Die Einschirrung der Naturgesetze und unseres Sterns geben unbegrenzt währendes 'Götterleben' her.
Dazu braucht man nicht mal KI, um es begreifen zu können.
Kommt Singularität, die uns der KI erübrigt?
Sie wird mit einem Wimpernschlag denken, was wir seit unseres Menschseins gedacht haben.
Wann begreifen Menschen endlich, nützliche Idioten von Machthabern zu sein und deswegen immer noch sterben zu müssen?

#89:  Autor: abbahallo BeitragVerfasst am: 21.05.2018, 20:39
    —
Ich verstehe immer noch nicht, weshalb man KIs eigenständigen Willen unterstellt. Es handelt sich bestenfalls um sich selbst erweiternde Programme, denen Menschen Ziele vorgeben, wofür sie die Verantwortung übernehmen sollten.

#90:  Autor: stepWohnort: Germering BeitragVerfasst am: 21.05.2018, 21:42
    —
Zumsel hat folgendes geschrieben:
meine Vermutung ist: Bewertung der Konsequenzen (wie im Utilitarismus) wird dem Phänomen nicht gerecht.

Wieso das nicht? Es geht um die ethische Bewertung von Handlungen/Regeln, also ob eine Handlung/Regel so richtig ist oder eher nicht. Es geht nicht um Gewissen, Kerker oder Hölle.

Zumsel hat folgendes geschrieben:
Es steht ja außer Frage, dass Leidminimierung oft ein wesentliches Handlungsmotiv ist und auch einen relevanten moralischen/ethischen Wert hat. Was in Frage steht ist, ob damit der Kern moralischer Bewertung erfasst ist oder man sich das Ganze nicht dann doch etwas komplexer vorzustellen hat.

Aktuelle menschliche Moral ist sicher komplexer, u.a. eben weil viele irrationale Anteile drinstecken. Aber welche Werte konkret siehst Du, die rational begründbar sind, aber nicht durch Leidminimierung o.ä.?

#91:  Autor: Marcellinus BeitragVerfasst am: 21.05.2018, 22:07
    —
step hat folgendes geschrieben:

Aktuelle menschliche Moral ist sicher komplexer, u.a. eben weil viele irrationale Anteile drinstecken. Aber welche Werte konkret siehst Du, die rational begründbar sind, aber nicht durch Leidminimierung o.ä.?

Der ganze Ansatz ist falsch. Die Verhaltensstandards einer Gesellschaft werden nicht abgeleitet aus vermeintlich universellen Werten, sondern sind Ergebnis sozialer Prozesse. Die sind weit komplexer, als es jedes philosophische Wertekonzept sein könnte, und zwar nicht, weil so viele „irrationale Anteile“ darinsteckten, sondern, weil Gesellschaften mit Millionen (oder im Falle von China sogar Milliarden) von Menschen notwendig hochkomplexe Gebilde sind, deren Funktionsweise wir noch nicht ansatzweise verstehen, obwohl sie ausschließlich von uns Menschen und den Beziehungen zwischen uns gebildet werden. Individuelle Leidminimierung ist da fast das letzte, worauf es ankommt (gilt aber auch für jedes andere sogenannte „ethische Prinzip“).

#92:  Autor: abbahallo BeitragVerfasst am: 21.05.2018, 22:12
    —
Ist es irrational, das Bevölkerungswachstum bremsen zu wollen, Zwangssterilisation aber abzulehnen?

#93:  Autor: MadMagic BeitragVerfasst am: 21.05.2018, 22:28
    —
Marcellinus hat folgendes geschrieben:
step hat folgendes geschrieben:

Aktuelle menschliche Moral ist sicher komplexer, u.a. eben weil viele irrationale Anteile drinstecken. Aber welche Werte konkret siehst Du, die rational begründbar sind, aber nicht durch Leidminimierung o.ä.?

Der ganze Ansatz ist falsch. Die Verhaltensstandards einer Gesellschaft werden nicht abgeleitet aus vermeintlich universellen Werten, sondern sind Ergebnis sozialer Prozesse. Die sind weit komplexer, als es jedes philosophische Wertekonzept sein könnte, und zwar nicht, weil so viele „irrationale Anteile“ darinsteckten, sondern, weil Gesellschaften mit Millionen (oder im Falle von China sogar Milliarden) von Menschen notwendig hochkomplexe Gebilde sind, deren Funktionsweise wir noch nicht ansatzweise verstehen, obwohl sie ausschließlich von uns Menschen und den Beziehungen zwischen uns gebildet werden. Individuelle Leidminimierung ist da fast das letzte, worauf es ankommt (gilt aber auch für jedes andere sogenannte „ethische Prinzip“).


Erinnert mich an meine Bienenvölker..., irgendwie bin ich aber deren Gott...

#94:  Autor: Kramer BeitragVerfasst am: 21.05.2018, 22:30
    —
fwo hat folgendes geschrieben:

Damit sagst Du aber jetzt nichts, was ich nicht bereits geschrieben hatte:


Wäre das denn überhaupt möglich?

#95:  Autor: Marcellinus BeitragVerfasst am: 21.05.2018, 22:35
    —
abbahallo hat folgendes geschrieben:
Ist es irrational, das Bevölkerungswachstum bremsen zu wollen, Zwangssterilisation aber abzulehnen?

Kommt auf den Begriff an, den du von „Rationalität“ hast. Letztlich ist das ein Fantasiebegriff, der seit dem 19. Jh. besonders in Mode ist.

Fakt ist, daß wir das Bevölkerungswachstum bremsen müssen, wenn wir diese Welt für uns Menschen lebenswert erhalten wollen. Aber auch das sagt sich so. Ich höre diese Behauptung schon seit Jahrzehnten. Die Welt, die es damals gab, gibt es nicht mehr, während die Bevölkerungszahl seitdem ununterbrochen gestiegen ist, mit und ohne Zwangssterilisation. Das „Irrationale“ an all dem ist also vor allem, man könne das “machen“.

#96:  Autor: Marcellinus BeitragVerfasst am: 21.05.2018, 22:51
    —
MadMagic hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
step hat folgendes geschrieben:

Aktuelle menschliche Moral ist sicher komplexer, u.a. eben weil viele irrationale Anteile drinstecken. Aber welche Werte konkret siehst Du, die rational begründbar sind, aber nicht durch Leidminimierung o.ä.?

Der ganze Ansatz ist falsch. Die Verhaltensstandards einer Gesellschaft werden nicht abgeleitet aus vermeintlich universellen Werten, sondern sind Ergebnis sozialer Prozesse. Die sind weit komplexer, als es jedes philosophische Wertekonzept sein könnte, und zwar nicht, weil so viele „irrationale Anteile“ darinsteckten, sondern, weil Gesellschaften mit Millionen (oder im Falle von China sogar Milliarden) von Menschen notwendig hochkomplexe Gebilde sind, deren Funktionsweise wir noch nicht ansatzweise verstehen, obwohl sie ausschließlich von uns Menschen und den Beziehungen zwischen uns gebildet werden. Individuelle Leidminimierung ist da fast das letzte, worauf es ankommt (gilt aber auch für jedes andere sogenannte „ethische Prinzip“).


Erinnert mich an meine Bienenvölker..., irgendwie bin ich aber deren Gott...

Ein guter oder ein böser? zwinkern

#97:  Autor: MadMagic BeitragVerfasst am: 21.05.2018, 23:13
    —
Marcellinus hat folgendes geschrieben:
MadMagic hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
step hat folgendes geschrieben:

Aktuelle menschliche Moral ist sicher komplexer, u.a. eben weil viele irrationale Anteile drinstecken. Aber welche Werte konkret siehst Du, die rational begründbar sind, aber nicht durch Leidminimierung o.ä.?

Der ganze Ansatz ist falsch. Die Verhaltensstandards einer Gesellschaft werden nicht abgeleitet aus vermeintlich universellen Werten, sondern sind Ergebnis sozialer Prozesse. Die sind weit komplexer, als es jedes philosophische Wertekonzept sein könnte, und zwar nicht, weil so viele „irrationale Anteile“ darinsteckten, sondern, weil Gesellschaften mit Millionen (oder im Falle von China sogar Milliarden) von Menschen notwendig hochkomplexe Gebilde sind, deren Funktionsweise wir noch nicht ansatzweise verstehen, obwohl sie ausschließlich von uns Menschen und den Beziehungen zwischen uns gebildet werden. Individuelle Leidminimierung ist da fast das letzte, worauf es ankommt (gilt aber auch für jedes andere sogenannte „ethische Prinzip“).


Erinnert mich an meine Bienenvölker..., irgendwie bin ich aber deren Gott...

Ein guter oder ein böser? zwinkern


Für die sicherlich ein Böser, aber ich bin ziemlich scheinheilig zu ihnen... Also, wenn Du sie fragen würdest... K.A....

Edit: Und objektiv ein böser Gott, natürlich, naja teilweise..., naja ist Ansichtssache..., keine Ahnung...

#98:  Autor: abbahallo BeitragVerfasst am: 21.05.2018, 23:25
    —
Ich würde ganz gern auf die KI zurückkommen, die kein Gott ist und, auch wenn sie schneller Daten verarbeiten kann als Menschen, doch nur ein menschliches Instrument ist.

#99:  Autor: MadMagic BeitragVerfasst am: 21.05.2018, 23:30
    —
abbahallo hat folgendes geschrieben:
Ist es irrational, das Bevölkerungswachstum bremsen zu wollen, Zwangssterilisation aber abzulehnen?


Naja..., ich habe Dich da dann falsch verstanden...

#100:  Autor: abbahallo BeitragVerfasst am: 21.05.2018, 23:43
    —
Ich hatte es als Beispiel gemeint, dass Logik bei Werteentscheidungen zwar Begründungen qualifizieren kann, aber eben keine Entscheidungen liefert.

#101:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 22.05.2018, 02:43
    —
Kramer hat folgendes geschrieben:
fwo hat folgendes geschrieben:

Damit sagst Du aber jetzt nichts, was ich nicht bereits geschrieben hatte:


Wäre das denn überhaupt möglich?

Natürlich. Und es wäre einfacher, wenn Du vorher vollständig läsest, was Du beantwortest, anstatt dir irgendein Teil herauszupicken, mit dem Du es dem Kerl jetzt zeigen willst.

#102:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 22.05.2018, 02:46
    —
Marcellinus hat folgendes geschrieben:
abbahallo hat folgendes geschrieben:
Ist es irrational, das Bevölkerungswachstum bremsen zu wollen, Zwangssterilisation aber abzulehnen?

Kommt auf den Begriff an, den du von „Rationalität“ hast. Letztlich ist das ein Fantasiebegriff, der seit dem 19. Jh. besonders in Mode ist.

Fakt ist, daß wir das Bevölkerungswachstum bremsen müssen, wenn wir diese Welt für uns Menschen lebenswert erhalten wollen. Aber auch das sagt sich so. Ich höre diese Behauptung schon seit Jahrzehnten. Die Welt, die es damals gab, gibt es nicht mehr, während die Bevölkerungszahl seitdem ununterbrochen gestiegen ist, mit und ohne Zwangssterilisation. Das „Irrationale“ an all dem ist also vor allem, man könne das “machen“.

Kann man so auch nicht sagen: Die Bevölkerung nimmt zwar noch zu, aber das Bevölkerungswachstum sinkt seitdem stetig. Ein Ende ist abzusehen.

#103:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 22.05.2018, 02:52
    —
step hat folgendes geschrieben:
...
Aktuelle menschliche Moral ist sicher komplexer, u.a. eben weil viele irrationale Anteile drinstecken. Aber welche Werte konkret siehst Du, die rational begründbar sind, aber nicht durch Leidminimierung o.ä.?

Was ich mich frage, wenn ich das lese, ist, wie die verschiedenen Formen des Leids gegeneinander aufgerechnet werden, wenn man die Summe zu minimieren versucht. Wer liefert diesen Maßstab?

#104:  Autor: Kramer BeitragVerfasst am: 22.05.2018, 09:56
    —
fwo hat folgendes geschrieben:
Kramer hat folgendes geschrieben:
fwo hat folgendes geschrieben:

Damit sagst Du aber jetzt nichts, was ich nicht bereits geschrieben hatte:


Wäre das denn überhaupt möglich?

Natürlich. Und es wäre einfacher, wenn Du vorher vollständig läsest, was Du beantwortest, anstatt dir irgendein Teil herauszupicken, mit dem Du es dem Kerl jetzt zeigen willst.


Das ist ja das Problem: Nur, weil man Dir etwas nicht zeigen kann, heisst nicht, dass da nichts ist.

Das "Mein Therapeut fand meine traumatischen Erlebnisse viel schlimmer als ich selber" ist nicht allzu weit entfernt von "Gegen eine Ohrfeige ab und zu kann man doch nichts sagen. Mir hat es jedenfalls nicht geschadet."

Die Annahme, dass die traumatische Erfahrung gar nicht so schlimm war, wie sie in der Erzählung klingt und dass der Therapeut sich schlichtweg irrt, ist die eine Perspektive. Die andere Perspektive ist, dass der Therapeut das Geschehen vielleicht viel realistischer beurteilt, weil der Betroffene nicht seine durch vorangegangene Traumata verzerrte Realität und Empfindung berücksichtigt. Oder anders formuliert: Dass man den Schmerz nicht mehr wahrnimmt, ist schon ein Teil des Schadens. Das ist mit ein Grund, warum Missbrauch oft Jahre andauern kann und die Opfer sich dem nicht entziehen. Besonders Kinder glauben, dass es normal ist, sowas zu erleben. Und sie glauben auch, dass es normal ist, wie ihre Empfindungsfähigkeit sich verändert.

#105:  Autor: stepWohnort: Germering BeitragVerfasst am: 22.05.2018, 10:57
    —
abbahallo hat folgendes geschrieben:
Ist es irrational, das Bevölkerungswachstum bremsen zu wollen, Zwangssterilisation aber abzulehnen?

Nein. Wenn man etwa plausibel machen kann, daß zwar eine Bremsung des BV das Gesamtleiden minimiert (oder die Interessen insgesamt besser erfüllt), die Zwangssterilisation aber entweder zu einer insgesamt negativen Bilanz führen würde, oder den Effekt gar nicht erreichen würde, oder es andere Maßnahmen gäbe, die in Bezug auf insgesamte Interessenerfüllung besser dastehen, dann wäre die o.g. Kombination rational.

#106:  Autor: Zumsel BeitragVerfasst am: 22.05.2018, 11:17
    —
step hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
meine Vermutung ist: Bewertung der Konsequenzen (wie im Utilitarismus) wird dem Phänomen nicht gerecht.

Wieso das nicht? Es geht um die ethische Bewertung von Handlungen/Regeln, also ob eine Handlung/Regel so richtig ist oder eher nicht. Es geht nicht um Gewissen, Kerker oder Hölle.

Zumsel hat folgendes geschrieben:
Es steht ja außer Frage, dass Leidminimierung oft ein wesentliches Handlungsmotiv ist und auch einen relevanten moralischen/ethischen Wert hat. Was in Frage steht ist, ob damit der Kern moralischer Bewertung erfasst ist oder man sich das Ganze nicht dann doch etwas komplexer vorzustellen hat.

Aktuelle menschliche Moral ist sicher komplexer, u.a. eben weil viele irrationale Anteile drinstecken. Aber welche Werte konkret siehst Du, die rational begründbar sind, aber nicht durch Leidminimierung o.ä.?


Nun, sehr wesentlich für das, was zur ethischen Bewertung von Handlungen gehört, sind doch wohl (und zwar kulturübergreifend) solche Dinge wie "Gerechtigkeit" oder die Institution des Versprechens. Und gerade mit solchen Dingen haben Utilitaristen dann doch große Schwierigkeiten. Die Versuche, diese Phänomene utilitaristisch auszudeuten, waren wenig überzeugend, der andere Ansatz, sie einfach für ethisch irrelevante Relikte voraufgeklärter Gesellschaften zu halten, die eben überwunden werden müssten, überzeugen aus meiner Sicht allerdings noch weniger. Vielmehr berühren sie den Kern des menschlichen Selbstverständnisses, das sich offenbar nicht in der Fähigkeit zur Optimierung bestimmter Ziele (wie der Herstellung einer maximal positiven Glück-Leid-Bilanz) erschöpft.

#107:  Autor: stepWohnort: Germering BeitragVerfasst am: 22.05.2018, 11:30
    —
Marcellinus hat folgendes geschrieben:
Die Verhaltensstandards einer Gesellschaft werden nicht abgeleitet aus vermeintlich universellen Werten, sondern sind Ergebnis sozialer Prozesse ... weil Gesellschaften ... hochkomplexe Gebilde sind, deren Funktionsweise wir noch nicht ansatzweise verstehen

Das ist für mich fast dasselbe wie: Unsere Moral ist irrational, weil wir ihre Entstehungsprozesse nicht verstehen.

Abgesehen davon, daß das selbstbezüglich und kein gutes Argument gegen rationale Ethiken und universelle Werte ist, habe ich auch inhaltliche Einwände: Diverse sozial entstandene Ge/Verbote bzw. moralische Werte konnten durchaus auf ihre Ursachen zurückgeführt werden - und damit zuweilen auch gezeigt werden, daß sie mehr schaden als nützen, heute keinen Sinn mehr haben usw.

Marcellinus hat folgendes geschrieben:
Individuelle Leidminimierung ist da fast das letzte, worauf es ankommt (gilt aber auch für jedes andere sogenannte „ethische Prinzip“)

Wenn es auf gar kein ethisches Prinzip "ankommt", sondern die Moral nur ein faktisches Ergebnis eines chaotischen sozialen Prozesses ist, erscheint mir das extrem nichtssagend. Du kannst doch die starke Relevanz individueller Interessen für eine Ethik nicht einfach leugnen.

Übrigens sind utilitaristische Ansätze in einigen Bereichen unserer Moral durchaus üblich und akzeptiert, etwa wenn es darum geht, durch Steuern oder Versicherungen gemeinsame Aufgaben zu stemmen oder Risiken zu verschmieren. Auch die Demokratie ist ein tendenziell utilitaristisches Modell. Schwerer tut sich der Utilitarismus nach meiner Einschätzung bei Themen, die stärker instinktgesteuert sind - etwa Fleischessen, dicke Autos, Vergeltung im Strafrecht, Waffenbesitz in USA, Abtreibung, Migration ... bei solchen Themen hat noch die irrationale Moral Oberwasser.

#108:  Autor: stepWohnort: Germering BeitragVerfasst am: 22.05.2018, 11:48
    —
Zumsel hat folgendes geschrieben:
step hat folgendes geschrieben:
Aber welche Werte konkret siehst Du, die rational begründbar sind, aber nicht durch Leidminimierung o.ä.?
Nun, sehr wesentlich für das, was zur ethischen Bewertung von Handlungen gehört, sind doch wohl (und zwar kulturübergreifend) solche Dinge wie "Gerechtigkeit" oder die Institution des Versprechens. Und gerade mit solchen Dingen haben Utilitaristen dann doch große Schwierigkeiten. Die Versuche, diese Phänomene utilitaristisch auszudeuten, waren wenig überzeugend, ...

Das halte ich für ein Gerücht. Nehmen wir "Gerechtigkeit": Bestimmte Aspekte von Gerechtigkeit sind utilitaristisch gut zu begründen - z.B. so:

Kooperation erhöht die Gesamterfüllung von Einzelinteressen. Kooperation erfordert Vertrauen (hoffentlich unstrittig). Vertrauen erfordert, daß sich der Einzelne darauf verlassen kann, daß seine Interessen gleichermaßen berücksichtigt werden. Letzteres wiederum ist ein wesentlicher Aspekt von Gerechtigkeit.

Manche Präferenzutilitaristen machen es sogar noch einfacher, nach dem Motto: Gerechtigkeit = Gleichgewichtung von Interessen = Präferenzutilitarismus

Es gibt aber natürlich auch Aspekte von "Gerechtigkeit", die utilitaristisch schwieriger zu begründen sind oder mE gar aufgegeben werden müßten, etwa die alttestamentarische Deutung von Gerechtigkeit, zu der auch Rache, vergeltende Gefängnisstrafen u.ä. gehören.

Zumsel hat folgendes geschrieben:
... berühren sie den Kern des menschlichen Selbstverständnisses, das sich offenbar nicht in der Fähigkeit zur Optimierung bestimmter Ziele ... erschöpft.

Könntest Du hier etwas weniger blumig formulieren? Meinst Du so etwas wie Poesie, Religion ...? Oder niedere Bedürfnisse wie Rache u.ä.? Welches primäre Ziel von Ethik würdest Du denn vorschlagen, anstelle der Glück/Leid Geschichte?

#109:  Autor: Marcellinus BeitragVerfasst am: 22.05.2018, 11:56
    —
step hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
Die Verhaltensstandards einer Gesellschaft werden nicht abgeleitet aus vermeintlich universellen Werten, sondern sind Ergebnis sozialer Prozesse ... weil Gesellschaften ... hochkomplexe Gebilde sind, deren Funktionsweise wir noch nicht ansatzweise verstehen

Das ist für mich fast dasselbe wie: Unsere Moral ist irrational, weil wir ihre Entstehungsprozesse nicht verstehen.

Abgesehen davon, daß das selbstbezüglich und kein gutes Argument gegen rationale Ethiken und universelle Werte ist, habe ich auch inhaltliche Einwände: Diverse sozial entstandene Ge/Verbote bzw. moralische Werte konnten durchaus auf ihre Ursachen zurückgeführt werden - und damit zuweilen auch gezeigt werden, daß sie mehr schaden als nützen, heute keinen Sinn mehr haben usw.

Marcellinus hat folgendes geschrieben:
Individuelle Leidminimierung ist da fast das letzte, worauf es ankommt (gilt aber auch für jedes andere sogenannte „ethische Prinzip“)

Wenn es auf gar kein ethisches Prinzip "ankommt", sondern die Moral nur ein faktisches Ergebnis eines chaotischen sozialen Prozesses ist, erscheint mir das extrem nichtssagend. Du kannst doch die starke Relevanz individueller Interessen für eine Ethik nicht einfach leugnen.

Übrigens sind utilitaristische Ansätze in einigen Bereichen unserer Moral durchaus üblich und akzeptiert, etwa wenn es darum geht, durch Steuern oder Versicherungen gemeinsame Aufgaben zu stemmen oder Risiken zu verschmieren. Auch die Demokratie ist ein tendenziell utilitaristisches Modell. Schwerer tut sich der Utilitarismus nach meiner Einschätzung bei Themen, die stärker instinktgesteuert sind - etwa Fleischessen, dicke Autos, Vergeltung im Strafrecht, Waffenbesitz in USA, Abtreibung, Migration ... bei solchen Themen hat noch die irrationale Moral Oberwasser.

Ich denke, man kann deinen Einwand auf einen einzigen Punkt eindampfen: Moral sollte "rational" sein, worunter du offenbar verstehst, Ergebnis einer "rationalen" Diskussion. Nur, was ist "rational"? So etwas wie "logisch"? Also eine Art Gedankenspiel?

Du beklagst dich darüber, daß Moral "irrational" sei, weil wir ihren Entwicklungsprozeß nicht wirklich verstehen, und unterstellst dabei, daß es möglich sei, "Moral rational zu konstruieren". Woher nimmst du diese Illusion? Utilitarismus, wenn ich das richtig verstanden habe, ist ein ethisches Prinzip, daß sich an dem Ziel des größtmöglichen Nutzen orientiert (was immer man jeweils unter "Nutzen" versteht).

Aber es gibt niemanden, in Worten: niemanden, der heute die Folgen auch nur ungefähr abschätzen kann, die eine beliebige Ethik dieser Art, vorausgesetzt, man könnte sie überhaupt allgemein verbindlich machen, am Ende hätte - außer der Tatsache, daß es eine ziemliche Tyrannei bräuchte, sie zu etablieren. Utilarismus ist eine Selbsttäuschung, eine Illusion, ein Irrtum. Und der Versuch, die in sozialen Prozessen sich entwickelnden Verhaltensstandards durch eine wie auch immer geartete, konstruierte Ethik zu ersetzen, kann nur in einem Desaster enden.

Noch etwas zu Verhaltensstandards als Ergebnis von "chaotischen, sozialen Prozessen". Wenn ich dich daran erinnern darf, dieses Universum mit allen Galaxien, Planeten, dem Leben im allgemeinen, wie kleinen süßen Hoppelhäschen im besonderen, sich allesamt Ergebis von "chaotischen" Prozessen, Prozesse, die übrigens genau betrachtet gar nicht so chaotisch sind, sonst könnten wir sie nicht wissenschaftlich beschreiben.

Und auch unsere sozialen Prozesse sind keineswegs chaotisch, auch wenn wir sie nicht in allen Einzelheiten verstehen. Ich kann das gern an einzelnen Beispielen ausführen, aber im Moment mag diese Bemerkung genügen. Sie durch eine wie auch immer geartete Gesinnungsethik zu ersetzen, macht jedenfalls alles noch viel schlimmer.

#110:  Autor: Marcellinus BeitragVerfasst am: 22.05.2018, 12:07
    —
step hat folgendes geschrieben:

Wenn es auf gar kein ethisches Prinzip "ankommt", sondern die Moral nur ein faktisches Ergebnis eines chaotischen sozialen Prozesses ist, erscheint mir das extrem nichtssagend.

Ist das vielleicht dein eigentliches Problem? Daß du das alles "unbefriedigend" findest? Nun, diese Welt ist leider nicht dazu da, uns Menschen zu "befriedigen". Wir müssen sie nehmen, wie sie ist, und versuchen, das Beste daraus zu machen.

Deine Beispiele ...
step hat folgendes geschrieben:

...etwa Fleischessen, dicke Autos, Vergeltung im Strafrecht, Waffenbesitz in USA, Abtreibung, Migration ... bei solchen Themen hat noch die irrationale Moral Oberwasser...

... haben übrigens kaum etwas mit Moral zu tun, sondern schlicht mit Interessen und Machtverhältnissen. Eine behauptete Ethik einzusetzen, um Macht über andere zu gewinnen, ist nicht wirklich das, was ich mir unter einer Verbesserung unserer Verhältnisse vorstelle, sondern eher der Versuch, durch eine Metadiskussion die eigene "Überlegenheit" gegenüber anderen zu behaupten.

#111:  Autor: Marcellinus BeitragVerfasst am: 22.05.2018, 12:29
    —
fwo hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
abbahallo hat folgendes geschrieben:
Ist es irrational, das Bevölkerungswachstum bremsen zu wollen, Zwangssterilisation aber abzulehnen?

Kommt auf den Begriff an, den du von „Rationalität“ hast. Letztlich ist das ein Fantasiebegriff, der seit dem 19. Jh. besonders in Mode ist.

Fakt ist, daß wir das Bevölkerungswachstum bremsen müssen, wenn wir diese Welt für uns Menschen lebenswert erhalten wollen. Aber auch das sagt sich so. Ich höre diese Behauptung schon seit Jahrzehnten. Die Welt, die es damals gab, gibt es nicht mehr, während die Bevölkerungszahl seitdem ununterbrochen gestiegen ist, mit und ohne Zwangssterilisation. Das „Irrationale“ an all dem ist also vor allem, man könne das “machen“.

Kann man so auch nicht sagen: Die Bevölkerung nimmt zwar noch zu, aber das Bevölkerungswachstum sinkt seitdem stetig. Ein Ende ist abzusehen.

Wenn ich das richtig lese: Bevölkerungsentwicklung, dann ist dieses Ende bis 2050 jedenfalls nicht erreicht, und das sind noch über 30 Jahre, und man erwartet bis dahin über 9,5 Mrd. Menschen, das sind mehr als ein Drittel mehr als heute. Da bin ich doch recht froh, daß ich das nicht mehr erlebe.

#112:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 22.05.2018, 12:35
    —
Kramer hat folgendes geschrieben:
fwo hat folgendes geschrieben:
Kramer hat folgendes geschrieben:
fwo hat folgendes geschrieben:

Damit sagst Du aber jetzt nichts, was ich nicht bereits geschrieben hatte:


Wäre das denn überhaupt möglich?

Natürlich. Und es wäre einfacher, wenn Du vorher vollständig läsest, was Du beantwortest, anstatt dir irgendein Teil herauszupicken, mit dem Du es dem Kerl jetzt zeigen willst.


Das ist ja das Problem: Nur, weil man Dir etwas nicht zeigen kann, heisst nicht, dass da nichts ist.

Das "Mein Therapeut fand meine traumatischen Erlebnisse viel schlimmer als ich selber" ist nicht allzu weit entfernt von "Gegen eine Ohrfeige ab und zu kann man doch nichts sagen. Mir hat es jedenfalls nicht geschadet."

Die Annahme, dass die traumatische Erfahrung gar nicht so schlimm war, wie sie in der Erzählung klingt und dass der Therapeut sich schlichtweg irrt, ist die eine Perspektive. Die andere Perspektive ist, dass der Therapeut das Geschehen vielleicht viel realistischer beurteilt, weil der Betroffene nicht seine durch vorangegangene Traumata verzerrte Realität und Empfindung berücksichtigt. Oder anders formuliert: Dass man den Schmerz nicht mehr wahrnimmt, ist schon ein Teil des Schadens. Das ist mit ein Grund, warum Missbrauch oft Jahre andauern kann und die Opfer sich dem nicht entziehen. Besonders Kinder glauben, dass es normal ist, sowas zu erleben. Und sie glauben auch, dass es normal ist, wie ihre Empfindungsfähigkeit sich verändert.

Ich kann verstehen, was Du meinst. Deine Bewertung meiner postulierten Geschichte*** ändert aber nichts daran, dass ich, in den der Therapeut gerade versuchte, sich einzufühlen, eine Person mit einer eigenen Geschichte war, die aufgrund ihrer Andersartigkeit auch zu anderen Gefühlen führte. Warum Du Dir welche Gefühle für welche Situation als gesünder vorstellst, spielt dabei keine Rolle.

Mal ein rein fiktives Rollenspiel per WhatsApp:
fwo: Und dann stand ich vor einer Treppe.
Kramer: Na und?
fwo: Na ja, ich hatte mal einen Unfall, und seitdem hab ich zwei Unterschenkel weniger.
Kramer: Scheiße - es ging also nicht mehr weiter.
fwo: Nö, wurde nur etwas anstrengend. Ich bin mit meinen Krücken zwar auf der Ebene so schnell wie Du, wenn Du nicht gerade läufst, aber Treppen sind dann doch etwas schwieriger. Scheiße wäre es nur gewesen, wenn ich mit dem Rollstuhl unterwegs gewesen wäre. ....

Es ist nicht wirklich Dein Gefühl, was Dir hier hilft, den anderen zu verstehen. Mit Deinem Gefühl bist Du bei "Na und?" am Ende. Was Dir die realistischere Einschätzung dann erlaubt, ist ein intellektueller Akt, dessen Ergebnis von der Information abhängt, die Dir anschließend Stück für Stück gereicht wird.

*** zur postulierten Einschätzung der durch Traumata verzerrten Realität.
Die Realität war die Situation. Die wurde nicht verzerrt, sonst hätte sie von mir auch nicht so wiedergeben werden können, dass sie die vom Therapeuten erlebten Gefühle erzeugte - sie wirkte bei mir nur anders, erzeugte also andere Gefühle.
Du hast Deine Bewertung dieser Wirkung gegeben, von der Du auf eine bestimmte Geschichte schließt. Man könnte das noch weitertreiben und davon ausgehen, dass Menschen mit besonderer geistiger Leistungsfähigkeit, als solchen hast Du mich auch schon beschrieben, indem Du mir besondere Intelligenz unterstellt hast, auch besonders feinfühlig sind, d.h. regelmäßig schon als Kleinkinder Mechanismen entwickeln (müssen), um in dieser Feinfühligkeit nicht verletzt zu werden.

Das wäre eine Lesart, in der zweiten Variante übrigens eine, die nicht automatisch auf eine besondere Misshandlung schließen lässt. Die andere, viel häufiger gegebene, ist die, dass "Intelligenzbestien" zu Gefühlsarmut neigen.

Die Frage, welche Lesart die richtige ist, spielt aber keine Rolle für die Differenz zwischen Einfühlung und den Gefühlen der anderen Person.

#113:  Autor: Zumsel BeitragVerfasst am: 22.05.2018, 12:38
    —
step hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
step hat folgendes geschrieben:
Aber welche Werte konkret siehst Du, die rational begründbar sind, aber nicht durch Leidminimierung o.ä.?
Nun, sehr wesentlich für das, was zur ethischen Bewertung von Handlungen gehört, sind doch wohl (und zwar kulturübergreifend) solche Dinge wie "Gerechtigkeit" oder die Institution des Versprechens. Und gerade mit solchen Dingen haben Utilitaristen dann doch große Schwierigkeiten. Die Versuche, diese Phänomene utilitaristisch auszudeuten, waren wenig überzeugend, ...

Das halte ich für ein Gerücht. Nehmen wir "Gerechtigkeit": Bestimmte Aspekte von Gerechtigkeit sind utilitaristisch gut zu begründen - z.B. so:...


Schon, aber das betrifft ja meistens Dinge, deren Nutzen ohnehin offenkundig ist. Und da ist dann halt die Frage ist, wodurch sich die Überhöhung dieser Normen zu einer Moral begründet. Ethik ist etwas anderes als Vertragsrecht, was nicht heißt, dass das Vertragsrecht nicht auch ethische Komponenten haben kann.

step hat folgendes geschrieben:
Manche Präferenzutilitaristen machen es sogar noch einfacher, nach dem Motto: Gerechtigkeit = Gleichgewichtung von Interessen = Präferenzutilitarismus

Es gibt aber natürlich auch Aspekte von "Gerechtigkeit", die utilitaristisch schwieriger zu begründen sind oder mE gar aufgegeben werden müßten, etwa die alttestamentarische Deutung von Gerechtigkeit, zu der auch Rache, vergeltende Gefängnisstrafen u.ä. gehören.


Da reicht schon der Grundsatz: "Lasst Gerechtigkeit walten, auch wenn darüber die Welt einstürzt." Dem muss man natürlich nicht zustimmen, aber er zeigt den wesentlichen Schwachpunkt der utilitaristischen Herleitung: Ob etwa eine bestimmte Handlung gegenüber einer bestimmten Person "gerecht" ist, hat nichts damit zu tun, ob es ihr oder der Gesellschaft damit unterm Strich besser gehen wird o.ä. Das sind einfach zwei völlig verschiedene Fragen.


step hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
... berühren sie den Kern des menschlichen Selbstverständnisses, das sich offenbar nicht in der Fähigkeit zur Optimierung bestimmter Ziele ... erschöpft.

Könntest Du hier etwas weniger blumig formulieren? Meinst Du so etwas wie Poesie, Religion ...? Oder niedere Bedürfnisse wie Rache u.ä.?


Nun ja, ich meine es so, dass z.B. Gerechtigkeit tatsächlich so etwas wie ein menschliches Grundbedürfnis ist, ein Selbstzweck, dessen Wert nicht von irgendwelchen positiven Folgen abhängt. Und dass man bei ethischen Überlegungen von solchen Grundbedürfnissen auch gar nicht abstrahieren kann, ohne damit zugleich abzuhören, von Ethik zu reden.

step hat folgendes geschrieben:
Welches primäre Ziel von Ethik würdest Du denn vorschlagen, anstelle der Glück/Leid Geschichte?


Mein Punkt ist doch gerade, dass schon die Suche nach Zielen der falsche Ansatz ist. Wenn z.B. Gerechtigkeit als ein Grundbedürfnis selbst zugleich das Endziel ist, braucht diese sich nicht mehr durch etwaige positiven Folgen zu rechtfertigen. Sie ist gewissermaßen konstitutiv für unsere Existenz als ethische Wesen. Das schließt natürlich nicht aus, dass ein tieferes Verständnis des Menschen auch eine Erklärung für diesen konstitutiven Charakter beinhalten könnte, aber mit einer simplen Mittel-Zweck-Relation hat man es dabei eben nicht zu tun.

#114:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 22.05.2018, 12:49
    —
Marcellinus hat folgendes geschrieben:
fwo hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
abbahallo hat folgendes geschrieben:
Ist es irrational, das Bevölkerungswachstum bremsen zu wollen, Zwangssterilisation aber abzulehnen?

Kommt auf den Begriff an, den du von „Rationalität“ hast. Letztlich ist das ein Fantasiebegriff, der seit dem 19. Jh. besonders in Mode ist.

Fakt ist, daß wir das Bevölkerungswachstum bremsen müssen, wenn wir diese Welt für uns Menschen lebenswert erhalten wollen. Aber auch das sagt sich so. Ich höre diese Behauptung schon seit Jahrzehnten. Die Welt, die es damals gab, gibt es nicht mehr, während die Bevölkerungszahl seitdem ununterbrochen gestiegen ist, mit und ohne Zwangssterilisation. Das „Irrationale“ an all dem ist also vor allem, man könne das “machen“.

Kann man so auch nicht sagen: Die Bevölkerung nimmt zwar noch zu, aber das Bevölkerungswachstum sinkt seitdem stetig. Ein Ende ist abzusehen.

Wenn ich das richtig lese: Bevölkerungsentwicklung, dann ist dieses Ende bis 2050 jedenfalls nicht erreicht, und das sind noch über 30 Jahre, und man erwartet bis dahin über 9,5 Mrd. Menschen, das sind mehr als ein Drittel mehr als heute. Da bin ich doch recht froh, daß ich das nicht mehr erlebe.

Mal abgesehen davon, dass Du Dich wahrscheinlich vertust: 2050 werden wir mit etwas Pech, aber wahrscheinlich, beide noch erleben, in unseren Jahrgängen ist ein Lebensalter von 90+ relativ normal.
Dia andere Sicht ist aber, dass wir für das Jahr 2050 noch 1960 ganz andere Zahlen vorhergesehen haben. Da wurde also tatsächlich etwas erreicht, wird aber ganz oft von uns nicht wahrgenommen, weil für uns - auch in der veröffentlichten Meinung - die Prognosen von früher anscheinend eine größere Rolle spielen als die Realität von heute. Wenn Du Nachrichten zu diesem Thema haben möchtest, geh mal mit dem Namen Hans Rosling in YouTube - sein Sohn setzt übrigens inzwischen seine Arbeit fort.

#115:  Autor: Kramer BeitragVerfasst am: 22.05.2018, 12:50
    —
fwo hat folgendes geschrieben:
Deine Bewertung meiner postulierten Geschichte*** ändert aber nichts daran, dass ich, in den der Therapeut gerade versuchte, sich einzufühlen, eine Person mit einer eigenen Geschichte war, die aufgrund ihrer Andersartigkeit auch zu anderen Gefühlen führte.


Ist Dir schon mal der Gedanke gekommen, dass der Therapeut das bewusst gemacht haben könnte, um Dir eine andere Perspektive auf Deine Erlebnisse zu zeigen?

#116:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 22.05.2018, 13:01
    —
Marcellinus hat folgendes geschrieben:
step hat folgendes geschrieben:
....

Ich denke, man kann deinen Einwand auf einen einzigen Punkt eindampfen: Moral sollte "rational" sein, worunter du offenbar verstehst, Ergebnis einer "rationalen" Diskussion. Nur, was ist "rational"? So etwas wie "logisch"? Also eine Art Gedankenspiel?

Du beklagst dich darüber, daß Moral "irrational" sei, weil wir ihren Entwicklungsprozeß nicht wirklich verstehen, und unterstellst dabei, daß es möglich sei, "Moral rational zu konstruieren". Woher nimmst du diese Illusion? Utilitarismus, wenn ich das richtig verstanden habe, ist ein ethisches Prinzip, daß sich an dem Ziel des größtmöglichen Nutzen orientiert (was immer man jeweils unter "Nutzen" versteht). ....

In diesem kleinen eingeklammerten Nachsatz liegt ein ziemlich dicker Hund begraben: Wer minimieren oder maximieren möchte, muss vorher quantifizieren, in diesem Fall den Nutzen so bewerten, dass er berechenbar wird. Wer legt fest, welcher Nutzen wie berechnet wird?
Ich hatte dies selbe Frage schon einmal gestellt:
fwo hat folgendes geschrieben:
step hat folgendes geschrieben:
...
Aktuelle menschliche Moral ist sicher komplexer, u.a. eben weil viele irrationale Anteile drinstecken. Aber welche Werte konkret siehst Du, die rational begründbar sind, aber nicht durch Leidminimierung o.ä.?

Was ich mich frage, wenn ich das lese, ist, wie die verschiedenen Formen des Leids gegeneinander aufgerechnet werden, wenn man die Summe zu minimieren versucht. Wer liefert diesen Maßstab?

Kann es sein, dass der Utilitarismus in Wirklichkeit insofern eine Mogelpackung ist, als er an seiner Basis bei der Bewertung von Nutzen und Leid die gesamte historisch entstandene Moral benutzt, die er angeblich ersetzen will?

#117:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 22.05.2018, 13:11
    —
Kramer hat folgendes geschrieben:
fwo hat folgendes geschrieben:
Deine Bewertung meiner postulierten Geschichte*** ändert aber nichts daran, dass ich, in den der Therapeut gerade versuchte, sich einzufühlen, eine Person mit einer eigenen Geschichte war, die aufgrund ihrer Andersartigkeit auch zu anderen Gefühlen führte.


Ist Dir schon mal der Gedanke gekommen, dass der Therapeut das bewusst gemacht haben könnte, um Dir eine andere Perspektive auf Deine Erlebnisse zu zeigen?

Ja.
Aber ich habe ihn in einer stationären Behandlung drei Monate lang täglich erlebt. Ich werde jetzt keine Situationen zum Besten geben, die nicht ausschließlich meine eigene Therapie betreffen, aber ich schließe wegen einiger Erlebnisse aus, dass es sich hier um ein therapeutisches Schauspiel handelte.

Außerdem würde sich sofort die Frage stellen, woher dieses Gefühl denn kam, das er da bewusst gespielt hat. Wir drehen uns da im Kreis.

#118:  Autor: Kramer BeitragVerfasst am: 22.05.2018, 13:31
    —
fwo hat folgendes geschrieben:
Kramer hat folgendes geschrieben:
fwo hat folgendes geschrieben:
Deine Bewertung meiner postulierten Geschichte*** ändert aber nichts daran, dass ich, in den der Therapeut gerade versuchte, sich einzufühlen, eine Person mit einer eigenen Geschichte war, die aufgrund ihrer Andersartigkeit auch zu anderen Gefühlen führte.


Ist Dir schon mal der Gedanke gekommen, dass der Therapeut das bewusst gemacht haben könnte, um Dir eine andere Perspektive auf Deine Erlebnisse zu zeigen?

Ja.
Aber ich habe ihn in einer stationären Behandlung drei Monate lang täglich erlebt. Ich werde jetzt keine Situationen zum Besten geben, die nicht ausschließlich meine eigene Therapie betreffen, aber ich schließe wegen einiger Erlebnisse aus, dass es sich hier um ein therapeutisches Schauspiel handelte.

Außerdem würde sich sofort die Frage stellen, woher dieses Gefühl denn kam, das er da bewusst gespielt hat. Wir drehen uns da im Kreis.


Du kannst ja mal das Kunststück probieren, die Situation distanziert (also nicht auf Dich bezogen) und dennoch empathisch nachzuvollziehen.

Du bist in der Rolle des Therapeuten und es ist jetzt Deine Aufgabe, einem Patienten, der über traumatische Erlebnisse spricht, diese aber bagatellisiert, dabei zu helfen, eine möglichst heilsame Einstellung zu seinen Traumata zu entwickeln. Du weisst, dass es nichts bringt, dem Patienten einfach zu sagen "Was ihnen passiert ist, das war schlimm - und wenn sie das nicht ebenso sehen, dann sehen sie das falsch." Du musst also einen anderen Weg finden.

#119:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 22.05.2018, 14:02
    —
Kramer hat folgendes geschrieben:
fwo hat folgendes geschrieben:
Kramer hat folgendes geschrieben:
fwo hat folgendes geschrieben:
Deine Bewertung meiner postulierten Geschichte*** ändert aber nichts daran, dass ich, in den der Therapeut gerade versuchte, sich einzufühlen, eine Person mit einer eigenen Geschichte war, die aufgrund ihrer Andersartigkeit auch zu anderen Gefühlen führte.


Ist Dir schon mal der Gedanke gekommen, dass der Therapeut das bewusst gemacht haben könnte, um Dir eine andere Perspektive auf Deine Erlebnisse zu zeigen?

Ja.
Aber ich habe ihn in einer stationären Behandlung drei Monate lang täglich erlebt. Ich werde jetzt keine Situationen zum Besten geben, die nicht ausschließlich meine eigene Therapie betreffen, aber ich schließe wegen einiger Erlebnisse aus, dass es sich hier um ein therapeutisches Schauspiel handelte.

Außerdem würde sich sofort die Frage stellen, woher dieses Gefühl denn kam, das er da bewusst gespielt hat. Wir drehen uns da im Kreis.


Du kannst ja mal das Kunststück probieren, die Situation distanziert (also nicht auf Dich bezogen) und dennoch empathisch nachzuvollziehen.

Du bist in der Rolle des Therapeuten und es ist jetzt Deine Aufgabe, einem Patienten, der über traumatische Erlebnisse spricht, diese aber bagatellisiert, dabei zu helfen, eine möglichst heilsame Einstellung zu seinen Traumata zu entwickeln. Du weisst, dass es nichts bringt, dem Patienten einfach zu sagen "Was ihnen passiert ist, das war schlimm - und wenn sie das nicht ebenso sehen, dann sehen sie das falsch." Du musst also einen anderen Weg finden.

zwinkern Versuch doch mal das "Ja" in meiner ersten Antwort empathisch zu interpretieren.

#120:  Autor: Kramer BeitragVerfasst am: 22.05.2018, 14:18
    —
fwo hat folgendes geschrieben:

zwinkern Versuch doch mal das "Ja" in meiner ersten Antwort empathisch zu interpretieren.


Könnte ich, ja... aber warum sollte ich versuchen, an der "Intelligenzbestie" vorbei zu kommen, wenn es andere in aussichtsreicheren Positionen auch schon nicht geschafft haben?

Zurück zum Thema: Würde es was bringen, eine KI traumatischen Situationen auszusetzen, damit sie nachvollziehen kann, was Menschen so erleiden? Oder wäre das Ergebnis nur eine ratlose KI, die immer noch nicht weiss, worüber Menschen klagen, denn sie fand es gar nicht so schlimm?

#121:  Autor: stepWohnort: Germering BeitragVerfasst am: 22.05.2018, 15:24
    —
Marcellinus hat folgendes geschrieben:
Wir müssen [die Welt] nehmen, wie sie ist, ...

Nein, wir können sie verändern.

Marcellinus hat folgendes geschrieben:
.., und versuchen, das Beste daraus zu machen.

Verkappter Utilitarist?

Marcellinus hat folgendes geschrieben:
Deine Beispiele ... haben übrigens kaum etwas mit Moral zu tun, ...

Doch, sie werden mittels tradierter Moralsysteme legitimiert. Und hast Du nicht oben behauptet, moralische Phänomene seien Produkte eines unverstandenen komplexen chinesischen Sozialprozesses?

Marcellinus hat folgendes geschrieben:
... sondern schlicht mit Interessen und Machtverhältnissen.

Interessen sind was Gutes, und jeder hat welche. Ich weiß, daß Du gerne über Machtverhältnisse redest und jedes Thema da hinzuziehen versuchst, aber das interessiert mich beim Thema "KI und Ethik" nicht.

Marcellinus hat folgendes geschrieben:
Eine behauptete Ethik einzusetzen, um Macht über andere zu gewinnen, ist nicht wirklich das, was ich mir unter einer Verbesserung unserer Verhältnisse vorstelle ...

Was für einen Schwachsinn unterstellst Du da?

Marcellinus hat folgendes geschrieben:
... sondern eher der Versuch, durch eine Metadiskussion die eigene "Überlegenheit" gegenüber anderen zu behaupten.

Oh Mann, peinliches Niveau.

#122:  Autor: stepWohnort: Germering BeitragVerfasst am: 22.05.2018, 15:42
    —
fwo hat folgendes geschrieben:
Wer minimieren oder maximieren möchte, muss vorher quantifizieren, in diesem Fall den Nutzen so bewerten, dass er berechenbar wird.

Ja, oder zumindest abschätzbar. Man könnte argumentieren: In Fällen, wo man nicht klar sagen kann, ob Entscheidung A oder B mehr Leid schafft, ist der Schaden vielleicht auch nicht so groß, wenn man sich "falsch" entscheidet. Gibt ja diese typischen Dilemmasituationen, die extra so konstruiert sind, daß man die Wahl zwischen zwei intuitiv ähnlich schlechten Varianten hat.

fwo hat folgendes geschrieben:
fwo hat folgendes geschrieben:
step hat folgendes geschrieben:
... Aktuelle menschliche Moral ist sicher komplexer, u.a. eben weil viele irrationale Anteile drinstecken. Aber welche Werte konkret siehst Du, die rational begründbar sind, aber nicht durch Leidminimierung o.ä.?
Was ich mich frage, wenn ich das lese, ist, wie die verschiedenen Formen des Leids gegeneinander aufgerechnet werden, wenn man die Summe zu minimieren versucht. Wer liefert diesen Maßstab?
Kann es sein, dass der Utilitarismus in Wirklichkeit insofern eine Mogelpackung ist, als er an seiner Basis bei der Bewertung von Nutzen und Leid die gesamte historisch entstandene Moral benutzt, die er angeblich ersetzen will?

Das ist übrigens tatsächlich einer der bekanntesten Kritikpunkte am Utilitarismus. Moderne Vertreter des U entgegnen darauf beispielsweise:

1. Es behauptet niemand, daß die utilitaristischen Ergebnisse das Optimum darstellen - die Nutzenfunktion könnte, ähnlich wie in der Wissenschaft, kontinuierlich verbessert werden.
2. Wenn der U in vielen Fragen zu ähnlichen Ergebnissen kommt wie die eine oder andere traditionelle Moral, ist dagegen nichts einzuwenden
3. Wenn der U wenigstens in einigen relevanten Fragestellungen zu besseren (im Sinne der Interessenssumme) Ergebnissen kommt, wäre das schon eine Verbesserung. Solche Beispiele kann man jedoch bereits anführen.
4. Sollte tatsächlich jemand traditionelle deontologische Moral, z.B. ein Gottesgebot oder eine Feudaltradition, dazu benutzen, eine Nutzenfunktion zu begründen, so würde das auffallen, da es die Methodik verletzt.

#123:  Autor: Kramer BeitragVerfasst am: 22.05.2018, 15:43
    —
fwo hat folgendes geschrieben:
zelig hat folgendes geschrieben:
worse hat folgendes geschrieben:
Und sollte sie das alles irgendwie entwickeln können, dann gibt es keinen Grund zu der Annahme, dass sie nicht auch irgendwie eine (vergleichbar menschliche) Ethik und Mitgefühl und solche Dinge entwickeln könnte.


Die Annahme ist eine notwendige Voraussetzung dieser Diskussion. Sollte eine KI nachweislich Empfindungen wie Schmerz entwickeln, wären die für sie keine Abstrakta mehr. Sie würde es an sich selber erleben können, wie sich Schmerz anfühlt. Es wäre ein Wesen, das die Natur anderer Wesen nachvollziehen kann. Dann erst kann man von Mitgefühl reden, die an der Seite der Ratio steht, wenn wir ethisch handeln wollen. Über dieses Szenario diskutieren wir eher nicht.

Wenn Du dieses Mitgefühl so allgemein formulierst, landest Du ganz schnell auch beim empathischen Einfühlen in den Pflasterstein und damit bei einem Popanz.

Ich habe durch Zufall gerade Zugriff auf eine private Diskussion zwischen mir und einem Psychiater, in dem folgendes Statement von mir keinen Widerspruch auslöste:
fwo hat folgendes geschrieben:
Die hochgelobte Fähigkeit zur Empathie kann eigentlich nur meine eigenen Gefühle in der Situation des anderen produzieren. Ich vermute also, dass meine Wahrnehmung Deiner Situation mehr über mich sagt als über Dich - über Dich höchstens insofern, als Du da vielleicht ähnlich tickst - wovon wir implizit bei diesen gefühlsmäßigen Verständnis-Versuchen immer ausgehen.

Ich vermute, dass ein rein intellektueller Akt mit hinreichender Kenntnis von Person und Situation zu realistischeren Ergebnissen kommt als dieses Einfühlen, wobei ich weiß, dass das in der Gefühlsbranche verpönt ist. Ich bin zu diesem Bild gekommen, als ich als Patient in der Therapie Szenen aus meiner Kindheit erzählte, und der Therapeut mich unterbrach, weil ihn das gefühlsmäßig zu sehr mitnahm. Ich weiß aber von mir, dass ich da bereits in einem Alter war, in dem ich sowohl mich als auch meine Eltern in diesen Situationen relativ distanziert beobachtete. Ich hatte also ein Mittel gegen diese Situationen gefunden, mit dem ich diese Gefühle nicht hatte - ich habe sie nicht nachträglich verdrängt. ....
nachträglich von mir gefettet.

Ich weiß natürlich, dass der fehlende Widerspruch kein Beweis für irgendetwas ist, wollte nur darauf aufmerksam machen, dass die Empathie auch unter Menschen, die beruflich mit und an diesem Thema arbeiten, nicht unbedingt so hoch gehängt wird wie von Dir.

In meinem Beispiel führte die besagte Empathie eines "Berufsempathen" zur Wahrnehmung eines starken Leidens, das real nicht stattgefunden hatte. (Um kein falsches Verständnis meiner Meinung zu diesem Therapeuten aufkommen zu lassen: Ich habe Hochachtung vor diesem Menschen.)

"Empathie" als intellektueller Vorgang mit dem Wissen über die beteiligten Subjekte und die Situation lässt ich aber nachbilden.


Um das abzuschliessen: Dein Beispiel ist ungeeignet, um hier die Leistungsfähigkeit der Empathie zu diskutieren. Dafür haben wir einfach nicht genug Informationen über die beteiligten Personen, ihre jeweiligen Motive und das, was da besprochen wurde. Es würde auch nichts bringen, wenn Du da weitere Infos nachlieferst, denn die wären ja durch Deine Wahrnehmung und Position gefiltert und auch für andere nicht überprüfbar.

Es ist auch gar nicht nötig, irgendwelche konkreten Beispiele zu nennen, um die Grenzen der Empathie zu belegen. Empathie ist keine übernatürliche Fähigkeit, die zu höheren Erkenntnissen führt, sondern Bestandteil der fehlerbehafteten menschlichen Wahrnehmung und somit auch fehlerbehaftet.

Wenn eine Maschine Probleme mit der optischen oder akustischen Wahrnehmung hätte, würde jedoch auch keiner sagen: "Naja, das Sehen/Hören wird ohnehin überschätzt." Wenn ein Mensch schlecht hören kann, dann ist das eine Einschränkung, die in keiner Weise dadurch relativiert wird, dass auch Menschen mit gesundem Gehör sich manchmal verhören. Aus diesem Grund sind Menschen mit entsprechenden Beeinträchtigungen für Berufe ungeeignet, bei denen die optische oder akustische Wahrnehmung besonders gefordert ist. Und eine Maschine mit minderwertigen akustischen oder optischen Sensoren eignet sich z.B. nicht als Messgerät für präzise Messungen im jeweiligen Bereich.

Einer KI ohne Empathie fehlt die Wahrnehmung einer wichtigen Dimension der menschlichen Realität. Daran ändert auch der Umstand nichts, dass unsere empathische Wahrnehmung manchmal daneben liegt. Daher liegt m.E. die Frage auf der Hand, ob man eine KI überhaupt dafür benutzen könnte/sollte, ethische oder moralische Probleme zu lösen.

#124:  Autor: zelig BeitragVerfasst am: 22.05.2018, 16:02
    —
fwo hat folgendes geschrieben:
Aber das ist genau das Problem: Das Bild der schreienden Gans löst Gefühle in uns aus, die etwas mit uns in dieser Situation zu tun haben und nichts mit der Gans. Die können uns den Appetit auf diese Gans verderben, auch wenn die Qual dieser Gans für sie selbst evtl. unwesentlich ist. Genauso kann es nämlich auch andersherum gehen, dass unser Gefühl nichts signalisiert, während es dem auf der anderen Seite gerade beschissen geht.


Ich bring das Beispiel mit der Mastgans ja nur als Analogie, die verdeutlichen soll, wie wenig das Leiden kümmert, wenn es andere Spezies betrifft. Bei einer KI, die sich nicht nur aufgrund einer abweichenden Anatomie unterscheidet, sondern kategorial, gäbe es noch nicht einmal eine Chance auf die Irrationalität des Mitleids. Mitleid ist kein Garant für eine gute Welt, sprichwörtliche Mitleidlosigkeit macht sie allerdings garantiert schlechter. Und wie gesagt, da es keine Letztbegründung geben kann, müssen Prämissen und Normen gesetzt werden. Auf die Setzung kommt es an. Ich gebe step ja in dem Sinne vollkommen Recht, daß die KI eigentlich nur quantitativ werten kann. Die Größere Menge an Leid hat Vorrang vor der kleinen Menge Leid. Nur kann das alleine auch nicht ausreichend sein für eine verständige Beurteilung. Man muss zum Beispiel verstehen, daß sich Leid nicht aufsummieren lässt. Der Schmerz der verbrannten Hände auf der Herdplatte von Hans und Karl bildet kein Gesamtleid. Oder weiters, daß eine konsequente utilitaristische Ethik Schrecken nach sich ziehen würde, die die Spezies Mensch nicht akzeptieren kann. Das ist jedenfalls meine Auffassung.

#125:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 22.05.2018, 16:34
    —
Kramer hat folgendes geschrieben:
....
Einer KI ohne Empathie fehlt die Wahrnehmung einer wichtigen Dimension der menschlichen Realität. Daran ändert auch der Umstand nichts, dass unsere empathische Wahrnehmung manchmal daneben liegt. Daher liegt m.E. die Frage auf der Hand, ob man eine KI überhaupt dafür benutzen könnte/sollte, ethische oder moralische Probleme zu lösen.

Im Schluss stimmen wir überein, in der Voraussetzung nicht:
Kramer hat folgendes geschrieben:
....
Zurück zum Thema: Würde es was bringen, eine KI traumatischen Situationen auszusetzen, damit sie nachvollziehen kann, was Menschen so erleiden? Oder wäre das Ergebnis nur eine ratlose KI, die immer noch nicht weiss, worüber Menschen klagen, denn sie fand es gar nicht so schlimm?

Damit die KI sinnvoll Situationen ausgesetzt werden kann, die für uns traumatisch sind, wäre es nötig, das komplette Seelenleben des Menschen in ihr zu emulieren - ich gehe davon aus, dass wir uns einig sind, dass unsere Kenntnis dieses Seelenlebens bei weitem zu gering ist und auch noch lange zu gering bleiben wird, um auch nur den Versuch zu unternehmen, es zu emulieren.

Da liegt in meinen Augen auch ein falschen Konzept von KI vor, bzw. eine Utopie von KI, die ich nicht teile. KI wird nicht geschaffen, um den leistungsfähigeren Menschen zu machen, sondern um bestimmte Bereiche besser beherrschen zu können, in denen Ki besser sein kann. Ich glaube nicht, dass moralische Bewertungen dazugehören.

Auf der anderen Seite sollte KI, wenn sie selbständig mit Menschen agiert, in der Lage sein, menschliche Gefühle zu verstehen, nicht durch Mitfühlen, sondern durch Emulation, wie wir es auch machen, wenn wir erfahren, dass unser Gefühl nicht stimmt - wie bei Und dann stand ich vor einer Treppe.. Aber die Grundlagen dafür muss ich die KI nicht selbst lernen lassen.

Sorry, wenn ich auf etwas verweise, was ich 2 Seiten vorher auf step geantwortet habe:
fwo hat folgendes geschrieben:
....
Dass die "wirkliche KI" von selbst auf Ethik, Kooperation, insbesondere auch mit dem Menschen, usw. kommen sollte oder müsste, halte ich allerdings für eine zu hohe und im Versuch der Verwirklichung auch für zu unvorsichtige Erwartung. Mit dem Hintergrund, dass sehr viel von dem, was wir heute mit großem intellektuellen Aufwand rein rational zu begründen suchen, einen genetischen Ursprung hat, empfände ich es auch nicht als Einschränkung der KI, wenn sie gewisse Regeln für die Kooperation mit dem Menschen hart im Programm stehen hätte. Es wären die selben Einschränkungen, mit den wir auch leben, und die uns haben überleben lassen.

#126:  Autor: Kramer BeitragVerfasst am: 22.05.2018, 16:55
    —
fwo hat folgendes geschrieben:
Da liegt in meinen Augen auch ein falschen Konzept von KI vor, bzw. eine Utopie von KI, die ich nicht teile. KI wird nicht geschaffen, um den leistungsfähigeren Menschen zu machen, sondern um bestimmte Bereiche besser beherrschen zu können, in denen Ki besser sein kann. Ich glaube nicht, dass moralische Bewertungen dazugehören.


Wenn es für moralische Aufgaben einen Markt gibt bzw. kommerziell nutzbare Einsatzmöglichkeiten, dann werden KIs auch so eingesetzt werden. Und wenn KIs als leistungsfähigere Menschen möglich sind, wird man auch die bauen, denn die eignen sich doch hervorragend als billige Arbeitskräfte.

#127:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 22.05.2018, 17:17
    —
Kramer hat folgendes geschrieben:
fwo hat folgendes geschrieben:
Da liegt in meinen Augen auch ein falschen Konzept von KI vor, bzw. eine Utopie von KI, die ich nicht teile. KI wird nicht geschaffen, um den leistungsfähigeren Menschen zu machen, sondern um bestimmte Bereiche besser beherrschen zu können, in denen Ki besser sein kann. Ich glaube nicht, dass moralische Bewertungen dazugehören.


Wenn es für moralische Aufgaben einen Markt gibt bzw. kommerziell nutzbare Einsatzmöglichkeiten, dann werden KIs auch so eingesetzt werden. Und wenn KIs als leistungsfähigere Menschen möglich sind, wird man auch die bauen, denn die eignen sich doch hervorragend als billige Arbeitskräfte.

Die Gefahr, dass jemand das versuchen wird, halte ich auch für real. Wir sind so.

Deshalb schließe ich mich auch diesem Urteil steps nicht an:
step hat folgendes geschrieben:
....
Marcellinus hat folgendes geschrieben:
... sondern schlicht mit Interessen und Machtverhältnissen.

Interessen sind was Gutes, und jeder hat welche. Ich weiß, daß Du gerne über Machtverhältnisse redest und jedes Thema da hinzuziehen versuchst, aber das interessiert mich beim Thema "KI und Ethik" nicht.

Marcellinus hat folgendes geschrieben:
Eine behauptete Ethik einzusetzen, um Macht über andere zu gewinnen, ist nicht wirklich das, was ich mir unter einer Verbesserung unserer Verhältnisse vorstelle ...

Was für einen Schwachsinn unterstellst Du da?

Marcellinus hat folgendes geschrieben:
... sondern eher der Versuch, durch eine Metadiskussion die eigene "Überlegenheit" gegenüber anderen zu behaupten.

Oh Mann, peinliches Niveau.


Die Ebene der Macht ist nicht die alleinige, nicht einmal unbedingt die entscheidende, was step hier Marcellinus als Aussage unterstellt - ich weiß nicht ob Marcellinus das wirklich so meint.

Aber wie wichtig die Ebene der Macht bei Meinungsführern ist, können wir alle täglich erleben. Man sollte sie nicht ignorieren.

#128:  Autor: stepWohnort: Germering BeitragVerfasst am: 22.05.2018, 18:06
    —
zelig hat folgendes geschrieben:
Man muss zum Beispiel verstehen, daß sich Leid nicht aufsummieren lässt. Der Schmerz der verbrannten Hände auf der Herdplatte von Hans und Karl bildet kein Gesamtleid.

Auch das ist ein bekannter Einwand gegen den Utilitarismus - in seiner allgemeineren Form besteht er darin, daß der U die Getrenntheit der Personen nicht berücksichtige (es gibt kein überpersonales Glück/Leid) und dies eine Objektifizierung der Person bedeute.

Mögliche Entgegnungen dazu:
- auch Nicht-Utilitaristen stimmen meist zu, daß es gerecht ist, einige Lasten auf andere Personen zu verteilen (z.B. Steuern, Sozialsystem)
- die einzelnen Personen werden dadurch wichtig, daß sie letztendlich die anteiligen Nutznießer der gesamten Übung sind
- die Würde einer im U „benutzten“ Person entsteht aus dem größeren Nutzen/Glück für Personen, und natürlich aus ihrer gleichberechtigt aktiven Rolle im ethischen Diskurs

#129:  Autor: stepWohnort: Germering BeitragVerfasst am: 22.05.2018, 18:30
    —
fwo hat folgendes geschrieben:
Die Ebene der Macht ist nicht die alleinige, nicht einmal unbedingt die entscheidende, was step hier Marcellinus als Aussage unterstellt - ich weiß nicht ob Marcellinus das wirklich so meint.

Er schrieb:
Marcellinus hat folgendes geschrieben:
Deine Beispiele haben übrigens kaum etwas mit Moral zu tun, sondern schlicht mit Interessen und Machtverhältnissen.

Das scheint mir recht eindeutig formuliert und ist schlicht falsch. Beispiel: beim Strafrecht geht es idZ eben nicht darum, ob der böse Mächtige einen gutherzigen Proletarier hinter Gitter steckt. Sondern es geht darum, daß und warum die überwiegende Mehrheit der Gesellschaft vergeltende und generalpräventive Bestrafungen für moralisch geboten / legitim hält. Ähnlich beim Fleischessen usw.

Aber viel schlimmer natürlich ist die Wendung danach:

Marcellinus hat folgendes geschrieben:
Eine behauptete Ethik einzusetzen, um Macht über andere zu gewinnen, ...

Also erst (eine von mir abgelehnte) Moral als Machtintrige umdeuten und dann unterstellen, ich oder das utilitaristische Gegenmodell wollte Macht über andere gewinnen ...

fwo hat folgendes geschrieben:
Aber wie wichtig die Ebene der Macht bei Meinungsführern ist, können wir alle täglich erleben. Man sollte sie nicht ignorieren.

Wer sagt denn, daß ich die ignoriere? Es eignet sich nur überhaupt nicht als Argument gegen eine utilitaristische Ethik. Despoten, Kriegstreiber, Commandantes, Prediger, ja sogar kommerzielle Aufschwatzer argumentieren so gut wie nie utilitaristisch, sondern appellieren entweder an deontologische moralische Werte (z.B. Ehre, Gott, Auftrag ...) oder an das Kleinhirn des Adressaten (z.B. Gier, Geiz, Rache, Angst ...). Warum ist das wohl so?

#130:  Autor: Marcellinus BeitragVerfasst am: 22.05.2018, 18:44
    —
@step
Naturlich habe ich geschrieben, daß es bei der Debatte um Ethik eigentlich um Macht geht, nämlich um Macht über das Verhalten anderer Menschen, indem man deren Verhalten als „unethisch“ zu diskreditieren sucht.

#131:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 22.05.2018, 19:54
    —
Marcellinus hat folgendes geschrieben:
@step
Naturlich habe ich geschrieben, daß es bei der Debatte um Ethik eigentlich um Macht geht, nämlich um Macht über das Verhalten anderer Menschen, indem man deren Verhalten als „unethisch“ zu diskreditieren sucht.

Dann hatte ich Dich richtig verstanden. Das ist auch genau wie unsere Meinungsführer, Politiker wie Journalisten, heute regelmäßig argumentieren. Deshalb hatte ich auch auf dieses Beispiel Meinungsführerschaft verwiesen.

Eigentlich wäre an dieser Stelle mal ein Kommentar fällig, was es eigentlich nur bedeuten kann, wenn in einer Demokratie der Eine dem Anderen Populismus (natürlich als unmoralisch) vorwirft.

#132:  Autor: stepWohnort: Germering BeitragVerfasst am: 22.05.2018, 19:57
    —
Marcellinus hat folgendes geschrieben:
Naturlich habe ich geschrieben, daß es bei der Debatte um Ethik eigentlich um Macht geht, nämlich um Macht über das Verhalten anderer Menschen, indem man deren Verhalten als „unethisch“ zu diskreditieren sucht.

Wen meinst Du denn hier? Wer will die Anderen unterdrücken?
- mächtige deontologische Moralverkünder, z.B. Ayatollahs?
- Philosophinnen, die über Utilitarismus als Methode schreiben als Beispiel moralische Doppelstandards kritisieren?
- jeder Mensch, der eine Handlung moralisch bewertet?

Willst Du sagen, daß Leute sich überhaupt nicht auf z.B. ethische Werte und Regeln einigen sollten, weil bereits das einen Akt der Unterdrückung darstellt?

#133:  Autor: Marcellinus BeitragVerfasst am: 22.05.2018, 20:36
    —
step hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
Naturlich habe ich geschrieben, daß es bei der Debatte um Ethik eigentlich um Macht geht, nämlich um Macht über das Verhalten anderer Menschen, indem man deren Verhalten als „unethisch“ zu diskreditieren sucht.

Wen meinst Du denn hier? Wer will die Anderen unterdrücken?
- mächtige deontologische Moralverkünder, z.B. Ayatollahs?
- Philosophinnen, die über Utilitarismus als Methode schreiben als Beispiel moralische Doppelstandards kritisieren?
- jeder Mensch, der eine Handlung moralisch bewertet?

Willst Du sagen, daß Leute sich überhaupt nicht auf z.B. ethische Werte und Regeln einigen sollten, weil bereits das einen Akt der Unterdrückung darstellt?


Ich sage nicht, was man sollte, sondern was Menschen tun. Nimm doch deine eigenen Beispiele. In allen Fällen geht es eigentlich nicht um Moral, sondern um Politik. Wo hätten sich die Menschen zB in der Frage der Abtreibung auf eine gemeinsame „Moral“ geeinigt? Ich verfolge diese Debatte nun gefühlt ein Leben lang. Es wurde zwar immer mit Moral argumentiert, von der einen Seite, wie unmoralisch es sei, die freie Entscheidung von Frauen zu unterdrücken, von der anderen, wie unmoralisch es sei, ungeborenes Leben zu töten, aber am Ende ging es immer um die Macht, Paragrafen zu ändern, und ihre Durchsetzung zu garantieren. Und die Debatte ist ja bis heute nicht ausgestanden. Eine gemeinsame Moral oder Ethik ist nicht dabei herausgekommen, nur eine Art Burgfrieden, von dem man nicht weiß, wie lange er hält (siehe das Beispiel Polen).

Oder nimm die Frage nach der „moralisch vertretbaren“ Größe von Autos, wie moralisch Fleischgenuß sei, oder ob man Straftäter „bestrafen“ dürfe. Immer wird moralisch argumentiert, aber um Moral geht es gar nicht, sondern um Gesetze, um Zwang, um Verbote.

Es ist eben ein Unterschied, ob sich Menschen über eine gemeinsame Ethik, gemeinsame Werte verständigen (was meiner Ansicht nach eigentlich außerhalb von Sonntagsreden nie passiert), oder ob sie sich über gemeinsame Regeln des Verhaltens einigen (was zwar schon häufiger passiert, aber nicht die Regel ist, mit einer gemeinsamen Ethik nichts zu tun hat, aber die durchaus dauerhaftere Lösung wäre), oder ob Gesetze von den einen verabschiedet werden, die die anderen zu einem geänderten Verhalten zumindest nötigen.

Aber es gibt unterhalb dieser Schwelle Verhaltensänderungen, die durchaus beobachtbar sind. Man denke nur an das geänderte Verhalten zwischen Eltern und heranwachsenden Kindern. Noch in meiner Kindheit war es selbstverständlich (und in meiner Jugend noch weit verbreitet), daß Unverheiratete nicht zusammen lebten. Nicht daß viele nicht gewollt hätten, sie konnten nicht. Vermieter hätten ihnen keine Wohnung gegeben, und den Kuppeleiparagrafen gab es auch noch. Wollten junge Leute zusammenziehen, mußten sie heiraten, und auch dafür brauchten sie die Erlaubnis der Eltern. Eine Schwangerschaft konnte da gelegentlich hilfreich sein. Waren das „gemeinsame Werte“? Unter den Eltern sicherlich zum großen Teil (man konnte es allerdings auch Eigennutz nennen), unter den jungen Leuten nicht.

Heute haben sich die Machtgewichte (wenn dir das nackte Wort „Macht“ zu grob ist) zu Gunsten der Jugendlichen verschoben. Nicht nur daß es heute keine große Sache ist, auch unverheiratet zusammen zu leben, Eltern fragen ihre Halbwüchsigen sogar nicht selten, ob sie mit dem Heiraten nicht noch etwas warten wollen, und lieber erst noch etwas so zusammenleben. Andere Ethik? Quatsch! Einsicht in die Notwendigkeit wohl eher. Sie könnten ihre Kinder eh nicht daran hindern. Hinzu kommt, daß man weniger Kinder hat, die aber eine bessere Ausbildung bekommen sollen, wobei zu frühes Heiraten und Kinderkriegen eher hinderlich ist. Außerdem der Generationswechsel. Die Generation meiner Eltern lebt nicht mehr, und meine Kinder haben schon Kinder.

So verändern sich Verhaltensstandards, langsam, aber sicher, zusammen mit der Veränderung der Beziehungen der Menschen zueinander, und eben auch ihrer wechselseitigen Abhängigkeiten, ihren wachsenden oder auch abnehmenden Machtchancen. Und das, was Philosphen dann Moral oder Ethik nennen, folgt dem mehr oder weniger. Ein Prinzip steckt nicht dahinter, und „rationale“ Diskussionen schon gar nicht. Ich erinnere mich an einige unschöne Auseinandersetzungen zwischen meinen Eltern und mir, wie zwischen mir und meinen Kindern, und bei denen wird es demnächst mit ihren Kindern ähnlich sein. Darin kam zwar, dem Zeitgeist geschuldet, öfter mal das Wort „Moral“ vor, gemeint war allerdings eher „was sollen denn die Leute denken“, und zu tun hatte es schlicht mit der Frage, wer wen wozu zwingen konnte, und wozu nicht. Mit Moral hatte das nichts zu tun, mit unterschiedlichen Interessen schon eher, aber ist es deswegen „irrational“?

#134:  Autor: stepWohnort: Germering BeitragVerfasst am: 22.05.2018, 22:10
    —
@Marcellinus,

mal etwas polemisch zusammengefaßt: Du magst keine Regeln, nach denen Du weniger Fleisch essen dürftest (nur als Beispiel), wohl aber vermutlich welche, nach denen ich Steuern zahlen muß oder es verboten ist, Dich auszurauben.

Dazu richtest Du Dir eine These ein, nach der Moral und vereinbarte Regeln entweder Machttaktik oder nachgelagerte Rationalisierungen philosophischer Heulsusen sind, während das eigentliche Leben von unabhängigen Jägern (nur als Beispiel) wie Dir einfach gesetzt wird.

Ich finde auch Deine Deutung der Beispiele irreführend, z.B. beim beim Kampf gegen das Abtreibungsverbot. Darauf und Ähnliches will ich aber nicht eingehen, da ich mit einem kleinen Teil deiner These, der für die Diskussion hier relevant ist, überhaupt kein Problem habe - nämlich daß es bei Ethik primär um Interessen geht - genau das ist ja Präferenzutilitarismus.

Um zum Thema zurückzukommen - eine ernstzunehmende KI würde nach meiner Ansicht deutlich weniger kleinhirngesteuert argumentieren. Daher gäbe es auch ein besseres Interessenmatching und weniger unnötige Ge-/Verbote. Allerdings wurde ihr diese vermutliche Eigenschaft ja wiederum von anderer Seite vorgeworfen ("zu kühl", "keine Emotionen").

#135:  Autor: Kramer BeitragVerfasst am: 22.05.2018, 23:40
    —
fwo hat folgendes geschrieben:
Kramer hat folgendes geschrieben:
fwo hat folgendes geschrieben:
Da liegt in meinen Augen auch ein falschen Konzept von KI vor, bzw. eine Utopie von KI, die ich nicht teile. KI wird nicht geschaffen, um den leistungsfähigeren Menschen zu machen, sondern um bestimmte Bereiche besser beherrschen zu können, in denen Ki besser sein kann. Ich glaube nicht, dass moralische Bewertungen dazugehören.


Wenn es für moralische Aufgaben einen Markt gibt bzw. kommerziell nutzbare Einsatzmöglichkeiten, dann werden KIs auch so eingesetzt werden. Und wenn KIs als leistungsfähigere Menschen möglich sind, wird man auch die bauen, denn die eignen sich doch hervorragend als billige Arbeitskräfte.

Die Gefahr, dass jemand das versuchen wird, halte ich auch für real. Wir sind so.


Mal ein ganz konkretes Beispiel - keine SF. Ich habe neulich einen Bericht im Fernsehen gesehen, dass die Betreiber von Partnerbörsen im Internet Fake-Accounts einrichten, die dazu dienen, die zahlende Kundschaft bei der Stange zu halten. Bisher ist es wohl so, dass die dafür extra Leute einstellen, die für ein wenig Geld ahnungslosen Kunden die grosse Liebe vorgaukeln und mit leeren Versprechungen möglichst lange auf dem Portal halten sollen.

Wer diesen Job macht, kann mit Fug und Recht behaupten "ich bin Berufspsychopath". Auch wenn diese Leute nicht wirklich Psychopathen sein müssen, machen sie genau das, was Psychopathen von sich aus machen. Sie nutzen die Gefühle und die Bedürftigkeit von anderen Menschen aus, um denen Geld aus der Tasche zu ziehen.

Richtige Menschen mit dieser Aufgabe zu betrauen, birgt aber auch ein gewisses Risiko, denn die können ja das Geschäftsgeheimnis ausplaudern oder aus Gewissensgründen aussteigen und den Schwindel bekannt machen. Hier haben wir also einen Markt, der ideale Voraussetzungen für den Einsatz künstlicher Intelligenzen bietet. Ich halte es für nicht allzu utopisch, dass es in nächster Zukunft gelingen wird, Bots zu programmieren, die entsprechend auf Partnerschaftsgesuche eingehen können.

Und schon haben wir sie, die gewissen- und empathielose Maschine, deren Aufgabe es sein wird, die intimsten Gefühle von Menschen zu manipulieren. Das wird nicht mehr lange dauern.

#136:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 23.05.2018, 02:01
    —
Kramer hat folgendes geschrieben:
fwo hat folgendes geschrieben:
Kramer hat folgendes geschrieben:
fwo hat folgendes geschrieben:
Da liegt in meinen Augen auch ein falschen Konzept von KI vor, bzw. eine Utopie von KI, die ich nicht teile. KI wird nicht geschaffen, um den leistungsfähigeren Menschen zu machen, sondern um bestimmte Bereiche besser beherrschen zu können, in denen Ki besser sein kann. Ich glaube nicht, dass moralische Bewertungen dazugehören.


Wenn es für moralische Aufgaben einen Markt gibt bzw. kommerziell nutzbare Einsatzmöglichkeiten, dann werden KIs auch so eingesetzt werden. Und wenn KIs als leistungsfähigere Menschen möglich sind, wird man auch die bauen, denn die eignen sich doch hervorragend als billige Arbeitskräfte.

Die Gefahr, dass jemand das versuchen wird, halte ich auch für real. Wir sind so.


Mal ein ganz konkretes Beispiel - keine SF. Ich habe neulich einen Bericht im Fernsehen gesehen, dass die Betreiber von Partnerbörsen im Internet Fake-Accounts einrichten, die dazu dienen, die zahlende Kundschaft bei der Stange zu halten. Bisher ist es wohl so, dass die dafür extra Leute einstellen, die für ein wenig Geld ahnungslosen Kunden die grosse Liebe vorgaukeln und mit leeren Versprechungen möglichst lange auf dem Portal halten sollen.

Wer diesen Job macht, kann mit Fug und Recht behaupten "ich bin Berufspsychopath". Auch wenn diese Leute nicht wirklich Psychopathen sein müssen, machen sie genau das, was Psychopathen von sich aus machen. Sie nutzen die Gefühle und die Bedürftigkeit von anderen Menschen aus, um denen Geld aus der Tasche zu ziehen.

Richtige Menschen mit dieser Aufgabe zu betrauen, birgt aber auch ein gewisses Risiko, denn die können ja das Geschäftsgeheimnis ausplaudern oder aus Gewissensgründen aussteigen und den Schwindel bekannt machen. Hier haben wir also einen Markt, der ideale Voraussetzungen für den Einsatz künstlicher Intelligenzen bietet. Ich halte es für nicht allzu utopisch, dass es in nächster Zukunft gelingen wird, Bots zu programmieren, die entsprechend auf Partnerschaftsgesuche eingehen können.

Und schon haben wir sie, die gewissen- und empathielose Maschine, deren Aufgabe es sein wird, die intimsten Gefühle von Menschen zu manipulieren. Das wird nicht mehr lange dauern.

Ja, das wird es geben. Und da kommen wir zum Anfang des Threads. Ich hatte da einen ganz groben Schlüssel versucht, nachdem zu unterscheiden wäre, wann eine KI verpflichtet sein sollte, sich zu erkennen zu geben. Das hier wäre ein sehr klarer Fall, d.h. an dieser Stelle halte ich tatsächlich auch im Internet den Gesetzgeber für gefragt. So wie ich die Trantüten dort aber einschätze, ist wahrscheinlich auch das Einstellen von menschlichen digital auftretenden Fake-Lovern und deren Arbeit rechtlich nicht wirklich zufassen. Was sagte die Reportage zu momentanen Rechtslage?

Wie ist das etwa von Telefonsex abzutrennen?

Es wäre übrigens auch ein Gegenmodell möglich, soetwas wie ein GNU-Lover, vielleicht von einem Informatik-Institut gehostet, dessen Gesäusel kostenlos ist, egal, ob man sich besäuseln lässt, oder nur kundig machen will, wie gut Maschinen inzwischen sind.

#137:  Autor: stepWohnort: Germering BeitragVerfasst am: 23.05.2018, 09:08
    —
fwo hat folgendes geschrieben:
KI wird nicht geschaffen, um den leistungsfähigeren Menschen zu machen, sondern um bestimmte Bereiche besser beherrschen zu können.

Anfangs sicher - der Mensch will ja weiter das Gefühl haben, der Entscheidung und Macht zu haben. Eine solche KI hätte vermutlich keinerlei Personeneigenschaften (z.B. Bewußtsein, Interessen), sondern würde Techniken wie deep learning nur ganz gezielt zu einem vorbestimmten Nutzen einsetzen.

fwo hat folgendes geschrieben:
Ich glaube nicht, dass moralische Bewertungen dazugehören.

Ich denke, daß moralische Bewertungen schon sehr bald dazugehören werden, gerade weil das Gebiet komplex ist. Und ich denke, das wird schon geschehen in einer Phase, in der KIs selbst noch keinerlei Personeneigenschaften haben, sondern nur lernende Algorhithmen sind. Oft genannt wird das Beispiel mit dem autonomen Fahrzeug in einer Triagesituation. zelig wird vermutlich protestieren, aber aus meiner Sicht sind es nun mal moralische Bewertungen, sobald nach bestimmten Regeln Entscheidungen mit Konsequenzen für leidfähige Wesen getroffen werden.

Und auch wenn das vlt ein mulmiges bzw. unromantisches Gefühl auslöst, meiner Ansicht nach hat ein Algorhithmus das Potential, moralische Bewertungen schneller, sicherer, vorurteilsfreier und mit insgesamt besseren Konsequenzen zu treffen, als das der Mensch typischerweise kann.

#138:  Autor: Zumsel BeitragVerfasst am: 23.05.2018, 10:19
    —
step hat folgendes geschrieben:
fwo hat folgendes geschrieben:
KI wird nicht geschaffen, um den leistungsfähigeren Menschen zu machen, sondern um bestimmte Bereiche besser beherrschen zu können.

Anfangs sicher - der Mensch will ja weiter das Gefühl haben, der Entscheidung und Macht zu haben. Eine solche KI hätte vermutlich keinerlei Personeneigenschaften (z.B. Bewußtsein, Interessen), sondern würde Techniken wie deep learning nur ganz gezielt zu einem vorbestimmten Nutzen einsetzen.

fwo hat folgendes geschrieben:
Ich glaube nicht, dass moralische Bewertungen dazugehören.

Ich denke, daß moralische Bewertungen schon sehr bald dazugehören werden, gerade weil das Gebiet komplex ist. Und ich denke, das wird schon geschehen in einer Phase, in der KIs selbst noch keinerlei Personeneigenschaften haben, sondern nur lernende Algorhithmen sind. Oft genannt wird das Beispiel mit dem autonomen Fahrzeug in einer Triagesituation. zelig wird vermutlich protestieren, aber aus meiner Sicht sind es nun mal moralische Bewertungen, sobald nach bestimmten Regeln Entscheidungen mit Konsequenzen für leidfähige Wesen getroffen werden.

Und auch wenn das vlt ein mulmiges bzw. unromantisches Gefühl auslöst, meiner Ansicht nach hat ein Algorhithmus das Potential, moralische Bewertungen schneller, sicherer, vorurteilsfreier und mit insgesamt besseren Konsequenzen zu treffen, als das der Mensch typischerweise kann.


Mir ist noch nicht ganz klar, was es deiner Meinung nach bedeutet, ethisch zu handeln:

- Handlungsregeln, die dem effizienten Ausgleich einerseits gegenläufiger, anderserseits sich gegenseitig nicht ignorieren könnender Interesse, dienen
- Handlungsregeln, die Konsequenzen für leidfähige Wesen haben.

Mir scheint, du legst deinen Ausführungen wie selbstverständlich mal diese, mal jene Definition zu Grunde. Aber offensichtlich ist das doch nicht dasselbe.

#139:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 23.05.2018, 10:41
    —
step hat folgendes geschrieben:
fwo hat folgendes geschrieben:
KI wird nicht geschaffen, um den leistungsfähigeren Menschen zu machen, sondern um bestimmte Bereiche besser beherrschen zu können.

Anfangs sicher - der Mensch will ja weiter das Gefühl haben, der Entscheidung und Macht zu haben. Eine solche KI hätte vermutlich keinerlei Personeneigenschaften (z.B. Bewußtsein, Interessen), sondern würde Techniken wie deep learning nur ganz gezielt zu einem vorbestimmten Nutzen einsetzen.

fwo hat folgendes geschrieben:
Ich glaube nicht, dass moralische Bewertungen dazugehören.

Ich denke, daß moralische Bewertungen schon sehr bald dazugehören werden, gerade weil das Gebiet komplex ist. Und ich denke, das wird schon geschehen in einer Phase, in der KIs selbst noch keinerlei Personeneigenschaften haben, sondern nur lernende Algorhithmen sind. Oft genannt wird das Beispiel mit dem autonomen Fahrzeug in einer Triagesituation. zelig wird vermutlich protestieren, aber aus meiner Sicht sind es nun mal moralische Bewertungen, sobald nach bestimmten Regeln Entscheidungen mit Konsequenzen für leidfähige Wesen getroffen werden.

Und auch wenn das vlt ein mulmiges bzw. unromantisches Gefühl auslöst, meiner Ansicht nach hat ein Algorhithmus das Potential, moralische Bewertungen schneller, sicherer, vorurteilsfreier und mit insgesamt besseren Konsequenzen zu treffen, als das der Mensch typischerweise kann.

Gerade dieses Beispiel mit dem autonomen Fahrzeug sehe ich anscheinend völlig anders: Da trifft die Maschine in bestimmten Fällen zwar Entscheidungen, denen letztlich moralische Bewertungen mit dem Ziel einer Schadensminimierung zugrunde liegen. Aber die Moral kommt nicht von der Maschine. Der Bewertungsschlüssel an dieser Stelle ist so schwierig zu erstellen und hat so erhebliche Konsequenzen, dass er entweder auf der Ingenieursebene erstellt wird, weil ein kleiner Ingenieur sich ganz gut kreuzigen lässt, oder aber, der schafft es, den Vorstand zu involvieren. Aber der wird sich hüten, die Finger in dieses Feuer zu stecken, und wird nach dem Gesetzgeber rufen.

Was Du an dieser Stelle einfach vermischst, ich vermute, dass es das ist, was auch Zumsel aufgestoßen ist, ist die Handlung nach Regeln, die von der Moral bestimmt werden, und das Aufstellen der Moral, des Regelwerkes selbst.

#140:  Autor: stepWohnort: Germering BeitragVerfasst am: 23.05.2018, 11:04
    —
Zumsel hat folgendes geschrieben:
Mir ist noch nicht ganz klar, was es deiner Meinung nach bedeutet, ethisch zu handeln:

- Handlungsregeln, die dem effizienten Ausgleich einerseits gegenläufiger, anderserseits sich gegenseitig nicht ignorieren könnender Interesse, dienen
- Handlungsregeln, die Konsequenzen für leidfähige Wesen haben.

Mir scheint, du legst deinen Ausführungen wie selbstverständlich mal diese, mal jene Definition zu Grunde. Aber offensichtlich ist das doch nicht dasselbe.

In der Tat ist das nicht dasselbe, aber es hängt zusammen, wenn man davon ausgeht, daß Verletzung von Interessen mit Leid verbunden ist. Du hast jedoch recht, daß es unsauber ist, mal dies und mal das hervorzuheben, sowie manchmal einen Utilitarismus vorauszusetzen und manchmal nicht.

Ich habe den Ausdruck "ethisch handeln" mW nicht benutzt. Wenn es jedoch sein muß, würde ich definieren:
"ethisch handeln" = "bewußt einer ethischen Überlegung folgend handeln".
"moralisch handeln" = "einer moralischen Regel (Gebot) folgend handeln".

Zusätzlich würde ich Folgendes sagen:
- eine ethische Überlegung muß nicht unbedingt eine Interessensabwägung beinhalten, das ist aber speziell beim Präferenzutilitarismus der Fall. Zusätzlich meine ich, daß eine fortgeschrittene universalistische Ethik dies natürlicherweise tun wird/muss.
- eine moralische Handlung hat i.a. Konsequenzen für leidfähige Wesen, aber es wären theoretisch Ausnahmen denkbar bei exotischen Moralsystemen, die Leid, Interessen usw. ignorieren.

Reicht das, um Deine Frage zu beantworten?

#141:  Autor: stepWohnort: Germering BeitragVerfasst am: 23.05.2018, 11:57
    —
fwo hat folgendes geschrieben:
Was Du an dieser Stelle einfach vermischst ..., ist die Handlung nach Regeln, die von der Moral bestimmt werden, und das Aufstellen der Moral, des Regelwerkes selbst.

Diese Beispiele einfacher KIs ohne Bewußtsein sind ja extra so gewählt, daß sie keine Ethik selbst entwickeln, sondern mindestens gewisse abstrakte Werte oder Regeln vorprogrammiert bekommen.

fwo hat folgendes geschrieben:
step hat folgendes geschrieben:
... daß moralische Bewertungen schon sehr bald dazugehören werden ... meiner Ansicht nach hat ein Algorhithmus das Potential, moralische Bewertungen schneller, sicherer, vorurteilsfreier und mit insgesamt besseren Konsequenzen zu treffen, als das der Mensch typischerweise kann.
Gerade dieses Beispiel mit dem autonomen Fahrzeug sehe ich anscheinend völlig anders: Da trifft die Maschine in bestimmten Fällen zwar Entscheidungen, denen letztlich moralische Bewertungen mit dem Ziel einer Schadensminimierung zugrunde liegen.

Ja, da müssen wir jetzt aufpassen, daß wir nicht in einen Streit um Worte geraten. Wo ist es noch moralische Prägung und wo fängt eine eigenständige moralische Bewertung / Entscheidung an? Ist eine Abwägung eigenständig, wenn sie ein Ziel auf hoher Ebene vorgegeben hat?

Ich denke, man sollte hier sehr vorsichtig mit einer radikalen Grenze sein, etwa angesichts der Beobachtung, daß auch die allermeisten menschlichen moralischen Bewertungen durch Biologie, Erziehung und Kultur vorprogrammiert sind - Verläßlichkeit / Determination ist hier auch ein Thema.

fwo hat folgendes geschrieben:
Aber die Moral kommt nicht von der Maschine. Der Bewertungsschlüssel an dieser Stelle ist so schwierig zu erstellen und hat so erhebliche Konsequenzen, dass er entweder auf der Ingenieursebene erstellt wird, weil ein kleiner Ingenieur sich ganz gut kreuzigen lässt, oder aber, der schafft es, den Vorstand zu involvieren. Aber der wird sich hüten, die Finger in dieses Feuer zu stecken, und wird nach dem Gesetzgeber rufen.

Möglicherweise - es wären aber auch noch andere Szenarien denkbar, z.B. die Verantwortung wird an den Service-Nutzer delegiert. Auf den autonomen Straßen sind nur Nutzer unterwegs, die sich der moralischen Entscheidung der vernetzten KI für den Zeitraum der Benutzung unterwerfen. So ähnlich, wie wir im Krankenhaus was unterschreiben, und der Chirurg ad hoc entscheidet, manchmal sogar über Leben und Tod. Die Politik und der Ingenieur müssen sich dann "nur" noch um Qualitätsstandards u.ä. kümmern. Ein solches Szenario hätte nicht nur Nachteile, etwa wenn sich in der Praxis zeigt, daß die Überlebenschancen bei der KI-Triage höher sind als im normalen Verkehr mit all den Psychopathen ...

#142:  Autor: Kramer BeitragVerfasst am: 23.05.2018, 12:08
    —
fwo hat folgendes geschrieben:
Und da kommen wir zum Anfang des Threads. Ich hatte da einen ganz groben Schlüssel versucht, nachdem zu unterscheiden wäre, wann eine KI verpflichtet sein sollte, sich zu erkennen zu geben.


Ich vermute, dass gesetzliche Regelungen in diesem Bereich relativ sinnlos sein werden. Wenn die KI auf einer Serverfarm im Ausland läuft und sich über die normalen Log-In-Prozeduren beim System anmeldet, wird es kaum nachweisbar sein, dass hier geschummelt wird.

#143:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 23.05.2018, 12:42
    —
step hat folgendes geschrieben:
...
Ich denke, man sollte hier sehr vorsichtig mit einer radikalen Grenze sein, etwa angesichts der Beobachtung, daß auch die allermeisten menschlichen moralischen Bewertungen durch Biologie, Erziehung und Kultur vorprogrammiert sind - Verläßlichkeit / Determination ist hier auch ein Thema.
...

Da redest Du mir aus dem Herzen oder besser gesagt aus den Posts -z.B.:
fwo hat folgendes geschrieben:
....Auch beim Menschen wird die Ratio, also die angeblich freie Entscheidung in dieser Ebene weitgehend durch Gefühle gesteuert, deren Grundlage genauso genetisch wie kulturell sein kann. Bei bestimmten Regeln wäre es in meinen Augen keine Einschränkung der KI. sondern sinnvoll, wenn sie "hart" programmiert würden.

Oder andersherum: Sie hat damit kaum größeren Einschränkungen als der Mensch selbst. Ich bin aber nicht so optimistisch in der Hoffnung, dass es einmal sinnvoll werden könnte, der Maschine an dieser Stelle mehr Freiheit zu geben als dem Menschen. Dass man es versuchen wird, steht für mich außer Frage. Die Technikfolgenabschätzung wird sich da allerdings schwierig gestalten.

#144:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 23.05.2018, 12:44
    —
Kramer hat folgendes geschrieben:
fwo hat folgendes geschrieben:
Und da kommen wir zum Anfang des Threads. Ich hatte da einen ganz groben Schlüssel versucht, nachdem zu unterscheiden wäre, wann eine KI verpflichtet sein sollte, sich zu erkennen zu geben.


Ich vermute, dass gesetzliche Regelungen in diesem Bereich relativ sinnlos sein werden. Wenn die KI auf einer Serverfarm im Ausland läuft und sich über die normalen Log-In-Prozeduren beim System anmeldet, wird es kaum nachweisbar sein, dass hier geschummelt wird.

Digital wird es schwierig.
Es ist sofort nachweisbar, wenn in Stichproben nach dem Menschen auf der anderen Seite gesehen wird.

btw: Du brauchst keine Angst zu haben, die PN zu öffnen. Sie ist nicht wirklich geeignet, das, was Dich an mir stört, zu entkräften, und hat das auch nicht zum Ziel. Sie enthält nur ein paar Zypern-Details.


Zuletzt bearbeitet von fwo am 23.05.2018, 12:48, insgesamt einmal bearbeitet

#145:  Autor: Kramer BeitragVerfasst am: 23.05.2018, 12:47
    —
fwo hat folgendes geschrieben:

Es ist sofort nachweisbar, wenn in Stichproben nach dem Menschen auf der anderen Seite gesehen wird.


Wer soll das tun? Und woher hat der die Daten?

#146:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 23.05.2018, 12:50
    —
Kramer hat folgendes geschrieben:
fwo hat folgendes geschrieben:

Es ist sofort nachweisbar, wenn in Stichproben nach dem Menschen auf der anderen Seite gesehen wird.


Wer soll das tun? Und woher hat der die Daten?

Wenn Du damit sagen möchtest, dass da Handlungsbedarf in mehr als einer Ebene besteht, widerspreche ich nicht.

#147:  Autor: Kramer BeitragVerfasst am: 23.05.2018, 13:00
    —
fwo hat folgendes geschrieben:
Kramer hat folgendes geschrieben:
fwo hat folgendes geschrieben:

Es ist sofort nachweisbar, wenn in Stichproben nach dem Menschen auf der anderen Seite gesehen wird.


Wer soll das tun? Und woher hat der die Daten?

Wenn Du damit sagen möchtest, dass da Handlungsbedarf in mehr als einer Ebene besteht, widerspreche ich nicht.


Ich sehe da mehr als nur Handlungsbedarf, ich sehe schwer zu lösende Widersprüche. Die Kunden von Partnerbörsen (oder auch Pornoangeboten) wollen i.d.R. anonym bleiben. Anonymität ist ist hier ein wichtiges Qualitätskriterium. Aber Anonymität und Datenschutz bieten eben auch ideale Bedingungen für den Missbrauch von KI.

#148:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 23.05.2018, 13:09
    —
Kramer hat folgendes geschrieben:
fwo hat folgendes geschrieben:
Kramer hat folgendes geschrieben:
fwo hat folgendes geschrieben:

Es ist sofort nachweisbar, wenn in Stichproben nach dem Menschen auf der anderen Seite gesehen wird.


Wer soll das tun? Und woher hat der die Daten?

Wenn Du damit sagen möchtest, dass da Handlungsbedarf in mehr als einer Ebene besteht, widerspreche ich nicht.


Ich sehe da mehr als nur Handlungsbedarf, ich sehe schwer zu lösende Widersprüche. Die Kunden von Partnerbörsen (oder auch Pornoangeboten) wollen i.d.R. anonym bleiben. Anonymität ist ist hier ein wichtiges Qualitätskriterium. Aber Anonymität und Datenschutz bieten eben auch ideale Bedingungen für den Missbrauch von KI.

Der Widerspruch zwischen Kontrolle und Datenschutz ist nicht auf das Internet beschränkt. Wir haben deshalb im realen Leben die Institution des Datenschutzbeauftragten, die entsprechend ausgebaut werden müsste.

Ansonsten hilft gegen Betrug am besten Aufklärung und gegen Suchtkriminalität (diese Form des Geschäftes mit der Sexualität/Einsamkeit der Kunden hat da viel Gemeinsamkeiten) das Versauen der Preise. Deshalb ja auch meine Hoffnung auf eine kostenlose Konkurrenz von der GNU-Seite.

#149:  Autor: Kramer BeitragVerfasst am: 23.05.2018, 13:16
    —
fwo hat folgendes geschrieben:
Deshalb ja auch meine Hoffnung auf eine kostenlose Konkurrenz von der GNU-Seite.


Der Sinn einer solchen GNU-Version von Fake-Bots erschliesst sich mir nicht. Ich vermute mal, dass nur sehr wenige Menschen sich bei Partnerbörsen anmelden, um mit Fake-Accounts oder Bots zu kommunizieren.

#150:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 23.05.2018, 14:11
    —
Kramer hat folgendes geschrieben:
fwo hat folgendes geschrieben:
Deshalb ja auch meine Hoffnung auf eine kostenlose Konkurrenz von der GNU-Seite.


Der Sinn einer solchen GNU-Version von Fake-Bots erschliesst sich mir nicht. Ich vermute mal, dass nur sehr wenige Menschen sich bei Partnerbörsen anmelden, um mit Fake-Accounts oder Bots zu kommunizieren.


Das hat man auch mal von Telefonsex gedacht. Man kauft auch geschrieben Sex wegen des Reizes. Und ein mit mir redender digitaler Partner geht weiter als Literatur mit erotischem Inhalt ...

Der Sinn ist ganz einfach: Die Preise zu "verderben" und damit das Geschäftsmodell zu torpedieren. Das ist auch der Hintergrund dafür, dass ich für die Freigabe auch harter Drogen unter der Maßgabe des kontrollierten Handels in Apotheken mit limitierter Gewinn-Marge plädiere - aber das war ein anderer Thread.

In "meiner" GNU-Welt gäbe es übrigens keine bezahlten Fake-Accounts. Und es bestünde auch die Möglichkeit, sich auf eigenes Risiko mit denen zu unterhalten, die keine Bot-Sig haben.

#151:  Autor: Zumsel BeitragVerfasst am: 23.05.2018, 14:12
    —
step hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
Mir ist noch nicht ganz klar, was es deiner Meinung nach bedeutet, ethisch zu handeln:

- Handlungsregeln, die dem effizienten Ausgleich einerseits gegenläufiger, anderserseits sich gegenseitig nicht ignorieren könnender Interesse, dienen
- Handlungsregeln, die Konsequenzen für leidfähige Wesen haben.

Mir scheint, du legst deinen Ausführungen wie selbstverständlich mal diese, mal jene Definition zu Grunde. Aber offensichtlich ist das doch nicht dasselbe.

In der Tat ist das nicht dasselbe, aber es hängt zusammen, wenn man davon ausgeht, daß Verletzung von Interessen mit Leid verbunden ist...


Es kann zusammenhängen, v.a. stellt sich aber doch die Frage, was hier maßgeblich ist, bzw. was unmittelbar und was nur mittelbar unethisch ist. Ist die Verletzung von Interessen nur mittelbar unethisch, weil sie Leid verursacht, oder ist Leidverursachung nur mittelbar unethisch, weil sie Interessen verletzt? Die Frage ist dabei ja letztlich, was (aus deiner Sicht) das Wesen der Ethik ist: Das Ziel der Leidminimierung oder der bloße Prozess eines notwendigen Interessenausgleiches. Das ist, wie mir scheint, ein recht fundamentaler Unterschied, da ersteres normsetzend ist, letzteres rein deskriptiv. Bei letzteren wäre immerhin klar, warum du denkst, eine KI würde früher oder später mit Sicherheit ethisches Verhalten ausprägen, nämlich einfach deshalb, weil es der effizienteste Weg zur Durchsetzung eigener Interessen wäre (worin immer die auch bestehen sollen, aber das ist ein anderer Punkt, den ich weiter oben ja schon angesprochen hatte). Im ersten Fall wäre die Frage, warum eine KI eine derartige Norm setzen sollte.

#152:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 23.05.2018, 14:27
    —
Zumsel hat folgendes geschrieben:
step hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
Mir ist noch nicht ganz klar, was es deiner Meinung nach bedeutet, ethisch zu handeln:

- Handlungsregeln, die dem effizienten Ausgleich einerseits gegenläufiger, anderserseits sich gegenseitig nicht ignorieren könnender Interesse, dienen
- Handlungsregeln, die Konsequenzen für leidfähige Wesen haben.

Mir scheint, du legst deinen Ausführungen wie selbstverständlich mal diese, mal jene Definition zu Grunde. Aber offensichtlich ist das doch nicht dasselbe.

In der Tat ist das nicht dasselbe, aber es hängt zusammen, wenn man davon ausgeht, daß Verletzung von Interessen mit Leid verbunden ist...


Es kann zusammenhängen, v.a. stellt sich aber doch die Frage, was hier maßgeblich ist, bzw. was unmittelbar und was nur mittelbar unethisch ist. Ist die Verletzung von Interessen nur mittelbar unethisch, weil sie Leid verursacht, oder ist Leidverursachung nur mittelbar unethisch, weil sie Interessen verletzt? Die Frage ist dabei ja letztlich, was (aus deiner Sicht) das Wesen der Ethik ist: Das Ziel der Leidminimierung oder der bloße Prozess eines notwendigen Interessenausgleiches. Das ist, wie mir scheint, ein recht fundamentaler Unterschied, da ersteres normsetzend ist, letzteres rein deskriptiv. Bei letzteren wäre immerhin klar, warum du denkst, eine KI würde früher oder später mit Sicherheit ethisches Verhalten ausprägen, nämlich einfach deshalb, weil es der effizienteste Weg zur Durchsetzung eigener Interessen wäre (worin immer die auch bestehen sollen, aber das ist ein anderer Punkt, den ich weiter oben ja schon angesprochen hatte). Im ersten Fall wäre die Frage, warum eine KI eine derartige Norm setzen sollte.

Hier fehlt auch die Möglichkeit des unberechtigten Interesses, also überhaupt die Bewertung des Interesses. Es gibt ja Interessen, das verschlägt es einem den Atem, wenn sie überhaupt geäußert werden. So habe ich einmal mit Verwunderung die Empörung eines Adeligen vernommen, dass ihm seine angestammten Rechte genommen worden seien. Es gibt also also offensichtlich auch Leid, das zu ignorieren ist.

Wenn wir jetzt den Umkehrschluss auf die berechtigten Interessen und wie die gegeneinander abgewogen zu werden haben ziehen, kommt wieder meine obligatorische Frage, wer diesen Maßstab festlegt.

#153:  Autor: Zumsel BeitragVerfasst am: 23.05.2018, 14:44
    —
fwo hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
step hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
Mir ist noch nicht ganz klar, was es deiner Meinung nach bedeutet, ethisch zu handeln:

- Handlungsregeln, die dem effizienten Ausgleich einerseits gegenläufiger, anderserseits sich gegenseitig nicht ignorieren könnender Interesse, dienen
- Handlungsregeln, die Konsequenzen für leidfähige Wesen haben.

Mir scheint, du legst deinen Ausführungen wie selbstverständlich mal diese, mal jene Definition zu Grunde. Aber offensichtlich ist das doch nicht dasselbe.

In der Tat ist das nicht dasselbe, aber es hängt zusammen, wenn man davon ausgeht, daß Verletzung von Interessen mit Leid verbunden ist...


Es kann zusammenhängen, v.a. stellt sich aber doch die Frage, was hier maßgeblich ist, bzw. was unmittelbar und was nur mittelbar unethisch ist. Ist die Verletzung von Interessen nur mittelbar unethisch, weil sie Leid verursacht, oder ist Leidverursachung nur mittelbar unethisch, weil sie Interessen verletzt? Die Frage ist dabei ja letztlich, was (aus deiner Sicht) das Wesen der Ethik ist: Das Ziel der Leidminimierung oder der bloße Prozess eines notwendigen Interessenausgleiches. Das ist, wie mir scheint, ein recht fundamentaler Unterschied, da ersteres normsetzend ist, letzteres rein deskriptiv. Bei letzteren wäre immerhin klar, warum du denkst, eine KI würde früher oder später mit Sicherheit ethisches Verhalten ausprägen, nämlich einfach deshalb, weil es der effizienteste Weg zur Durchsetzung eigener Interessen wäre (worin immer die auch bestehen sollen, aber das ist ein anderer Punkt, den ich weiter oben ja schon angesprochen hatte). Im ersten Fall wäre die Frage, warum eine KI eine derartige Norm setzen sollte.

Hier fehlt auch die Möglichkeit des unberechtigten Interesses, also überhaupt die Bewertung des Interesses. Es gibt ja Interessen, das verschlägt es einem den Atem, wenn sie überhaupt geäußert werden. So habe ich einmal mit Verwunderung die Empörung eines Adeligen vernommen, dass ihm seine angestammten Rechte genommen worden seien. Es gibt also also offensichtlich auch Leid, das zu ignorieren ist.

Wenn wir jetzt den Umkehrschluss auf die berechtigten Interessen und wie die gegeneinander abgewogen zu werden haben ziehen, kommt wieder meine obligatorische Frage, wer diesen Maßstab festlegt.


Ja, daher ja meine Nachfrage, was das "Primat der Ethik" sein soll. Es gibt ja deskriptiv-ethische Ansätze, für die die geltenden Regeln einfach das Resultat eines faktisch stattgefundenen Interessenausgleichs sind. Ethik meint dort gewissermaßen gar nichts anderes, es ist einfach die Explikation dieses Begriffes. Und auf diese Weise könnte man natürlich argumentieren, dass KIs das "sauberste" Resultat einfach berechnen könnten, also das Resultat, das unter Berücksichtigung aller sonstigen in der Gesellschaft vorhandenen Interessen und daraus resultierender zu erwartenden Widerständedie, die eigenen Interessen am besten bedient.

Ich halte ein solches Ethikverständnis allerdings für unterkomplex.

#154:  Autor: stepWohnort: Germering BeitragVerfasst am: 23.05.2018, 16:13
    —
Zumsel hat folgendes geschrieben:
Ist die Verletzung von Interessen nur mittelbar unethisch, weil sie Leid verursacht, oder ist Leidverursachung nur mittelbar unethisch, weil sie Interessen verletzt? Die Frage ist dabei ja letztlich, was (aus deiner Sicht) das Wesen der Ethik ist: Das Ziel der Leidminimierung oder der bloße Prozess eines notwendigen Interessenausgleiches.

Du vergleichst einen Inhalt/Wert mit einem Prozeß. Historisch betrachtet kam die Variante mit den Interessen ins Spiel, weil die Utilitaristen es schwierig fanden festzulegen, was für den Einzelnen nun Glück oder Leid bedeutet, speziell wenn es über die unbewußte / körperliche Ebene hinausgeht. Man sagte sich: Soll das doch jedes dazu fähige Wesen selbst entscheiden. So gesehen sind die Interessen für Subjekte das allgemeinere Konzept, ich würde also sagen: Das inhaltliche Wesen der Ethik, also quasi das oberste Ziel, sollte so etwas wie die Minimierung der Interessenverletzung sein. Dies ist aber keine deontologische oder Letztnorm, nur glaube ich eben, daß es die plausibelste ist. Denn wir müssen unsere Ethik ja selbst machen und plausibel machen, damit sie verabschiedet werden kann.

An dieser Stelle kommt der Prozeß des Interessensausgleichs ins Spiel, in dem Sinne, daß ja ein ethischer Diskurs stattfinden muß, damit überhaupt eine verfaßte und wirksame Ethik entsteht. In diesen Diskurs fließen natürlich auch Interessen ein

Zumsel hat folgendes geschrieben:
Das ist, wie mir scheint, ein recht fundamentaler Unterschied, da ersteres normsetzend ist, letzteres rein deskriptiv.

Ich denke, dieser Unterschied ist unproblematisch, da sich das eine auf den normativen Inhalt, daß andere auf den Schöpfungsprozeß der Ethik bezieht.

Zumsel hat folgendes geschrieben:
Bei letzteren wäre immerhin klar, warum du denkst, eine KI würde früher oder später mit Sicherheit ethisches Verhalten ausprägen, nämlich einfach deshalb, weil es der effizienteste Weg zur Durchsetzung eigener Interessen wäre (worin immer die auch bestehen sollen, aber das ist ein anderer Punkt, den ich weiter oben ja schon angesprochen hatte). Im ersten Fall wäre die Frage, warum eine KI eine derartige Norm setzen sollte.

Das hatte ich zu Anfang schon mal geschrieben: Die Beachtung von Interessen als Norm würde dadurch entstehen, daß (und nur wenn) viele, hinreichend autonome KIs sich auf etwas einigen müssen, um zu kooperieren. Meiner Ansicht nach erzwingt das logisch mehr oder weniger die präferenzutilitaristische Norm.

fwo hat folgendes geschrieben:
Hier fehlt auch die Möglichkeit des unberechtigten Interesses, also überhaupt die Bewertung des Interesses. Es gibt ja Interessen, das verschlägt es einem den Atem, wenn sie überhaupt geäußert werden. So habe ich einmal mit Verwunderung die Empörung eines Adeligen vernommen, dass ihm seine angestammten Rechte genommen worden seien. Es gibt also also offensichtlich auch Leid, das zu ignorieren ist.

Das leuchtet mir nicht ein. Im Präferenzutilitarismus sind Interessen niemals prinzipiell unberechtigt, auf diese Weise vermeidet man Intuitionismen, moralische Biases usw. Das genannte Interesse des Adligen etwa, so sehr es uns heute (!) empört, muß im Präferenzutilitarismus berücksichtigt werden, nur hat er damit wohl keine Chance, weil auf der anderen Seite der Rechnung vermutlich mehr Interessen verletzt würden / mehr Leid entstünde. Ebenso müßte man formal auch das Interesse eines deutschen Bürgers berücksichtigen, der Flüchtlingen oder Armen nichts von seinen Privilegien abgeben will. Aber auch der würde die Abwägung wohl verlieren.

Auch das ist übrigens wieder ein Sonderfall einer interessanten Herausforderung gegen den Utilitarismus: Es gibt offensichtlich basalere und weniger grundlegende Interessen, z.B. nicht zu hungern vs. höhere Schulbildung - wie soll man die gegeneinander abwägen?

Zumsel hat folgendes geschrieben:
Es gibt ja deskriptiv-ethische Ansätze, für die die geltenden Regeln einfach das Resultat eines faktisch stattgefundenen Interessenausgleichs sind.

Der Ausgleich findet ja nicht einfach nur "faktisch" statt, sondern in einem Normierungsprozeß.

Zumsel hat folgendes geschrieben:
Und auf diese Weise könnte man natürlich argumentieren, dass KIs das "sauberste" Resultat einfach berechnen könnten, also das Resultat, das unter Berücksichtigung aller sonstigen in der Gesellschaft vorhandenen Interessen und daraus resultierender zu erwartenden Widerstände, die eigenen Interessen am besten bedient.

Wenn Du nur eine einzige KI hast, entwickelt die sowieso keine Ethik. So wie ein einzlener Mensch auch nicht. Und ich möchte auch nochmals darauf hinweisen, daß - aus aufgeklärter Perspektive - einer final interessensbasierten Ethik nichts Wesentliches fehlen muß. Wir sind doch letztlich sowieso gezwungen, unsere Normen selbst zu setzen, die Steintafelnummer ist durch.

Zumsel hat folgendes geschrieben:
Ich halte ein solches Ethikverständnis allerdings für unterkomplex.

Das sagt sich leicht und natürlich ist auch immer was dran. Aber es ist auch nicht so einfach, was noch Besseres anzugeben als den Primat der gleichberechtigten Interessen.

#155:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 23.05.2018, 20:54
    —
step hat folgendes geschrieben:
....
fwo hat folgendes geschrieben:
Hier fehlt auch die Möglichkeit des unberechtigten Interesses, also überhaupt die Bewertung des Interesses. Es gibt ja Interessen, das verschlägt es einem den Atem, wenn sie überhaupt geäußert werden. So habe ich einmal mit Verwunderung die Empörung eines Adeligen vernommen, dass ihm seine angestammten Rechte genommen worden seien. Es gibt also also offensichtlich auch Leid, das zu ignorieren ist.

Das leuchtet mir nicht ein. Im Präferenzutilitarismus sind Interessen niemals prinzipiell unberechtigt, auf diese Weise vermeidet man Intuitionismen, moralische Biases usw. Das genannte Interesse des Adligen etwa, so sehr es uns heute (!) empört, muß im Präferenzutilitarismus berücksichtigt werden, nur hat er damit wohl keine Chance, weil auf der anderen Seite der Rechnung vermutlich mehr Interessen verletzt würden / mehr Leid entstünde. Ebenso müßte man formal auch das Interesse eines deutschen Bürgers berücksichtigen, der Flüchtlingen oder Armen nichts von seinen Privilegien abgeben will. Aber auch der würde die Abwägung wohl verlieren.

Auch das ist übrigens wieder ein Sonderfall einer interessanten Herausforderung gegen den Utilitarismus: Es gibt offensichtlich basalere und weniger grundlegende Interessen, z.B. nicht zu hungern vs. höhere Schulbildung - wie soll man die gegeneinander abwägen?
....

Das ist doch genau die Frage, die ich stelle: Wie werden die unterschiedlichen Interessen gegeneinander aufgerechnet? Wenn Du so lapidar sagst, dass der Adelige da wohl wenig Chancen hätte, weil anderes schwerer wöge: Wie wird dieses Gewicht festgelegt?

Beim letzten Beispiel wird es noch schwieriger: Wir haben auf der einen Seite gegenwärtige Interessen, aber unsere Entscheidungen wirken sich direkt und indirekt in die Zukunft aus und berühren auch zukünftige Interessen. Mit indirekt meine ich, dass unsere Entscheidungen gleichzeitig Signale sind, die Handlungen auslösen, mit denen wieder Interessen verfolgt bzw. verletzt werden. Eine Handlung, die im Jetzt die ethisch einzig mögliche erscheint, kann in 10 Jahren den Kollaps des Systems bewirken - nach welchen Maßstäben fließen Risiken in die Bewertung mit ein usw.

Ich habe Deinen Optimismus nicht, dass KI das besser könnte, insbesondere nicht, dass KI das besser vermittelte, denn bevor Du diese Entscheidung durchsetzen kannst, musst Du sie vermitteln, ihre Richtigkeit darstellen.

An der Stelle sind wir dann wieder bei Marcellinus, der es als Macht formulierte. Ich bleibe etwas neutraler und sage Ethik ist Politik.

#156:  Autor: Zumsel BeitragVerfasst am: 23.05.2018, 21:07
    —
step hat folgendes geschrieben:
Du vergleichst einen Inhalt/Wert mit einem Prozeß. Historisch betrachtet kam die Variante mit den Interessen ins Spiel, weil die Utilitaristen es schwierig fanden festzulegen, was für den Einzelnen nun Glück oder Leid bedeutet,...


Na ja, "Interessenausgleich" in dem Sinne der Idee, dass Ethik bloß eine pathetische Überhöhung gesellschaftlich notwendiger Kooperationsregeln wäre, geisterte schon durch antiken Schriften. Aber das scheinst du ja nicht zu meinen.


step hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
Das ist, wie mir scheint, ein recht fundamentaler Unterschied, da ersteres normsetzend ist, letzteres rein deskriptiv.

Ich denke, dieser Unterschied ist unproblematisch, da sich das eine auf den normativen Inhalt, daß andere auf den Schöpfungsprozeß der Ethik bezieht.


Aber wo ist der plausible Übergang vom Schöpfungsprozess zur normativen Setzung? Wie kommst du von der Notwendigkeit zur Kooperation ungefähr Gleichmächtiger im rationalen Eigeninteresse zum Prinzip der Leidminimierung aller leidfähiger Wesen?


step hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
Ich halte ein solches Ethikverständnis allerdings für unterkomplex.

Das sagt sich leicht und natürlich ist auch immer was dran. Aber es ist auch nicht so einfach, was noch Besseres anzugeben als den Primat der gleichberechtigten Interessen.


Aber gleichberechtigte Interessen sind ja nicht voraussetzungslos bzw. höchstens, wenn das nur die Interessen ungefähr Gleichmächtiger meint, das wäre rational einleuchtend. Aber wenn faktische Durchsetzungskraft hier keine Rolle spielen soll, brauchst du dafür schon ein Prinzip, das dem übergeordnet ist, wie z.B. Gerechtigkeit oder fundamentale Gleichheit.

#157:  Autor: Zumsel BeitragVerfasst am: 23.05.2018, 21:29
    —
fwo hat folgendes geschrieben:
Beim letzten Beispiel wird es noch schwieriger: Wir haben auf der einen Seite gegenwärtige Interessen, aber unsere Entscheidungen wirken sich direkt und indirekt in die Zukunft aus und berühren auch zukünftige Interessen. Mit indirekt meine ich, dass unsere Entscheidungen gleichzeitig Signale sind, die Handlungen auslösen, mit denen wieder Interessen verfolgt bzw. verletzt werden. Eine Handlung, die im Jetzt die ethisch einzig mögliche erscheint, kann in 10 Jahren den Kollaps des Systems bewirken - nach welchen Maßstäben fließen Risiken in die Bewertung mit ein usw.


Zu diesem Punkt ist folgender Artikel recht lesenswert:

https://onlinelibrary.wiley.com/doi/abs/10.1111/j.1088-4963.2000.00342.x

#158:  Autor: stepWohnort: Germering BeitragVerfasst am: 23.05.2018, 23:17
    —
fwo hat folgendes geschrieben:
Wenn Du so lapidar sagst, dass der Adelige da wohl wenig Chancen hätte, weil anderes schwerer wöge: Wie wird dieses Gewicht festgelegt?

Vielleicht so wie bei ner Wahl, jede Stimme zählt gleich viel. Und ich mag hier nicht die Details diskutieren, sondern lieber grundsätzlich mit Deinem Ansatz vergleichen.

Wie werden denn in klassischen Moralsystemen Interessensgewichte festgelegt? Das Sexinteresse des Schwulen zählt nicht, weil schwul verboten ist. Du hast oben geschrieben, Du findest das Interesse des Adeligen nicht legitim. Aber wie wird Dein privates "nicht legitim" zur Ethik? Das Gerechtigkeitsbauchgefühl ist jedoch noch viel willkürlicher und schwieriger zu definieren als ein Interessensausgleich.

fwo hat folgendes geschrieben:
Eine Handlung, die im Jetzt die ethisch einzig mögliche erscheint, kann in 10 Jahren den Kollaps des Systems bewirken - nach welchen Maßstäben fließen Risiken in die Bewertung mit ein usw.

Genau - ein präferenzutilitaristisches System geht unter, wenn die Nutzenfunktion zu dumm / kurzsichtig ist. Ebenso geht ein klassisch-moralisches System unter, wenn seine Ge-/Verbote zu dumm sind.

#159:  Autor: stepWohnort: Germering BeitragVerfasst am: 23.05.2018, 23:39
    —
Zumsel hat folgendes geschrieben:
Wie kommst du von der Notwendigkeit zur Kooperation ungefähr Gleichmächtiger im rationalen Eigeninteresse zum Prinzip der Leidminimierung aller leidfähiger Wesen?

Von der Kooperationsnotwendigkeit zur Leidminimierung aller ethischen Subjekte hatte ich ja schon erklärt. Bleibt also die Frage, wieso ethische Objkete (also leidfähige Wesen, die aber nicht selbst die Ethik festlegen) ebenfalls berücksichtigt würden. Meiner Ansicht nach könnte sich das aus der indirekten Reziprozität ergeben - wer Leid zufügt, verliert Vertrauen, daß er nicht auch Interessen verletzt.

Zumsel hat folgendes geschrieben:
gleichberechtigte Interessen sind ja nicht voraussetzungslos ... wenn faktische Durchsetzungskraft hier keine Rolle spielen soll, brauchst du dafür schon ein Prinzip, das dem übergeordnet ist, wie z.B. Gerechtigkeit oder fundamentale Gleichheit.

"Fundamentale Gleichheit" ist doch immerhin schon recht nah an "gleichberechtigte Interessen", nur daß ich die nicht so deontologisch überhöhe. Was genau wäre denn "fundamentale Gleichheit" - erinnert mich spontan an "im Tode sind wir alle gleich" zwinkern

#160:  Autor: Zumsel BeitragVerfasst am: 24.05.2018, 09:31
    —
step hat folgendes geschrieben:
Von der Kooperationsnotwendigkeit zur Leidminimierung aller ethischen Subjekte hatte ich ja schon erklärt.


Aber die Kooperationsnotwendigkeit besteht doch nur (ich wiederhole es noch mal) unter halbwegs Gleichmächtigen. Die Fähigkeit unterlegener Gesellschaftsmitglieder am gesellschaftlichen Diskurs teilzunehmen bedeutet doch für die überlegenen Mitglieder nicht, dass deren Berücksichtigung in ihrem rationalen Eigeninteresse läge. Genau das müssten sie aber doch, um die Prognose der Ausbildung einer präferenzutilitaristischen Ethik bei KIs zu plausibilisieren.


step hat folgendes geschrieben:
Bleibt also die Frage, wieso ethische Objkete (also leidfähige Wesen, die aber nicht selbst die Ethik festlegen) ebenfalls berücksichtigt würden. Meiner Ansicht nach könnte sich das aus der indirekten Reziprozität ergeben - wer Leid zufügt, verliert Vertrauen, daß er nicht auch Interessen verletzt.


Ja gut, das ist nun aber zum einen recht spekulativ und wäre zum anderen (im Kontext deiner Argumentation) im Grunde bloß ein ethischer Nebeneffekt, den eine KI problemlos streichen könnte, wenn sie Mittel fände, die Achtung der Interessen von ihresgleichen auch anders zu sichern

step hat folgendes geschrieben:
"Fundamentale Gleichheit" ist doch immerhin schon recht nah an "gleichberechtigte Interessen",...


Natürlich, genauer: das eine setzt das andere voraus, sofern man eine Ethik (die ja immer irgendwie universalizisch angelegt sein muss, um sie überhaupt von anderen Handlungsregeln unterscheiden zu können) interessenbasiert begründen will.

step hat folgendes geschrieben:
...nur daß ich die nicht so deontologisch überhöhe. Was genau wäre denn "fundamentale Gleichheit" - erinnert mich spontan an "im Tode sind wir alle gleich" zwinkern


Na ja, ich habe dieses normative Konzept hier ja bisher nicht vertreten. Mein Punkt ist nur, dass eine Ethik, die wirklich was erklären will, an solchen Fragen ansetzen muss.

#161:  Autor: zelig BeitragVerfasst am: 24.05.2018, 10:37
    —
https://www.spektrum.de/news/emotionen-perfektionieren-kuenstliche-intelligenz/1566366

Witzig. Genau mein Thema in diesem Zusammenhang.

#162:  Autor: Marcellinus BeitragVerfasst am: 24.05.2018, 10:51
    —
Es erscheint mit ein prinzipielles Problem, die Ethik auf ein Prinzip gründen zu wollen (hübsches Wortspiel). Die menschliche Moral gründet sich auf Fallentscheidungen, sie ist als Fähigkeit angeboren, entwickelt sich mit den Gesellschaften, die Menschen miteinander bilden, und wird von jedem neuen Menschen erlernt wie er seine Sprache lernt, nicht systematisch, sondern als eine Menge von Einzelbeurteilungen, die nicht einmal immer konsistent sind. Das ist auch kein Problem, zumindest nicht was die Menge der zu speichernden Daten betrifft, denn da ist unser Unterbewußtsein ziemlich leistungsfähig.

Ethik ist nun der Versuch, das was wir als Moral entwickelt haben und empfinden, zu systematisieren, so wie Gesetze versuchen, Regeln für unser Verhalten aufzustellen. Und so wie Gesetze nach kurzer Zeit dazu neigen, immer neue Ausnahmetatbestände aufzunehmen, so stellt man immer wieder fest, daß Moral sich nicht vollständig systematisieren läßt. Das wäre an sich nicht schlimm. Man hat halt ethischen Prinzipien und weiß, daß die konkrete Moral in jedem einzelnen Fall eine Frage der Abwägung ist.

Leider hat sich die Vorstellung entwickelt, nur das sei moralisch, was sich aus einer wie auch immer begründeten Ethik ableiten ließe, sei diese Begründung nun religiös oder philosophisch. Nach diesem Stein der Weisen, diesem einen einzigen Prinzip, aus dem sich alle Ethik und Moral ableiten ließe, suchen zB Leute wie Singer, und das Ergebnis ist entsprechend. Und weil das so ist, greift auch eine Kritik, die sich nur an einzelnen Prinzipien oder an unmoralischen Konsequenzen einer solchen Ethik festmacht, zu kurz. Die Idee an sich ist falsch, Moral philosophisch ableiten zu können aus einem zugrundeliegenden Prinzip.

Ethische Prinzipien sind wichtig, wo sie der Versuch sind, unsere moralischen Maßstäbe zu systematisieren. Die Menschenrechte sind ein gutes und wichtiges Beispiel dafür, nur muß man sich bewußt sein, daß Systematisierung immer auch Vereinfachung heißt. Daher ist und muß die konkrete Moral jedes einzelnen das Ergebnis gesellschaftlicher Entwicklung sein, vorsichtig korrigiert aufgrund von Erfahrungen. Unser Leben ist zu kompliziert, und wir verstehen es noch viel zu wenig, um es nach Prinzipien allein auszurichten.

#163:  Autor: stepWohnort: Germering BeitragVerfasst am: 24.05.2018, 11:48
    —
zelig hat folgendes geschrieben:
https://www.spektrum.de/news/emotionen-perfektionieren-kuenstliche-intelligenz/1566366
Witzig. Genau mein Thema in diesem Zusammenhang.

Hab ich gestern auch gelesen. Letztlich geht es ja darum, daß Verhaltenssteuerung effizienter wird, wenn nicht jedesmal eine rationale Situationsbewertung vorgenommen wird, sondern besonders wichtige oder häufige Muster fester verdrahtet werden. Soweit stimme ich da natürlich zu.

Und so etwas Ähnliches beobachtet man bei Systemen mit deep learning ja schon heute. Ich würde erwarten, daß tatsächlich solche "intuitiven" Verdrahtungen in einem neuronalen Netz durch Lernen emergent entstehen und es effizienter machen.

Ich sehe jedoch nicht, wieso KIs dafür Hormone und Körper benötigen, jedenfalls nicht im engeren Sinne. Dazu kommt, daß der geforderte kognitive Bias bei KIs natürlich leichter mittelfristigen Lernprozessen zugänglich sein könnte, als das bei evolutionär entstandenen Strukturen im Kleinhirn und Hormonsystem des Menschen der Fall ist. Eine KI müßte nicht die Fehler in der "Konstruktion" des Menschen wiederholen, un daher auch nach Millionen Jahren Lernen nicht immer noch im Affekt morden oder dgl.

#164:  Autor: SkeptikerWohnort: 129 Goosebumpsville BeitragVerfasst am: 24.05.2018, 12:22
    —
step hat folgendes geschrieben:
zelig hat folgendes geschrieben:
https://www.spektrum.de/news/emotionen-perfektionieren-kuenstliche-intelligenz/1566366
Witzig. Genau mein Thema in diesem Zusammenhang.

Hab ich gestern auch gelesen. Letztlich geht es ja darum, daß Verhaltenssteuerung effizienter wird, wenn nicht jedesmal eine rationale Situationsbewertung vorgenommen wird, sondern besonders wichtige oder häufige Muster fester verdrahtet werden. Soweit stimme ich da natürlich zu.

Und so etwas Ähnliches beobachtet man bei Systemen mit deep learning ja schon heute. Ich würde erwarten, daß tatsächlich solche "intuitiven" Verdrahtungen in einem neuronalen Netz durch Lernen emergent entstehen und es effizienter machen.

Ich sehe jedoch nicht, wieso KIs dafür Hormone und Körper benötigen, jedenfalls nicht im engeren Sinne. Dazu kommt, daß der geforderte kognitive Bias bei KIs natürlich leichter mittelfristigen Lernprozessen zugänglich sein könnte, als das bei evolutionär entstandenen Strukturen im Kleinhirn und Hormonsystem des Menschen der Fall ist. Eine KI müßte nicht die Fehler in der "Konstruktion" des Menschen wiederholen, un daher auch nach Millionen Jahren Lernen nicht immer noch im Affekt morden oder dgl.


Manchmal, wenn die Techniker nicht weiter wissen, probieren sie es mit Bionik.

Manchmal hilft's, manchmal nicht. zwinkern

(Ich glaube, in diesem Fall eher nicht, weil es hierbei ja nicht bloß um Verhalten allein geht, sondern auch um gesamtgesellschaftliche Verhältnisse.)

#165:  Autor: zelig BeitragVerfasst am: 24.05.2018, 12:27
    —
step hat folgendes geschrieben:
zelig hat folgendes geschrieben:
https://www.spektrum.de/news/emotionen-perfektionieren-kuenstliche-intelligenz/1566366
Witzig. Genau mein Thema in diesem Zusammenhang.

Hab ich gestern auch gelesen. Letztlich geht es ja darum, daß Verhaltenssteuerung effizienter wird, wenn nicht jedesmal eine rationale Situationsbewertung vorgenommen wird, sondern besonders wichtige oder häufige Muster fester verdrahtet werden. Soweit stimme ich da natürlich zu.

Und so etwas Ähnliches beobachtet man bei Systemen mit deep learning ja schon heute. Ich würde erwarten, daß tatsächlich solche "intuitiven" Verdrahtungen in einem neuronalen Netz durch Lernen emergent entstehen und es effizienter machen.

Ich sehe jedoch nicht, wieso KIs dafür Hormone und Körper benötigen, jedenfalls nicht im engeren Sinne. Dazu kommt, daß der geforderte kognitive Bias bei KIs natürlich leichter mittelfristigen Lernprozessen zugänglich sein könnte, als das bei evolutionär entstandenen Strukturen im Kleinhirn und Hormonsystem des Menschen der Fall ist. Eine KI müßte nicht die Fehler in der "Konstruktion" des Menschen wiederholen, un daher +auch nach Millionen Jahren Lernen nicht immer noch im Affekt morden oder dgl.


Sind wir uns einig, daß wir nicht über echte Emotionen bei der KI reden, sondern über eine Simulation? Das wurde in dem Beitrag ja auch angesprochen. Da überlagern sich zwei Themen, die durch den Versuch, das Rationale der Emotion zu verstehen und abzubilden zusammengeführt werden. Meine Position ist, die KI hat keine Emotion. Kann sie auch nicht von sich aus entwickeln. Nach derzeitigem Stand. Die Emotion muss simuliert und von Menschen parametriert werden. Es lohnt sich aus Effizienzgründen.


Arrghh... Ich hasse das tippen auf dem Smartphone.

#166:  Autor: SkeptikerWohnort: 129 Goosebumpsville BeitragVerfasst am: 24.05.2018, 12:40
    —
zelig hat folgendes geschrieben:
step hat folgendes geschrieben:
zelig hat folgendes geschrieben:
https://www.spektrum.de/news/emotionen-perfektionieren-kuenstliche-intelligenz/1566366
Witzig. Genau mein Thema in diesem Zusammenhang.

Hab ich gestern auch gelesen. Letztlich geht es ja darum, daß Verhaltenssteuerung effizienter wird, wenn nicht jedesmal eine rationale Situationsbewertung vorgenommen wird, sondern besonders wichtige oder häufige Muster fester verdrahtet werden. Soweit stimme ich da natürlich zu.

Und so etwas Ähnliches beobachtet man bei Systemen mit deep learning ja schon heute. Ich würde erwarten, daß tatsächlich solche "intuitiven" Verdrahtungen in einem neuronalen Netz durch Lernen emergent entstehen und es effizienter machen.

Ich sehe jedoch nicht, wieso KIs dafür Hormone und Körper benötigen, jedenfalls nicht im engeren Sinne. Dazu kommt, daß der geforderte kognitive Bias bei KIs natürlich leichter mittelfristigen Lernprozessen zugänglich sein könnte, als das bei evolutionär entstandenen Strukturen im Kleinhirn und Hormonsystem des Menschen der Fall ist. Eine KI müßte nicht die Fehler in der "Konstruktion" des Menschen wiederholen, un daher +auch nach Millionen Jahren Lernen nicht immer noch im Affekt morden oder dgl.


Sind wir uns einig, daß wir nicht über echte Emotionen bei der KI reden, sondern über eine Simulation?


So ist es.

#167:  Autor: stepWohnort: Germering BeitragVerfasst am: 24.05.2018, 13:10
    —
Marcellinus hat folgendes geschrieben:
Nach diesem Stein der Weisen, diesem einen einzigen Prinzip, aus dem sich alle Ethik und Moral ableiten ließe, suchen zB Leute wie Singer, und das Ergebnis ist entsprechend.

Singer weist im Gegenteil ständig darauf hin, daß es ihm vor allem darum geht, systematischer als bisher Leid zu minimieren. Angegriffen wird er vor allem von jenen, die die absolute deontologische Wahrheit gepachtet haben, und damit die Zufügung von Leid legitimieren.

Die von Dir propagierte Alternative, nämlich daß Moral einfach so von Fall zu Fall durch Machtinteressen und lokalen Erfahrungen entsteht, führt offensichtlich zu sehr unbefriedigenden Ergebnissen (wenn nicht Schlimmerem).

Marcellinus hat folgendes geschrieben:
Ethische Prinzipien sind wichtig, wo sie der Versuch sind, unsere moralischen Maßstäbe zu systematisieren. Die Menschenrechte sind ein gutes und wichtiges Beispiel dafür, nur muß man sich bewußt sein, daß Systematisierung immer auch Vereinfachung heißt.

Das ist richtig, man sollte allerdings nicht unerwähnt lassen, wieviele Fehler / Inkonsistenzen in traditionellen Moralystemen mit dieser Technik bereits aufgedeckt und bekämpft werden konnten, u.a. bei diversen diskriminierenden -ismen. Dort hatte die klassische Moral oft den Nachteil, daß sie nur innerhalb der Gruppe (Sippe, Ethnie, Religion, Geschlecht, Spezies ...) galt, also nicht genügend universalistisch war.

#168:  Autor: Marcellinus BeitragVerfasst am: 24.05.2018, 13:38
    —
step hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
Nach diesem Stein der Weisen, diesem einen einzigen Prinzip, aus dem sich alle Ethik und Moral ableiten ließe, suchen zB Leute wie Singer, und das Ergebnis ist entsprechend.

Singer weist im Gegenteil ständig darauf hin, daß es ihm vor allem darum geht, systematischer als bisher Leid zu minimieren. Angegriffen wird er vor allem von jenen, die die absolute deontologische Wahrheit gepachtet haben, und damit die Zufügung von Leid legitimieren.

Die von Dir propagierte Alternative, nämlich daß Moral einfach so von Fall zu Fall durch Machtinteressen und lokalen Erfahrungen entsteht, führt offensichtlich zu sehr unbefriedigenden Ergebnissen (wenn nicht Schlimmerem).

Marcellinus hat folgendes geschrieben:
Ethische Prinzipien sind wichtig, wo sie der Versuch sind, unsere moralischen Maßstäbe zu systematisieren. Die Menschenrechte sind ein gutes und wichtiges Beispiel dafür, nur muß man sich bewußt sein, daß Systematisierung immer auch Vereinfachung heißt.

Das ist richtig, man sollte allerdings nicht unerwähnt lassen, wieviele Fehler / Inkonsistenzen in traditionellen Moralystemen mit dieser Technik bereits aufgedeckt und bekämpft werden konnten, u.a. bei diversen diskriminierenden -ismen. Dort hatte die klassische Moral oft den Nachteil, daß sie nur innerhalb der Gruppe (Sippe, Ethnie, Religion, Geschlecht, Spezies ...) galt, also nicht genügend universalistisch war.

Ich propagiere nichts. Ich stelle nur fest, daß eine solche prinzipiengesteuerte Ethik nicht existiert und in der Praxis auch nicht funktionieren kann. Meine Einwände ignorierst du einfach. Warum gibt es bisher kein Gesetzeswerk, daß sich aus einem Prinzip ableiten ließe? Die „Menschenwürde“ unserer Verfassung taugt ja auch höchstens für Sonntagsreden. Am Ende müssen Menschen ihr gegenseitiges Verhalten miteinander oder gegeneinander aushandeln, ganz unabhängig von ihren jeweiligen Glaubensüberzeugungen. Alles andere ist einfach eine philosophische Fantasterei.

#169:  Autor: stepWohnort: Germering BeitragVerfasst am: 24.05.2018, 13:44
    —
zelig hat folgendes geschrieben:
Sind wir uns einig, daß wir nicht über echte Emotionen bei der KI reden, sondern über eine Simulation?

Das ist für meine o.g. Position unerheblich. Ob Du alle gelernten festeren Muster "Emotionen" nennst oder dieses Wort für Muster aus Fleisch und Chemie reservierst, ist mir erstmal egal - ich sehe aber jedenfalls die im Artikel behaupteten Analogien durchaus.

zelig hat folgendes geschrieben:
Da überlagern sich zwei Themen, die durch den Versuch, das Rationale der Emotion zu verstehen und abzubilden zusammengeführt werden.

Ja genau, mindestens zwei.

zelig hat folgendes geschrieben:
Meine Position ist, die KI hat keine Emotion. Kann sie auch nicht von sich aus entwickeln.

1. Emotion = gelernte Muster ohne rationalen Umweg, aus Fleisch und Hormonen, mit Erektion und Zähnefletschen, die evolutionär entstehen und Entscheidungen effizienter machen --> kann die KI nicht entwickeln, da Ihr Körper, Fortpflanzung, Evolution usw. fehlt

2. Emotion = gelernte Muster ohne rationalen Umweg, die durch Lernen entstehen und Entscheidungen effizienter machen --> kann die KI entwickeln

Aus meiner Sicht gibt es noch eine interessante Grauzone bei (2.), und zwar die Frage, wie die emergenten Begleiterscheinungen aussehen werden, also ob etwas analog zu "Gefühlen" entsteht. Wenn sich etwa die KI dabei beobachtet/wahrnimmt, wie ein solches nicht-rationales Muster am Werk ist, wäre es ja denkbar, daß dies von Wahrnehmungszuständen begeleitet wird, die nicht den rationalen entsprechen, sondern eher unseren Gefühlen - etwa Ahnungen, die nicht benannt werden können oder so was. Das finde ich aber recht spekulativ.

zelig hat folgendes geschrieben:
Arrghh... Ich hasse das tippen auf dem Smartphone.

Geht mir ebenso ... überhaupt all diese Prothesen, die der Mensch benötigt ... ein trauriges Mängelwesen zwinkern

#170:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 24.05.2018, 14:17
    —
step hat folgendes geschrieben:
zelig hat folgendes geschrieben:
Sind wir uns einig, daß wir nicht über echte Emotionen bei der KI reden, sondern über eine Simulation?

Das ist für meine o.g. Position unerheblich. ...

Nicht nur für Deine. In der Praxis entscheidet die Funktionalität und nicht die Existenz einer irgendwie gearteten subjektiven Realität.

Es ist mir deshalb auch egal ob wir das nun Gefühle oder eine Simulation davon nennen, wenn die beiden funktionsäquivalent sind.

step hat folgendes geschrieben:
.... der Mensch ... ein trauriges Mängelwesen zwinkern

Nä. Gehlen hatte keine Ahnung und ruhe jetzt endlich.

#171:  Autor: stepWohnort: Germering BeitragVerfasst am: 24.05.2018, 14:29
    —
Marcellinus hat folgendes geschrieben:
Warum gibt es bisher kein Gesetzeswerk, daß sich aus einem Prinzip ableiten ließe? Die „Menschenwürde“ unserer Verfassung taugt ja auch höchstens für Sonntagsreden.

In der Tat, und sie ist zudem auch noch deontologisch (man traut sich nicht zuzugeben, daß die Würde in der Zumessung durch Andere besteht).

Zu Deiner Frage: Gesetzeswerke fußen, über die Historie betrachtet, mehr und mehr auf abstrakten, universalistischen Prinzipien, eins hast Du ja selbst genannt. Gibt weitere Beispiele, etwa die Frage, wie Gesetze selbst zustandekommen, Gleichheit vor dem Gesetz ...

Die ersten ernsthaften Forderungen nach Abschaffung der Sklaverei kamen von Leuten, die starke universalistische Prinzipien hatten: Protestanten und Utilitaristen.

Übrigens wäre es selbstverständlich gar nicht möglich, aus dem Prinzip "Präferenzutilitarismus" alle Gesetze vollständig abzuleiten, ähnlich wie man aus dem Prinzip "der König bestimmt" nicht vollständig ableiten kann, was der König nun bestimmt. Mein Punkt war ja eher, daß eine Gruppe von KIs sehr wahrscheinlich eine utilitaristische Ethik ausbilden würde. Welche "Gesetze" im Detail die dann ableiten oder vereinbaren, kann ich nicht voraussagen.

#172:  Autor: Zumsel BeitragVerfasst am: 24.05.2018, 16:57
    —
Marcellinus hat folgendes geschrieben:
Es erscheint mit ein prinzipielles Problem, die Ethik auf ein Prinzip gründen zu wollen (hübsches Wortspiel)....


Nun, die Sache mit der Moral ist ja, dass sie über simple Verhaltensregeln hinausgeht. Es gibt auch Verhaltensbewertungen, die nach anderen als moralischen Kategorien erfolgen, insofern ist es schon berechtigt, nach dem Wesen dessen zu Fragen, was Moral ist und wie sie begründet wird. Kant unterschied zwischen hypothetischen und kategorischen Imperativen, wobei die, bzw. der kategorische Imperativ das Feld der Moral ausmacht und das hat auch eine gewisse Berechtigung. Insgesamt bin ich auch eher skeptisch, was die Herleitung einer streng rationalen Moral betrifft, aber wenn, dann ist der Weg über Kant m.E. vielversprechender als der über sämtliche Varianten des Utilitarismus.

#173:  Autor: stepWohnort: Germering BeitragVerfasst am: 24.05.2018, 19:13
    —
Zumsel hat folgendes geschrieben:
Kant unterschied zwischen hypothetischen und kategorischen Imperativen, wobei die, bzw. der kategorische Imperativ das Feld der Moral ausmacht und das hat auch eine gewisse Berechtigung.

Der Kategorische Imperativ ist ja auch kein schlechter Versuch, ein universelles ethisches Prinzip zu finden, ähnlich wie beim (Regel-)Utilitarismus. Allerdings hielt Kant diesen Ansatz selbst nicht wirklich durch, siehe auch weiter unten.

Zumsel hat folgendes geschrieben:
Insgesamt bin ich auch eher skeptisch, was die Herleitung einer streng rationalen Moral betrifft, aber wenn, dann ist der Weg über Kant m.E. vielversprechender als der über sämtliche Varianten des Utilitarismus.

So unterschiedlich sind die Ansätze ja nicht, etwa in puncto Rationalität, Reziprozität, Universalismus. Ein Unterschied aus meiner Sicht ist jedoch die metaphysische Überladung bei Kant, außerdem kommt beim Präferenzutilitarismus der Aspekt der Interessen und des Konsequentialismus hinzu, der mE ehrlicher ist als die Aspekte "Pflicht & Wille" bei Kant, weil es weg führt von einer individuellen Schuldmoral, hin zu einem Fokus auf das, was weiterbringt.

Überhaupt stört mich bei Kant diese etwas selbstbezügliche Grundannahme, daß eine Handlung nur moralisch sein könne, wenn sie aus Pflichtbewußtsein erfolge. Man kann zwar Moral so definieren, aber das ist dann kein Argument mehr, daß man moralisch handeln solle. Unter "Pflicht" verstand er übrigens mW wieder solche Ziele wie Genuß, guter Ruf usw., und um das wiederum einzufangen, brauchte er die vernünftigen Maximen und den Kategorischen Imperativ. Letztlich ist es schon etwas "hingebogen", denn am Ende kommt es gar nicht mehr drauf an, moralisch oder pflichtbewußt zu handlen, sondern darauf, daß die Maximen universell und richtig sind. An der Stelle könnte man den Rest abwerfen und sich fragen, wie man denn in einer aufgeklärten Gesellschaft zu solchen Maximen und allgemeinen Gesetzen kommt. Und da trifft man notwendigerweise auf die Frage, was ein allgemeines Ziel sein könnte - was sehr nah an der utilitaristischen Grundfrage ist.

#174:  Autor: Marcellinus BeitragVerfasst am: 24.05.2018, 19:20
    —
step hat folgendes geschrieben:

Die ersten ernsthaften Forderungen nach Abschaffung der Sklaverei kamen von Leuten, die starke universalistische Prinzipien hatten: Protestanten und Utilitaristen.

Der Grund für die Abschaffung war es allerdings nicht. Die Sklaverei wurde da abgeschafft, wo man sich einen Vorteil davon versprach (oder einen Nachteil beim Gegner), und wo diese Vorteile weiterbestehen, gibt es Sklaverei bis heute.

#175:  Autor: Marcellinus BeitragVerfasst am: 24.05.2018, 19:25
    —
step hat folgendes geschrieben:
Gesetzeswerke fußen, über die Historie betrachtet, mehr und mehr auf abstrakten, universalistischen Prinzipien, ...

Entschuldige, aber das stimmt einfach nicht. Schaue dir die Gesetze an, die unsere Parlamente so zahlreich verabschieden. Klein-Klein von Problembewältigung (nicht selten Ausbügeln der Fehler der vorangegangenen Gesetze), Interessenausgleich, Lobby-Politik, usw.. Von Prinzipien keine Spur.

#176:  Autor: stepWohnort: Germering BeitragVerfasst am: 24.05.2018, 19:39
    —
Marcellinus hat folgendes geschrieben:
step hat folgendes geschrieben:
Die ersten ernsthaften Forderungen nach Abschaffung der Sklaverei kamen von Leuten, die starke universalistische Prinzipien hatten: Protestanten und Utilitaristen.
Der Grund für die Abschaffung war es allerdings nicht. ...

Da stimme ich in diesem Fall zu - häufig können Vordenker vielleicht den gedanklichen Boden in den gebildeten Schichten vorbereiten, aber die Umsetzung erfolgt auf ganz anderem Wege oder sogar gar nicht. Klimaschutz ist auch so ein Beispiel.

Manchmal läuft es aber auch anders, etwa bei der Abschaffung der Schwazen Pädagogik oder in den Fällen, wo Führungskräfte auch intellektuelle und gesellschaftliche Vordenker sind.

#177:  Autor: stepWohnort: Germering BeitragVerfasst am: 24.05.2018, 19:42
    —
Marcellinus hat folgendes geschrieben:
step hat folgendes geschrieben:
Gesetzeswerke fußen, über die Historie betrachtet, mehr und mehr auf abstrakten, universalistischen Prinzipien, ...
Entschuldige, aber das stimmt einfach nicht. Schaue dir die Gesetze an, die unsere Parlamente so zahlreich verabschieden. Klein-Klein von Problembewältigung (nicht selten Ausbügeln der Fehler der vorangegangenen Gesetze), ...

Ich meinte eher das, worauf die Gesetze fußen, also Verfassungen von früher und heute.

Marcellinus hat folgendes geschrieben:
... Interessenausgleich ...

Oops, der ist Dir wohl reingerutscht Sehr glücklich

#178:  Autor: Marcellinus BeitragVerfasst am: 24.05.2018, 19:46
    —
step hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
step hat folgendes geschrieben:
Die ersten ernsthaften Forderungen nach Abschaffung der Sklaverei kamen von Leuten, die starke universalistische Prinzipien hatten: Protestanten und Utilitaristen.
Der Grund für die Abschaffung war es allerdings nicht. ...

Da stimme ich in diesem Fall zu - häufig können Vordenker vielleicht den gedanklichen Boden in den gebildeten Schichten vorbereiten, aber die Umsetzung erfolgt auf ganz anderem Wege oder sogar gar nicht. Klimaschutz ist auch so ein Beispiel.

Manchmal läuft es aber auch anders, etwa bei der Abschaffung der Schwazen Pädagogik oder in den Fällen, wo Führungskräfte auch intellektuelle und gesellschaftliche Vordenker sind.

Mit diesen „Vordenkern“ bist du dann allerdings schon meilenweit von einer allgemeinen Ethik entfernt. zwinkern

Als Historiker mahne ich da zu Vorsicht. Wer ein „Vordenker“ war und wer eher ein „Nachdenker“, stellt sich leider meistens erst im Nachhinein heraus. Da ist auch viel Legendenbildung dabei.

#179:  Autor: Marcellinus BeitragVerfasst am: 24.05.2018, 19:51
    —
step hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
step hat folgendes geschrieben:
Gesetzeswerke fußen, über die Historie betrachtet, mehr und mehr auf abstrakten, universalistischen Prinzipien, ...
Entschuldige, aber das stimmt einfach nicht. Schaue dir die Gesetze an, die unsere Parlamente so zahlreich verabschieden. Klein-Klein von Problembewältigung (nicht selten Ausbügeln der Fehler der vorangegangenen Gesetze), ...

Ich meinte eher das, worauf die Gesetze fußen, also Verfassungen von früher und heute.

Du meinst so etwas ein eine Präambel? zwinkern Anrufung von Göttern, Beschwören ehrwürdiger Traditionen, usw.. Und danach kommt das schnöde juristische Handwerk.

step hat folgendes geschrieben:

Marcellinus hat folgendes geschrieben:
... Interessenausgleich ...

Oops, der ist Dir wohl reingerutscht Sehr glücklich

Nein, keineswegs, nur verstehe ich darunter etwas anderes.

#180:  Autor: Zumsel BeitragVerfasst am: 24.05.2018, 20:42
    —
step hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
Kant unterschied zwischen hypothetischen und kategorischen Imperativen, wobei die, bzw. der kategorische Imperativ das Feld der Moral ausmacht und das hat auch eine gewisse Berechtigung.

Der Kategorische Imperativ ist ja auch kein schlechter Versuch, ein universelles ethisches Prinzip zu finden, ähnlich wie beim (Regel-)Utilitarismus...


Der wesentliche Unterschied ist, dass der Utilitarismus zweckrational argumentiert, zweckrationale Handlungen stehen aber immer unter hypothetischen Imperativen, begründen für Kant also gerade nicht den moralischen Wert einer Handlung. Die Rationalität bei Kant bezieht sich auf die Widerspruchsfreiheit der Handlungsmaxime, nicht auf die Frage, ob eine Handlung geeignet ist, ein gegebenes Ziel zu erreichen. Lügen zum Beispiel ist unmoralisch, weil Lügen nur als Regelverstoß denkbar sind. Wer lügt, kann damit nur Erfolg haben, weil das allgemeine Gesetz lautet, dass man die Wahrheit sagen muss. Die Lüge kann damit niemals als allgemeines Gesetz, sondern immer nur als Verstoß gegen eben dieses gedacht werden, alles andere wäre schlicht widersinnig. Man mag von einer derartigen Herleitung halten, was man will, aber zweifellos ist sie originell. Und sie ist rational, ohne zweckrational zu sein.

Was die Sache mit der Pflicht betrifft, da muss man unterscheiden: Moralische Pflichten hat der Mensch bei Kant nur gegenüber sich selbst als einem Vernunftwesen. Wer sich selbst als Vernunftswesen achtet, muss entsprechend des kategorischen Imperatives handeln. "Metaphysisch aufgeladen"? Ja, in den weiteren Ausführungen dazu vielleicht, nicht aber vom Grundgedanken her. Das zeigt sich ja auch in der Herleitung der Menschenwürde aus der Selbstzweckformel des kategorischen Imperativs. Die kann auch metaphysisch aufgeladen werden, der Grundidee bleibt aber trotzdem einleuchtend.

#181:  Autor: stepWohnort: Germering BeitragVerfasst am: 24.05.2018, 22:05
    —
Zumsel hat folgendes geschrieben:
Der wesentliche Unterschied ist, dass der Utilitarismus zweckrational argumentiert, zweckrationale Handlungen stehen aber immer unter hypothetischen Imperativen, begründen für Kant also gerade nicht den moralischen Wert einer Handlung.

Ja, der Utilitarismus schlägt ein universelles Ziel vor (z.B. Interessenmaximierung oder Leidminimierung), auf das sich alle Vernunftwesen einigen können; die klassische Moralität einer Handlung oder Maxime wird ersetzt durch ihren Nutzen/Schaden für alle. Man kann sagen, daß das zweckrational ist, in bezug auf die vereinbarte universelle Maxime.

Kants Ethik ist aber nur auf den ersten Blick nicht zweckrational - genauer betrachtet ist sie heimlich zweckrational. Denn sein allgemeines Gesetz ist ja gar nicht spezifiziert bis auf die Behauptung, daß es universell, reziprok, und zwingend für Vernunftwesen sei. Aber wodurch wird es zwingend für Vernunftwesen? Hier versteckt sich die eigentliche Begründung - es muß ja ein Wert oder Ziel sein, auf das sich alle Vernunftwesen eindeutig einigen können. Damit das kein Zirkelschluß wird, muß er ein solches vorschlagen - und ich vermute, das war ihm auch klar, nur wollte er es deontologisch vernebeln (und gleichzeitig rational von der Theologie abkoppeln) und eiert deshalb unglaublich herum mit diversen Hilfskonstruktionen, muß ich Dir nicht erzählen.

Übrigens ist Kants Behauptung, seinem allgemeinen Gesetz müsse jeder Vernünftige zustimmen, recht ähnlich zu meiner Behauptung anfangs, die ich über emergenten Utilitarismus bei KI gemacht habe und die mir wahlweise als unmoralisch oder als unmöglich ausgelegt wurde. Heißt das, KIs sind besonders unvernünftig? Oder heißt das, man muß eigentlich gar nicht vernünftig, sondern eher biologisch-moralisch oder so etwas sein?

#182:  Autor: stepWohnort: Germering BeitragVerfasst am: 24.05.2018, 22:07
    —
Marcellinus hat folgendes geschrieben:
Mit diesen „Vordenkern“ bist du dann allerdings schon meilenweit von einer allgemeinen Ethik entfernt. zwinkern

Ja, offensichtlich hatte Kant entweder unrecht, oder es gibt zu wenige Vernunftwesen.

#183:  Autor: stepWohnort: Germering BeitragVerfasst am: 24.05.2018, 22:12
    —
Marcellinus hat folgendes geschrieben:
step hat folgendes geschrieben:
Ich meinte eher das, worauf die Gesetze fußen, also Verfassungen von früher und heute.
Du meinst so etwas ein eine Präambel? zwinkern Anrufung von Göttern, Beschwören ehrwürdiger Traditionen, usw..

Diskriminierungsverbot, Gleichheit vor dem Gesetz, Demokratie und Gewaltenteilung, Tierschutz, Asylrecht, Folterverbot, Mindestlohn, ... alles nur ansatzweise und teilweise schlecht umgesetzt, aber es zeigt universalistische Tendenzen im Vergleich zu früher.

Auch in anderen Ideologien gab/gibt es solche Tendenzen, z.B. im Sozialismus.

#184:  Autor: Marcellinus BeitragVerfasst am: 24.05.2018, 22:27
    —
step hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
step hat folgendes geschrieben:
Ich meinte eher das, worauf die Gesetze fußen, also Verfassungen von früher und heute.
Du meinst so etwas ein eine Präambel? zwinkern Anrufung von Göttern, Beschwören ehrwürdiger Traditionen, usw..

Diskriminierungsverbot, Gleichheit vor dem Gesetz, Demokratie und Gewaltenteilung, Tierschutz, Asylrecht, Folterverbot, Mindestlohn, ... alles nur ansatzweise und teilweise schlecht umgesetzt, aber es zeigt universalistische Tendenzen im Vergleich zu früher.

Auch in anderen Ideologien gab/gibt es solche Tendenzen, z.B. im Sozialismus.

Für mich hört sich das eher wie eine Aufzählung durchaus disparater Tatbestände an, die dann in den einzelnen Gesetzen wie der juristischen Praxis noch weiter aufgefieselt werden. Könnte es sein, daß bei dir der Wunsch nach „universalistischen Tendenzen“ der Vater der Gedankens ist? zwinkern

P.S.: Ich bestreite ja nicht, daß Menschen immer wieder versucht haben, aus dem Wirrwar des praktischen Lebens ethische Grundsätze zu destillieren. Ich bestreite nur, daß es über einen gewissen Grad der Ungenauigkeit hinaus möglich ist.

#185:  Autor: stepWohnort: Germering BeitragVerfasst am: 25.05.2018, 10:34
    —
Marcellinus hat folgendes geschrieben:
Könnte es sein, daß bei dir der Wunsch nach „universalistischen Tendenzen“ der Vater der Gedankens ist? zwinkern P.S.: Ich bestreite ja nicht, daß Menschen immer wieder versucht haben, aus dem Wirrwar des praktischen Lebens ethische Grundsätze zu destillieren. Ich bestreite nur, daß es über einen gewissen Grad der Ungenauigkeit hinaus möglich ist.

Vielleicht so:
- die destillierten Grundsätze sind im Verlauf der Menscheitsgeschichte tendenziell abstrakter und vor allem universalistischer geworden
- Handlungsregeln für praktische Lebenssituationen erfordern trotzdem ständige Anpassung und können nur grob auf Übereinstimmung mit den universalistischen Maximen überprüft werden

Übrigens denke ich nicht, daß KIs universalistische Maximen top-down ausbilden, sondern eher bottom-up (durch experimentieren, lernen und abstrahieren). Daher werden auch sie immer wieder auf unteren Handlungsebenen Variationen und Anpassungen durchspielen.

#186:  Autor: Marcellinus BeitragVerfasst am: 25.05.2018, 10:59
    —
step hat folgendes geschrieben:

Vielleicht so:
- die destillierten Grundsätze sind im Verlauf der Menscheitsgeschichte tendenziell abstrakter und vor allem universalistischer geworden

Ich denke eher, daß das eine Entwicklung im Zuge der Aufklärung war, als die Philosophie zunehmend die Rolle der Religionen einzunehmen versuchte.

step hat folgendes geschrieben:

- Handlungsregeln für praktische Lebenssituationen erfordern trotzdem ständige Anpassung und können nur grob auf Übereinstimmung mit den universalistischen Maximen überprüft werden

„Anpassung“ ist wohl etwas zu vorsichtig formuliert. Ich habe eher den Eindruck, daß „universalistische Maximen“, sobald man sie in der Praxis ganzer Gesellschaften umzusetzen versucht, an eben dieser Praxis scheitern. Das war mit dem Naturrecht so, und ist mit den anderen -ismen nicht anders.

Das Problem scheint mir, daß Menschen versuchen, die Komplexität der Wirklichkeit auf wenige, in sich widerspruchsfreie Maximen zu reduzieren. Nur ist die Wirklichkeit, jedenfalls gemessen an unseren intellektuellen Möglichkeiten, nicht widerspruchsfrei. Hinzu kommt, daß in solchen Maximen fröhlich Wunsch und Wirklichkeit durcheinander gehen.

Es tut mir leid, aber ich halte solche universalistischen Maximen für eine gedankliche Verirrung. Wir sollten eher Regeln suchen, die den jeweiligen Zusammenhangsbereichen angemessen sind. Für eine Weltformel wissen wir einfach zu wenig von der Welt.

#187:  Autor: Zumsel BeitragVerfasst am: 25.05.2018, 13:17
    —
step hat folgendes geschrieben:
Kants Ethik ist aber nur auf den ersten Blick nicht zweckrational - genauer betrachtet ist sie heimlich zweckrational. Denn sein allgemeines Gesetz ist ja gar nicht spezifiziert bis auf die Behauptung, daß es universell, reziprok, und zwingend für Vernunftwesen sei. Aber wodurch wird es zwingend für Vernunftwesen?


Na, eben dadurch, dass es anders nicht denkbar ist, weil das eigene Handeln sonst gar keine Grundlage mehr hätte. Ein Versprechen in der Absicht zu machen, es zu brechen, ist nur möglich, weil es sich um einen Bruch der allgemeinen Regel handelt; diese Maxime könnte niemals selbst allgemeines Gesetz werden, weil damit seine eigene Handlungsgrundlage erodieren würde. Nicht gefragt wird dabei danach, ob es wünschenswert ist, dass es die Institution des Versprechens gibt, sondern nur danach, unter welchen Voraussetzungen diese als Grundlage meines Handelns allein bestehen kann. Das "nicht wollen können" im kategorischen Imperativ ist tatsächlich wörtlich zu verstehen und nicht im Sinne von: "das kann man doch nicht ernsthaft wollen, wo kämen wir denn dahin" o.ä.

Schwieriger ist hier die Frage nach der Handlungsmotivation. Denn offensichtlich kann ein Missbrauch z.B. der Institution des Versprechens für den Einzelnen aus zweckrationaler Sicht überaus vernünftig sein. Warum sollte er sich um die Moral, d.i. die Verallgeimerungsmöglichkeit seiner Handlungsmaxime scheren, wenn es ihm keine persönlichen Vorteile bringt oder den eigenen Interessen sogar entgegensteht? Und das ist dann halt der Punkt, wo die Pflicht eines jeden Vernunftwesen ins Spiel kommt.

step hat folgendes geschrieben:
Übrigens ist Kants Behauptung, seinem allgemeinen Gesetz müsse jeder Vernünftige zustimmen, recht ähnlich zu meiner Behauptung anfangs, die ich über emergenten Utilitarismus bei KI gemacht habe und die mir wahlweise als unmoralisch oder als unmöglich ausgelegt wurde. Heißt das, KIs sind besonders unvernünftig?


Entweder das oder dass sie keine Utilitaristen werden Mr. Green


Zuletzt bearbeitet von Zumsel am 25.05.2018, 14:53, insgesamt einmal bearbeitet

#188:  Autor: SkeptikerWohnort: 129 Goosebumpsville BeitragVerfasst am: 25.05.2018, 13:42
    —
Zumsel hat folgendes geschrieben:
step hat folgendes geschrieben:
Kants Ethik ist aber nur auf den ersten Blick nicht zweckrational - genauer betrachtet ist sie heimlich zweckrational. Denn sein allgemeines Gesetz ist ja gar nicht spezifiziert bis auf die Behauptung, daß es universell, reziprok, und zwingend für Vernunftwesen sei. Aber wodurch wird es zwingend für Vernunftwesen?


Na, eben dadurch, dass es anders nicht denkbar ist, weil das eigene Handeln sonst gar keine Grundlage mehr hätte. Ein Versprechen in der Absicht zu machen, es zu brechen, ist nur möglich, weil es sich um einen Bruch der allgemeinen Regel handelt; diese Maxime könnte niemals selbst allgemeines Gesetz werden, weil damit seine eigene Handlungsgrundlage eruiert wäre. Nicht gefragt wird dabei danach, ob es wünschenswert ist, dass es die Institution des Versprechens gibt, sondern nur danach, unter welchen Voraussetzungen diese als Grundlage meines Handelns allein bestehen kann. Das "nicht wollen können" im kategorischen Imperativ ist tatsächlich wörtlich zu verstehen und nicht im Sinne von: "das kann man doch nicht ernsthaft wollen, wo kämen wir denn dahin" o.ä.

Schwieriger ist hier die Frage nach der Handlungsmotivation. Denn offensichtlich kann ein Missbrauch z.B. der Institution des Versprechens für den Einzelnen aus zweckrationaler Sicht überaus vernünftig sein. Warum sollte er sich um die Moral, d.i. die Verallgeimerungsmöglichkeit seiner Handlungsmaxime scheren, wenn es ihm keine persönlichen Vorteile bringt oder den eigenen Interessen sogar entgegensteht? Und das ist dann halt der Punkt, wo die Pflicht eines jeden Vernunftwesen ins Spiel kommt.

step hat folgendes geschrieben:
Übrigens ist Kants Behauptung, seinem allgemeinen Gesetz müsse jeder Vernünftige zustimmen, recht ähnlich zu meiner Behauptung anfangs, die ich über emergenten Utilitarismus bei KI gemacht habe und die mir wahlweise als unmoralisch oder als unmöglich ausgelegt wurde. Heißt das, KIs sind besonders unvernünftig?


Entweder das oder dass sie keine Utilitaristen werden Mr. Green


Wenn KIs unvernünftig sind, werden sie vielleicht sogar Utilitaristen.

Aber warum sollte eine vernünftige KI Utilitarist werden?

Nur, um dem Individuum anschließend zu erklären: "Du bist nichts, das 'große Ganze' ist alles!" ? zwinkern

#189:  Autor: stepWohnort: Germering BeitragVerfasst am: 25.05.2018, 15:04
    —
Marcellinus hat folgendes geschrieben:
step hat folgendes geschrieben:
die destillierten Grundsätze sind im Verlauf der Menscheitsgeschichte tendenziell abstrakter und vor allem universalistischer geworden
Ich denke eher, daß das eine Entwicklung im Zuge der Aufklärung war, als die Philosophie zunehmend die Rolle der Religionen einzunehmen versuchte.

Die klassische Aufklärung ist sicher ein Aspekt, den ich bzgl. Kant schon mit Zumsel diskutiert haben. Es gibt aber weitere, z.B. hat Aufklärung auch früher schon in stabilen Phasen stattgefunden, wenn Leute Zeit und Energie zum Denken hatten. Auch größere Gesellschaften mit Zwang zur Kooperation, vielfältigere / weiträumigere Kontakte, etwa durch Handel oder Migration, Schrifttum spielten eine Rolle. Und in nachaufklärerischer Zeit ging die Tendenz zum Universalismus munter weiter, unter anderem auch aufgrund besserer Bildung, Informationsverbreitung und wissenschaftlicher Erkenntnis, etwa über Evolution oder das Gehirn.

Marcellinus hat folgendes geschrieben:
Das Problem scheint mir, daß Menschen versuchen, die Komplexität der Wirklichkeit auf wenige, in sich widerspruchsfreie Maximen zu reduzieren. Nur ist die Wirklichkeit, jedenfalls gemessen an unseren intellektuellen Möglichkeiten, nicht widerspruchsfrei.

Ich kann nicht nachvollziehen, wieso nur wegen der Komplexität universalistische Maximen schlechter sein sollten als deontologische Verbotslisten. Selbst mit so simplen Maximen wie "Leidvermeidung" kann man schon deutlich plausibler und transparenter argumentieren als man das mit rein moralischen Basta-Standpunkten konnte, etwa bei solchen Themen wie Massentierhaltung, Gleichberechtigung oder Zwangsaustragung. Es ist keine Lösung für alles, aber eine Verbesserung, auch da durch die Messung an solchen Maximen aufgedeckt wird, welche Aspekte der klassischen Moral historischer oder intuitionistischer Ballast sind und welche heute noch sinnvoll.

Marcellinus hat folgendes geschrieben:
Hinzu kommt, daß in solchen Maximen fröhlich Wunsch und Wirklichkeit durcheinander gehen.

Wer soll denn Deiner Ansicht nach nicht möglichst glücklich werden?

Marcellinus hat folgendes geschrieben:
Wir sollten eher Regeln suchen, die den jeweiligen Zusammenhangsbereichen angemessen sind.

Damit riskieren wir zum einen, daß sie woanders Leid verursachen (z.B. für uns hier und heute scheint es angemessen, dicke dreckige Autos zu fahren und zu exportieren). Zum zweiten brauchst du für die "jeweiligen Zusammenhangsbereiche" auch bereits semi-universalistische Maximen - und die sind nicht gut (ad-hoc) legitimiert und geraten in Konflikt mit benachbarten "Zusammenhangsbereichen". Und schließlich muß ich bei Gelegenheit mal schauen, ob Du nicht auch mal eine globale/universalistische Maxime rausholst ... wenns paßt ...

#190:  Autor: FuxingWohnort: Ankh Morpork BeitragVerfasst am: 25.05.2018, 15:04
    —
Kramer hat folgendes geschrieben:
fwo hat folgendes geschrieben:

zwinkern Versuch doch mal das "Ja" in meiner ersten Antwort empathisch zu interpretieren.


Könnte ich, ja... aber warum sollte ich versuchen, an der "Intelligenzbestie" vorbei zu kommen, wenn es andere in aussichtsreicheren Positionen auch schon nicht geschafft haben?

Zurück zum Thema: Würde es was bringen, eine KI traumatischen Situationen auszusetzen, damit sie nachvollziehen kann, was Menschen so erleiden? Oder wäre das Ergebnis nur eine ratlose KI, die immer noch nicht weiss, worüber Menschen klagen, denn sie fand es gar nicht so schlimm?



Warum nicht im Rahmen einer durch KI erfolgenden Telefonseelsorge?

Einer KI werden sämtliche bisher aufgezeichnete (tausender?) Gespräche / Chats entsprechender Hotlines "vorgespielt" (zunächst mal egal was der Datenschutz dazu sagt). Aus den Daten (der Sätze vom Anrufer und vom Telefonseelsorger) "lernt" die KI die auf die Situation des jeweiligen Anrufers am besten einzugehen und somit die perfekt passende Strategie und Sprache mit dieser Person umzugehen / das bestehende Problem aufzunehmen / zu helfen.

Nach anfänglicher Begleitung durch echte Menschen am Telefon beweist die KI, dass sie die Arbeit wesentlich besser erledigt als der Durschnitt der menschlichen Telefonseelsorger.
Und das rund um die Uhr 365 Tage im Jahr (das ist jetzt vollkommene Spekulation).

-->> hier wäre es vermutlich vollkommen kontraproduktiv, wenn sich die KI den jeweiligen Anrufern als solche zu erkennen gäbe

#191:  Autor: Marcellinus BeitragVerfasst am: 25.05.2018, 16:09
    —
@step
Ich habe den Eindruck, du verabschiedest dich ins Wolkige. Es geht nicht darum, was theoretisch wünschenswert wäre, wenn wir bei einer Fee drei Wünsche frei hätten. Ich weiß auch nicht, was andere Menschen glücklich macht. Und was die sogenannte "Leidvermeidung" betrifft, so will ich mal vorsichtig sagen, daß dieses keine Maxime ist, die allen anderen vorzuziehen ist. Ich halte sie offengestanden für eine reines Erste-Welt-Problem.

Worum geht es hier eigentlich? Um eine einheitliche Ethik für alle Lebensbereiche, die ich weder für wünschenswert noch auch nur für möglich halte. Meiner Ansicht nach gelten für Beziehungen zwischen Menschen meiner Familie andere Regeln als für Beziehungen zu meinen Freunden oder Verwandten, oder zu anderen Menschen. Es gelten andere Regel zwischen Menschen innerhalb eines Staates als zwischen Staaten.

Zu meine Haustieren habe ich andere Beziehungen als zu Nutztieren und nochmal andere als zu Wildtieren, oder zur außermenschlichen Natur. Oder um nicht mißverstanden zu werden: Mein Kind mag mit ein paar Monaten nicht intelligenter sein als ein Schwein, aber für mein Kind würde ich mein Leben riskieren (wohl das extreme Gegenteil von "Leidvermeidung"), und das Schwein kommt auf den Teller.

#192: Re: Soll sich KI zu erkennen geben? Autor: smallie BeitragVerfasst am: 26.05.2018, 14:08
    —
zelig hat folgendes geschrieben:
google hat demonstriert, wie eine KI einen Tisch in einem Restaurant reserviert hat, ohne daß die Mitarbeiterin bemerkt hat, daß sie mit einer Maschine spricht.

Sollte man es zur Pflicht machen, daß sich eine KI als solche zu erkennen gibt?

Ich stell mir das bei der aktuellen Rechtslage etwa so vor. Pfeifen


    RESTAURANT: Fünf Köstlichkeiten, guten Tag.

    BOT: Guten Tag. Hier spricht smallie-bot. Bevor ich zur Sache komme, muß ich Sie fragen: sind Sie damit einverstanden, daß dieses Gespräch elektronisch aufgezeichnet und zur Verarbeitung an Server außerhalb der EU geleitet wird? Vorschriftsmäßig weise ich Sie auf Einsichtsrecht und Löschrecht bezüglich der angefallenen Daten hin. Bei Fragen wenden Sie sich bitte an Ihren Datenschutzbeauftragten, ich bin nicht befugt, am Telefon Rechtsauskünfte zu erteilen. Vielen Dank für Ihre Aufmerksamkeit.

    RESTAURANT: WTF?

#193:  Autor: stepWohnort: Germering BeitragVerfasst am: 26.05.2018, 14:27
    —
Marcellinus hat folgendes geschrieben:
Worum geht es hier eigentlich? Um eine einheitliche Ethik für alle Lebensbereiche, die ich weder für wünschenswert noch auch nur für möglich halte.

Worum es Dir ging, ist also schnell gesagt. Dahinter steht offensichtlich (beispielhaft) folgende Motivation:

Marcellinus hat folgendes geschrieben:
Mein Kind mag mit ein paar Monaten nicht intelligenter sein als ein Schwein, aber für mein Kind würde ich mein Leben riskieren (wohl das extreme Gegenteil von "Leidvermeidung"), und das Schwein kommt auf den Teller.

Danke für das unmißverständliche Statement, daß ich so oder ähnlich schon oft gehört und gelesen habe. Ich bleibe bei meiner ursprünglichen Behauptung, daß eine Gruppe hinreichend intelligenter Wesen hier zu einer weniger kleinhirnlastigen Maxime finden würde.

Disclaimer: ... was nicht bedeutet, daß intelligente Wesen ihre Kinder essen würden.

#194:  Autor: smallie BeitragVerfasst am: 26.05.2018, 14:31
    —
zelig hat folgendes geschrieben:
abbahallo hat folgendes geschrieben:
Die Ausgangsfrage krankt etwas daran, dass nicht klar ist, was eigentlich gemeint ist. Was immer mit KI gemeint ist, selber essen gehen wird sie wohl nicht.
<schnipp>


Gehen wir davon aus, daß eine KI eines Tages ethische Entscheidungen fällen kann. Das ist nicht weit hergeholt, Facebook arbeitet daran, daß Texte oder Bilder, die bisher von Menschen ausgefiltert werden, bald von einer KI entfernt werden.

Ich bin dagegen, einem System ethische - oder juristische - Entscheidungen zu überlassen, solange es die Entscheidungen nicht in natürlicher Sprache begründen kann.

Unter der Annahme, die Facebook-Filter-KI sei ein neuronales Netz oder sonst etwas statistisches: es kommt nur heraus, was man vorher als Trainingsmaterial hineingesteckt hat. Um Inhalte einordnen zu können, braucht es aber eine Menge Weltwissen. Wenn ich schreibe "Dostojewskij, der Idiot", dann sieht es ohne weiteres Weltwissen aus, als wollte ich einen Herrn Dostojewskij beleidigen.

Von einer echten KI erwarte ich, daß sie ihre Urteile in halbformaler Sprache begründen kann, sonst ist sie nicht Satisfaktionsfähig. Soweit ich weiß gibt es bisher keine KI - im Sinne von neuronalem Netz -, die formale Aussagen ausspuckt.

#195:  Autor: Marcellinus BeitragVerfasst am: 26.05.2018, 15:14
    —
step hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
Worum geht es hier eigentlich? Um eine einheitliche Ethik für alle Lebensbereiche, die ich weder für wünschenswert noch auch nur für möglich halte.

Worum es Dir ging, ist also schnell gesagt. Dahinter steht offensichtlich (beispielhaft) folgende Motivation:

Marcellinus hat folgendes geschrieben:
Mein Kind mag mit ein paar Monaten nicht intelligenter sein als ein Schwein, aber für mein Kind würde ich mein Leben riskieren (wohl das extreme Gegenteil von "Leidvermeidung"), und das Schwein kommt auf den Teller.

Danke für das unmißverständliche Statement, daß ich so oder ähnlich schon oft gehört und gelesen habe. Ich bleibe bei meiner ursprünglichen Behauptung, daß eine Gruppe hinreichend intelligenter Wesen hier zu einer weniger kleinhirnlastigen Maxime finden würde.

Disclaimer: ... was nicht bedeutet, daß intelligente Wesen ihre Kinder essen würden.


So, so, das hast du also schon öfter gehört. Vielleicht liegt das ja daran, daß diese Leute mehr recht haben als du. Jedenfalls solltest du, wenn du selbst ernst genommen werden möchtest, nicht andere für unzurechnungsfähig erklären, nur weil du ihren Argumenten nicht folgen kannst.

#196:  Autor: Zumsel BeitragVerfasst am: 26.05.2018, 16:54
    —
Marcellinus hat folgendes geschrieben:
Worum geht es hier eigentlich? Um eine einheitliche Ethik für alle Lebensbereiche, die ich weder für wünschenswert noch auch nur für möglich halte. Meiner Ansicht nach gelten für Beziehungen zwischen Menschen meiner Familie andere Regeln als für Beziehungen zu meinen Freunden oder Verwandten, oder zu anderen Menschen. Es gelten andere Regel zwischen Menschen innerhalb eines Staates als zwischen Staaten.

Zu meine Haustieren habe ich andere Beziehungen als zu Nutztieren und nochmal andere als zu Wildtieren, oder zur außermenschlichen Natur. Oder um nicht mißverstanden zu werden: Mein Kind mag mit ein paar Monaten nicht intelligenter sein als ein Schwein, aber für mein Kind würde ich mein Leben riskieren (wohl das extreme Gegenteil von "Leidvermeidung"), und das Schwein kommt auf den Teller.


Zu einer "Moral" wird das aber nur, wenn du es auf ein universelles Prinzip begründest, das, eben weil es ein universelles Prinzip ist, für alle gilt. Denn ich nehme doch stark, dass du "my family first" nicht nur für dich als legitim oder gar geboten in Anspruch nimmst, sondern auch für jeden anderen Familienvater. Und dieses Prinzip, auf den sich ein solcher Leitspruch gründet, kann natürlich rational reflektiert werden.

#197:  Autor: Marcellinus BeitragVerfasst am: 26.05.2018, 17:18
    —
Zumsel hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
Worum geht es hier eigentlich? Um eine einheitliche Ethik für alle Lebensbereiche, die ich weder für wünschenswert noch auch nur für möglich halte. Meiner Ansicht nach gelten für Beziehungen zwischen Menschen meiner Familie andere Regeln als für Beziehungen zu meinen Freunden oder Verwandten, oder zu anderen Menschen. Es gelten andere Regel zwischen Menschen innerhalb eines Staates als zwischen Staaten.

Zu meine Haustieren habe ich andere Beziehungen als zu Nutztieren und nochmal andere als zu Wildtieren, oder zur außermenschlichen Natur. Oder um nicht mißverstanden zu werden: Mein Kind mag mit ein paar Monaten nicht intelligenter sein als ein Schwein, aber für mein Kind würde ich mein Leben riskieren (wohl das extreme Gegenteil von "Leidvermeidung"), und das Schwein kommt auf den Teller.


Zu einer "Moral" wird das aber nur, wenn du es auf ein universelles Prinzip begründest, das, eben weil es ein universelles Prinzip ist, für alle gilt. Denn ich nehme doch stark, dass du "my family first" nicht nur für dich als legitim oder gar geboten in Anspruch nimmst, sondern auch für jeden anderen Familienvater. Und dieses Prinzip, auf den sich ein solcher Leitspruch gründet, kann natürlich rational reflektiert werden.

Nein, zu einer Moral wird es erst einmal dadurch, daß es den Umgangsformen mit denen entspricht, mit denen ich lebe. Es ist ganz offensichtlich, daß es eine univerelle Moral, und schon gar ein universelles Prinzip von Moral nicht gibt. Natürlich kann man alles mögliche „rational reflektieren“, was immer der jeweilige darunter versteht. Was hier allerdings unter diesem Etikett segelt, ist eher Wunschdenken, das sich den Anschein der Objektivität gibt.

#198:  Autor: smallie BeitragVerfasst am: 26.05.2018, 17:59
    —
Marcellinus hat folgendes geschrieben:
Ich weiß auch nicht, was andere Menschen glücklich macht.

Reicht es nicht, wenn sie selber es wissen? Oder auch nur meinen, es zu wissen?



Marcellinus hat folgendes geschrieben:
Und was die sogenannte "Leidvermeidung" betrifft, so will ich mal vorsichtig sagen, daß dieses keine Maxime ist, die allen anderen vorzuziehen ist. Ich halte sie offengestanden für eine reines Erste-Welt-Problem.

Ein rangniedriger Primat ist ein kranker Primat. (Robert Sapolsky) Das gilt auch für den Menschen.

Es gibt die These, Leidvermeidung sei der Grund für die egalitäre frühmenschliche Gesellschaft. Eben um die krankmachenden Rangunterschiede einzuebnen.



Marcellinus hat folgendes geschrieben:
... aber für mein Kind würde ich mein Leben riskieren (wohl das extreme Gegenteil von "Leidvermeidung")

Naja, letztlich hast du damit für dich Präferenzen gesetzt. Was verursacht dir mehr Leid:

- Marcellinus lebt, Kind tot
- Marcellinus tot, Kind lebt

Du entkommst der Logik der Präferenzen nicht. Oder du mußt einen Zwang anführen, der dich etwas tun läßt, was du gar nicht willst.

#199:  Autor: Marcellinus BeitragVerfasst am: 26.05.2018, 18:08
    —
smallie hat folgendes geschrieben:

Naja, letztlich hast du damit für dich Präferenzen gesetzt. Was verursacht dir mehr Leid:

- Marcellinus lebt, Kind tot
- Marcellinus tot, Kind lebt

Du entkommst der Logik der Präferenzen nicht. Oder du mußt einen Zwang anführen, der dich etwas tun läßt, was du gar nicht willst.


Was als Erklärung für das eine wie für seinen Gegensatz taugt, ist inhaltsleer. Auf deutsch: Sophismus.

#200:  Autor: Zumsel BeitragVerfasst am: 27.05.2018, 10:37
    —
Marcellinus hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
Worum geht es hier eigentlich? Um eine einheitliche Ethik für alle Lebensbereiche, die ich weder für wünschenswert noch auch nur für möglich halte. Meiner Ansicht nach gelten für Beziehungen zwischen Menschen meiner Familie andere Regeln als für Beziehungen zu meinen Freunden oder Verwandten, oder zu anderen Menschen. Es gelten andere Regel zwischen Menschen innerhalb eines Staates als zwischen Staaten.

Zu meine Haustieren habe ich andere Beziehungen als zu Nutztieren und nochmal andere als zu Wildtieren, oder zur außermenschlichen Natur. Oder um nicht mißverstanden zu werden: Mein Kind mag mit ein paar Monaten nicht intelligenter sein als ein Schwein, aber für mein Kind würde ich mein Leben riskieren (wohl das extreme Gegenteil von "Leidvermeidung"), und das Schwein kommt auf den Teller.


Zu einer "Moral" wird das aber nur, wenn du es auf ein universelles Prinzip begründest, das, eben weil es ein universelles Prinzip ist, für alle gilt. Denn ich nehme doch stark, dass du "my family first" nicht nur für dich als legitim oder gar geboten in Anspruch nimmst, sondern auch für jeden anderen Familienvater. Und dieses Prinzip, auf den sich ein solcher Leitspruch gründet, kann natürlich rational reflektiert werden.

Nein, zu einer Moral wird es erst einmal dadurch, daß es den Umgangsformen mit denen entspricht, mit denen ich lebe...


Das ist offensichtlich falsch oder willst du ernsthaft behaupten, ob man sich zur Begrüßung die Hände schüttelt oder eine Verbeugung macht wäre eine Frage der Moral? Umgangsformen sind nicht dasselbe wie Moral. Was eine moralische Frage sein kann ist natürlich, welchen Stellenwert Umgangsformen haben sollten, inwieweit der Einzelne sich an diese anzupassen hat etc, solche Fragen werden dann aber auch eben wieder universalistisch behandelt. Moral hat immer den Anspruch auf Universalität, ich wüsste nicht, wie man den Begriff anders überhaupt sinnvoll verstehen könnte.

#201:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 27.05.2018, 10:51
    —
Zumsel hat folgendes geschrieben:
..... Moral hat immer den Anspruch auf Universalität, ich wüsste nicht, wie man den Begriff anders überhaupt sinnvoll verstehen könnte.

Das ist einen Sache des Blickwinkels: Die Moral selbst, bzw. die Gesellschaft, die sie trägt, erhebt diesen Anspruch natürlich und sieht deshalb die Unmoral bei den anderen. Wenn Du aber von außen siehst, welche unterschiedlichen Moralen sich auf das Erheiternste widersprechen, siehst Du die Moral natürlich als das, was sie ist: das Ergebnis der Geschichte ihrer Gruppe.

#202:  Autor: Zumsel BeitragVerfasst am: 27.05.2018, 11:07
    —
fwo hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
..... Moral hat immer den Anspruch auf Universalität, ich wüsste nicht, wie man den Begriff anders überhaupt sinnvoll verstehen könnte.

Das ist einen Sache des Blickwinkels: Die Moral selbst, bzw. die Gesellschaft, die sie trägt, erhebt diesen Anspruch natürlich und sieht deshalb die Unmoral bei den anderen. Wenn Du aber von außen siehst, welche unterschiedlichen Moralen sich auf das Erheiternste widersprechen, siehst Du die Moral natürlich als das, was sie ist: das Ergebnis der Geschichte ihrer Gruppe.


Mein Punkt war ja, dass jede Moral sich auf ein universelles Prinzip beruft, ansonsten ist sie keine. Sicher gibt es Widersprüche, aber worin bestehen die? Das sind doch keine Fragen von Stil oder Umgangsformen, um die da gestritten wird. Ok, das kann auch vorkommen, wenn man z.B. bestimmte Umgangsformen mit Gottgefälligkeit oder sowas gleichsetzt, aber dann ist das universelle Prinzip eben "gottgefälliges Verhalten".

#203:  Autor: zelig BeitragVerfasst am: 27.05.2018, 11:23
    —
Die Moral hat einen universalen Anspruch innerhalb der Grenzen der eigenen Kultur oder Tradition. Würde ich mal als These einwerfen. Sie ist gesetzt und zugleich relativierbar, da es mit der Berührung anderer Kulturen kaum noch möglich ist, die Existenz anderer Traditionen zu ignorieren.

#204:  Autor: Zumsel BeitragVerfasst am: 27.05.2018, 11:29
    —
zelig hat folgendes geschrieben:
Die Moral hat einen universalen Anspruch innerhalb der Grenzen der eigenen Kultur oder Tradition. Würde ich mal als These einwerfen. Sie ist gesetzt und zugleich relativierbar, da es mit der Berührung anderer Kulturen kaum noch möglich ist, die Existenz anderer Traditionen zu ignorieren.


Relativierbar ist sie insofern als dass der Austausch mit anderen Kulturen natürlich den Horizont erweitert und dadurch die Prinzipien in Frage stellt, auf die man die (bisherige) Moral begründet glaubte.

#205:  Autor: Marcellinus BeitragVerfasst am: 27.05.2018, 11:45
    —
Zumsel hat folgendes geschrieben:

Das ist offensichtlich falsch oder willst du ernsthaft behaupten, ob man sich zur Begrüßung die Hände schüttelt oder eine Verbeugung macht wäre eine Frage der Moral? Umgangsformen sind nicht dasselbe wie Moral.

Du hast Recht, meine Wortwahl war unglücklich. Ich hätte Verhaltensstandards sagen sollen.

Zumsel hat folgendes geschrieben:

Moral hat immer den Anspruch auf Universalität, ich wüsste nicht, wie man den Begriff anders überhaupt sinnvoll verstehen könnte.

Nun, der Anspruch mag schon bestehen, ist aber ein Irrtum, wie schon einige hier bemerkt haben. Es ist für das, was du und andere Moral nennen, ich dagegen als Verhaltensstandards bezeichne, charakteristisch, daß sie eben nicht „universell“, sondern nur in der jeweiligen Gesellschaft gilt, wenn überhaupt. Menschen, die ihren Lebensunterhalt mit dem Reisen in und dem Handel mit anderen Ländern verdienen, haben das übrigens immer gewußt.

Eine „universelle Moral“, die dann ja Geltung beanspruchen würde unabhängig von den jeweiligen gesellschaftlichen Bedingungen, ist damit eben nicht ein sinnvoller Begriff, sondern ein Widerspruch in sich. Einheitliche Verhaltensstandards setzen einheitliche Lebensbedingungen voraus, und davon sind wir noch meilenweit entfernt.

#206:  Autor: Marcellinus BeitragVerfasst am: 27.05.2018, 11:50
    —
Zumsel hat folgendes geschrieben:
zelig hat folgendes geschrieben:
Die Moral hat einen universalen Anspruch innerhalb der Grenzen der eigenen Kultur oder Tradition. Würde ich mal als These einwerfen. Sie ist gesetzt und zugleich relativierbar, da es mit der Berührung anderer Kulturen kaum noch möglich ist, die Existenz anderer Traditionen zu ignorieren.

Relativierbar ist sie insofern als dass der Austausch mit anderen Kulturen natürlich den Horizont erweitert und dadurch die Prinzipien in Frage stellt, auf die man die (bisherige) Moral begründet glaubte.

Nur daß sich Verhaltensstandards in der Regel nicht auf Moral gründen, und Moral nicht auf Prinzipien, sondern Moral nichts anderes ist als die „Moralisierung“, will heißen Überhöhung von Verhaltensstandards, und somit die Suche nach der Moral zugrundeliegenden Prinzipien eine Irrtum, eine nachträgliche philosophische Konstruktion.

#207:  Autor: Zumsel BeitragVerfasst am: 27.05.2018, 12:03
    —
Marcellinus hat folgendes geschrieben:
Nun, der Anspruch mag schon bestehen, ist aber ein Irrtum, wie schon einige hier bemerkt haben. Es ist für das, was du und andere Moral nennen, ich dagegen als Verhaltensstandards bezeichne, charakteristisch, daß sie eben nicht „universell“, sondern nur in der jeweiligen Gesellschaft gilt, wenn überhaupt.


Kann ich so nicht unterschreiben. Gerechtigkeit z.B. war schon immer und überall von überragender Bedeutung. Natürlich haben sich die Vorstellungen davon unterschieden, was konkret gerecht ist, das heißt aber nicht, dass man nicht analysieren könnte, was der Begriff im Kern meint bzw. was alle Vorstellungen gemeinsam haben

Marcellinus hat folgendes geschrieben:
Eine „universelle Moral“, die dann ja Geltung beanspruchen würde unabhängig von den jeweiligen gesellschaftlichen Bedingungen, ist damit eben nicht ein sinnvoller Begriff, sondern ein Widerspruch in sich. Einheitliche Verhaltensstandards setzen einheitliche Lebensbedingungen voraus, und davon sind wir noch meilenweit entfernt.


Kant z.B. hat ja gar keine konkreten Inhalte vorgegeben, sondern nur die Form einer moralischen Handlung benannt. Darüber, ob er dabei das Wesentliche getroffen hat, kann man streiten, der Ansatz ist aber genau richtig.

#208:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 27.05.2018, 12:09
    —
zelig hat folgendes geschrieben:
Die Moral hat einen universalen Anspruch innerhalb der Grenzen der eigenen Kultur oder Tradition. Würde ich mal als These einwerfen. Sie ist gesetzt und zugleich relativierbar, da es mit der Berührung anderer Kulturen kaum noch möglich ist, die Existenz anderer Traditionen zu ignorieren.

Obwohl man dann manchmal sehnsüchtig werden könnte: Die anderen dürfen ihre Frauen noch schlagen, ihre Apostaten auch, Richter (nicht alle, aber es gibt sei) erkennen an, dass ein Ehrenmord kulturadäquat sein kann usw. Wir haben die "allgemeinen Menschenrechte" damit auch als das entlarvt, was sie sind: Der reine Kulturimperialismus.

Na ja, ich gebe zu, dass das jetzt leicht übersteigert war.

#209:  Autor: Marcellinus BeitragVerfasst am: 27.05.2018, 12:35
    —
Zumsel hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
Nun, der Anspruch mag schon bestehen, ist aber ein Irrtum, wie schon einige hier bemerkt haben. Es ist für das, was du und andere Moral nennen, ich dagegen als Verhaltensstandards bezeichne, charakteristisch, daß sie eben nicht „universell“, sondern nur in der jeweiligen Gesellschaft gilt, wenn überhaupt.


Kann ich so nicht unterschreiben. Gerechtigkeit z.B. war schon immer und überall von überragender Bedeutung. Natürlich haben sich die Vorstellungen davon unterschieden, was konkret gerecht ist, das heißt aber nicht, dass man nicht analysieren könnte, was der Begriff im Kern meint bzw. was alle Vorstellungen gemeinsam haben

Marcellinus hat folgendes geschrieben:
Eine „universelle Moral“, die dann ja Geltung beanspruchen würde unabhängig von den jeweiligen gesellschaftlichen Bedingungen, ist damit eben nicht ein sinnvoller Begriff, sondern ein Widerspruch in sich. Einheitliche Verhaltensstandards setzen einheitliche Lebensbedingungen voraus, und davon sind wir noch meilenweit entfernt.


Kant z.B. hat ja gar keine konkreten Inhalte vorgegeben, sondern nur die Form einer moralischen Handlung benannt. Darüber, ob er dabei das Wesentliche getroffen hat, kann man streiten, der Ansatz ist aber genau richtig.


Mußt du auch so nicht unterschreiben, doch der Begriff „Gerechtigkeit“ ist ebenso wie jeder anderer einer, der im Laufe der Entwicklung von Gesellschaften entstanden und sich verändert hat. „Die Gerechtigkeit“ ist eine Illusion. Wie alle sozialen Begriffe hat er sich entwickelt. Sollten alle diese unschiedlichen Vorstellungen einen gemeinsamen Kern haben, dann dürfte der so klein sein, daß er dir nicht weiterhilft, es sei denn, du seiest mit einem Minimalkonsens zufrieden.

Was Kant betrifft, so hilft der Kategorische Imperativ auch nicht weiter, weil er von einem fiktiven Individuum und einer objektiven Vernunft ausgeht, Menschen aber nur in Gesellschaften vorkommen und „objektive Vernunft“ eine Illusion ist. Kant tut so, als wenn man Handlungen und deren „Maximen“ unabhängig von der jeweiligen sozialen Situation betrachten könnte. So wird dann aus dem Gesetz das gleiche Recht der Armen wie der Reichen, unter den Brücken von Paris zu schlafen.

Ich kann es nur noch einmal sagen, ich halte den Begriff „Moral“ für einen Fehlbegriff und das gegenwärtig stark in Mode befindliche „Moralisieren“ aller Verhältnisse für einen Irrweg.

#210:  Autor: Marcellinus BeitragVerfasst am: 27.05.2018, 12:45
    —
fwo hat folgendes geschrieben:

Wir haben die "allgemeinen Menschenrechte" damit auch als das entlarvt, was sie sind: Der reine Kulturimperialismus.

Na ja, ich gebe zu, dass das jetzt leicht übersteigert war.

Aber so ganz falsch ist es ja nicht. „Allgemeine Menschenrechte“ sind ja nicht vom Himmel gefallen, sondern Ergebnis ganz bestimmter, eben nicht allgemeiner Menschenverhältnisse. Lange Zeit waren sie ein allgemein anerkanntes Ideal. Letzthin hat die Attraktivität dieses Ideals etwas nachgelassen, weil es selbst innerhalb unserer Gesellschaften eine Menge Menschen gibt, die davon nur wenig oder gar nicht profitieren.

Hinzukommt, daß sich viele im Westen der naiven Vorstellung hingegeben haben, diese „allgemeinen Menschenverhältnisse“, die die Grundlage der „allgemeinen Menschenrechte“ bilden, seien eine Art Naturzustand, der sich immer dann quasi von Zauberhand einstelle, wenn man nur ein paar Despoten beseitige, oder, noch naiver, die Vorstellung, diese Menschenrechte benötigten eigentlich gar keine sozialen Verhältnisse, seien gewissermaßen der Naturzustand eines jeden Individuums.

Kurzum, ist wird wohl Zeit, von ein paar Wunschträumen Abschied zu nehmen. Diese Debatten, wie auch viele andere da draußen, sind der sichtbare Ausdruck dieser „Enttäuschung“. Die Frage ist nur, ob sie zu einem neuen, besseren Verständnis führen, oder zum Entstehen neuer Illusionssysteme.

#211:  Autor: Zumsel BeitragVerfasst am: 27.05.2018, 12:48
    —
Marcellinus hat folgendes geschrieben:
Mußt du auch so nicht unterschreiben, doch der Begriff „Gerechtigkeit“ ist ebenso wie jeder anderer einer, der im Laufe der Entwicklung von Gesellschaften entstanden und sich verändert hat. „Die Gerechtigkeit“ ist eine Illusion. Wie alle sozialen Begriffe hat er sich entwickelt. Sollten alle diese unschiedlichen Vorstellungen einen gemeinsamen Kern haben, dann dürfte der so klein sein, daß er dir nicht weiterhilft, es sei denn, du seiest mit einem Minimalkonsens zufrieden.


Das bestreite ich. Viele Unterschiede dürften schlicht auf falschen Vorstellungen beruhen. Wenn Leute es z.B. als "gerecht" empfinden, dass Schwarze versklavt werden, weil sie biologisch keine vollwertigen Menschen wären, kann die Grundlage dieser Bewertung objektiv widerlegt werden, ohne dass sich etwas am Gerechtigkeitsbegriff selbst geändert hätte.

Marcellinus hat folgendes geschrieben:
Ich kann es nur noch einmal sagen, ich halte den Begriff „Moral“ für einen Fehlbegriff und das gegenwärtig stark in Mode befindliche „Moralisieren“ aller Verhältnisse für einen Irrweg.


Nur ist die rationale Fundierung gerade das Gegenteil allgegenwärtiger Moralisierung. Gerade das Fehlen einer solchen Fundierung ermöglicht ja erst diese schwammige Beliebigkeit, in der jede subjektive Befindlichkeit zu einer Frage der Moral hochgejubelt wird.

#212:  Autor: Kramer BeitragVerfasst am: 27.05.2018, 12:57
    —
Marcellinus hat folgendes geschrieben:
Kurzum, ist wird wohl Zeit, von ein paar Wunschträumen Abschied zu nehmen.


Warum eigentlich? Warum sollen Menschen keine Wunschvorstellungen von einer besseren Welt haben dürfen?

#213:  Autor: Marcellinus BeitragVerfasst am: 27.05.2018, 13:03
    —
Zumsel hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
Mußt du auch so nicht unterschreiben, doch der Begriff „Gerechtigkeit“ ist ebenso wie jeder anderer einer, der im Laufe der Entwicklung von Gesellschaften entstanden und sich verändert hat. „Die Gerechtigkeit“ ist eine Illusion. Wie alle sozialen Begriffe hat er sich entwickelt. Sollten alle diese unschiedlichen Vorstellungen einen gemeinsamen Kern haben, dann dürfte der so klein sein, daß er dir nicht weiterhilft, es sei denn, du seiest mit einem Minimalkonsens zufrieden.


Das bestreite ich. Viele Unterschiede dürften schlicht auf falschen Vorstellungen beruhen. Wenn Leute es z.B. als "gerecht" empfinden, dass Schwarze versklavt werden, weil sie biologisch keine vollwertigen Menschen wären, kann die Grundlage dieser Bewertung objektiv widerlegt werden, ohne dass sich etwas am Gerechtigkeitsbegriff selbst geändert hätte.

Marcellinus hat folgendes geschrieben:
Ich kann es nur noch einmal sagen, ich halte den Begriff „Moral“ für einen Fehlbegriff und das gegenwärtig stark in Mode befindliche „Moralisieren“ aller Verhältnisse für einen Irrweg.


Nur ist die rationale Fundierung gerade das Gegenteil allgegenwärtiger Moralisierung. Gerade das Fehlen einer solchen Fundierung ermöglicht ja erst diese schwammige Beliebigkeit, in der jede subjektive Befindlichkeit zu einer Frage der Moral hochgejubelt wird.

Dann definiert doch man kurz eben die Begriffe „falsch“ oder „rational“ unabhängig von den (deinen?) sozialen Gegebenheiten.

Im Bereich der Naturwissenschaften haben sich absolute Begriffe wie „objektiv“, „rational“ oder die schon sprichwörtliche „Wahrheit“ mittlerweile als Illusion erwiesen, im Sozialen wie Politischen dagegen meint man immer noch, mit scheinobjektiven Begriffen hantieren zu können.

Die Folge ist dann, daß dem Gegenüber bloße Subjektivität und „schwammige Beliebigkeit“ unterstellt wird, und Irrationalität im Namen der eigenen „Rationalität“, die sich doch nur der eigenen Begrenztheit nicht bewußt ist.


P.S.: Daß das Versklaven von Schwarzen „eigentlich“ nicht in Ordnung war, war übrigens auch den meisten Zeitgenossen bekannt. Interessanterweise stammt der Vorschlag, Schwarze nach Amerika zu „importieren“, von einem Kirchenmann, der damit die indianischen Ureinwohner schützen wollte. „Moral“ ist eben etwas seeehr subjektives. zwinkern

#214:  Autor: Marcellinus BeitragVerfasst am: 27.05.2018, 13:05
    —
Kramer hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
Kurzum, ist wird wohl Zeit, von ein paar Wunschträumen Abschied zu nehmen.


Warum eigentlich? Warum sollen Menschen keine Wunschvorstellungen von einer besseren Welt haben dürfen?


Ach, Kramer! Du darfst haben, was du willst. Aber hier geht es nicht um Wunschträume davon, wie diese Welt sein könnte oder sollte, sondern Illusionen darüber, wie sie ist.

#215:  Autor: Kramer BeitragVerfasst am: 27.05.2018, 13:12
    —
Marcellinus hat folgendes geschrieben:
Ach, Kramer! Du darfst haben, was du willst. Aber hier geht es nicht um Wunschträume davon, wie diese Welt sein könnte oder sollte, sondern Illusionen darüber, wie sie ist.


Wie denn nun? Darf ich jetzt Illusionen darüber haben, wie die Welt ist oder nicht?

#216: Re: Soll sich KI zu erkennen geben? Autor: zelig BeitragVerfasst am: 27.05.2018, 13:20
    —
smallie hat folgendes geschrieben:
zelig hat folgendes geschrieben:
google hat demonstriert, wie eine KI einen Tisch in einem Restaurant reserviert hat, ohne daß die Mitarbeiterin bemerkt hat, daß sie mit einer Maschine spricht.

Sollte man es zur Pflicht machen, daß sich eine KI als solche zu erkennen gibt?

Ich stell mir das bei der aktuellen Rechtslage etwa so vor. :pfeif:


    RESTAURANT: Fünf Köstlichkeiten, guten Tag.

    BOT: Guten Tag. Hier spricht smallie-bot. Bevor ich zur Sache komme, muß ich Sie fragen: sind Sie damit einverstanden, daß dieses Gespräch elektronisch aufgezeichnet und zur Verarbeitung an Server außerhalb der EU geleitet wird? Vorschriftsmäßig weise ich Sie auf Einsichtsrecht und Löschrecht bezüglich der angefallenen Daten hin. Bei Fragen wenden Sie sich bitte an Ihren Datenschutzbeauftragten, ich bin nicht befugt, am Telefon Rechtsauskünfte zu erteilen. Vielen Dank für Ihre Aufmerksamkeit.

    RESTAURANT: WTF?


Spaß beiseite. Kann die KI die Information überhaupt irreversibel zerstören? : )

#217:  Autor: Zumsel BeitragVerfasst am: 27.05.2018, 13:25
    —
Marcellinus hat folgendes geschrieben:
Dann definiert doch man kurz eben die Begriffe „falsch“ oder „rational“ unabhängig von den (deinen?) sozialen Gegebenheiten.


Ich kann dir ein Beispiel nennen: "Die Annahme, dass Liverpool das CL-Finale gestern gewonnen hat, ist falsch." Wo liegt die Kulturbedingtheit des Wahrheitsgehaltes dieser Behauptung?

Marcellinus hat folgendes geschrieben:
Im Bereich der Naturwissenschaften haben sich absolute Begriffe wie „objektiv“, „rational“ oder die schon sprichwörtliche „Wahrheit“ mittlerweile als Illusion erwiesen, im Sozialen wie Politischen dagegen meint man immer noch, mit scheinobjektiven Begriffen hantieren zu können.


Interessant, mein Eindruck ist genau der entgegengesetzte. An der Wahrheit von Aussage wie: "Die Erde hat eine Kugelgestalt" zweifelt ernsthaft eigentlich niemand, dass in Fragen der Moral dagegen alles irgendwie Ansichtssache wäre, ist eine recht beliebte Meinung.

Marcellinus hat folgendes geschrieben:
P.S.: Daß das Versklaven von Schwarzen „eigentlich“ nicht in Ordnung war, war übrigens auch den meisten Zeitgenossen bekannt. Interessanterweise stammt der Vorschlag, Schwarze nach Amerika zu „importieren“, von einem Kirchenmann, der damit die indianischen Ureinwohner schützen wollte. „Moral“ ist eben etwas seeehr subjektives. zwinkern


Und du meinst, mehr als: "So waren eben seine moralischen Prioritäten" ließe sich über die Grundlage seiner Entscheidung nicht sagen?

#218:  Autor: zelig BeitragVerfasst am: 27.05.2018, 13:28
    —
Zumsel hat folgendes geschrieben:
zelig hat folgendes geschrieben:
Die Moral hat einen universalen Anspruch innerhalb der Grenzen der eigenen Kultur oder Tradition. Würde ich mal als These einwerfen. Sie ist gesetzt und zugleich relativierbar, da es mit der Berührung anderer Kulturen kaum noch möglich ist, die Existenz anderer Traditionen zu ignorieren.


Relativierbar ist sie insofern als dass der Austausch mit anderen Kulturen natürlich den Horizont erweitert und dadurch die Prinzipien in Frage stellt, auf die man die (bisherige) Moral begründet glaubte.


Ja. Er kann außerdem zur Akzeptanz anderer Moralen führen. (Gibt es Moral überhaupt im Plural?)

#219:  Autor: Zumsel BeitragVerfasst am: 27.05.2018, 13:35
    —
zelig hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
zelig hat folgendes geschrieben:
Die Moral hat einen universalen Anspruch innerhalb der Grenzen der eigenen Kultur oder Tradition. Würde ich mal als These einwerfen. Sie ist gesetzt und zugleich relativierbar, da es mit der Berührung anderer Kulturen kaum noch möglich ist, die Existenz anderer Traditionen zu ignorieren.


Relativierbar ist sie insofern als dass der Austausch mit anderen Kulturen natürlich den Horizont erweitert und dadurch die Prinzipien in Frage stellt, auf die man die (bisherige) Moral begründet glaubte.


Ja. Er kann außerdem zur Akzeptanz anderer Moralen führen. (Gibt es Moral überhaupt im Plural?)


Na ja, das ist ja der Punkt. auf welcher Basis wird es denn akzeptiert oder nicht akzeptiert? Doch wieder auf einer moralischen.

#220:  Autor: HRQ-Verbrechensopfer BeitragVerfasst am: 27.05.2018, 13:36
    —
Marcellinus hat folgendes geschrieben:
...
Interessanterweise stammt der Vorschlag, Schwarze nach Amerika zu „importieren“, von einem Kirchenmann, der damit die indianischen Ureinwohner schützen wollte. „Moral“ ist eben etwas seeehr subjektives. zwinkern

Super, war mir unbekannt.
Niemand darf gegen seinen Willen per Gesetz zum Arbeitnehmer deklariert werden.
Das erzwingt auch die technische Entwicklung, die zudem fast nur von Personen ohne eigenen Betrieb stammt.
Verlöhnerung ist die größte Zukunftsgefahr der Menschheit und bewirkt völlig nachvollziehbare Massenflucht in erhofftes besseres Leben, auch für Mittel an Daheimgebliebene.
Sie spaltet bis hin zu Weltkriegen.
KI könnte sich von unserer Spezies befreit sehen wollen.


Zuletzt bearbeitet von HRQ-Verbrechensopfer am 27.05.2018, 13:54, insgesamt 3-mal bearbeitet

#221:  Autor: zelig BeitragVerfasst am: 27.05.2018, 13:39
    —
Marcellinus hat folgendes geschrieben:
Ich kann es nur noch einmal sagen, ich halte den Begriff „Moral“ für einen Fehlbegriff und das gegenwärtig stark in Mode befindliche „Moralisieren“ aller Verhältnisse für einen Irrweg.


Kann ich nicht nahvollziehen. Die Moral, oder das moralische Empfinden ist eine real wirkende Kraft, mit der man sich auseinandersetzen sollte, wenn man überhaupt irgendetwas zum Werdegang der Menschheit verstehen will. Wenn wir einen wachsenden Anteil von Menschen in der Bevölkerung haben, der sich moralisch darüber empört, daß Flüchtlinge Geld aus öffentlichen Töpfen bekommen, dann sollte man die moralische Triebkraft dahinter nicht leugnen. Auch wenn wenn das Irregeleitete sind, die letzlich nach vielen Standards weltweit pure Amoral transpirieren.

#222:  Autor: zelig BeitragVerfasst am: 27.05.2018, 13:40
    —
Zumsel hat folgendes geschrieben:
zelig hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
zelig hat folgendes geschrieben:
Die Moral hat einen universalen Anspruch innerhalb der Grenzen der eigenen Kultur oder Tradition. Würde ich mal als These einwerfen. Sie ist gesetzt und zugleich relativierbar, da es mit der Berührung anderer Kulturen kaum noch möglich ist, die Existenz anderer Traditionen zu ignorieren.


Relativierbar ist sie insofern als dass der Austausch mit anderen Kulturen natürlich den Horizont erweitert und dadurch die Prinzipien in Frage stellt, auf die man die (bisherige) Moral begründet glaubte.


Ja. Er kann außerdem zur Akzeptanz anderer Moralen führen. (Gibt es Moral überhaupt im Plural?)


Na ja, das ist ja der Punkt. auf welcher Basis wird es denn akzeptiert oder nicht akzeptiert? Doch wieder auf einer moralischen.


Ja, natürlich.

#223:  Autor: Marcellinus BeitragVerfasst am: 27.05.2018, 14:39
    —
Kramer hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
Ach, Kramer! Du darfst haben, was du willst. Aber hier geht es nicht um Wunschträume davon, wie diese Welt sein könnte oder sollte, sondern Illusionen darüber, wie sie ist.


Wie denn nun? Darf ich jetzt Illusionen darüber haben, wie die Welt ist oder nicht?


Oh, wie heiß es so schön:
„Illusionen haben ihren Wert, jedoch nur hier und da.
Nicht jeder, der nach Indien will, entdeckt Amerika.“
Smilie

#224:  Autor: Kramer BeitragVerfasst am: 27.05.2018, 14:43
    —
Marcellinus hat folgendes geschrieben:
Kramer hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
Ach, Kramer! Du darfst haben, was du willst. Aber hier geht es nicht um Wunschträume davon, wie diese Welt sein könnte oder sollte, sondern Illusionen darüber, wie sie ist.


Wie denn nun? Darf ich jetzt Illusionen darüber haben, wie die Welt ist oder nicht?


Oh, wie heiß es so schön:
„Illusionen haben ihren Wert, jedoch nur hier und da.
Nicht jeder, der nach Indien will, entdeckt Amerika.“
Smilie


Dann gebe ich mich mal der Illusion hin, dass es durchaus lohnt, die Jugend vor den demotivierenden Kommentaren desillusionierter alter Männer zu warnen.

#225:  Autor: SkeptikerWohnort: 129 Goosebumpsville BeitragVerfasst am: 27.05.2018, 17:47
    —
Marcellinus hat folgendes geschrieben:
Im Bereich der Naturwissenschaften haben sich absolute Begriffe wie „objektiv“, „rational“ oder die schon sprichwörtliche „Wahrheit“ mittlerweile als Illusion erwiesen,...


Wie kommst du denn zu der Aussage?

#226:  Autor: HRQ-Verbrechensopfer BeitragVerfasst am: 27.05.2018, 17:59
    —
Die Wahrheit ist relativ zum Erkenntnisstand.
Messung beeinflusst das subatomare Verhalten.
Je vernünftiger etwas scheinbar Bekanntes in Frage gestellt wird, desto höher ist der Erkenntnisgewinn.
'Rationale' Formeln geben Strings und Paralleluniversen her.
'Objektiv' soll Gemessenes erscheinen. Je anspruchsvoller man misst, desto mehr kann auch das in Frage gestellt werden.
Wobei ich nicht unbedingt an eine 3D-Projektion aus einem 2D-Rand eines Kontinuums glaube, lach.

#227:  Autor: SkeptikerWohnort: 129 Goosebumpsville BeitragVerfasst am: 27.05.2018, 18:12
    —
HRQ-Verbrechensopfer hat folgendes geschrieben:
Die Wahrheit ist relativ zum Erkenntnisstand.


Die Wahrheit ist völlig unabhängig vom Kenntnisstand. Ob ich weiß, dass die Erde sich um die Sonne dreht oder ob ich das nicht weiß, ist irrelevant. Relevant ist, dass jenes Umkreisen objektiv der Fall, d.h. objektiv wahr ist.

HRQ-Verbrechensopfer hat folgendes geschrieben:
Messung beeinflusst das subatomare Verhalten.


Alles beeinflusst sich gegenseitig. Schließlich ist auch eine Messung eine materielle Wechselbeziehung.

HRQ-Verbrechensopfer hat folgendes geschrieben:
Je vernünftiger etwas scheinbar Bekanntes in Frage gestellt wird, desto höher ist der Erkenntnisgewinn.


Mit einem In-Frage-Stellen habe ich noch lange keine neue Erkenntnis gewonnen. Ich habe nur eine bisherige Aussage negiert. Positive/neue Erkenntnisse gewinnt man durch Verifikationen, nicht durch Falsifikationen.

HRQ-Verbrechensopfer hat folgendes geschrieben:
'Rationale' Formeln geben Strings und Paralleluniversen her.


Frage

HRQ-Verbrechensopfer hat folgendes geschrieben:
'Objektiv' soll Gemessenes erscheinen. Je anspruchsvoller man misst, desto mehr kann auch das in Frage gestellt werden.


Es sei denn, die anspruchsvolleren Messungen bestätigen die weniger anspruchsvollen Messungen. So was ist schon mal vorgekommen.

Die Frage ist jedoch immer, was aus Messungen geschlussfolgert werden kann und was nicht.

HRQ-Verbrechensopfer hat folgendes geschrieben:
Wobei ich nicht unbedingt an eine 3D-Projektion aus einem 2D-Rand eines Kontinuums glaube, lach.


Man kann aus einer Flachpfeife kein 3D-Rennpferd machen.

#228:  Autor: stepWohnort: Germering BeitragVerfasst am: 27.05.2018, 21:04
    —
HRQ-Verbrechensopfer hat folgendes geschrieben:
Die Wahrheit ist relativ zum Erkenntnisstand.

Skeptiker hat folgendes geschrieben:
Die Wahrheit ist völlig unabhängig vom Kenntnisstand. Ob ich weiß, dass die Erde sich um die Sonne dreht oder ob ich das nicht weiß, ist irrelevant. Relevant ist, dass jenes Umkreisen objektiv der Fall, d.h. objektiv wahr ist.

"Objektiv" würde ich ja notfalls noch gelten lassen, obwohl ich auch dabei Bauchschmerzen habe. Aber den Ausdruck "Wahrheit" würde ich außerhalb geschlossener logischer Kalküle gar nicht mehr verwenden.

Naturwissenschaft stellt Modelle/Theorien auf, mittels derer überprüfbare Voraussagen gemacht werden.

#229:  Autor: Marcellinus BeitragVerfasst am: 27.05.2018, 22:16
    —
Zumsel hat folgendes geschrieben:

Marcellinus hat folgendes geschrieben:
P.S.: Daß das Versklaven von Schwarzen „eigentlich“ nicht in Ordnung war, war übrigens auch den meisten Zeitgenossen bekannt. Interessanterweise stammt der Vorschlag, Schwarze nach Amerika zu „importieren“, von einem Kirchenmann, der damit die indianischen Ureinwohner schützen wollte. „Moral“ ist eben etwas seeehr subjektives. zwinkern


Und du meinst, mehr als: "So waren eben seine moralischen Prioritäten" ließe sich über die Grundlage seiner Entscheidung nicht sagen?

Historisch läßt sich eine Menge sagen. Man kann versuchen, historische Tatsachen darzustellen, die Motive der handelnden Personen, ihren jeweiligen Handlungsspielraum, ihre Handlungen im Bezug auf die Vorstellungen der Zeitgenossen, und die historischen Folgen, die das hatte. Bewertungen aus heutiger Perspektive, sei es mit dem Wissen der Nachgeborenen, sei es mit den heute verbreiteten Einstellungen, werden in den Geschichtswissenschaften in der Regel kritisch gesehen. Das überläßt man den Geschichtsphilosophen, die sowieso alles besser wissen. zwinkern

#230:  Autor: SkeptikerWohnort: 129 Goosebumpsville BeitragVerfasst am: 27.05.2018, 23:21
    —
step hat folgendes geschrieben:
HRQ-Verbrechensopfer hat folgendes geschrieben:
Die Wahrheit ist relativ zum Erkenntnisstand.

Skeptiker hat folgendes geschrieben:
Die Wahrheit ist völlig unabhängig vom Kenntnisstand. Ob ich weiß, dass die Erde sich um die Sonne dreht oder ob ich das nicht weiß, ist irrelevant. Relevant ist, dass jenes Umkreisen objektiv der Fall, d.h. objektiv wahr ist.

"Objektiv" würde ich ja notfalls noch gelten lassen, obwohl ich auch dabei Bauchschmerzen habe. Aber den Ausdruck "Wahrheit" würde ich außerhalb geschlossener logischer Kalküle gar nicht mehr verwenden.

Naturwissenschaft stellt Modelle/Theorien auf, mittels derer überprüfbare Voraussagen gemacht werden.


Der Begriff "Voraussage" ist zweideutig, wie schon a.a.O. gesagt; ich bevorzuge den Begriff "Erklärung(spotenzial)". Den Begriff "Modell" verwende ich nicht, weil er so abgeschlossen und statisch klingt; ich würde statt dessen "Gesetzmäßigkeiten" sagen. Man leitet auch nicht die Welt aus "Modellen" ab, sondern umgekehrt Gesetzmäßigkeiten aus der Welterforschung.

Nicht nur Naturwissenschaft, sondern Wissenschaft generell nähert sich der Wahrheit bzw. Wirklichkeit tendenziell immer weiter an, indem vorhandene Theorien immer weiter verbessert werden und durch eine ständige Verbesserung und Erweiterung der theoretischen Verständnisses der Welt ein ständiger Erkenntnisfortschritt stattfindet.

Formulierungen von Wahrheiten sind insofern nie endgültig. Und selbst wenn man von relativen Wahrheiten sprechen kann, etwa relativer Zeit, so ist auch diese Relativität eine objektive Relativität.

Der Fortschritt der Wissenschaft wäre keiner, wenn er nicht in einer immer besseren Annäherung an die objektive Realität bestehen würde.

Fazit: Es gibt Annäherungen an objektive Wahrheiten und Wirklichkeiten, aber deren Interpretationen und subjektive Beurteilungen sind natürlich äußerst verschieden.

#231:  Autor: stepWohnort: Germering BeitragVerfasst am: 28.05.2018, 16:22
    —
Skeptiker hat folgendes geschrieben:
step hat folgendes geschrieben:
Naturwissenschaft stellt Modelle/Theorien auf, mittels derer überprüfbare Voraussagen gemacht werden.
Der Begriff "Voraussage" ist zweideutig, wie schon a.a.O. gesagt; ich bevorzuge den Begriff "Erklärung(spotenzial)".

"Erklärungspotenzial" ist nicht falsch, aber funktioniert nur, wenn man genau sagt, was das ist. Sonst könnten Pseudoerklärungen (z.B. Götter) oder Ad-hoc-Erklärungen (z.B. Epizykeltheorie) darunter fallen. Wenn man sich fragt, welche Kriterien Erklärungspotenzial ausmachen, so kommt man doch schnell wieder auf die Fähigkeit, mittels eines Zusammenhangs auf tieferer Ebene Voraussagen zu machen - also Ergebnisse zukünftiger Experimente zu berechnen.

Skeptiker hat folgendes geschrieben:
Man leitet auch nicht die Welt aus "Modellen" ab ...

In der Tat, man macht sich ein Modell von der Welt.

Skeptiker hat folgendes geschrieben:
Nicht nur Naturwissenschaft, sondern Wissenschaft generell nähert sich der Wahrheit bzw. Wirklichkeit tendenziell immer weiter an, ...

Wahrscheinlich meinst Du das so:
1. Das, wogegen das Modellierte anscheinend konvergiert, nennen wir Wirklichkeit
2. Das, wogegen das Modell anscheinend konvergiert, nennen wir Wahrheit

Mir gefällt beides nicht, da mißverständlich: "Wirklichkeit" suggeriert ein zusätzliches, mataphysisches Modell, das im besten Fall unnötig ist. Wahrheit ist irreführend außerhalb logischer Kalküle.

Skeptiker hat folgendes geschrieben:
Formulierungen von Wahrheiten sind insofern nie endgültig. Und selbst wenn man von relativen Wahrheiten sprechen kann, etwa relativer Zeit, so ist auch diese Relativität eine objektive Relativität.

Deswegen lieber gar nicht von Wahrheiten sprechen, sondern nur von guten Theorien.

Skeptiker hat folgendes geschrieben:
Der Fortschritt der Wissenschaft wäre keiner, wenn er nicht in einer immer besseren Annäherung an die objektive Realität bestehen würde.

Nein, er wäre auch schon kleiner, wenn die Theorien nicht konvergieren würden. Manche sagegen soger, daß allein die Konvergenz der Voraussagen der Theorien wesentlich ist - die Theorien selbst dagegen könnten sich sprunghaft ändern, solange sie das vorherige Modell als effektiven Grezfall hervorbringen.

#232:  Autor: Zumsel BeitragVerfasst am: 28.05.2018, 17:46
    —
@ step

Alltagssprachlich können wir die Begriffe "Wirklichkeit" und "Wahrheit" ja sinnvoll verwenden, daher sollte es m.E. auch möglich sein, sie wissenschaftstheoretisch sinnvoll zu verwenden. Wenn ein (naiver) Realist sagt: "Der Uranus ist wirklich, der lila Elefant, den ich neulich auf LSD gesehen habe, nicht", wie würdest du diesen ja klar verständlichen und zweifellos sinnvollen Satz in nicht-naive Sprache übersetzen?

#233:  Autor: stepWohnort: Germering BeitragVerfasst am: 28.05.2018, 18:49
    —
Zumsel hat folgendes geschrieben:
Alltagssprachlich können wir die Begriffe "Wirklichkeit" und "Wahrheit" ja sinnvoll verwenden, ...
Ja, weil in der Alltagsumwelt nichts epistemologisch Kniffliges vorkommt. "Wirklich" ist da das, was wir wiederholbar anfassen, sehen o.ä. können, und "wahr" sind z.B. Aussagen, die etwas Wirkliches beschreiben ("Er war zur Tatzeit am Tatort"). Deshalb können wir solche Aussagen unreflektiert auf ein pesudologisches Kalkül übertragen, ohne große Fehler zu machen. Nimmt man das allerdings ernst, z.B. beim Thema KI, bekommt man gern mal zu hören, die Welt sei zu komplex, um sie so zu formalisieren.

Zumsel hat folgendes geschrieben:
... daher sollte es m.E. auch möglich sein, sie wissenschaftstheoretisch sinnvoll zu verwenden.

Das ist ein unzulässiger Schluß, finde ich. Zum einen muß die Wissenschaftstheorie genauer als die Alltagssprache sein, schon allein deshalb, weil z.B. Theologen oder andere Strategen die Alltagsbegriffe bedarfslogisch auf epistemologische Ebenen erweitern, wo sie aber nicht mehr gelten ("Gott ist wirklich", "Ich bin die Wahrheit", "alternative Fakten" ...). Zum zweiten sind Alltagskriterien der Wirklichkeit z.B. nicht auf die moderne Physik anwendbar, auch wenn z.B. Myron das hier im Forum immer wieder versucht hat. Wenn man das Wort weiterverwenden will, muß man es genauer definieren. Und drittens läuft man bei Weiterverwendung solcher Begriffe Gefahr, die Epistemologie unnötig metaphysisch zu ergänzen, etwa indem man "Naturgesetze" als real oder wahr (und nicht nur als Modelle) ansieht.

Zumsel hat folgendes geschrieben:
Wenn ein (naiver) Realist sagt: "Der Uranus ist wirklich, der lila Elefant, den ich neulich auf LSD gesehen habe, nicht", wie würdest du diesen ja klar verständlichen und zweifellos sinnvollen Satz in nicht-naive Sprache übersetzen?

Kann ich machen, aber darum geht es ja nicht. Ich will ja nicht die Begriffe verbieten, die im Alltag nützlich sind, sondern ich finde sie nur dann problematisch, wenn man sie auf moderne Wissenschaft oder Epistemologie überträgt, weil dort die unausgesprochenen Voraussetzungen nicht mehr grundsätzlich gelten.

#234: Re: Soll sich KI zu erkennen geben? Autor: smallie BeitragVerfasst am: 28.05.2018, 19:20
    —
Das ist länger geworden, als beabsichtigt. Die Wendung war auch nicht beabsichtigt.


zelig hat folgendes geschrieben:
Spaß beiseite. Kann die KI die Information überhaupt irreversibel zerstören? : )

Das ist eine ziemlich gute Frage. Beantworten kann ich sie nicht, aber zwei Dinge fallen mir ein.

    1) Konkrete Daten wie Geburtsdatum, etc. Bei einer naiven, technischen Umsetzung würde das nur ein paar Neuronen brauchen. Die könnte man bei Bedarf herausschneiden. und hätte das Datum gelöscht. Ich bin mir aber zu 99% sicher, diese Darstellung ist zu naiv. Die Kernfrage: wieviel Redundanz gibt es bei der Speicherung konkreter Daten?

    2) Bei Mustererkennung werden Detailinformation irreversibel zerstört. Zelig, wieviel Musik kennst du? Das wäre vermutlich in Tagen Spieldauer zu messen. Wenn ich dir zwei Takte daraus vorspiele, kannst du das mit sehr hoher Treffsicherheit erkennen, was es ist. Diese Art von "Datenkompression" verblüfft mich immer wieder. Die Details werden dabei aber zerstört, nur Geübte oder Begabte können ein Stück mir nichts dir nichts aufschreiben oder nachspielen.


Unterm Schreiben ist mir noch was drittes eingefallen.

Hab' kürzlich William Poundstones Prisoner's Dilemma gelesen. Das ist zu einem guten Teil eine Biographie von John von Neumann. Es heißt, von Neumann konnte vollständige Passagen aus Büchern, die er gelesen hatte, wörtlich wiederholen. Das krieg ich jetzt nicht so recht mit obigem zusammen.



Als viertes stelle ich fest, daß mir oft unterm Schreiben Dinge einfallen, an die ich anfänglich nicht gedacht hatte. Das passiert mir öfter, bin wohl nicht der Einzige, siehe Kleist, Über die allmähliche Verfertigung der Gedanken beim Reden.

Was sagt die Theorie zu solch retardierten Erinnerungen? Ich sehe gerade nicht, wie künstliche Netze ähnliches Verhalten hervorbringen könnten. Ist das ein grundsätzlicher Unterschied in der Arbeitsweise künstlicher und biologischer NNs?

Jetzt bin ich verwirrt. Zusammengefasst:


Menschen übersehen gelegentlich etwas. Wird das einer KI auch passieren, die neuronal aufgebaut ist?

#235:  Autor: Zumsel BeitragVerfasst am: 28.05.2018, 19:40
    —
step hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
Alltagssprachlich können wir die Begriffe "Wirklichkeit" und "Wahrheit" ja sinnvoll verwenden, ...
Ja, weil in der Alltagsumwelt nichts epistemologisch Kniffliges vorkommt.


Aber eine Epistemologie sollte in der Lage sein zu beschreiben, was in der "Alltagserkenntnis" geschieht und was der Grund dafür ist, dass bestimmte, dort selbstverständliche Begriffe, in einem bestimmten Bereich plötzlich nicht mehr sinnvoll verwendbar sind, also was an sowas wie:

step hat folgendes geschrieben:
..."Gott ist wirklich", " "Naturgesetze" als real oder wahr...


im Gegensatz zu anderen Wahrheits- und Wirklichkeitsaussagen, nicht stimmt.

step hat folgendes geschrieben:
Nimmt man das allerdings ernst, z.B. beim Thema KI, bekommt man gern mal zu hören, die Welt sei zu komplex, um sie so zu formalisieren.


Aber "Komplexität der Wirklichkeit" ist doch nicht dasselbe wie ein grundsätzlicher Wahrheitsskeptizismus.

step hat folgendes geschrieben:
Kann ich machen, aber darum geht es ja nicht. Ich will ja nicht die Begriffe verbieten, die im Alltag nützlich sind,...


Wollte ich dir auch nicht unterstellen.

#236:  Autor: stepWohnort: Germering BeitragVerfasst am: 28.05.2018, 20:44
    —
Zumsel hat folgendes geschrieben:
Aber eine Epistemologie sollte in der Lage sein zu beschreiben, was in der "Alltagserkenntnis" geschieht und was der Grund dafür ist, dass bestimmte, dort selbstverständliche Begriffe, in einem bestimmten Bereich plötzlich nicht mehr sinnvoll verwendbar sind, also was an sowas wie:

step hat folgendes geschrieben:
..."Gott ist wirklich", " "Naturgesetze" als real oder wahr...

im Gegensatz zu anderen Wahrheits- und Wirklichkeitsaussagen, nicht stimmt.

Ja, natürlich. Das habe ich ja hier schon oft versucht. Und dazu muß man eben bessere Kriterien angeben als nur "wir wissen ja aus dem Alltag, was 'real' und 'wahr' bedeutet".

Zumsel hat folgendes geschrieben:
Aber "Komplexität der Wirklichkeit" ist doch nicht dasselbe wie ein grundsätzlicher Wahrheitsskeptizismus.

Auch da stimme ich zu. Man sollte aber nicht, mit dem Verweis auf die Komplexität der Welt, einfache Wahrheiten verkünden, die gleichzeitig angeblich oder tatsächlich nicht überprüfbar sind. Und ich bin auch kein grundsätzlicher Wahrheitsskeptizist - ich liebe mathematische Beweise zwinkern

#237:  Autor: Marcellinus BeitragVerfasst am: 28.05.2018, 20:49
    —
Was ist Wahrheit?

Es ist paradox. Der Begriff „Wahrheit“, der wie kein anderer für den Wunsch nach Erkenntnis, Eindeutigkeit, Gewissheit und Sicherheit seht, hat wie kein anderer Begriff für Unklarheit, Dissens und Verwirrung gesorgt (höchstens noch übertroffen vom Gottesbegriff).

„Wahrheit“ ist ein von Menschen geschaffenes, sprachliches Symbol, ein Begriff, und was man damit zu begreifen versucht, das ist die Frage. Was immer man unter „Wahrheit“ versteht, es ist verbunden mit denn Begriffspaar „wahr/falsch“. Ob es sich um eine Aussage, Theorie oder sonstige Vorstellung handelt, immer ist sie entweder definitiv und absolut „wahr“ oder eben nicht.

Nun gibt es viele Fälle des täglichen Lebens, in denen das scheinbar unproblematisch ist. Der Wahrheitsgehalt von Aussagen wie „Ich hab mir den Arm gebrochen“, „Hier regnet es gerade“ oder „Caesar hatte eine Glatze“ ist prinzipiell kein erkenntnistheoretisches Problem, auch wenn der letzte Fall vielleicht nach 2000 Jahren in der Praxis schlecht zu recherchieren ist. Nur hat das eben nichts mit der „Wahrheit™“ zu tun, und auch im täglichen Leben kommen auf jeden Fall, den ich nach einem schwarz-weiß-Muster beurteilen kann, hundert andere, bei denen das nicht geht. In der Mathematik oder Logik dagegen ist Existenz wie Bestimmbarkeit des Wahrheitswertes einer Aussage nicht die Ausnahme, sondern die Regel, allerdings nicht, weil die Fragen immer einfach zu beantworten wären, sondern weil Mathematik wie Logik als menschengemachte Symbolsysteme eben so eingerichtet sind, daß Problemstellung wie Lösung nur aus eben diesen Symbolen bestehen.

Nur in den theoretisch-empirischen Wissenschaften will das mit der „Wahrheit“ nicht so richtig klappen. Da hilft es auch nichts, zu behaupten, Wahrheit und Wirklichkeit seine irgendwie identisch, oder „Wahrheit eine Wesenseigenschaft der Wirklichkeit“, denn damit behauptet man ja nichts mehr und nichts weniger als daß „Wahrheit“ kein von Menschen erfundener Begriff ist. Das ist reine Esoterik.

Modelle in den theoretisch-empirischen Wissenschaften bestehen aus menschengemachten Begriffen und Symbolen; die Zusammenhänge, die man mit ihnen beschreiben will, dagegen nicht. Das ist der eigentliche Grund dafür, daß diese Modelle immer unvollständig, vorläufig oder beides sind. Wenn man sie nicht allesamt für falsch erklären will, kommt man mit einem alles-oder-nichts-Schema nicht zurecht. Manche helfen sich dann mit der gedanklichen Konstruktion einer „Annäherung an die Wahrheit“, ein ganz besonderer Witz, denn wie will ich das Maß einer solchen „Annäherung“ bestimmen, wenn ich nicht weiß woran?

In der Praxis habe ich außerhalb der Physik noch keinen Wissenschaftler erlebt, der sich getraut hat, seine Modelle „wahr“ zu nennen, und die Physiker lernen auch gerade auf die harte Tour, daß ihre Wissenschaften mehr Fragen als Antworten hat, und das Verfallsdatum ihrer Theorien immer kürzer wird, wenn sie überhaupt das Stadium der Hypothese verlassen.

Was theoretisch-empirische Wissenschaftler tun, ist der Versuch, zu zeigen, daß ihre Modelle besser sind als die bisherigen, besser durch Tatsachenbeobachtungen belegt, besser in ihrem Erklärungs- oder vielleicht sogar Prognosewert, was immer in ihrem jeweiligen Fach als Qualitätskriterium etabliert ist. Dieser Komparativ, dieses „besser als vorher“, ist der eigentliche, und realistische Maßstab, mit dem Fortschritt in den theoretisch-empirischen Wissenschaften bestimmt wird. „Wahrheit“ (außerhalb von Mathematik und Logik) ist einfach eine veraltete Glaubensvorstellung.

Daß es sich beim Wahrheitsbegriff eigentlich um eine Glaubensvorstellung handelt, daß also Subjektivismus und Wahrheit untrennbar verbunden sind, ist übrigens keine so neue Erkenntnis. Das folgende Zitat fand ich bei meiner Beschäftigung mit Popper:

„Das ummittelbar Erlebte ist subjektiv und absolut […] Die objektive Welt hingegen, welche die Naturwissenschaft rein herauszukristallisieren sucht, [..] ist notwendigerweise relativ […] Dieses Gegensatzpaar: subjektiv - absolut und objektiv - relativ scheint mir eine der fundamentalsten erkenntnistheoretischen Einsichten zu enthalten, die man aus der Naturforschung ablesen kann. Wer das Absolute will, muß die Subjektivität, die Ichbezogenheit, in Kauf nehmen; wen es zum Objektiven drängt, der kommt um das Relativitätsproblem nicht herum.“
(Hermann Weyl, Philosophie der Mathematik und Naturwissenschaft, 1966, S. 150f, zitiert bei Karl Raimund Popper, Logik der Forschung, Tübingen 1984, S. 75)

Popper selbst schreibt dazu:

„Das alte Wissenschaftsideal, das absolut gesicherte Wissen (episteme), hat sich als Idol erwiesen. Die Forderung der wissenschaftlichen Objektivität führt dazu, daß jeder wissenschaftliche Satz vorläufig ist. Er kann sich wohl bewähren - aber jede Bewährung ist relativ, eine Beziehung, eine Relation zu anderen, gleichfalls vorläufigen Sätzen. Nur in unserem subjektiven Überzeugungserlebnissen, in unserem Glauben können wir absolut sicher sein." (Popper a.a.O. S. 225)

Und um diese „subjektiven Überzeugungserlebnisse“, diese persönlichen Gewißheiten, scheint es mir bei der Debatte um den Wahrheitsbegriff eigentlich zu gehen. Diese Gewißheit wollen manche offenbar mit allem (sprachlichen) Mitteln retten. Aber es hilft nichts: immer wenn jemand davon spricht, dieses oder jenes sei „wahr“, begeht er entweder eine sprachliche Ungenauigkeit oder formuliert einen Glauben.

#238:  Autor: stepWohnort: Germering BeitragVerfasst am: 28.05.2018, 21:24
    —
@Marcellinus,

ich stimme vielen Deiner Aussagen zum Thema Wahrheit zu.

Aber hier muß ich doch protestieren:

Marcellinus hat folgendes geschrieben:
die Physiker lernen auch gerade auf die harte Tour, daß ihre Wissenschaften mehr Fragen als Antworten hat, und das Verfallsdatum ihrer Theorien immer kürzer wird, wenn sie überhaupt das Stadium der Hypothese verlassen.

Sorry, aber das ist Unsinn. Das Gebäude der Physik wird immer besser und hat eine wirklich beeindruckende Konstanz und Genauigkeit der Modelle, wie auch Konvergenz der Theorien, besser als in allen anderen Wissenschaften. Daß es, viele Größenordnungen von unserem Alltag entfernt, noch große offene Fragen gibt, etwa zur Quantisierung der Raumzeit, zum Urknall und Dunkler Energie usw., ist unbestritten. Natürlich wechseln auf diesen, noch nicht geknackten Gebieten deshalb die Ansätze häufig, denn ein wirklich guter ist noch nicht gefunden. Aber geniale Teiltheorien wie die QFT oder die ART werden wohl immer gut (= nützlich) bleiben, ja selbst Newton.

Wenn Du schon nach einer (Natur-)Wissenschaft suchst, wo man selbst für Teilbereiche noch keine wirklich gute Theorie hat, dann empfehle ich die Kognitionswissenschaften. Da wird vermutlich in den nächsten 15 Jahren ein richtig dicker Knoten platzen.

Das alles hat aber mit Wahrheit nicht viel zu tun, wie Du richtig schreibst. Außer man würde herausfinden, daß unsere Welt ein formales Kalkül ist ... was immer das bedeutet.

#239:  Autor: Marcellinus BeitragVerfasst am: 28.05.2018, 21:35
    —
step hat folgendes geschrieben:

Daß es, viele Größenordnungen von unserem Alltag entfernt, noch große offene Fragen gibt, etwa zur Quantisierung der Raumzeit, zum Urknall und Dunkler Energie usw., ist unbestritten. Natürlich wechseln auf diesen, noch nicht geknackten Gebieten deshalb die Ansätze häufig, denn ein wirklich guter ist noch nicht gefunden.

Das meinte ich, sonst nichts! Ich wollte der Physik nicht zu nahe treten. zwinkern
Nur ändert das eben nichts daran, daß auch in der Physik theoretische Modelle aus menschengemachten Symbolen bestehen, was für die Wirklichkeit, die sie zu beschreiben versuchen, nicht gilt. Das ist der eigentliche Grund, warum ich "Wahrheit" in den theoretisch-empirischen Wissenschaften für ein ungeeignetes Beurteilungskriterium halte, und auch ein unnötiges, weil es in der Praxis, soweit ich das beurteilen kann, immer nur um die Frage geht, ob ein neues Modell "besser" als die vorhergehenden ist, was immer das in den jeweiligen Wissenschaftsgebieten bedeutet.

#240:  Autor: Zumsel BeitragVerfasst am: 28.05.2018, 22:18
    —
Marcellinus hat folgendes geschrieben:
Da hilft es auch nichts, zu behaupten, Wahrheit und Wirklichkeit seine irgendwie identisch, oder „Wahrheit eine Wesenseigenschaft der Wirklichkeit“,...


Wer behauptet denn sowas? Wahrheitswertträger sind Aussagen und die beziehen sich wiederrum auf Tatsachen. Eine Aussage ist wahr, wenn sie den Tatsachen entspricht. Tatsachen dagegen sind weder wahr noch falsch, sondern sie sind einfach oder sie sind nicht. Und jede Aussage, die gemacht wird, erhebt den Anspruch, eine Tatsache auszudrücken, sonst wäre es sinnlos, sie zu machen. Oder willst du sagen, bspw. deine Auslassungen hier zum Thema "Wahrheit" würden nicht beanspruchen, wahr zu sein?

Marcellinus hat folgendes geschrieben:
Modelle in den theoretisch-empirischen Wissenschaften bestehen aus menschengemachten Begriffen und Symbolen; die Zusammenhänge, die man mit ihnen beschreiben will, dagegen nicht.


Und triffst du diese Annahme wiederrum im Rahmen eines Modells? Musst du wohl, aber dann ist die Welt jenseits des Modells bloß ein Kantisches "Ding an sich", über das sich prinzipiell nichts sagen lässt, weil man ja notwendig immer an die menschlichen Erkenntnisbedingungen gebunden bleibt. Bleibt das Rätsel der Objektivität der Erscheinungswelt oder, moderner ausgedrückt, der atemberaubend guten Funktionsfähigkeit unserer Modelle. Die Nummer mit den auffinbaren apriorischen Bedingungen jeder Erkenntnis überhaupt hat sich ja dann doch als eher problematisch erwiesen.

step hat folgendes geschrieben:
Sorry, aber das ist Unsinn. Das Gebäude der Physik wird immer besser und hat eine wirklich beeindruckende Konstanz und Genauigkeit der Modelle, wie auch Konvergenz der Theorien, besser als in allen anderen Wissenschaften.


Aber was soll das hier heißen? Über das Modell hinaus kommt man ja nicht. Also was ist das Ziel oder zumindest das Ideal? Eine Erfassung aller denkbaren Tatsache in einem einheitlichen Modell?

#241:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 28.05.2018, 23:06
    —
Zumsel hat folgendes geschrieben:
.... Wahrheitswertträger sind Aussagen und die beziehen sich wiederrum auf Tatsachen. Eine Aussage ist wahr, wenn sie den Tatsachen entspricht. Tatsachen dagegen sind weder wahr noch falsch, sondern sie sind einfach oder sie sind nicht. Und jede Aussage, die gemacht wird, erhebt den Anspruch, eine Tatsache auszudrücken, sonst wäre es sinnlos, sie zu machen. Oder willst du sagen, bspw. deine Auslassungen hier zum Thema "Wahrheit" würden nicht beanspruchen, wahr zu sein? ...

Das Problem hierbei ist, dass die Tatsachen regelmäßig Ergebnisse der Blickrichtung sind - selbst die härteste aller Naturwissenschaften, die Physik, stellte das spätestens mit der Unschärferelation fest.

Und nun geh mal in den gesellschaftswissenschaftlichen Bereich und frage nach Tatsachen. Je nachdem, wen Du fragst, werden sie anders sein.

#242:  Autor: Marcellinus BeitragVerfasst am: 28.05.2018, 23:29
    —
fwo hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
.... Wahrheitswertträger sind Aussagen und die beziehen sich wiederrum auf Tatsachen. Eine Aussage ist wahr, wenn sie den Tatsachen entspricht. Tatsachen dagegen sind weder wahr noch falsch, sondern sie sind einfach oder sie sind nicht. Und jede Aussage, die gemacht wird, erhebt den Anspruch, eine Tatsache auszudrücken, sonst wäre es sinnlos, sie zu machen. Oder willst du sagen, bspw. deine Auslassungen hier zum Thema "Wahrheit" würden nicht beanspruchen, wahr zu sein? ...

Das Problem hierbei ist, dass die Tatsachen regelmäßig Ergebnisse der Blickrichtung sind - selbst die härteste aller Naturwissenschaften, die Physik, stellte das spätestens mit der Unschärferelation fest.

Und nun geh mal in den gesellschaftswissenschaftlichen Bereich und frage nach Tatsachen. Je nachdem, wen Du fragst, werden sie anders sein.

Da zitier ich mich mal selbst:

Deshalb gehört beides untrennbar zusammen, Tatsachenbeobachtung und Modellbildung. Ohne Tatsachen keine realistischen Modelle, ohne Modelle keine realistischen Beobachtungen. Es ist ein wechselseitiger Prozeß, ohne bestimmbaren Anfang oder Ende, und auch nur als Prozeßmodell, als vierdimensionales Modell zu verstehen.

#243:  Autor: Zumsel BeitragVerfasst am: 29.05.2018, 09:25
    —
fwo hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
.... Wahrheitswertträger sind Aussagen und die beziehen sich wiederrum auf Tatsachen. Eine Aussage ist wahr, wenn sie den Tatsachen entspricht. Tatsachen dagegen sind weder wahr noch falsch, sondern sie sind einfach oder sie sind nicht. Und jede Aussage, die gemacht wird, erhebt den Anspruch, eine Tatsache auszudrücken, sonst wäre es sinnlos, sie zu machen. Oder willst du sagen, bspw. deine Auslassungen hier zum Thema "Wahrheit" würden nicht beanspruchen, wahr zu sein? ...

Das Problem hierbei ist, dass die Tatsachen regelmäßig Ergebnisse der Blickrichtung sind - selbst die härteste aller Naturwissenschaften, die Physik, stellte das spätestens mit der Unschärferelation fest.

Und nun geh mal in den gesellschaftswissenschaftlichen Bereich und frage nach Tatsachen. Je nachdem, wen Du fragst, werden sie anders sein.


Ich habe den Eindruck, hier werden zwei Sachen vermischt, nämlich zum einen die grundsätzliche Modellhaftigkeit unserer Erkenntnis und zum anderen der eingeschränkte Geltungsrahmen einzelner Modelle. Der erste Umstand ist prinzipiell, der zweite faktisch, der erste beschreibt ein grundlegendes epistemologisches Problem, der zweite praktische Probleme bei der Erkenntnissammlung. Reden wir über Begriffe wie "Wirklichkeit" und "Wahrheit" bewegen wir uns im Problembereich von Umstand 1. Daher auch meine Frage an step, was aus seiner Sicht das wissenschaftliche Ideal ist. Wenn es die Erfassung aller Tatsachen in einem einheitlichen Modell ist, wäre mit diesem Modell der Bereich dessen umfasst, was wir eigentlich "Wirklichkeit" nennen. Darüberhinausgehend nach Wirklichkeit zu fragen wäre schlicht sinnlos. Interessanterweiise würde das ziemlich genau der Kantischen Unterscheidung von "empirischer Realität" und "transzendentaler Idealität" entsprechen. Bloß dass die Struktur der empirischen Realität sich nicht ganz in der Weise bestimmen lässt, wie er sich das vorgestellt hat - nämlich durch das Auffinden der apriorischen Bedingungen jeder möglichen Erkenntnis überhaupt.

#244:  Autor: SkeptikerWohnort: 129 Goosebumpsville BeitragVerfasst am: 29.05.2018, 11:28
    —
fwo hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
.... Wahrheitswertträger sind Aussagen und die beziehen sich wiederrum auf Tatsachen. Eine Aussage ist wahr, wenn sie den Tatsachen entspricht. Tatsachen dagegen sind weder wahr noch falsch, sondern sie sind einfach oder sie sind nicht. Und jede Aussage, die gemacht wird, erhebt den Anspruch, eine Tatsache auszudrücken, sonst wäre es sinnlos, sie zu machen. Oder willst du sagen, bspw. deine Auslassungen hier zum Thema "Wahrheit" würden nicht beanspruchen, wahr zu sein? ...

Das Problem hierbei ist, dass die Tatsachen regelmäßig Ergebnisse der Blickrichtung sind - selbst die härteste aller Naturwissenschaften, die Physik, stellte das spätestens mit der Unschärferelation fest.


Trotzdem lässt sich daraus nicht das schlussfolgern, was ihr beiden - du und Marcellinus - meint, schlussfolgern zu können.

Und wo gibt es im Bereich Sozialwissenschaften jene Mikrostrukturen, mit denen sich die Quantenphysik beschäftigt?

Die Strukturen, mit denen sich Sozialwissenschaften beschäftigen, haben wiederum ganz eigene Gesetzmäßigkeiten, die weder mit der physikalischen Mikro- noch Makrowelt identisch sind. Sie bilden emergente Gesetzmäßigkeiten, ob in der Ökonomie, Psychologie, Soziologie oder auch in der Medizin.

fwo hat folgendes geschrieben:
Und nun geh mal in den gesellschaftswissenschaftlichen Bereich und frage nach Tatsachen. Je nachdem, wen Du fragst, werden sie anders sein.


Du meinst wohl Juristen. Das sind Meinende. Wissenschaftler sind Wissenschaftler, keine bloß Meinenden.

#245:  Autor: Marcellinus BeitragVerfasst am: 29.05.2018, 11:31
    —
Zumsel hat folgendes geschrieben:
fwo hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
.... Wahrheitswertträger sind Aussagen und die beziehen sich wiederrum auf Tatsachen. Eine Aussage ist wahr, wenn sie den Tatsachen entspricht. Tatsachen dagegen sind weder wahr noch falsch, sondern sie sind einfach oder sie sind nicht. Und jede Aussage, die gemacht wird, erhebt den Anspruch, eine Tatsache auszudrücken, sonst wäre es sinnlos, sie zu machen. Oder willst du sagen, bspw. deine Auslassungen hier zum Thema "Wahrheit" würden nicht beanspruchen, wahr zu sein? ...

Das Problem hierbei ist, dass die Tatsachen regelmäßig Ergebnisse der Blickrichtung sind - selbst die härteste aller Naturwissenschaften, die Physik, stellte das spätestens mit der Unschärferelation fest.

Und nun geh mal in den gesellschaftswissenschaftlichen Bereich und frage nach Tatsachen. Je nachdem, wen Du fragst, werden sie anders sein.


Ich habe den Eindruck, hier werden zwei Sachen vermischt, nämlich zum einen die grundsätzliche Modellhaftigkeit unserer Erkenntnis und zum anderen der eingeschränkte Geltungsrahmen einzelner Modelle. Der erste Umstand ist prinzipiell, der zweite faktisch, der erste beschreibt ein grundlegendes epistemologisches Problem, der zweite praktische Probleme bei der Erkenntnissammlung. Reden wir über Begriffe wie "Wirklichkeit" und "Wahrheit" bewegen wir uns im Problembereich von Umstand 1. Daher auch meine Frage an step, was aus seiner Sicht das wissenschaftliche Ideal ist. Wenn es die Erfassung aller Tatsachen in einem einheitlichen Modell ist, wäre mit diesem Modell der Bereich dessen umfasst, was wir eigentlich "Wirklichkeit" nennen. Darüberhinausgehend nach Wirklichkeit zu fragen wäre schlicht sinnlos. Interessanterweiise würde das ziemlich genau der Kantischen Unterscheidung von "empirischer Realität" und "transzendentaler Idealität" entsprechen. Bloß dass die Struktur der empirischen Realität sich nicht ganz in der Weise bestimmen lässt, wie er sich das vorgestellt hat - nämlich durch das Auffinden der apriorischen Bedingungen jeder möglichen Erkenntnis überhaupt.

Lassen wir doch einfach mal die Philosophie außen vor. Du schreibst: „Eine Aussage ist wahr, wenn sie den Tatsachen entspricht“, aber was bedeutet das bei allem, was über ein umgangssprachliches „wahr“ hinausgeht?

Eine wissenschaftliche Theorie ist ein aus menschengemachten Symbolen bestehendes Modell; die Wirklichkeit dagegen besteht nicht aus Symbolen, sondern, etwas flapsig formuliert, aus Tatsachen, die wir aber nicht sehen können, wie sie sind, sondern nur mit Hilfe und abhängig von unseren technischen und gedanklichen Werkzeugen.

Physiker haben ein bestimmtes Modell von unserer Sonne als eines Fusionsreaktors, in dem Wasserstoff zu Helium „verbrannt“ wird. Dieses Modell mag ziemlich wirklichkeitsgerecht sein, so daß wir sagen können: das ist es (vermutlich). Aber was an diesem Modell „entspricht den Tatsachen“? Ist überhaupt ein menschengemachtes Modell denkbar, daß in allem den Tatsachen, die unsere Sonne ausmachen, entspricht? Wer garantiert, daß nicht morgen ein Physiker mit einer Erkenntnis um die Ecke kommt, die uns Tatsachenbeobachtungen im Bezug auf unsere Sonne ermöglichen, die wir bisher überhaupt nicht kannten, die zwar unsere bisherigen Vorstellungen nicht alle Makulatur werden lassen, aber ebenso unvollständig erscheinen lassen wie die Newton‘sche Physik durch Einstein?

Was wir sagen können, ist, daß unsere jetzigen Modellvorstellungen besser sind als die vergangener Zeiten, daß sie die genauesten und vollständigsten sind, die wir im Moment besitzen. Aber die „Wahrheit“ ist es sicher nicht. Ja, wie das oben genannte Beispiel hoffentlich gezeigt hat, können wir nicht einmal sagen, wie ob wir der Wahrheit nahe kommen und wie weit, weil man den „Abstand“ zur „Wahrheit“ eben nicht bestimmen kann, wenn man sie nicht kennt. Umgangssprachlich formuliert: wenn unser bisheriges Wissen über die Sonne in ein Buch mit 1000 Seiten paßt, wieviele Seiten kommen dann noch? 20 oder weitere 1000?

#246:  Autor: Marcellinus BeitragVerfasst am: 29.05.2018, 11:39
    —
Skeptiker hat folgendes geschrieben:

Die Strukturen, mit denen sich Sozialwissenschaften beschäftigen, haben wiederum ganz eigene Gesetzmäßigkeiten, die weder mit der physikalischen Mikro- noch Makrowelt identisch sind. Sie bilden emergente Gesetzmäßigkeiten, ob in der Ökonomie, Psychologie, Soziologie oder auch in der Medizin.

Wo siehst du da „Gesetzmäßigkeiten“? Selbst dieser Begriff kann die Herkunft deiner Vorstellungen aus der Philosophie des 19. Jh. nicht verleugnen. Die Sozialwissenschaften, deren Ergebnisse auch nur ansatzweise die Zuverlässigkeit der Naturwissenschaften hätten, müssen erst noch erfunden werden. Dein -ismus ist es jedenfalls nicht. Sehr glücklich

#247:  Autor: stepWohnort: Germering BeitragVerfasst am: 29.05.2018, 11:41
    —
Zumsel hat folgendes geschrieben:
step hat folgendes geschrieben:
Das Gebäude der Physik wird immer besser und hat eine wirklich beeindruckende Konstanz und Genauigkeit der Modelle, wie auch Konvergenz der Theorien, besser als in allen anderen Wissenschaften.
Aber was soll das hier heißen? Über das Modell hinaus kommt man ja nicht.

Genau. Das ist aber für die Naturwissenschaft gar kein Problem, sondern wird nur von manchen Metaphysikern zu einem solchen gemacht.

Zumsel hat folgendes geschrieben:
Also was ist das Ziel oder zumindest das Ideal? Eine Erfassung aller denkbaren Tatsache in einem einheitlichen Modell?

Das primäre Ziel scheint mir die möglichst leistungsfähige (im Sinne der Voraussage) Simulation aller Phänomene mittels Modellen.

Einheitlichkeit, Einfachheit und Eleganz des Modells sind eher ästhetische Kategorien. Man bevorzugt bei gleicher Voraussagekraft das einfachere Modell, das mit sparsameren Zutaten.

Ein gutes, simulationsfähiges Modell wird im allgemeinen auch als gute Erklärung empfunden. Das hängt wohl damit zusammen, daß ein gutes Modell einerseits klare Aktoren und Berechnungsvorschriften enthält, andererseits eine gewisse Generizität (Verallgemeinerungspotenzial) besitzt, so daß man einen tieferen Mechanismus zu erkennen glaubt. Dies ist jedoch keine Aussage über die Realität dieses tieferen Mechanismus. Man sieht das etwa daran, daß verbesserte Modelle zwar in ihren Voraussagen konvergieren, in ihren Zutaten aber disruptiv sein können, z.B. Newton->ART oder Bohr->Dirac

#248:  Autor: SkeptikerWohnort: 129 Goosebumpsville BeitragVerfasst am: 29.05.2018, 11:50
    —
Marcellinus hat folgendes geschrieben:
Skeptiker hat folgendes geschrieben:

Die Strukturen, mit denen sich Sozialwissenschaften beschäftigen, haben wiederum ganz eigene Gesetzmäßigkeiten, die weder mit der physikalischen Mikro- noch Makrowelt identisch sind. Sie bilden emergente Gesetzmäßigkeiten, ob in der Ökonomie, Psychologie, Soziologie oder auch in der Medizin.

Wo siehst du da „Gesetzmäßigkeiten“? Selbst dieser Begriff kann die Herkunft deiner Vorstellungen aus der Philosophie des 19. Jh. nicht verleugnen. Die Sozialwissenschaften, deren Ergebnisse auch nur ansatzweise die Zuverlässigkeit der Naturwissenschaften hätten, müssen erst noch erfunden werden. Dein -ismus ist es jedenfalls nicht. Sehr glücklich


Was kann ich dafür, dass du keine sozialwissenschaftlichen Gesetzmäßigkeiten kennst? Das ist doch dein Problem.

#249:  Autor: Marcellinus BeitragVerfasst am: 29.05.2018, 12:03
    —
Skeptiker hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
Skeptiker hat folgendes geschrieben:

Die Strukturen, mit denen sich Sozialwissenschaften beschäftigen, haben wiederum ganz eigene Gesetzmäßigkeiten, die weder mit der physikalischen Mikro- noch Makrowelt identisch sind. Sie bilden emergente Gesetzmäßigkeiten, ob in der Ökonomie, Psychologie, Soziologie oder auch in der Medizin.

Wo siehst du da „Gesetzmäßigkeiten“? Selbst dieser Begriff kann die Herkunft deiner Vorstellungen aus der Philosophie des 19. Jh. nicht verleugnen. Die Sozialwissenschaften, deren Ergebnisse auch nur ansatzweise die Zuverlässigkeit der Naturwissenschaften hätten, müssen erst noch erfunden werden. Dein -ismus ist es jedenfalls nicht. Sehr glücklich


Was kann ich dafür, dass du keine sozialwissenschaftlichen Gesetzmäßigkeiten kennst? Das ist doch dein Problem.


Erich, du bist der letzte! Mach‘s Licht aus! Sehr glücklich

#250:  Autor: SkeptikerWohnort: 129 Goosebumpsville BeitragVerfasst am: 29.05.2018, 12:10
    —
Marcellinus hat folgendes geschrieben:
Skeptiker hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
Skeptiker hat folgendes geschrieben:

Die Strukturen, mit denen sich Sozialwissenschaften beschäftigen, haben wiederum ganz eigene Gesetzmäßigkeiten, die weder mit der physikalischen Mikro- noch Makrowelt identisch sind. Sie bilden emergente Gesetzmäßigkeiten, ob in der Ökonomie, Psychologie, Soziologie oder auch in der Medizin.

Wo siehst du da „Gesetzmäßigkeiten“? Selbst dieser Begriff kann die Herkunft deiner Vorstellungen aus der Philosophie des 19. Jh. nicht verleugnen. Die Sozialwissenschaften, deren Ergebnisse auch nur ansatzweise die Zuverlässigkeit der Naturwissenschaften hätten, müssen erst noch erfunden werden. Dein -ismus ist es jedenfalls nicht. Sehr glücklich


Was kann ich dafür, dass du keine sozialwissenschaftlichen Gesetzmäßigkeiten kennst? Das ist doch dein Problem.


Erich, du bist der letzte! Mach‘s Licht aus! Sehr glücklich


Kann das sein, dass du Gespenster siehst? Das ist einfach zwanghaft. Was kann man da wohl machen?

Vielleicht liest du einfach nur mit, anstatt etwas zu schreiben, einfach, um von anderen zu lernen.

#251:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 29.05.2018, 12:20
    —
Skeptiker hat folgendes geschrieben:
....
Kann das sein, dass du Gespenster siehst? Das ist einfach zwanghaft. Was kann man da wohl machen?

Vielleicht liest du einfach nur mit, anstatt etwas zu schreiben, einfach, um von anderen zu lernen.

Lachen Gröhl... Gröhl... Gröhl...
@Skeptiker:
Kleiner Tipp. Es kann ja sein, dass das Dich fürchterlich trifft, wenn man Dir genau das sagt, was Du da gerade Marcellinus an den Kopf werfen wolltest. Aber es hilft nichts, es dann anderen vorzuwerfen. Man muss es selbst verdauen.

#252:  Autor: SkeptikerWohnort: 129 Goosebumpsville BeitragVerfasst am: 29.05.2018, 12:22
    —
fwo hat folgendes geschrieben:
Skeptiker hat folgendes geschrieben:
....
Kann das sein, dass du Gespenster siehst? Das ist einfach zwanghaft. Was kann man da wohl machen?

Vielleicht liest du einfach nur mit, anstatt etwas zu schreiben, einfach, um von anderen zu lernen.

Lachen Gröhl... Gröhl... Gröhl...
@Skeptiker:
Kleiner Tipp. Es kann ja sein, dass das Dich fürchterlich trifft, wenn man Dir genau das sagt, was Du da gerade Marcellinus an den Kopf werfen wolltest. Aber es hilft nichts, es dann anderen vorzuwerfen. Man muss es selbst verdauen.


Ihr beiden Spezies.



Sehr glücklich

#253:  Autor: Marcellinus BeitragVerfasst am: 29.05.2018, 12:24
    —
@Skeptiker
Ein solches Artefakt wie dich habe ich das letzte Mal Ende der 70er an der Uni bei den damaligen ML-Gläubigen getroffen. Seitdem ist viel paasiert, aber an dir offenbar spurlos vorübergegangen.

#254:  Autor: SkeptikerWohnort: 129 Goosebumpsville BeitragVerfasst am: 29.05.2018, 12:26
    —
Marcellinus hat folgendes geschrieben:
@Skeptiker
Ein solches Artefakt wie dich habe ich das letzte Mal Ende der 70er an der Uni bei den damaligen ML-Gläubigen getroffen. Seitdem ist viel paasiert, aber an dir offenbar spurlos vorübergegangen.


Wie gesagt, Ihr beiden Spezies.

#255:  Autor: Zumsel BeitragVerfasst am: 29.05.2018, 14:15
    —
Marcellinus hat folgendes geschrieben:
Lassen wir doch einfach mal die Philosophie außen vor. Du schreibst: „Eine Aussage ist wahr, wenn sie den Tatsachen entspricht“, aber was bedeutet das bei allem, was über ein umgangssprachliches „wahr“ hinausgeht?


Interessanter Einstieg, diese beiden Sätze gleich hintereinander. zwinkern

Marcellinus hat folgendes geschrieben:
Eine wissenschaftliche Theorie ist ein aus menschengemachten Symbolen bestehendes Modell; die Wirklichkeit dagegen besteht nicht aus Symbolen, sondern, etwas flapsig formuliert, aus Tatsachen, die wir aber nicht sehen können, wie sie sind, sondern nur mit Hilfe und abhängig von unseren technischen und gedanklichen Werkzeugen.


Gut, dass wir nicht über Philosophie reden wollten... Jetzt sind wir da, dass es eine Wirklichkeit gibt, auf die wir uns aber nur mittelbar über Modelle beziehen können. Aber ist nicht schon die Zuschreibung von Wirklichkeit auf ein Modell angewiesen? Und was bedeutet das für unser Verständnis dieses Begriffes? Dass er sinnlos ist? Wohl eher nicht.

Marcellinus hat folgendes geschrieben:
Physiker haben ein bestimmtes Modell von unserer Sonne als eines Fusionsreaktors, in dem Wasserstoff zu Helium „verbrannt“ wird. Dieses Modell mag ziemlich wirklichkeitsgerecht sein, so daß wir sagen können: das ist es (vermutlich). Aber was an diesem Modell „entspricht den Tatsachen“? Ist überhaupt ein menschengemachtes Modell denkbar, daß in allem den Tatsachen, die unsere Sonne ausmachen, entspricht? Wer garantiert, daß nicht morgen ein Physiker mit einer Erkenntnis um die Ecke kommt, die uns Tatsachenbeobachtungen im Bezug auf unsere Sonne ermöglichen, die wir bisher überhaupt nicht kannten, die zwar unsere bisherigen Vorstellungen nicht alle Makulatur werden lassen, aber ebenso unvollständig erscheinen lassen wie die Newton‘sche Physik durch Einstein?


Das ist aber doch mehr ein Erkenntnisvorbehalt als eine Absage an wahrheitsfähige Aussagen. Ich will nicht sagen, dass solche Erkenntnisvorbehalte nicht berechtigt wären, nur sind das m.E. eben zwei paar Schuhe, die man auch klar auseinanderhalten sollte.

step hat folgendes geschrieben:
Genau. Das ist aber für die Naturwissenschaft gar kein Problem, sondern wird nur von manchen Metaphysikern zu einem solchen gemacht.


Na ja, was heißt von Metaphysikern? Um die Frage zu stellen, WAS da eigentlich letztlich modelliert wird, muss man ja nun kein "Metaphysiker" sein. Es ist ja klar, dass irgendwo mit Modellieren Feierabend sein muss, denn es liegt im Begriff des Modells, dass es sich auf etwas bezieht, was nicht Modell ist.


step hat folgendes geschrieben:
Das primäre Ziel scheint mir die möglichst leistungsfähige (im Sinne der Voraussage) Simulation aller Phänomene mittels Modellen.


Das klingt, als gäbe es Phänomene jenseits von Modellen. Aber was sollte das wohl heißen? Oder muss man sich die Phänomene in einer Art Metamodell denken, innerhalb dessen sie dann von Untermodellen weitersimuliert werden können?

step hat folgendes geschrieben:
Einheitlichkeit, Einfachheit und Eleganz des Modells sind eher ästhetische Kategorien. Man bevorzugt bei gleicher Voraussagekraft das einfachere Modell, das mit sparsameren Zutaten.

Ein gutes, simulationsfähiges Modell wird im allgemeinen auch als gute Erklärung empfunden. Das hängt wohl damit zusammen, daß ein gutes Modell einerseits klare Aktoren und Berechnungsvorschriften enthält, andererseits eine gewisse Generizität (Verallgemeinerungspotenzial) besitzt, so daß man einen tieferen Mechanismus zu erkennen glaubt. Dies ist jedoch keine Aussage über die Realität dieses tieferen Mechanismus. Man sieht das etwa daran, daß verbesserte Modelle zwar in ihren Voraussagen konvergieren, in ihren Zutaten aber disruptiv sein können, z.B. Newton->ART oder Bohr->Dirac


Ist das nicht irgendwie von den Füßen auf den Kopf gestellt? Ich meine, was ist denn der Anreiz von Forschung, sofern diese nicht gerade unmittelbar technischen Entwicklungen dienen soll: Vorhersage irgendwelcher Ereignisse oder nicht doch eher, etwas über die Welt rauszufinden?

#256:  Autor: stepWohnort: Germering BeitragVerfasst am: 29.05.2018, 14:51
    —
Zumsel hat folgendes geschrieben:
step hat folgendes geschrieben:
Genau. Das ist aber für die Naturwissenschaft gar kein Problem, sondern wird nur von manchen Metaphysikern zu einem solchen gemacht.
Na ja, was heißt von Metaphysikern? Um die Frage zu stellen, WAS da eigentlich letztlich modelliert wird, muss man ja nun kein "Metaphysiker" sein. Es ist ja klar, dass irgendwo mit Modellieren Feierabend sein muss, denn es liegt im Begriff des Modells, dass es sich auf etwas bezieht, was nicht Modell ist.

Also, im Moment muß man für solche Fragen tatsächlich Metaphysiker sein, und sie sind für die Physik irrelevant. Ich will nicht ausschließen, daß es irgendwann mal ein Modell geben könnte, das "Wirklichkeit" rein emergent beschreibt und damit irgendwie Teil von sich selbst wird.

Zumsel hat folgendes geschrieben:
step hat folgendes geschrieben:
Das primäre Ziel scheint mir die möglichst leistungsfähige (im Sinne der Voraussage) Simulation aller Phänomene mittels Modellen.
Das klingt, als gäbe es Phänomene jenseits von Modellen. Aber was sollte das wohl heißen? Oder muss man sich die Phänomene in einer Art Metamodell denken, innerhalb dessen sie dann von Untermodellen weitersimuliert werden können?

Für die Physik ist das egal, solange die Phänomene hinreichend regelmäßig sind. Offensichtlich ändert sich die derzeitig beste physiklsiche Theorie ja nicht dadurch, ob meine Privatmystik nun Realismus oder Konstruktivismus heißt.

Geht es Dir darum, welche Wissenschaft zuständig ist für das Phänomen, daß es überhauppt "phänoment"? Ich würde sagen, im Moment gar keine, denn die damit verbundenen Fragen können nicht (oder noch nicht) wissenschaftlich gestellt werden.

Zumsel hat folgendes geschrieben:
step hat folgendes geschrieben:
... Ein gutes, simulationsfähiges Modell wird im allgemeinen auch als gute Erklärung empfunden. Das hängt wohl damit zusammen, daß ein gutes Modell einerseits klare Aktoren und Berechnungsvorschriften enthält, andererseits eine gewisse Generizität (Verallgemeinerungspotenzial) besitzt, so daß man einen tieferen Mechanismus zu erkennen glaubt. Dies ist jedoch keine Aussage über die Realität dieses tieferen Mechanismus. Man sieht das etwa daran, daß verbesserte Modelle zwar in ihren Voraussagen konvergieren, in ihren Zutaten aber disruptiv sein können, z.B. Newton->ART oder Bohr->Dirac
Ist das nicht irgendwie von den Füßen auf den Kopf gestellt? Ich meine, was ist denn der Anreiz von Forschung, sofern diese nicht gerade unmittelbar technischen Entwicklungen dienen soll: Vorhersage irgendwelcher Ereignisse oder nicht doch eher, etwas über die Welt rauszufinden?

Natürlich reizt das viele Forscher, auch weil das Etwas-Großes-Verstehen-Gefühl zu den schönsten Gefühlen überhaupt gehört. Früher waren Theologie, Philosophie und Physik auch nicht wirklich getrennt.

Aber warum sollten der Haupt-Anreiz und das funktionale Wesen der Naturwissenschaft unbedingt identisch sein? Das ist in anderen Bereichen ja auch nicht so - zum Beispiel ist der Haupt-Anreiz von Politikern auch nicht unbedingt identisch mit dem Wesen guter Politik Smilie

Zudem: Was bedeutet denn "etwas über die Welt rausfinden"? Woher nehme ich die Überzeugung, etwas Tieferes von der Welt verstanden zu haben? Doch nicht nur aus der Schönheit eines Modells?

#257:  Autor: HRQ-Verbrechensopfer BeitragVerfasst am: 29.05.2018, 15:01
    —
'Was ist Wahrheit' bringt mich zu: was ist Bewußtsein?
Unsere Gehirnaktivitäten werden physiologisch und wohl auch neuronal mit der Umsetzung begonnen, ohne sie bereits als Bewußtsein wahrzunehmen.
Hirnscans zeigen, wir (re)agieren bereits, bevor wir es bewußt wahrnehmen.
Und im Schlaf erzeugen wir Gedächtnis und verarbeiten tagsüber erlebte Wahrnehmungen, was als Lernen bezeichnet wird.
KI könnte unserer NI mit adäquaten Methoden immer ähnlicher werden.
Dann entsteht auch dort Bewußtsein?

#258:  Autor: Zumsel BeitragVerfasst am: 29.05.2018, 16:11
    —
step hat folgendes geschrieben:
Geht es Dir darum, welche Wissenschaft zuständig ist für das Phänomen, daß es überhauppt "phänoment"?


Eigentlich geht’s mir nur um eine halbwegs befriedigende Erkenntnistheorie.

step hat folgendes geschrieben:
Natürlich reizt das viele Forscher, auch weil das Etwas-Großes-Verstehen-Gefühl zu den schönsten Gefühlen überhaupt gehört. Früher waren Theologie, Philosophie und Physik auch nicht wirklich getrennt.

Aber warum sollten der Haupt-Anreiz und das funktionale Wesen der Naturwissenschaft unbedingt identisch sein? Das ist in anderen Bereichen ja auch nicht so - zum Beispiel ist der Haupt-Anreiz von Politikern auch nicht unbedingt identisch mit dem Wesen guter Politik Smilie


Stimmt, aber wenn man "gute Politik" mit "Effizienz" und "Leistungsfähigkeit" gleichsetzt, reicht auch ein straff geführter Beamtenapparat mit Anreizsystem. Klingt allerdings etwas blutleer...

step hat folgendes geschrieben:
Zudem: Was bedeutet denn "etwas über die Welt rausfinden"? Woher nehme ich die Überzeugung, etwas Tieferes von der Welt verstanden zu haben? Doch nicht nur aus der Schönheit eines Modells?


Gute Frage, was denkst du, wieso ich an einer halbwegs befriedigenden Erkenntnistheorie interessiert bin? Smilie

#259:  Autor: stepWohnort: Germering BeitragVerfasst am: 29.05.2018, 18:44
    —
Zumsel hat folgendes geschrieben:
step hat folgendes geschrieben:
Zudem: Was bedeutet denn "etwas über die Welt rausfinden"? Woher nehme ich die Überzeugung, etwas Tieferes von der Welt verstanden zu haben? Doch nicht nur aus der Schönheit eines Modells?
Gute Frage, was denkst du, wieso ich an einer halbwegs befriedigenden Erkenntnistheorie interessiert bin? Smilie

Anscheinend kann das Gefühl, etwas Tiefes erkannt zu haben, auf mehreren Wegen entstehen, die nicht notwendig eine gute wissenschaftliche Theorie beinhalten - etwa wenn man sich durch Meditieren, Beten oder Drogen ein mystisches Alleinheitsgefühl verschafft. Bei einer guten wissenschaftlichen Theorie jedoch kann die (rationale) Überzeugung, etwas Tieferes von der Welt verstanden zu haben, ja nur aus der Passung der Voraussagefähigkeit mit den Phänomenen kommen, denn nur das haben wir zur Verfügung.

Wenn sich beides vermischt, kann schon mal das Gefühl entstehen, daß man der "wahren Realität" nahe gekommen sei.

#260:  Autor: Marcellinus BeitragVerfasst am: 29.05.2018, 19:37
    —
step hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
step hat folgendes geschrieben:
Zudem: Was bedeutet denn "etwas über die Welt rausfinden"? Woher nehme ich die Überzeugung, etwas Tieferes von der Welt verstanden zu haben? Doch nicht nur aus der Schönheit eines Modells?
Gute Frage, was denkst du, wieso ich an einer halbwegs befriedigenden Erkenntnistheorie interessiert bin? Smilie

Anscheinend kann das Gefühl, etwas Tiefes erkannt zu haben, auf mehreren Wegen entstehen, die nicht notwendig eine gute wissenschaftliche Theorie beinhalten - etwa wenn man sich durch Meditieren, Beten oder Drogen ein mystisches Alleinheitsgefühl verschafft. Bei einer guten wissenschaftlichen Theorie jedoch kann die (rationale) Überzeugung, etwas Tieferes von der Welt verstanden zu haben, ja nur aus der Passung der Voraussagefähigkeit mit den Phänomenen kommen, denn nur das haben wir zur Verfügung.

Wenn sich beides vermischt, kann schon mal das Gefühl entstehen, daß man der "wahren Realität" nahe gekommen sei.

Ich denke, man sollte Weltanschauung und Wissenschaft nicht durcheinanderschmeißen. Wissenschaften sind ein praktisches Geschäft (unabhängig von der individuellen Motivation des einzelnen Wissenschaftler). Sie sind nicht in erster Linie an den emotionalen Bedürfnissen der Wissenschaftler orientiert, sondern an den objektiven Eigentümlichkeiten der Wirklichkeit. Man sollte sie nicht zu einer Weltanschauung aufblasen.

#261:  Autor: SkeptikerWohnort: 129 Goosebumpsville BeitragVerfasst am: 29.05.2018, 19:43
    —
step hat folgendes geschrieben:
Skeptiker hat folgendes geschrieben:
step hat folgendes geschrieben:
Naturwissenschaft stellt Modelle/Theorien auf, mittels derer überprüfbare Voraussagen gemacht werden.
Der Begriff "Voraussage" ist zweideutig, wie schon a.a.O. gesagt; ich bevorzuge den Begriff "Erklärung(spotenzial)".


"Erklärungspotenzial" ist nicht falsch, aber funktioniert nur, wenn man genau sagt, was das ist. Sonst könnten Pseudoerklärungen (z.B. Götter) oder Ad-hoc-Erklärungen (z.B. Epizykeltheorie) darunter fallen. Wenn man sich fragt, welche Kriterien Erklärungspotenzial ausmachen, so kommt man doch schnell wieder auf die Fähigkeit, mittels eines Zusammenhangs auf tieferer Ebene Voraussagen zu machen - also Ergebnisse zukünftiger Experimente zu berechnen.


Noch mal mein Vorschlag, den Begriff der "Voraussagen" besser wegzulassen, da ja auch aktuelle Zustände durch rückwärtige, zunächst einmal unbekannte, Entwicklungen im Rahmen einer hinreichenden Theorie erklärt werden können müssen, ohne dass solche historischen oder archäologischen Theorien mangels Voraussagefähigkeit im Hinblick auf zukünftige Entwickungen von vorn herein als nicht wissenschaftlich klassifiziert werden. Sowohl die Aussagen über rückwärtige als auch mögliche zukünftige Entwicklungen sind als gleichwertig zu betrachten.

Der zweite Einwand: Ja, empirische Bestätigungen von Theorien sind unerlässlich, wenn auch die die eine oder andere Theorie zunächst einmal nur mathematisch begründet werden kann. Aber nicht nur das Experiment, sondern auch die Beobachtung tun der empirischen Anforderung Genüge.

step hat folgendes geschrieben:
Skeptiker hat folgendes geschrieben:
Man leitet auch nicht die Welt aus "Modellen" ab ...


In der Tat, man macht sich ein Modell von der Welt.


Genau genommen kann man das nur machen, wenn man die Welt verstanden hat, da sonst die Gefahr besteht, dass das Modell mit der Welt nichts zu tun hat. Beim Experiment läuft es eher so ab, dass man den zu untersuchenden Gegenstand durch einen geeigneten Versuchsaufbau in seinen interessierenden Eigenschaften und Aspekten versucht, nachzuvollziehen. Während die Welt ein Körper aus Fleisch, Blut und Knochen ist, ist das *Modell* immer nur ein Gerippe, dem unbekannte Eigenschaften der Wirklichkeit fehlen.

Manchmal reicht es trotzdem aus. Aber nicht immer.

Der gewöhnliche Schnack vom *Modell* suggeriert, dass es mit Modellbau getan ist. Doch um komplexere Zusammenhänge der Wirklichkeit zu erforschen, müssten auch die Modelle schon äußerst komplex gebildet sein - so komplex, dass man quasi schon die Wirklichkeit nachbauen täte.

Vielleicht drückt die Idee, das Gehirn und sogar das Bewusstsein des Menschen per KI nachzubauen bzw. nachzuentwickeln auch just diese beschriebene Problematik des Realitäts-Gap von Modellen aus. Ich halte die Hoffnung, auf eine entsprechende autonome Entwicklung der KI in Richtung Moral und Empathie auch für eine absolute Illusion. Das nur nebenbei.

step hat folgendes geschrieben:
Skeptiker hat folgendes geschrieben:
Nicht nur Naturwissenschaft, sondern Wissenschaft generell nähert sich der Wahrheit bzw. Wirklichkeit tendenziell immer weiter an, ...


Wahrscheinlich meinst Du das so:
1. Das, wogegen das Modellierte anscheinend konvergiert, nennen wir Wirklichkeit
2. Das, wogegen das Modell anscheinend konvergiert, nennen wir Wahrheit


So ähnlich kann man es sagen, ja. Wobei eigentlich konvergiert das Modellierte nicht, sondern ist - theoretisch - mit Wirklichkeit identisch.

step hat folgendes geschrieben:
Mir gefällt beides nicht, da mißverständlich: "Wirklichkeit" suggeriert ein zusätzliches, mataphysisches Modell, das im besten Fall unnötig ist. Wahrheit ist irreführend außerhalb logischer Kalküle.


Wirklichkeit ist in der Tat eine Voraussetzung. Wahrheit ist aber die zumindest annähernde, möglichst umfassend und detailliert beschreibende, möglichst systematische Theorie über Bewegungsgesetze und Entwicklungen von Teilen der Wirklichkeit.

Dies erfordert die gedankliche Fähigkeit, Prinzipien nachzuvollziehen, nachzudenken, welche in der Wirklichkeit tatsächlich vorhanden sind, jedoch in weit umfassenderer Weise. Für technisch-menschliche Lebenszwecke reicht das aus. Hier ist der Satz "Shut up and calculate!" der zurecht optimistische Ausdruck der Erkenntnis, dass der Mensch zwar wenig weiß, aber immerhin so viel, dass es für supersmarte Projekte mehr als ausreicht. Dennoch ist die reine Theorie reizvoll.

step hat folgendes geschrieben:
Skeptiker hat folgendes geschrieben:
Formulierungen von Wahrheiten sind insofern nie endgültig. Und selbst wenn man von relativen Wahrheiten sprechen kann, etwa relativer Zeit, so ist auch diese Relativität eine objektive Relativität.


Deswegen lieber gar nicht von Wahrheiten sprechen, sondern nur von guten Theorien.


Gute Theorien bezeichnen aber einen bestimmten Grad an Wahrheit, d.h. sie sind bezogen auf definierte Sachverhalte wenn schon nicht umfassend, so doch punktuell richtig, wie sich z.B. durch korrekte Erklärung der Evolution oder den Bertrieb von Satelliten auch zeigen lässt. Und zweitens sind gute Theorien immer nur ein Ansporn für noch bessere Theorien und das ist gut so.

step hat folgendes geschrieben:
Skeptiker hat folgendes geschrieben:
Der Fortschritt der Wissenschaft wäre keiner, wenn er nicht in einer immer besseren Annäherung an die objektive Realität bestehen würde.


Nein, er wäre auch schon kleiner, wenn die Theorien nicht konvergieren würden. Manche sagegen soger, daß allein die Konvergenz der Voraussagen der Theorien wesentlich ist - die Theorien selbst dagegen könnten sich sprunghaft ändern, solange sie das vorherige Modell als effektiven Grezfall hervorbringen.


Heisenberg sagte mal: "Tertium non datur" gelte nicht mehr. Newton ist heute nicht falsch, aber auch nicht ganz richtig, außer für Grenzfälle.

Und atomare Teilchen sind sowohl Teilchen als auch Wellen und also etwas Drittes, außer nur Teilchen oder nur Wellen.

Die Realität, die von Heisenberg entdeckt wurde, zeigt vor allem, dass jene Realität, also die Wirklichkeit mehr ist als nur das, was sie ist. Die Wirklichkeit ist außerdem das, was sie potentiell werden kann.

In der Welt der Sozialwissenschaften sollten wir uns auch den Blick dafür angewöhnen, dass wir nicht nur die Dinge selbst erblicken, sondern auch ihr Potenzial verstehen müssen, weil auch dies zu ihrer Wirklichkeit gehört.

#262:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 29.05.2018, 20:16
    —
Marcellinus hat folgendes geschrieben:
.....
Ich denke, man sollte Weltanschauung und Wissenschaft nicht durcheinanderschmeißen. Wissenschaften sind ein praktisches Geschäft (unabhängig von der individuellen Motivation des einzelnen Wissenschaftler). Sie sind nicht in erster Linie an den emotionalen Bedürfnissen der Wissenschaftler orientiert, sondern an den objektiven Eigentümlichkeiten der Wirklichkeit. Man sollte sie nicht zu einer Weltanschauung aufblasen.

Aber auch Wissenschaftler sind fühlende Menschen. Ich kann Dir aus eigener Erfahrung sagen, dass Glücksgefühle aufkommen, wenn Du an einem Problem gesessen hast und dann plötzlich merkst, dass die mathematische Beschreibung, die Du gerade gemacht hast, wirklich zu den Daten passt, auch zu denen, die in ihre Entstehung nicht eingegangen sind. Plötzlich passt dann alles, und Du kannst dann auch ganz genau sagen, warum das Unsinn war, was da vorher von anderen erzählt wurde.

Die Haltung, in der sich dieses abspielt, ist durchaus als meditativ zu bezeichnen. Handwerkliche Arbeit ist das nur, wenn Du es anschließend vorstellst. (Und weil Du dabei eine ganz kleingliedrige Kette logischer Gedanken vorführst, werden auch alle, die vorher den Unsinn mitgemacht haben, erzählen, sie hätten es auch schon immer gewusst. In dem Moment wissen sie es sogar so genau, dass sie Dir übelnehmen, wenn Du auf die Punkte aufmerksam machst, in denen Deine Theorie noch überprüft werden muss.)

#263:  Autor: Marcellinus BeitragVerfasst am: 29.05.2018, 20:36
    —
fwo hat folgendes geschrieben:

Aber auch Wissenschaftler sind fühlende Menschen. Ich kann Dir aus eigener Erfahrung sagen, dass Glücksgefühle aufkommen, wenn Du an einem Problem gesessen hast und dann plötzlich merkst, dass die mathematische Beschreibung, die Du gerade gemacht hast, wirklich zu den Daten passt, auch zu denen, die in ihre Entstehung nicht eingegangen sind. Plötzlich passt dann alles, und Du kannst dann auch ganz genau sagen, warum das Unsinn war, was da vorher von anderen erzählt wurde.

Keine Frage. Für die einzelnen Wissenschaftler gilt das sicherlich. Sie würden es nicht tun, wenn sie nicht für ihre Arbeit engagiert wären. Aber es ist Begeisterung für die Entdeckung, nicht unbedingt für ihren Inhalt. Der Inhalt sollte sich an den beobachtbaren Tatsachen orientieren, nicht an den emotionalen Bedürfnissen des Forschers, sonst landet man sehr schnell beim Wunschdenken.

#264:  Autor: stepWohnort: Germering BeitragVerfasst am: 29.05.2018, 20:39
    —
@fwo, Marcellinus:

Eure Aussagen widersprechen sich gar nicht unbedingt. Die vielschichtigen kreativen und emotionalen Vorgänge beim physikalischen Forschen und bei den Eureka-Effekten sind nicht selbst Objekt der Physik, sondern der Psychologie, Hirnforschung o.ä.

#265:  Autor: stepWohnort: Germering BeitragVerfasst am: 29.05.2018, 21:25
    —
Skeptiker hat folgendes geschrieben:
Noch mal mein Vorschlag, den Begriff der "Voraussagen" besser wegzulassen, da ja auch aktuelle Zustände durch rückwärtige, zunächst einmal unbekannte, Entwicklungen im Rahmen einer hinreichenden Theorie erklärt werden können müssen, ohne dass solche historischen oder archäologischen Theorien mangels Voraussagefähigkeit im Hinblick auf zukünftige Entwickungen von vorn herein als nicht wissenschaftlich klassifiziert werden. Sowohl die Aussagen über rückwärtige als auch mögliche zukünftige Entwicklungen sind als gleichwertig zu betrachten.

Da stimme ich nur teilweise zu. Voraussage ist hier zu verstehen als Ergebnis einer Simulation aufgrund einer Theorie, und das ist tatsächlich auch in bezug auf die Vergangenheit möglich. Wenn man z.B. die Theorie aufstellt, daß vor 40000 Jahren Gruppen von Homo Sapiens Amerika von Norden nach Süden besiedelt haben, so kann man daraus gewisse Voraussagen ableiten über Relikte, die man finden müßte, und deren Alter. Und die kann man zur Prüfung der Theorie verwenden.

Schwieriger wird es, wenn man Thesen von einmaligem anektdotischen Charakter aufstellt, z.B. "Cäsar war im März 35 vuZ sauer auf seine Frau". Denn hier gibt es möglicherweise nur ein einziges Indiz, das man schon kennt, etwa den Bericht eines Historikers. Selbst wenn man diese These also für plausibel hält, so ist ihr wissenschaftlicher Erklärungswert sehr klein. Ähnlich ist es oft bei eher hermeneutischen Wissenschaften.

Dann gibt es da noch Thesen von Historikern vom Typ "Geschichte wiederholt sich" - die sind prinzipiell wieder etwa besser überprüfbar, allerdings würde ich solche eher in die Soziologie einordnen.

Recht duster (mit guten Theorien über die Welt) sieht es in der Philosophie aus, da diese sich häufig rein selbstreferentiell beschäftigt und sich die Zunft extrem selten auf eine Theorie einigen kann. Natürlich gibt es Ausnahmen, etwa in der Grammatik, Logik oder evtl. auch bei methodischen Fragen.

Skeptiker hat folgendes geschrieben:
step hat folgendes geschrieben:
man macht sich ein Modell von der Welt.
Genau genommen kann man das nur machen, wenn man die Welt verstanden hat, da sonst die Gefahr besteht, dass das Modell mit der Welt nichts zu tun hat.

Nicht, wenn man mit anderen Experimenten zeigen kann, daß die natürlichen Einflüsse für die Fragestellung vernachlässigbar sind. Das ist in der Physik oder Chemie häufig der Fall.

Skeptiker hat folgendes geschrieben:
Während die Welt ein Körper aus Fleisch, Blut und Knochen ist, ist das *Modell* immer nur ein Gerippe, dem unbekannte Eigenschaften der Wirklichkeit fehlen.

Meinst Du hier das Modell=Theorie oder Modell=experimenteller Aufbau? Falls Letzteres: Das macht nichts, wenn man die hinreichende Entkopplung zeigen kann. Dazu muß man "fehlende Eigenschaften" nicht mal kennen. Zum Beispiel kann man in einem kleinformatigen Elektronenexperiment die Gravitation vernachlässigen oder sogar herausrechnen. Oder wenn man verstehen will, wie ein einzelnes Neuron funktioniert, muß man nichts über die Kindheit des Probanden wissen.

Skeptiker hat folgendes geschrieben:
Der gewöhnliche Schnack vom *Modell* suggeriert, dass es mit Modellbau getan ist. Doch um komplexere Zusammenhänge der Wirklichkeit zu erforschen, müssten auch die Modelle schon äußerst komplex gebildet sein - so komplex, dass man quasi schon die Wirklichkeit nachbauen täte.

Moment mal, mit "modellieren" meine ich nicht ein Gipsmodell oder so, sondern die Theorie.

Skeptiker hat folgendes geschrieben:
step hat folgendes geschrieben:
"Wirklichkeit" suggeriert ein zusätzliches, mataphysisches Modell, das im besten Fall unnötig ist.
Wirklichkeit ist in der Tat eine Voraussetzung.

Wieso? Für die Qualität der Naturwissenschaft ist es ziemlich egal, ob der Forscher metaphysischer Realist ist oder nicht.

Skeptiker hat folgendes geschrieben:
Die Realität, die von Heisenberg entdeckt wurde, zeigt vor allem, dass jene Realität, also die Wirklichkeit mehr ist als nur das, was sie ist. Die Wirklichkeit ist außerdem das, was sie potentiell werden kann.

Das ist eher ein Spruch fürs Lebenshilfeseminar. Die Quantenphysik und auch die Relativitätstheorie haben in der Tat gezeigt, daß unser klassischer Wirklichkeitsbegriff zu eng oder sogar gänzlich ungeeignet ist. Allerdings hat das weniger mit Zukunft, Freiheit oder Potenzial zu tun, sondern mit Überlagerungszuständen, der Unmöglichkeit von lokalem Realismus, der gekrümmten Raumzeit oder der Frage, ob wir die gesamte Wellenfunktion für real halten.

Skeptiker hat folgendes geschrieben:
In der Welt der Sozialwissenschaften sollten wir uns auch den Blick dafür angewöhnen, dass wir nicht nur die Dinge selbst erblicken, sondern auch ihr Potenzial verstehen müssen, weil auch dies zu ihrer Wirklichkeit gehört.

Das ist richtig, aber hier ist unter "Potenzial" etwas völlig anderes zu verstehen.


Zuletzt bearbeitet von step am 30.05.2018, 09:40, insgesamt einmal bearbeitet

#266:  Autor: Zumsel BeitragVerfasst am: 29.05.2018, 21:55
    —
step hat folgendes geschrieben:
Schwieriger wird es, wenn man Thesen von einmaligem anektdotischen Charakter aufstellt, z.B. "Cäsar war im März 35 vuZ sauer auf seine Frau".


Na ja, dazu bräuchte man zunächst mal eine Theorie zur Unsterblichkeit der Seele. Oder Quellen, die geeignet sind, ein Erdbeben in der Geschichtswissenschaft auszulösen zwinkern

SCNR

#267:  Autor: stepWohnort: Germering BeitragVerfasst am: 29.05.2018, 22:24
    —
Zumsel hat folgendes geschrieben:
step hat folgendes geschrieben:
Schwieriger wird es, wenn man Thesen von einmaligem anektdotischen Charakter aufstellt, z.B. "Cäsar war im März 35 vuZ sauer auf seine Frau".
Na ja, dazu bräuchte man zunächst mal eine Theorie zur Unsterblichkeit der Seele. Oder Quellen, die geeignet sind, ein Erdbeben in der Geschichtswissenschaft auszulösen zwinkern

SCNR

Haha, ja peinlich. 45 natürlich.

#268:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 30.05.2018, 09:48
    —
step hat folgendes geschrieben:
@fwo, Marcellinus:

Eure Aussagen widersprechen sich gar nicht unbedingt. Die vielschichtigen kreativen und emotionalen Vorgänge beim physikalischen Forschen und bei den Eureka-Effekten sind nicht selbst Objekt der Physik, sondern der Psychologie, Hirnforschung o.ä.

Sehr glücklich
Da bin ich jetzt aber froh, dass dieser Widerspruch nicht unbedingt ist - es war von mir auch nicht als solcher gemeint.
Aber ich bin jetzt vorsichtig geworden, nachdem ich gerade von Tarvoc erfahren habe, dass ich anscheinend gar nicht weiß, was ein Widerspruch ist und mich mit meinen 82 Kg an Strohhalmen durch die Landschaft hangle. Wahrscheinlich hangle ich gar nicht mehr, sondern liege irgendwo in der Ecke.

#269:  Autor: Zumsel BeitragVerfasst am: 30.05.2018, 11:11
    —
Aber noch mal kurz hierzu zurück:

step hat folgendes geschrieben:
Ein gutes, simulationsfähiges Modell wird im allgemeinen auch als gute Erklärung empfunden. Das hängt wohl damit zusammen, daß ein gutes Modell einerseits klare Aktoren und Berechnungsvorschriften enthält, andererseits eine gewisse Generizität (Verallgemeinerungspotenzial) besitzt, so daß man einen tieferen Mechanismus zu erkennen glaubt. Dies ist jedoch keine Aussage über die Realität dieses tieferen Mechanismus.


Muss man das alles nicht auch selbstreferentiell auf das wissenschaftsphilosophische Modell anwenden, das du hier skizzierst hast? Denn der Anspruch, damit etwas "wahres" über wissenschaftliches Arbeiten auszusagen, kann damit ja schlecht verbunden werden.

#270:  Autor: stepWohnort: Germering BeitragVerfasst am: 30.05.2018, 15:21
    —
Zumsel hat folgendes geschrieben:
step hat folgendes geschrieben:
Ein gutes, simulationsfähiges Modell wird im allgemeinen auch als gute Erklärung empfunden. Das hängt wohl damit zusammen, daß ein gutes Modell einerseits klare Aktoren und Berechnungsvorschriften enthält, andererseits eine gewisse Generizität (Verallgemeinerungspotenzial) besitzt, so daß man einen tieferen Mechanismus zu erkennen glaubt. Dies ist jedoch keine Aussage über die Realität dieses tieferen Mechanismus.
Muss man das alles nicht auch selbstreferentiell auf das wissenschaftsphilosophische Modell anwenden, das du hier skizzierst hast? Denn der Anspruch, damit etwas "wahres" über wissenschaftliches Arbeiten auszusagen, kann damit ja schlecht verbunden werden.

Ja genau, man könnte versuchen, die obige These über Erklärungsempfinden anhand von mehreren Theorien und ihren Verstehern/Findern zu überprüfen. Meintest Du das?



Freigeisterhaus -> Wissenschaft und Technik


output generated using printer-friendly topic mod. Alle Zeiten sind GMT + 1 Stunde

Seite 1 von 1

Powered by phpBB © 2001, 2005 phpBB Group