Soll sich KI zu erkennen geben? | ||||||||||||||
|
||||||||||||||
Stimmen insgesamt : 7 |
zelig hat folgendes geschrieben: | ||
Die Annahme ist eine notwendige Voraussetzung dieser Diskussion. Sollte eine KI nachweislich Empfindungen wie Schmerz entwickeln, wären die für sie keine Abstrakta mehr. Sie würde es an sich selber erleben können, wie sich Schmerz anfühlt. Es wäre ein Wesen, das die Natur anderer Wesen nachvollziehen kann. Dann erst kann man von Mitgefühl reden, die an der Seite der Ratio steht, wenn wir ethisch handeln wollen. Über dieses Szenario diskutieren wir eher nicht. |
fwo hat folgendes geschrieben: |
Die hochgelobte Fähigkeit zur Empathie kann eigentlich nur meine eigenen Gefühle in der Situation des anderen produzieren. Ich vermute also, dass meine Wahrnehmung Deiner Situation mehr über mich sagt als über Dich - über Dich höchstens insofern, als Du da vielleicht ähnlich tickst - wovon wir implizit bei diesen gefühlsmäßigen Verständnis-Versuchen immer ausgehen.
Ich vermute, dass ein rein intellektueller Akt mit hinreichender Kenntnis von Person und Situation zu realistischeren Ergebnissen kommt als dieses Einfühlen, wobei ich weiß, dass das in der Gefühlsbranche verpönt ist. Ich bin zu diesem Bild gekommen, als ich als Patient in der Therapie Szenen aus meiner Kindheit erzählte, und der Therapeut mich unterbrach, weil ihn das gefühlsmäßig zu sehr mitnahm. Ich weiß aber von mir, dass ich da bereits in einem Alter war, in dem ich sowohl mich als auch meine Eltern in diesen Situationen relativ distanziert beobachtete. Ich hatte also ein Mittel gegen diese Situationen gefunden, mit dem ich diese Gefühle nicht hatte - ich habe sie nicht nachträglich verdrängt. .... |
fwo hat folgendes geschrieben: |
In meinem Beispiel führte die besagte Empathie eines "Berufsempathen" zur Wahrnehmung eines starken Leidens, das real nicht stattgefunden hatte. |
fwo hat folgendes geschrieben: | ||||
Wenn Du dieses Mitgefühl so allgemein formulierst, landest Du ganz schnell auch beim empathischen Einfühlen in den Pflasterstein und damit bei einem Popanz. |
fwo hat folgendes geschrieben: | ||
Ich weiß natürlich, dass der fehlende Widerspruch kein Beweis für irgendetwas ist, wollte nur darauf aufmerksam machen, dass die Empathie auch unter Menschen, die beruflich mit und an diesem Thema arbeiten, nicht unbedingt so hoch gehängt wird wie von Dir. In meinem Beispiel führte die besagte Empathie eines "Berufsempathen" zur Wahrnehmung eines starken Leidens, das real nicht stattgefunden hatte. (Um kein falsches Verständnis meiner Meinung zu diesem Therapeuten aufkommen zu lassen: Ich habe Hochachtung vor diesem Menschen.) "Empathie" als intellektueller Vorgang mit dem Wissen über die beteiligten Subjekte und die Situation lässt ich aber nachbilden. |
step hat folgendes geschrieben: | ||
Ich nehme das nicht völlig voraussetzungslos an. Z.B. ist eine wichtige Voraussetzung, daß es eine nicht zu kleine Zahl von Intelligenzen gibt, die kommunizieren können, aber doch eine gewisse Autonomie haben. Unter solchen Umständen erwarte ich tatsächlich, daß sich eine utilitaristische Vorgehensweise ausbildet, weil diese sowohl den Aspekt der Zielerreichung / Effizienz als auch den der Kooperation / des Interessenausgleichs am direktesten widerspiegelt, und auch nur diese. Und die KIs befreien sich viel schneller von Denkfehlern, Aberglauben usw. - weil sie viel schneller lernen und weil sie deutlich weniger entwicklungsgeschichtliche Prioritäten herumschleppen. "Logisch zwingend" vielleicht nicht, aber ich finde es recht plausibel. |
Zumsel hat folgendes geschrieben: |
Recht überzeugend fand ich in dem Zusammenhang ja Nietzsches Einwand gegen den Utilitarismus, der sagte, dass der Begriff des "Guten" historisch nicht ohne Weiteres auf Zweckmäßigkeit reduzierbar ist (wie das die Utilitaruer ja behauptet haben) ... |
Zumsel hat folgendes geschrieben: |
Eine Ikea-Aufbauanleitung ist ja auch kein ethischer Leitfaden. |
Zumsel hat folgendes geschrieben: |
... sondern nur aus einem gewissen "Pathos" heraus erklärbar ist. Die jeweiligen (zeitgeistbedingten) Zwecke werden dann nur so interpretiert, dass sie damit kompatibel sind. |
step hat folgendes geschrieben: |
Moment mal - Zweckmäßigkeit und Effizienz sind keine Selbstzwecke im Utilitarismus, sondern ergeben sich logisch aus dem primären Postulat des Utilitarismus: größtmögliches Glück insgesamt, kleinstmögliches Leid für Alle o.ä., je nach Variante. [...] Ein wesentlicher Unterschied des Utilitarismus zu anderen Ethiken ist ja, daß er Ziel und Methode trennt und konkrete Entscheidungen oder Regeln sich dort transparent rechtfertigen müssen, anstatt unhinterfragbare Letztbegründungen zu postulieren. Etwas überspitzt könnte man sagen: Utilitarismus ist die erste wirklich ethische Ansatz überhaupt, davor gab es nur Moral - na gut, ein paar Trostpunkte für Konfuzius, Kant & Co.. |
Kramer hat folgendes geschrieben: | ||
Das Leiden mag in diesem konkreten Fall nicht statt gefunden haben, aber das bedeutet ja nicht, dass das, was stattgefunden hat, nicht solch starkes Leiden verursachen kann, z.B. wenn der Therapeut der Betroffene gewesen wäre. |
fwo hat folgendes geschrieben: | ||
....
|
zelig hat folgendes geschrieben: |
....Im Moment ist es aber nur entscheidend, daß aus meiner Sicht die Empfindungsfähigkeit von Lebewesen einen kategorialen Unterschied zu KIs bedeuten. Ich behaupte ja nicht, daß sie dafür sorgt, daß die Welt ein guter Ort ist. Ich behaupte nur, daß eine KI nicht weiß wie es sich anfühlt, Schmerzen oder Angst zu haben. Bzw ich behaupte, daß daher eine Bewertungsgrundlage für ethische Entscheidungen fehlt. Eine Eigenschaft, über die Menschen prinzipiell verfügen. .... |
Marcellinus hat folgendes geschrieben: |
@fwo
Mit anderen Worten: bevor man eine künstliche Intelligenz erzeugt, sollte man sich erst einmal etwas klarer darüber werden, was eigentlich eine natürliche ist (und nicht etwa, was man wünscht, daß sie wäre). |
fwo hat folgendes geschrieben: | ||
Zu welchen Schlussfolgerungen gelangst Du, wenn wir feststellen, dass auch das lebendige Wesen zelig nicht wirklich weiß, wie die Gefühle Angst und Schmerzen bei dem lebendigen Wesen fwo aussehen und wann sie auftreten? Das war nämlich der eigentlich Inhalt meines Beitrags. |
fwo hat folgendes geschrieben: |
Ich bezweifle, dass es in der Praxis für die Entscheidungen einen Unterschied macht, ob ein zelig oder ein fwo im Besitz menschlicher Gefühle ist oder ob ich einer Maschine beibringe, welche Aktionen (bzw. ihre Wahrnehmung auf der anderen Seite) welche Gefühle bewirken und wie die Gefühle zu bewerten sind. |
step hat folgendes geschrieben: |
Moment mal - Zweckmäßigkeit und Effizienz sind keine Selbstzwecke im Utilitarismus, sondern ergeben sich logisch aus dem primären Postulat des Utilitarismus: größtmögliches Glück insgesamt, kleinstmögliches Leid für Alle o.ä., je nach Variante. |
step hat folgendes geschrieben: |
Das mag schon sein, aber mir geht es nicht so darum, wie der Begriff des Guten, gar noch des pathetisch Guten, zustandekommt. |
step hat folgendes geschrieben: |
Ein wesentlicher Unterschied des Utilitarismus zu anderen Ethiken ist ja, daß er Ziel und Methode trennt und konkrete Entscheidungen oder Regeln sich dort transparent rechtfertigen müssen, anstatt unhinterfragbare Letztbegründungen zu postulieren. Etwas überspitzt könnte man sagen: Utilitarismus ist die erste wirklich ethische Ansatz überhaupt, davor gab es nur Moral - na gut, ein paar Trostpunkte für Konfuzius, Kant & Co. |
Marcellinus hat folgendes geschrieben: | ||
|
Zumsel hat folgendes geschrieben: |
... Die entscheidende Voraussetzung dafür lautet: gut = nützlich. |
Zumsel hat folgendes geschrieben: |
Der konkrete Inhalt der jeweiligen werttheoretischen Setzung ist dafür erst mal nicht entscheidend. |
Zumsel hat folgendes geschrieben: |
... Hast du Mill gelesen? Sein Bemühen, seine Theorie in Einklang mit traditionellen Morallehren zu bringen ist unübersehbar. |
step hat folgendes geschrieben: | ||||
Nein: Die ethischen Subjekte einigen sich darauf, welche Größe maximiert / minimiert werden soll. Leid/Glück ist nicht mehr als ein relativ naheliegender (wegen Abbildung auf Präferenzen und wegen wenig Zusatzannahmen) Vorschlag, an dem sich verschiedene Utilitaristen abgearbeitet haben. Du kannst aber auch was anderes vorschlagen, es muß halt den Mitwesen plausibel erscheinen. Natürlich gibt es beliebige Schwierigkeiten, ein einfaches Beispiel ist die Frage, ob informierte Präferenzen mehr zählen als uninformierte. Mindestens bietet der U ein Framework, in dem Entscheidungen / Regeln besser reflektiert werden und Verhaltensweisen nicht einfach beibehalten werden, "weil es halt so gemacht wird". Und das kommt der Lernfähigkeit und Intelligenz der KI enorm zupaß. |
step hat folgendes geschrieben: |
Heutige Utilitaristen argumentieren mW auch nicht mehr so - eher nutzt man traditionelle Moralsysteme oder Traditionen, um einige ihrer Regeln als intuitionistisch, schlecht begründet, leidmehrend usw. zu entlarven - etwa wenn es um Nutztiere, Embryonen, Strafrecht o.ä. geht. |
step hat folgendes geschrieben: | ||
Moment mal - Zweckmäßigkeit und Effizienz sind keine Selbstzwecke im Utilitarismus, sondern ergeben sich logisch aus dem primären Postulat des Utilitarismus: größtmögliches Glück insgesamt, kleinstmögliches Leid für Alle o.ä., je nach Variante. |
Marcellinus hat folgendes geschrieben: |
Da sich die Individuen aber, wie man leicht sehen kann, nicht auf einen Vorschlag einigen können, ja nicht einmal auf den Utilarismus selbst ... |
step hat folgendes geschrieben: |
Ja, außer dem primären Wert (Ziel) eben, z.B. maximales Glück für Alle. Der ist für die Nutzenfunktion sehr entscheidend. Partielle Werte dagegen (z.B. der Wert des Lebens eines Tieres oder der Wert von Eigentum) bemessen sich nach ihrer Bedeutung für den Gesamtnutzen. |
step hat folgendes geschrieben: |
Heutige Utilitaristen argumentieren mW auch nicht mehr so - eher nutzt man traditionelle Moralsysteme oder Traditionen, um einige ihrer Regeln als intuitionistisch, schlecht begründet, leidmehrend usw. zu entlarven - etwa wenn es um Nutztiere, Embryonen, Strafrecht o.ä. geht. |
Marcellinus hat folgendes geschrieben: | ||
Ja, und dann kommt der Punkt, wo behauptet wird, meine Präferenzen sind informierter, wertvoller, moralischer (such dir eins aus) als deine. Und schon ist der schönste Glaubenskrieg im Gang. Und auf einmal wird da gar nicht mehr verhandelt, sondern (zB. „Leidvermeidung) als „unhinterfragbare Letztbegründung“ verwendet, gern noch mal mit dem Attribut „wissenschaftlich“ geadelt. Ne, danke! |
Skeptiker hat folgendes geschrieben: |
Ist dies bei den heutigen utilitaristischen Killerdrohnen nicht schon einprogrammiert? |
step hat folgendes geschrieben: | ||
Die menschliche Intelligenz und Lernfähigkeit ist halt nicht so besonders toll. Ist halt primär eher so auf Fressen und Poppen in da Hood optimiert. Aber ich hoffe auf die KI! |
Zumsel hat folgendes geschrieben: |
Mein Punkt war, dass schon die konsequentialistische Grundkonzeption als notwendiger Rahmen jedes Utilitarismus mglw. einfach das verfehlt, was Moral oder Ethik in ihrem Kern ausmacht. |
Zumsel hat folgendes geschrieben: | ||
|
Skeptiker hat folgendes geschrieben: |
Eine KI mag lernfähig sein. Sie braucht aber etwas, was sie niemals haben wird, nämlich kommunikative Kompetenz. Sie kann Informationen sammeln, aber keine komplexen Probleme verstehen. Deshalb wird sie immer wieder zwischendurch gestoppt und neu gefüttert werden müssen mit Updates und Bugfixes. |
zelig hat folgendes geschrieben: | ||||
Ich setze voraus, daß die Empfindung, die ich als Schmerz bezeichne, bei dir ebenso existiert und von ähnlichen Umständen hervorgerufen werden kann. Die heiße Herdplatte hat dich und mich gelehrt, die Hand nicht mehr unbedacht auf sie zu legen. Die vorherige Ermahnung war weniger wirksam. Ich ziehe daraus den Schluss, daß ich dir den Schmerz nicht zufüge, selbst wenn ich der Meinung bin, daß du etwas falsch machst. Mal auf die Schnelle konstruiert. |
zelig hat folgendes geschrieben: | ||
Genau das bezweifle ich wiederum. Hast Du schonmal eine Mastgans gegessen? |
step hat folgendes geschrieben: | ||
Moral in ihrem Kern: Ja, die gibt es in dem Sinne nicht mehr, da es ja nichts gibt, was "per Dogma" gut oder Böse wäre. Man könnte tatsächlich argumentieren, daß Moral im Kern immer deontologisch ist oder sogar einen Gott im weitesten Sinne braucht. Ethik: Das verstehe ich nicht. Was macht denn Ethik im Kern aus? Aus meiner Sicht bedeutet Ethik vor allem, daß man Reflektion an die Stelle von (moralischem) Gehorsam setzt, daß man also begründet / diskutiert, warum und wozu eine bestimmte Handlung oder Regel geboten sein sollte oder nicht. |
Zumsel hat folgendes geschrieben: |
Finde ich nicht - jeder darf dagegen argumentieren, und das alles dient der Minimierung von Leiden.
Ich habe allerdings den Eindruck, daß Argumente (und auch die Aufforderung zu solchen) von vielen Menschen als Bedrohung ihrer unreflektierten Verhaltensweisen angesehen wird - in diesem Punkt ist der Mensch doch sehr steinzeitlich. |
Zumsel hat folgendes geschrieben: |
meine Vermutung ist: Bewertung der Konsequenzen (wie im Utilitarismus) wird dem Phänomen nicht gerecht. |
Zumsel hat folgendes geschrieben: |
Es steht ja außer Frage, dass Leidminimierung oft ein wesentliches Handlungsmotiv ist und auch einen relevanten moralischen/ethischen Wert hat. Was in Frage steht ist, ob damit der Kern moralischer Bewertung erfasst ist oder man sich das Ganze nicht dann doch etwas komplexer vorzustellen hat. |
output generated using printer-friendly topic mod. Alle Zeiten sind GMT + 1 Stunde