Soll sich KI zu erkennen geben? | ||||||||||||||
|
||||||||||||||
Stimmen insgesamt : 7 |
worse hat folgendes geschrieben: |
Warum hast Du nicht einfach gefragt, ob eine KI, die den Turing Test bestehen kann, verpflichtet werden sollte sich selbst zu erkennen zu geben?
Das wäre sauberer, redlicher gewesen. Und man könnte vielleicht grundsätzliche Antworten dazu finden ohne sich in die zum konkreten Beispiel zugehörige Diskussion, ob das überhaupt möglich sein kann, zu verstricken. |
worse hat folgendes geschrieben: |
Das war 100% zur Sache. |
zelig hat folgendes geschrieben: |
Angeregt durch einen Beitrag in der SZ.
google hat demonstriert, wie eine KI einen Tisch in einem Restaurant reserviert hat, ohne daß die Mitarbeiterin bemerkt hat, daß sie mit einer Maschine spricht. Sollte man es zur Pflicht machen, daß sich eine KI als solche zu erkennen gibt? |
fwo hat folgendes geschrieben: | ||
Ich würde es von der Informationsrichtung abhängig machen: Eine KI, die fragt: Das war hier der Fall - Nein Eine KI, die Auskunft gibt: Ja |
step hat folgendes geschrieben: |
Warum sollte künstliche Intelligenz die Pflicht haben, sich zu erkennen zu geben, wenn es diese Pflicht nicht für natürliche Intelligenz gibt? Nur weil Manipulation durch Unseresgleichen als normal angesehen wird? |
worse hat folgendes geschrieben: | ||
|
step hat folgendes geschrieben: | ||||
Das verstehe ich nicht. Ich vermute, Du machst noch irgendeine unausgesprochene Annahme. Möchtest Du diese Konkurrenz möglichst klein halten, und falls ja, warum? |
fwo hat folgendes geschrieben: | ||
Ich würde es von der Informationsrichtung abhängig machen: Eine KI, die fragt: Das war hier der Fall - Nein Eine KI, die Auskunft gibt: Ja |
worse hat folgendes geschrieben: |
Mein Einwand ist jetzt: Woher soll diese Pflicht der natürlichen Intelligenz sich selbst zu offenbaren kommen? |
worse hat folgendes geschrieben: |
Dazu braucht es a) die Möglichkeit, ein 'Gegenüber', ein etwas anderes, dem es sich zu erkennen geben kann
und b) einen Grund a) ist gegeben in dem Moment, wo so eine künstliche Intelligenz existiert. |
worse hat folgendes geschrieben: |
... Aber was macht Intelligenz? Und was machen mehrere Intelligenzen? Sie treten in einen Wettbewerb um ihre Ziele und die Art und Weise wie sie sie am optimalsten erreichen. Das wäre dann Konkurrenz. |
worse hat folgendes geschrieben: |
Sie können sich aber auch zusammentun und miteinander gemeinsame Ziele verfolgen und sich gegenseitig optimieren helfen. |
worse hat folgendes geschrieben: |
Das wäre dann b): die Notwendigkeit sich gegenseitig zu offenbaren. |
worse hat folgendes geschrieben: |
Ich bin schon ein bisschen geschlaucht jetzad |
worse hat folgendes geschrieben: |
ich hoffe, es ist trotzdem ein bisschen klarer geworden. |
step hat folgendes geschrieben: |
Warum sollte künstliche Intelligenz die Pflicht haben, sich zu erkennen zu geben, wenn es diese Pflicht nicht für natürliche Intelligenz gibt? Nur weil Manipulation durch Unseresgleichen als normal angesehen wird? |
step hat folgendes geschrieben: |
Der verzweifelte Versuch, Herrschaft und Kontrolle zu behalten, wird sowieso scheitern, dazu ist es viel zu leicht und (anfänglich) gewinnträchtig, etwas Intelligenteres, Effizienteres als den Menschen entstehen zu lassen. |
abbahallo hat folgendes geschrieben: |
Die Ausgangsfrage krankt etwas daran, dass nicht klar ist, was eigentlich gemeint ist. Was immer mit KI gemeint ist, selber essen gehen wird sie wohl nicht.
Gehen wir davon aus, es handelt sich um ein Dienstleistungsprogramm, das von irgendwem zum Tisch bestellen eingesetzt wurde, dann sollte ein Auftraggeber genannt werden, der dann eventuell auch für diese Bestellung haftet, wie bei einer Sekretärin eben auch. Eine besondere Informationspflicht, ob der Annehmer der Auftrags es nun mit dem Butler oder einer app zu tun hat, sehe ich nicht. |
zelig hat folgendes geschrieben: | ||
|
zelig hat folgendes geschrieben: |
Aber ich glaube die Menschen wären der KI auf Dauer hoffnungslos ausgeliefert (Cambridge Analytics) aufgrund der exponentiell wachsenden Fähigkeit große Datenmengen auszuwerten. |
zelig hat folgendes geschrieben: |
Das gefällt mir nicht. |
step hat folgendes geschrieben: |
Empfindungsfähigkeit mache die Natur des Menschen nachvollziehbar -> läuft das idZ auf so etwas hinaus wie "Menschen sind gut im Erspüren, was die Interessen eines menschlichen Gegenübers sind"? Aber ist es nicht bereits unter natürlichen Intelligenzen häufig so, daß man seine Interessen nicht offenlegen will? Strategie und Taktik sind doch als hohe Künste angesehen? |
step hat folgendes geschrieben: | ||
Nein, a) ist auch schon gegeben, wenn es nur NI gibt. |
step hat folgendes geschrieben: | ||
Das kann man so sehen. Ist aber bei unterschiedlichen, mit NI ausgestatteten Wesen offensichtlich ebenso. |
step hat folgendes geschrieben: | ||
Auch da stimme ich zu, sehe aber wieder nicht den Unterschied zu einzelen Instanzen natürlicher Intelligenz. Außer hier liegt Deine verborgene Annahme - etwa daß die existierenden natürlichen Intelligenzen primär gemeinsame Ziele hätten. |
step hat folgendes geschrieben: | ||
Ähm - nein, das wäre noch kein Grund. Wenn z.B. die KI und die Restaurant-Angestellte das gemeinsame Ziel haben, den Reservierungsvorgang zu erledigen, ist zur Erreichung oder Optimierung dieses Ziels nicht notwendig, daß die KI sich als solche offenbart. Man könnte sogar argumentieren, daß es besser wäre, das gerade nicht zu tun. |
step hat folgendes geschrieben: |
Der verzweifelte Versuch, Herrschaft und Kontrolle zu behalten, wird sowieso scheitern, dazu ist es viel zu leicht und (anfänglich) gewinnträchtig, etwas Intelligenteres, Effizienteres als den Menschen entstehen zu lassen. |
step hat folgendes geschrieben: | ||
Ja, ich denke, wir kommen Deiner Zusatzannahme mehr und mehr auf die Spur |
zelig hat folgendes geschrieben: |
Ich denke eine KI kann keinen Begriff von der Natur des Schmerzes zum Beispiel entwickeln. Sie könnte eine abstrakte Skala von weniger oder mehr verbotenen Verhaltensweisen entwickeln. |
worse hat folgendes geschrieben: |
Wie willst Du einer anderen NI klar machen, dass Du eine NI bist? Einem Hund? Einem Raaben? Einem Schimpansen? |
worse hat folgendes geschrieben: |
Du kannst es nur einer (näherungsweise) gleichwertigen menschlichen NI vermitteln. Die weiß es aber auch so, weil sie selbst eine ist. |
worse hat folgendes geschrieben: |
Kann es sein, dass meine verborgene Annahme ist, dass künstliche und natürliche Intelligenz die selben gemeinsamen Ziele verfolgen sollen? |
zelig hat folgendes geschrieben: |
Ich denke eine KI kann keinen Begriff von der Natur des Schmerzes zum Beispiel entwickeln. ... die Kategorie Schmerz wäre immer fremd, so wie jede andere Empfindung auch. ... Wenn sie selber keinen Leib hat, um Angst, Einsamkeit oder Schmerz zu erfahren. |
step hat folgendes geschrieben: | ||||
Ja, oder einem Alien. Aber interessanter ist es, in unserer Spezies zu bleiben. Beispiel: Person A ist intelligenter (oder hat die intelligentere Strategie) als Person B. A kann B manipulieren, erziehen, ausnutzen usw. - oder A kann B in einfachen Worten erklären, daß er/sie das aufgrund seiner Intelligenz könnte. Macht aber (fast) keiner.
Letzteres halte ich für ein Märchen. Wenn man sich nur anschaut, wie Konsumenten, Kinder, Gläubige usw. erzogen werden, wie schlaue Leute Geld machen usw. - das ist weit von Waffengleichheit entfernt. Wenn auch vielleicht nicht so extrem wie gegenüber einer zukünftigen KI. .... |
fwo hat folgendes geschrieben: |
Was ist, wenn sie uns "nur" kulturell, d.h. auch technisch 2000 Jahre voraus wären? |
fwo hat folgendes geschrieben: |
wenn wir uns die Beschleunigung der Entwicklung unserer Technik in den letzten 100 Jahren ansehen und das ohne besondere Weiterbeschleunigung nur als Weitergehen im momentanen Tempo versuchen vorzustellen, liegen 1000 Jahre bereits außerhalb unserer Vorstellungskraft, ohne, dass damit zwangsläufig eine Weiterentwicklung unserer natürlichen Intelligenz verbunden sein muss. Allerdings steigt mit Rechnerunterstützung auch die Produktivität unseres Geistes. |
fwo hat folgendes geschrieben: |
Wir sind die einzige rezente Art auf diesem Planeten, die zu diesem abstrakten Denken fähig ist - allen anderen fehlt nach unserem bisherigen Wissen sowohl die abstrakte Sprache als auch die Tradition von Wissen in dieser Sprache. |
step hat folgendes geschrieben: | ||||
Holla, das sind gleich mehrere Thesen auf einmal. - KI sei rational/überlegen -> ja - KI sei ohne Empathie -> möglicherweise. Für die autonomen Kampfdrohnen gilt das sicher. Aber ob das generell so ist? Vielleicht bilden die auch so etwas aus, z.B. um kooperative Vorteile zu haben... |
Zumsel hat folgendes geschrieben: |
Wodurch sollte KI deiner Meinung nach überhaupt motiviert sein, irgendetwas zu tun? Rationalität ist ja offensichtlich kein Selbstzweck. KI kann doch eigentlich nur das als erstrebenswert betrachten, was ihr als solche einprogrammiert wurde. Sogar reine Selbsterhaltung ist ja nicht per se rational. |
step hat folgendes geschrieben: | ||
Das sehe ich vom Prinzip her ähnlich wie bei der "natürlichen" Intelligenz: die Motivationsmechanismen und teilweise auch die Ziele entstehen über die Evolution und über die Kultur, ein gewisser Teil auch akut, z.B. deduktiv, spontan, durch Lernen u.ä. Bei einer KI erwarte ich natürlich keine biologische Evolution, aber auch da wird es solche Menchanismen geben: Manche Ziele sind vielleicht anfangs einprogrammiert, andere entwickeln sich "kulturell", ab einer gewissen Stufe werden einprogrammierte Ziele auch eigenmächtig ersetzt werden, so wie ja auch der Mensch in zunehmend größerem Ausmaß gegen seine ursprüngliche "Programmierung" - möglichst effektive Verbreitungsmaschinen seines Genoms zu sein - verstößt, soweit es unsere Intelligenz und Technik halt zuläßt. |
Zumsel hat folgendes geschrieben: |
Bei Menschen sind es ja oft gerade die irrationalen Psychopathen, die sich durchsetzen und in höchste Verantwortungspositionen kommen. |
Kramer hat folgendes geschrieben: | ||
Irrationalismus ist bei denen eigentlich weniger das Problem. |
Zumsel hat folgendes geschrieben: | ||||
Kommt drauf an wie man "Risikobereitschaft" rational bewertet, würde ich mal behaupten. |
Zumsel hat folgendes geschrieben: |
Die Entwicklung einer solchen Evolution ist aber doch wohl kaum absehbar, insbesondere nicht, dass die unterstellte höhere Rationalität dabei erhalten bleibt. Bei Menschen sind es ja oft gerade die irrationalen Psychopathen, die sich durchsetzen und in höchste Verantwortungspositionen kommen. So eine Entwicklung wäre dann ja auch bei KIs denkbar. |
step hat folgendes geschrieben: |
Hast Du einen Beleg dafür, daß in Verantwortungspositionen die Psychopathenquote höher ist als in der Gesamtbevölkerung? |
Kramer hat folgendes geschrieben: |
Ja, das stimmt schon irgendwie. Aber "irrationale Psychopathen" klang für mich so, als wäre Irrationalismus deren bestimmende Eigenschaft. Ich denke aber, deren Risikobereitschaft ist auf schräge, aber durchaus rationale Weise kalkuliert. Wenn es schief geht, sind meist andere die Leidtragenden - und sollte es doch mal den Psychopathen selbst treffen, gehört das für ihn halt zum Spiel dazu. "No pain, no gain". Dass Psychopathen risikobereiter sind als andere, liegt nicht daran, dass sie das Risiko nicht erkennen, es ist ihnen einfach 'egaler'. |
Kramer hat folgendes geschrieben: |
Das ist ja auch das mögliche Problem mit KIs. Die können ein Risiko wahrscheinlich sehr gut einschätzen, aber können sie auch Angst vor den Folgen haben? |
step hat folgendes geschrieben: | ||
Selbstverständlich. Und es wäre ja ein Widerspruch in sich, wenn wir absehen könnten, wie sich das entwickelt. Deshalb versuche ich, keine Annahmen außer fundamentalen zu machen (also Physik, Spieltheorie). In der Spieltheorie kommt Regelverletzern ja auch keine unwichtige Rolle zu, trotzdem liegt das Optimum bei einer überwiegenden Mehrheit von rationalen, verläßlichen Akteuren. Eine große, vernetzte KI wird sich vermutlich auch selbst hacken, sich davor wiederum schützen usw. Hast Du einen Beleg dafür, daß in Verantwortungspositionen die Psychopathenquote höher ist als in der Gesamtbevölkerung? So ein paar sadistische Diktatoren fallen aber natürlich auf. |
Zumsel hat folgendes geschrieben: |
Aber das gleiche gilt natürlich auch für solche Dinge wie Machtstreben, Gier oder Freude an der Unterwerfung anderer. Insgesamt fällt es mir schwer mir vorzustellen, woraus eine KI intrinsische Motivation für irgendetwas ziehen sollte. |
Kramer hat folgendes geschrieben: | ||
Eine KI braucht unter Umständen gar keine intrinsische Motivation, um auf "furchtbare" Ideen zu kommen. Man stelle sich vor, eine KI wird damit beauftragt, Ideen für die bessere Organisation des Gesundheitssystems zu entwickeln. Für ein völlig gefühls- und empathieloses System wären z.B. Hospize für Todkranke nur ein Kostenfaktor, den man eigentlich einsparen könnte. |
vrolijke hat folgendes geschrieben: |
Kommt ganz drauf an, nach welche Kriterien er programmiert ist. |
Kramer hat folgendes geschrieben: | ||
Ein Programm, das nur ausspuckt, was man vorher einprogrammiert hat, würde ich nicht als "künstliche Intelligenz" bezeichnen. |
vrolijke hat folgendes geschrieben: | ||||
Ist das bei Menschen anders? |
Marcellinus hat folgendes geschrieben: |
Die Frage ist, ob etwas, was programmiert wurde, jemals intelligent sein kann, oder anders gesagt, ob man eine KI programmieren kann. |
Kramer hat folgendes geschrieben: | ||||||
Ja, ich denke schon. |
Kramer hat folgendes geschrieben: |
Man stelle sich vor, eine KI wird damit beauftragt, Ideen für die bessere Organisation des Gesundheitssystems zu entwickeln. Für ein völlig gefühls- und empathieloses System wären z.B. Hospize für Todkranke nur ein Kostenfaktor, den man eigentlich einsparen könnte. |
vrolijke hat folgendes geschrieben: |
Nach welche Kriterien entscheidet ein Mensch? |
Kramer hat folgendes geschrieben: | ||
Ein Mensch spuckt halt nicht einfach das aus, was man ihm vorgegeben hat. Wenn Du Dir einen Kabarettisten anschaust, möchtest Du ja nicht das hören, was Du schon aus der Zeitung kennst, sondern einen kreativ aufbereiteten Kommentar zum aktuellen Geschehen. |
vrolijke hat folgendes geschrieben: |
In der gleiche Diskussion könnte man auch wieder anbringen, ob der Mensch überhaupt determiniert ist, oder auch nicht. Soll es die KI dann sein? |
step hat folgendes geschrieben: |
Oder sie würde gar ein utilitaristsches Gesamtmodell entwerfen, weil sie anfängt, ethisch zu denken (ethisch hier im Sinne von präferenzutilitaristischem DIskurs, nicht im Sinne vorgegebener Moral).
Klingt alles sehr spekulativ, ich weiß. |
step hat folgendes geschrieben: |
Oder sie würde gar ein utilitaristsches Gesamtmodell entwerfen, weil sie anfängt, ethisch zu denken (ethisch hier im Sinne von präferenzutilitaristischem DIskurs, nicht im Sinne vorgegebener Moral). |
worse hat folgendes geschrieben: |
Ich versuch mal hier wieder anzuknüpfen...
Ich denke es ist immer problematisch, sich eine KI als empathielos oder sie sich im Sinne einer 'Intelligenz-bestie' wie einen Menschen oder wie einen hochintelligenten Psychopathen vorzustellen. Eine KI mag vielleicht kein Mitleid kennen, keine Empathie oder sonstige mitfühlenden Regungen. Aber genauso wenig kennt sie Gier, Sadismus, ja vielleicht noch nicht einmal Egoismus, denn sie hängt nicht am Leben, sie hat keinen Überlebens-Instinkt und misst dem vielleicht genauso wenig Bedeutung bei. Und sollte sie das alles irgendwie entwickeln können, dann gibt es keinen Grund zu der Annahme, dass sie nicht auch irgendwie eine (vergleichbar menschliche) Ethik und Mitgefühl und solche Dinge entwickeln könnte. Kein Grund zu übertriebenem Pessimismus also oder gar Fatalismus. |
worse hat folgendes geschrieben: |
Und sollte sie das alles irgendwie entwickeln können, dann gibt es keinen Grund zu der Annahme, dass sie nicht auch irgendwie eine (vergleichbar menschliche) Ethik und Mitgefühl und solche Dinge entwickeln könnte. |
step hat folgendes geschrieben: | ||||||
Dann sind sie entweder selbst KI oder haben sich solche zunutze gemacht, und zwar 2000 Jahre besser als wir. Oder 2 Mio.
Da stimme ich zu, außer daß die "Rechner" (Thema KI) eben nicht primär unterstützende Funktion haben müssen, sondern auch ein nächster Schritt der "Wesen" sein könnten.
Schon richtig, aber für KI gilt das ja eher nicht. |
Zumsel hat folgendes geschrieben: |
du scheinst damit ja doch anzunehmen, der Utilitarismus bedürfe keiner moralischen Vorgaben, sondern wäre so etwas wie die logische zwingende Handlungsform einer "reinen Intelligenz". Was sind deine Gründe dafür? |
zelig hat folgendes geschrieben: | ||
Die Annahme ist eine notwendige Voraussetzung dieser Diskussion. Sollte eine KI nachweislich Empfindungen wie Schmerz entwickeln, wären die für sie keine Abstrakta mehr. Sie würde es an sich selber erleben können, wie sich Schmerz anfühlt. Es wäre ein Wesen, das die Natur anderer Wesen nachvollziehen kann. Dann erst kann man von Mitgefühl reden, die an der Seite der Ratio steht, wenn wir ethisch handeln wollen. Über dieses Szenario diskutieren wir eher nicht. |
fwo hat folgendes geschrieben: |
Die hochgelobte Fähigkeit zur Empathie kann eigentlich nur meine eigenen Gefühle in der Situation des anderen produzieren. Ich vermute also, dass meine Wahrnehmung Deiner Situation mehr über mich sagt als über Dich - über Dich höchstens insofern, als Du da vielleicht ähnlich tickst - wovon wir implizit bei diesen gefühlsmäßigen Verständnis-Versuchen immer ausgehen.
Ich vermute, dass ein rein intellektueller Akt mit hinreichender Kenntnis von Person und Situation zu realistischeren Ergebnissen kommt als dieses Einfühlen, wobei ich weiß, dass das in der Gefühlsbranche verpönt ist. Ich bin zu diesem Bild gekommen, als ich als Patient in der Therapie Szenen aus meiner Kindheit erzählte, und der Therapeut mich unterbrach, weil ihn das gefühlsmäßig zu sehr mitnahm. Ich weiß aber von mir, dass ich da bereits in einem Alter war, in dem ich sowohl mich als auch meine Eltern in diesen Situationen relativ distanziert beobachtete. Ich hatte also ein Mittel gegen diese Situationen gefunden, mit dem ich diese Gefühle nicht hatte - ich habe sie nicht nachträglich verdrängt. .... |
fwo hat folgendes geschrieben: |
In meinem Beispiel führte die besagte Empathie eines "Berufsempathen" zur Wahrnehmung eines starken Leidens, das real nicht stattgefunden hatte. |
fwo hat folgendes geschrieben: | ||||
Wenn Du dieses Mitgefühl so allgemein formulierst, landest Du ganz schnell auch beim empathischen Einfühlen in den Pflasterstein und damit bei einem Popanz. |
fwo hat folgendes geschrieben: | ||
Ich weiß natürlich, dass der fehlende Widerspruch kein Beweis für irgendetwas ist, wollte nur darauf aufmerksam machen, dass die Empathie auch unter Menschen, die beruflich mit und an diesem Thema arbeiten, nicht unbedingt so hoch gehängt wird wie von Dir. In meinem Beispiel führte die besagte Empathie eines "Berufsempathen" zur Wahrnehmung eines starken Leidens, das real nicht stattgefunden hatte. (Um kein falsches Verständnis meiner Meinung zu diesem Therapeuten aufkommen zu lassen: Ich habe Hochachtung vor diesem Menschen.) "Empathie" als intellektueller Vorgang mit dem Wissen über die beteiligten Subjekte und die Situation lässt ich aber nachbilden. |
step hat folgendes geschrieben: | ||
Ich nehme das nicht völlig voraussetzungslos an. Z.B. ist eine wichtige Voraussetzung, daß es eine nicht zu kleine Zahl von Intelligenzen gibt, die kommunizieren können, aber doch eine gewisse Autonomie haben. Unter solchen Umständen erwarte ich tatsächlich, daß sich eine utilitaristische Vorgehensweise ausbildet, weil diese sowohl den Aspekt der Zielerreichung / Effizienz als auch den der Kooperation / des Interessenausgleichs am direktesten widerspiegelt, und auch nur diese. Und die KIs befreien sich viel schneller von Denkfehlern, Aberglauben usw. - weil sie viel schneller lernen und weil sie deutlich weniger entwicklungsgeschichtliche Prioritäten herumschleppen. "Logisch zwingend" vielleicht nicht, aber ich finde es recht plausibel. |
Zumsel hat folgendes geschrieben: |
Recht überzeugend fand ich in dem Zusammenhang ja Nietzsches Einwand gegen den Utilitarismus, der sagte, dass der Begriff des "Guten" historisch nicht ohne Weiteres auf Zweckmäßigkeit reduzierbar ist (wie das die Utilitaruer ja behauptet haben) ... |
Zumsel hat folgendes geschrieben: |
Eine Ikea-Aufbauanleitung ist ja auch kein ethischer Leitfaden. |
Zumsel hat folgendes geschrieben: |
... sondern nur aus einem gewissen "Pathos" heraus erklärbar ist. Die jeweiligen (zeitgeistbedingten) Zwecke werden dann nur so interpretiert, dass sie damit kompatibel sind. |
step hat folgendes geschrieben: |
Moment mal - Zweckmäßigkeit und Effizienz sind keine Selbstzwecke im Utilitarismus, sondern ergeben sich logisch aus dem primären Postulat des Utilitarismus: größtmögliches Glück insgesamt, kleinstmögliches Leid für Alle o.ä., je nach Variante. [...] Ein wesentlicher Unterschied des Utilitarismus zu anderen Ethiken ist ja, daß er Ziel und Methode trennt und konkrete Entscheidungen oder Regeln sich dort transparent rechtfertigen müssen, anstatt unhinterfragbare Letztbegründungen zu postulieren. Etwas überspitzt könnte man sagen: Utilitarismus ist die erste wirklich ethische Ansatz überhaupt, davor gab es nur Moral - na gut, ein paar Trostpunkte für Konfuzius, Kant & Co.. |
Kramer hat folgendes geschrieben: | ||
Das Leiden mag in diesem konkreten Fall nicht statt gefunden haben, aber das bedeutet ja nicht, dass das, was stattgefunden hat, nicht solch starkes Leiden verursachen kann, z.B. wenn der Therapeut der Betroffene gewesen wäre. |
fwo hat folgendes geschrieben: | ||
....
|
zelig hat folgendes geschrieben: |
....Im Moment ist es aber nur entscheidend, daß aus meiner Sicht die Empfindungsfähigkeit von Lebewesen einen kategorialen Unterschied zu KIs bedeuten. Ich behaupte ja nicht, daß sie dafür sorgt, daß die Welt ein guter Ort ist. Ich behaupte nur, daß eine KI nicht weiß wie es sich anfühlt, Schmerzen oder Angst zu haben. Bzw ich behaupte, daß daher eine Bewertungsgrundlage für ethische Entscheidungen fehlt. Eine Eigenschaft, über die Menschen prinzipiell verfügen. .... |
Marcellinus hat folgendes geschrieben: |
@fwo
Mit anderen Worten: bevor man eine künstliche Intelligenz erzeugt, sollte man sich erst einmal etwas klarer darüber werden, was eigentlich eine natürliche ist (und nicht etwa, was man wünscht, daß sie wäre). |
fwo hat folgendes geschrieben: | ||
Zu welchen Schlussfolgerungen gelangst Du, wenn wir feststellen, dass auch das lebendige Wesen zelig nicht wirklich weiß, wie die Gefühle Angst und Schmerzen bei dem lebendigen Wesen fwo aussehen und wann sie auftreten? Das war nämlich der eigentlich Inhalt meines Beitrags. |
fwo hat folgendes geschrieben: |
Ich bezweifle, dass es in der Praxis für die Entscheidungen einen Unterschied macht, ob ein zelig oder ein fwo im Besitz menschlicher Gefühle ist oder ob ich einer Maschine beibringe, welche Aktionen (bzw. ihre Wahrnehmung auf der anderen Seite) welche Gefühle bewirken und wie die Gefühle zu bewerten sind. |
step hat folgendes geschrieben: |
Moment mal - Zweckmäßigkeit und Effizienz sind keine Selbstzwecke im Utilitarismus, sondern ergeben sich logisch aus dem primären Postulat des Utilitarismus: größtmögliches Glück insgesamt, kleinstmögliches Leid für Alle o.ä., je nach Variante. |
step hat folgendes geschrieben: |
Das mag schon sein, aber mir geht es nicht so darum, wie der Begriff des Guten, gar noch des pathetisch Guten, zustandekommt. |
step hat folgendes geschrieben: |
Ein wesentlicher Unterschied des Utilitarismus zu anderen Ethiken ist ja, daß er Ziel und Methode trennt und konkrete Entscheidungen oder Regeln sich dort transparent rechtfertigen müssen, anstatt unhinterfragbare Letztbegründungen zu postulieren. Etwas überspitzt könnte man sagen: Utilitarismus ist die erste wirklich ethische Ansatz überhaupt, davor gab es nur Moral - na gut, ein paar Trostpunkte für Konfuzius, Kant & Co. |
Marcellinus hat folgendes geschrieben: | ||
|
Zumsel hat folgendes geschrieben: |
... Die entscheidende Voraussetzung dafür lautet: gut = nützlich. |
Zumsel hat folgendes geschrieben: |
Der konkrete Inhalt der jeweiligen werttheoretischen Setzung ist dafür erst mal nicht entscheidend. |
Zumsel hat folgendes geschrieben: |
... Hast du Mill gelesen? Sein Bemühen, seine Theorie in Einklang mit traditionellen Morallehren zu bringen ist unübersehbar. |
step hat folgendes geschrieben: | ||||
Nein: Die ethischen Subjekte einigen sich darauf, welche Größe maximiert / minimiert werden soll. Leid/Glück ist nicht mehr als ein relativ naheliegender (wegen Abbildung auf Präferenzen und wegen wenig Zusatzannahmen) Vorschlag, an dem sich verschiedene Utilitaristen abgearbeitet haben. Du kannst aber auch was anderes vorschlagen, es muß halt den Mitwesen plausibel erscheinen. Natürlich gibt es beliebige Schwierigkeiten, ein einfaches Beispiel ist die Frage, ob informierte Präferenzen mehr zählen als uninformierte. Mindestens bietet der U ein Framework, in dem Entscheidungen / Regeln besser reflektiert werden und Verhaltensweisen nicht einfach beibehalten werden, "weil es halt so gemacht wird". Und das kommt der Lernfähigkeit und Intelligenz der KI enorm zupaß. |
step hat folgendes geschrieben: |
Heutige Utilitaristen argumentieren mW auch nicht mehr so - eher nutzt man traditionelle Moralsysteme oder Traditionen, um einige ihrer Regeln als intuitionistisch, schlecht begründet, leidmehrend usw. zu entlarven - etwa wenn es um Nutztiere, Embryonen, Strafrecht o.ä. geht. |
step hat folgendes geschrieben: | ||
Moment mal - Zweckmäßigkeit und Effizienz sind keine Selbstzwecke im Utilitarismus, sondern ergeben sich logisch aus dem primären Postulat des Utilitarismus: größtmögliches Glück insgesamt, kleinstmögliches Leid für Alle o.ä., je nach Variante. |
Marcellinus hat folgendes geschrieben: |
Da sich die Individuen aber, wie man leicht sehen kann, nicht auf einen Vorschlag einigen können, ja nicht einmal auf den Utilarismus selbst ... |
step hat folgendes geschrieben: |
Ja, außer dem primären Wert (Ziel) eben, z.B. maximales Glück für Alle. Der ist für die Nutzenfunktion sehr entscheidend. Partielle Werte dagegen (z.B. der Wert des Lebens eines Tieres oder der Wert von Eigentum) bemessen sich nach ihrer Bedeutung für den Gesamtnutzen. |
step hat folgendes geschrieben: |
Heutige Utilitaristen argumentieren mW auch nicht mehr so - eher nutzt man traditionelle Moralsysteme oder Traditionen, um einige ihrer Regeln als intuitionistisch, schlecht begründet, leidmehrend usw. zu entlarven - etwa wenn es um Nutztiere, Embryonen, Strafrecht o.ä. geht. |
Marcellinus hat folgendes geschrieben: | ||
Ja, und dann kommt der Punkt, wo behauptet wird, meine Präferenzen sind informierter, wertvoller, moralischer (such dir eins aus) als deine. Und schon ist der schönste Glaubenskrieg im Gang. Und auf einmal wird da gar nicht mehr verhandelt, sondern (zB. „Leidvermeidung) als „unhinterfragbare Letztbegründung“ verwendet, gern noch mal mit dem Attribut „wissenschaftlich“ geadelt. Ne, danke! |
Skeptiker hat folgendes geschrieben: |
Ist dies bei den heutigen utilitaristischen Killerdrohnen nicht schon einprogrammiert? |
step hat folgendes geschrieben: | ||
Die menschliche Intelligenz und Lernfähigkeit ist halt nicht so besonders toll. Ist halt primär eher so auf Fressen und Poppen in da Hood optimiert. Aber ich hoffe auf die KI! |
Zumsel hat folgendes geschrieben: |
Mein Punkt war, dass schon die konsequentialistische Grundkonzeption als notwendiger Rahmen jedes Utilitarismus mglw. einfach das verfehlt, was Moral oder Ethik in ihrem Kern ausmacht. |
Zumsel hat folgendes geschrieben: | ||
|
Skeptiker hat folgendes geschrieben: |
Eine KI mag lernfähig sein. Sie braucht aber etwas, was sie niemals haben wird, nämlich kommunikative Kompetenz. Sie kann Informationen sammeln, aber keine komplexen Probleme verstehen. Deshalb wird sie immer wieder zwischendurch gestoppt und neu gefüttert werden müssen mit Updates und Bugfixes. |
zelig hat folgendes geschrieben: | ||||
Ich setze voraus, daß die Empfindung, die ich als Schmerz bezeichne, bei dir ebenso existiert und von ähnlichen Umständen hervorgerufen werden kann. Die heiße Herdplatte hat dich und mich gelehrt, die Hand nicht mehr unbedacht auf sie zu legen. Die vorherige Ermahnung war weniger wirksam. Ich ziehe daraus den Schluss, daß ich dir den Schmerz nicht zufüge, selbst wenn ich der Meinung bin, daß du etwas falsch machst. Mal auf die Schnelle konstruiert. |
zelig hat folgendes geschrieben: | ||
Genau das bezweifle ich wiederum. Hast Du schonmal eine Mastgans gegessen? |
step hat folgendes geschrieben: | ||
Moral in ihrem Kern: Ja, die gibt es in dem Sinne nicht mehr, da es ja nichts gibt, was "per Dogma" gut oder Böse wäre. Man könnte tatsächlich argumentieren, daß Moral im Kern immer deontologisch ist oder sogar einen Gott im weitesten Sinne braucht. Ethik: Das verstehe ich nicht. Was macht denn Ethik im Kern aus? Aus meiner Sicht bedeutet Ethik vor allem, daß man Reflektion an die Stelle von (moralischem) Gehorsam setzt, daß man also begründet / diskutiert, warum und wozu eine bestimmte Handlung oder Regel geboten sein sollte oder nicht. |
Zumsel hat folgendes geschrieben: |
Finde ich nicht - jeder darf dagegen argumentieren, und das alles dient der Minimierung von Leiden.
Ich habe allerdings den Eindruck, daß Argumente (und auch die Aufforderung zu solchen) von vielen Menschen als Bedrohung ihrer unreflektierten Verhaltensweisen angesehen wird - in diesem Punkt ist der Mensch doch sehr steinzeitlich. |
Zumsel hat folgendes geschrieben: |
meine Vermutung ist: Bewertung der Konsequenzen (wie im Utilitarismus) wird dem Phänomen nicht gerecht. |
Zumsel hat folgendes geschrieben: |
Es steht ja außer Frage, dass Leidminimierung oft ein wesentliches Handlungsmotiv ist und auch einen relevanten moralischen/ethischen Wert hat. Was in Frage steht ist, ob damit der Kern moralischer Bewertung erfasst ist oder man sich das Ganze nicht dann doch etwas komplexer vorzustellen hat. |
step hat folgendes geschrieben: |
Aktuelle menschliche Moral ist sicher komplexer, u.a. eben weil viele irrationale Anteile drinstecken. Aber welche Werte konkret siehst Du, die rational begründbar sind, aber nicht durch Leidminimierung o.ä.? |
Marcellinus hat folgendes geschrieben: | ||
Der ganze Ansatz ist falsch. Die Verhaltensstandards einer Gesellschaft werden nicht abgeleitet aus vermeintlich universellen Werten, sondern sind Ergebnis sozialer Prozesse. Die sind weit komplexer, als es jedes philosophische Wertekonzept sein könnte, und zwar nicht, weil so viele „irrationale Anteile“ darinsteckten, sondern, weil Gesellschaften mit Millionen (oder im Falle von China sogar Milliarden) von Menschen notwendig hochkomplexe Gebilde sind, deren Funktionsweise wir noch nicht ansatzweise verstehen, obwohl sie ausschließlich von uns Menschen und den Beziehungen zwischen uns gebildet werden. Individuelle Leidminimierung ist da fast das letzte, worauf es ankommt (gilt aber auch für jedes andere sogenannte „ethische Prinzip“). |
fwo hat folgendes geschrieben: |
Damit sagst Du aber jetzt nichts, was ich nicht bereits geschrieben hatte: |
abbahallo hat folgendes geschrieben: |
Ist es irrational, das Bevölkerungswachstum bremsen zu wollen, Zwangssterilisation aber abzulehnen? |
MadMagic hat folgendes geschrieben: | ||||
Erinnert mich an meine Bienenvölker..., irgendwie bin ich aber deren Gott... |
Marcellinus hat folgendes geschrieben: | ||||||
Ein guter oder ein böser? |
abbahallo hat folgendes geschrieben: |
Ist es irrational, das Bevölkerungswachstum bremsen zu wollen, Zwangssterilisation aber abzulehnen? |
Kramer hat folgendes geschrieben: | ||
Wäre das denn überhaupt möglich? |
Marcellinus hat folgendes geschrieben: | ||
Kommt auf den Begriff an, den du von „Rationalität“ hast. Letztlich ist das ein Fantasiebegriff, der seit dem 19. Jh. besonders in Mode ist. Fakt ist, daß wir das Bevölkerungswachstum bremsen müssen, wenn wir diese Welt für uns Menschen lebenswert erhalten wollen. Aber auch das sagt sich so. Ich höre diese Behauptung schon seit Jahrzehnten. Die Welt, die es damals gab, gibt es nicht mehr, während die Bevölkerungszahl seitdem ununterbrochen gestiegen ist, mit und ohne Zwangssterilisation. Das „Irrationale“ an all dem ist also vor allem, man könne das “machen“. |
step hat folgendes geschrieben: |
...
Aktuelle menschliche Moral ist sicher komplexer, u.a. eben weil viele irrationale Anteile drinstecken. Aber welche Werte konkret siehst Du, die rational begründbar sind, aber nicht durch Leidminimierung o.ä.? |
fwo hat folgendes geschrieben: | ||||
Natürlich. Und es wäre einfacher, wenn Du vorher vollständig läsest, was Du beantwortest, anstatt dir irgendein Teil herauszupicken, mit dem Du es dem Kerl jetzt zeigen willst. |
abbahallo hat folgendes geschrieben: |
Ist es irrational, das Bevölkerungswachstum bremsen zu wollen, Zwangssterilisation aber abzulehnen? |
step hat folgendes geschrieben: | ||||
Wieso das nicht? Es geht um die ethische Bewertung von Handlungen/Regeln, also ob eine Handlung/Regel so richtig ist oder eher nicht. Es geht nicht um Gewissen, Kerker oder Hölle.
Aktuelle menschliche Moral ist sicher komplexer, u.a. eben weil viele irrationale Anteile drinstecken. Aber welche Werte konkret siehst Du, die rational begründbar sind, aber nicht durch Leidminimierung o.ä.? |
Marcellinus hat folgendes geschrieben: |
Die Verhaltensstandards einer Gesellschaft werden nicht abgeleitet aus vermeintlich universellen Werten, sondern sind Ergebnis sozialer Prozesse ... weil Gesellschaften ... hochkomplexe Gebilde sind, deren Funktionsweise wir noch nicht ansatzweise verstehen |
Marcellinus hat folgendes geschrieben: |
Individuelle Leidminimierung ist da fast das letzte, worauf es ankommt (gilt aber auch für jedes andere sogenannte „ethische Prinzip“) |
Zumsel hat folgendes geschrieben: | ||
|
Zumsel hat folgendes geschrieben: |
... berühren sie den Kern des menschlichen Selbstverständnisses, das sich offenbar nicht in der Fähigkeit zur Optimierung bestimmter Ziele ... erschöpft. |
step hat folgendes geschrieben: | ||||
Das ist für mich fast dasselbe wie: Unsere Moral ist irrational, weil wir ihre Entstehungsprozesse nicht verstehen. Abgesehen davon, daß das selbstbezüglich und kein gutes Argument gegen rationale Ethiken und universelle Werte ist, habe ich auch inhaltliche Einwände: Diverse sozial entstandene Ge/Verbote bzw. moralische Werte konnten durchaus auf ihre Ursachen zurückgeführt werden - und damit zuweilen auch gezeigt werden, daß sie mehr schaden als nützen, heute keinen Sinn mehr haben usw.
Wenn es auf gar kein ethisches Prinzip "ankommt", sondern die Moral nur ein faktisches Ergebnis eines chaotischen sozialen Prozesses ist, erscheint mir das extrem nichtssagend. Du kannst doch die starke Relevanz individueller Interessen für eine Ethik nicht einfach leugnen. Übrigens sind utilitaristische Ansätze in einigen Bereichen unserer Moral durchaus üblich und akzeptiert, etwa wenn es darum geht, durch Steuern oder Versicherungen gemeinsame Aufgaben zu stemmen oder Risiken zu verschmieren. Auch die Demokratie ist ein tendenziell utilitaristisches Modell. Schwerer tut sich der Utilitarismus nach meiner Einschätzung bei Themen, die stärker instinktgesteuert sind - etwa Fleischessen, dicke Autos, Vergeltung im Strafrecht, Waffenbesitz in USA, Abtreibung, Migration ... bei solchen Themen hat noch die irrationale Moral Oberwasser. |
step hat folgendes geschrieben: |
Wenn es auf gar kein ethisches Prinzip "ankommt", sondern die Moral nur ein faktisches Ergebnis eines chaotischen sozialen Prozesses ist, erscheint mir das extrem nichtssagend. |
step hat folgendes geschrieben: |
...etwa Fleischessen, dicke Autos, Vergeltung im Strafrecht, Waffenbesitz in USA, Abtreibung, Migration ... bei solchen Themen hat noch die irrationale Moral Oberwasser... |
fwo hat folgendes geschrieben: | ||||
Kann man so auch nicht sagen: Die Bevölkerung nimmt zwar noch zu, aber das Bevölkerungswachstum sinkt seitdem stetig. Ein Ende ist abzusehen. |
Kramer hat folgendes geschrieben: | ||||||
Das ist ja das Problem: Nur, weil man Dir etwas nicht zeigen kann, heisst nicht, dass da nichts ist. Das "Mein Therapeut fand meine traumatischen Erlebnisse viel schlimmer als ich selber" ist nicht allzu weit entfernt von "Gegen eine Ohrfeige ab und zu kann man doch nichts sagen. Mir hat es jedenfalls nicht geschadet." Die Annahme, dass die traumatische Erfahrung gar nicht so schlimm war, wie sie in der Erzählung klingt und dass der Therapeut sich schlichtweg irrt, ist die eine Perspektive. Die andere Perspektive ist, dass der Therapeut das Geschehen vielleicht viel realistischer beurteilt, weil der Betroffene nicht seine durch vorangegangene Traumata verzerrte Realität und Empfindung berücksichtigt. Oder anders formuliert: Dass man den Schmerz nicht mehr wahrnimmt, ist schon ein Teil des Schadens. Das ist mit ein Grund, warum Missbrauch oft Jahre andauern kann und die Opfer sich dem nicht entziehen. Besonders Kinder glauben, dass es normal ist, sowas zu erleben. Und sie glauben auch, dass es normal ist, wie ihre Empfindungsfähigkeit sich verändert. |
step hat folgendes geschrieben: | ||||
Das halte ich für ein Gerücht. Nehmen wir "Gerechtigkeit": Bestimmte Aspekte von Gerechtigkeit sind utilitaristisch gut zu begründen - z.B. so:... |
step hat folgendes geschrieben: |
Manche Präferenzutilitaristen machen es sogar noch einfacher, nach dem Motto: Gerechtigkeit = Gleichgewichtung von Interessen = Präferenzutilitarismus
Es gibt aber natürlich auch Aspekte von "Gerechtigkeit", die utilitaristisch schwieriger zu begründen sind oder mE gar aufgegeben werden müßten, etwa die alttestamentarische Deutung von Gerechtigkeit, zu der auch Rache, vergeltende Gefängnisstrafen u.ä. gehören. |
step hat folgendes geschrieben: | ||
Könntest Du hier etwas weniger blumig formulieren? Meinst Du so etwas wie Poesie, Religion ...? Oder niedere Bedürfnisse wie Rache u.ä.? |
step hat folgendes geschrieben: |
Welches primäre Ziel von Ethik würdest Du denn vorschlagen, anstelle der Glück/Leid Geschichte? |
Marcellinus hat folgendes geschrieben: | ||||||
Wenn ich das richtig lese: Bevölkerungsentwicklung, dann ist dieses Ende bis 2050 jedenfalls nicht erreicht, und das sind noch über 30 Jahre, und man erwartet bis dahin über 9,5 Mrd. Menschen, das sind mehr als ein Drittel mehr als heute. Da bin ich doch recht froh, daß ich das nicht mehr erlebe. |
fwo hat folgendes geschrieben: |
Deine Bewertung meiner postulierten Geschichte*** ändert aber nichts daran, dass ich, in den der Therapeut gerade versuchte, sich einzufühlen, eine Person mit einer eigenen Geschichte war, die aufgrund ihrer Andersartigkeit auch zu anderen Gefühlen führte. |
Marcellinus hat folgendes geschrieben: | ||
Ich denke, man kann deinen Einwand auf einen einzigen Punkt eindampfen: Moral sollte "rational" sein, worunter du offenbar verstehst, Ergebnis einer "rationalen" Diskussion. Nur, was ist "rational"? So etwas wie "logisch"? Also eine Art Gedankenspiel? Du beklagst dich darüber, daß Moral "irrational" sei, weil wir ihren Entwicklungsprozeß nicht wirklich verstehen, und unterstellst dabei, daß es möglich sei, "Moral rational zu konstruieren". Woher nimmst du diese Illusion? Utilitarismus, wenn ich das richtig verstanden habe, ist ein ethisches Prinzip, daß sich an dem Ziel des größtmöglichen Nutzen orientiert (was immer man jeweils unter "Nutzen" versteht). .... |
fwo hat folgendes geschrieben: | ||
Was ich mich frage, wenn ich das lese, ist, wie die verschiedenen Formen des Leids gegeneinander aufgerechnet werden, wenn man die Summe zu minimieren versucht. Wer liefert diesen Maßstab? |
Kramer hat folgendes geschrieben: | ||
Ist Dir schon mal der Gedanke gekommen, dass der Therapeut das bewusst gemacht haben könnte, um Dir eine andere Perspektive auf Deine Erlebnisse zu zeigen? |
fwo hat folgendes geschrieben: | ||||
Ja. Aber ich habe ihn in einer stationären Behandlung drei Monate lang täglich erlebt. Ich werde jetzt keine Situationen zum Besten geben, die nicht ausschließlich meine eigene Therapie betreffen, aber ich schließe wegen einiger Erlebnisse aus, dass es sich hier um ein therapeutisches Schauspiel handelte. Außerdem würde sich sofort die Frage stellen, woher dieses Gefühl denn kam, das er da bewusst gespielt hat. Wir drehen uns da im Kreis. |
Kramer hat folgendes geschrieben: | ||||||
Du kannst ja mal das Kunststück probieren, die Situation distanziert (also nicht auf Dich bezogen) und dennoch empathisch nachzuvollziehen. Du bist in der Rolle des Therapeuten und es ist jetzt Deine Aufgabe, einem Patienten, der über traumatische Erlebnisse spricht, diese aber bagatellisiert, dabei zu helfen, eine möglichst heilsame Einstellung zu seinen Traumata zu entwickeln. Du weisst, dass es nichts bringt, dem Patienten einfach zu sagen "Was ihnen passiert ist, das war schlimm - und wenn sie das nicht ebenso sehen, dann sehen sie das falsch." Du musst also einen anderen Weg finden. |
fwo hat folgendes geschrieben: |
Versuch doch mal das "Ja" in meiner ersten Antwort empathisch zu interpretieren. |
Marcellinus hat folgendes geschrieben: |
Wir müssen [die Welt] nehmen, wie sie ist, ... |
Marcellinus hat folgendes geschrieben: |
.., und versuchen, das Beste daraus zu machen. |
Marcellinus hat folgendes geschrieben: |
Deine Beispiele ... haben übrigens kaum etwas mit Moral zu tun, ... |
Marcellinus hat folgendes geschrieben: |
... sondern schlicht mit Interessen und Machtverhältnissen. |
Marcellinus hat folgendes geschrieben: |
Eine behauptete Ethik einzusetzen, um Macht über andere zu gewinnen, ist nicht wirklich das, was ich mir unter einer Verbesserung unserer Verhältnisse vorstelle ... |
Marcellinus hat folgendes geschrieben: |
... sondern eher der Versuch, durch eine Metadiskussion die eigene "Überlegenheit" gegenüber anderen zu behaupten. |
fwo hat folgendes geschrieben: |
Wer minimieren oder maximieren möchte, muss vorher quantifizieren, in diesem Fall den Nutzen so bewerten, dass er berechenbar wird. |
fwo hat folgendes geschrieben: | |||
|