Soll sich KI zu erkennen geben? | ||||||||||||||
|
||||||||||||||
Stimmen insgesamt : 7 |
Marcellinus hat folgendes geschrieben: |
Wir müssen [die Welt] nehmen, wie sie ist, ... |
Marcellinus hat folgendes geschrieben: |
.., und versuchen, das Beste daraus zu machen. |
Marcellinus hat folgendes geschrieben: |
Deine Beispiele ... haben übrigens kaum etwas mit Moral zu tun, ... |
Marcellinus hat folgendes geschrieben: |
... sondern schlicht mit Interessen und Machtverhältnissen. |
Marcellinus hat folgendes geschrieben: |
Eine behauptete Ethik einzusetzen, um Macht über andere zu gewinnen, ist nicht wirklich das, was ich mir unter einer Verbesserung unserer Verhältnisse vorstelle ... |
Marcellinus hat folgendes geschrieben: |
... sondern eher der Versuch, durch eine Metadiskussion die eigene "Überlegenheit" gegenüber anderen zu behaupten. |
fwo hat folgendes geschrieben: |
Wer minimieren oder maximieren möchte, muss vorher quantifizieren, in diesem Fall den Nutzen so bewerten, dass er berechenbar wird. |
fwo hat folgendes geschrieben: | ||||
|
fwo hat folgendes geschrieben: | ||||||
Wenn Du dieses Mitgefühl so allgemein formulierst, landest Du ganz schnell auch beim empathischen Einfühlen in den Pflasterstein und damit bei einem Popanz. Ich habe durch Zufall gerade Zugriff auf eine private Diskussion zwischen mir und einem Psychiater, in dem folgendes Statement von mir keinen Widerspruch auslöste:
Ich weiß natürlich, dass der fehlende Widerspruch kein Beweis für irgendetwas ist, wollte nur darauf aufmerksam machen, dass die Empathie auch unter Menschen, die beruflich mit und an diesem Thema arbeiten, nicht unbedingt so hoch gehängt wird wie von Dir. In meinem Beispiel führte die besagte Empathie eines "Berufsempathen" zur Wahrnehmung eines starken Leidens, das real nicht stattgefunden hatte. (Um kein falsches Verständnis meiner Meinung zu diesem Therapeuten aufkommen zu lassen: Ich habe Hochachtung vor diesem Menschen.) "Empathie" als intellektueller Vorgang mit dem Wissen über die beteiligten Subjekte und die Situation lässt ich aber nachbilden. |
fwo hat folgendes geschrieben: |
Aber das ist genau das Problem: Das Bild der schreienden Gans löst Gefühle in uns aus, die etwas mit uns in dieser Situation zu tun haben und nichts mit der Gans. Die können uns den Appetit auf diese Gans verderben, auch wenn die Qual dieser Gans für sie selbst evtl. unwesentlich ist. Genauso kann es nämlich auch andersherum gehen, dass unser Gefühl nichts signalisiert, während es dem auf der anderen Seite gerade beschissen geht. |
Kramer hat folgendes geschrieben: |
....
Einer KI ohne Empathie fehlt die Wahrnehmung einer wichtigen Dimension der menschlichen Realität. Daran ändert auch der Umstand nichts, dass unsere empathische Wahrnehmung manchmal daneben liegt. Daher liegt m.E. die Frage auf der Hand, ob man eine KI überhaupt dafür benutzen könnte/sollte, ethische oder moralische Probleme zu lösen. |
Kramer hat folgendes geschrieben: |
....
Zurück zum Thema: Würde es was bringen, eine KI traumatischen Situationen auszusetzen, damit sie nachvollziehen kann, was Menschen so erleiden? Oder wäre das Ergebnis nur eine ratlose KI, die immer noch nicht weiss, worüber Menschen klagen, denn sie fand es gar nicht so schlimm? |
fwo hat folgendes geschrieben: |
....
Dass die "wirkliche KI" von selbst auf Ethik, Kooperation, insbesondere auch mit dem Menschen, usw. kommen sollte oder müsste, halte ich allerdings für eine zu hohe und im Versuch der Verwirklichung auch für zu unvorsichtige Erwartung. Mit dem Hintergrund, dass sehr viel von dem, was wir heute mit großem intellektuellen Aufwand rein rational zu begründen suchen, einen genetischen Ursprung hat, empfände ich es auch nicht als Einschränkung der KI, wenn sie gewisse Regeln für die Kooperation mit dem Menschen hart im Programm stehen hätte. Es wären die selben Einschränkungen, mit den wir auch leben, und die uns haben überleben lassen. |
fwo hat folgendes geschrieben: |
Da liegt in meinen Augen auch ein falschen Konzept von KI vor, bzw. eine Utopie von KI, die ich nicht teile. KI wird nicht geschaffen, um den leistungsfähigeren Menschen zu machen, sondern um bestimmte Bereiche besser beherrschen zu können, in denen Ki besser sein kann. Ich glaube nicht, dass moralische Bewertungen dazugehören. |
Kramer hat folgendes geschrieben: | ||
Wenn es für moralische Aufgaben einen Markt gibt bzw. kommerziell nutzbare Einsatzmöglichkeiten, dann werden KIs auch so eingesetzt werden. Und wenn KIs als leistungsfähigere Menschen möglich sind, wird man auch die bauen, denn die eignen sich doch hervorragend als billige Arbeitskräfte. |
step hat folgendes geschrieben: | ||||||
....
Interessen sind was Gutes, und jeder hat welche. Ich weiß, daß Du gerne über Machtverhältnisse redest und jedes Thema da hinzuziehen versuchst, aber das interessiert mich beim Thema "KI und Ethik" nicht.
Was für einen Schwachsinn unterstellst Du da?
Oh Mann, peinliches Niveau. |
zelig hat folgendes geschrieben: |
Man muss zum Beispiel verstehen, daß sich Leid nicht aufsummieren lässt. Der Schmerz der verbrannten Hände auf der Herdplatte von Hans und Karl bildet kein Gesamtleid. |
fwo hat folgendes geschrieben: |
Die Ebene der Macht ist nicht die alleinige, nicht einmal unbedingt die entscheidende, was step hier Marcellinus als Aussage unterstellt - ich weiß nicht ob Marcellinus das wirklich so meint. |
Marcellinus hat folgendes geschrieben: |
Deine Beispiele haben übrigens kaum etwas mit Moral zu tun, sondern schlicht mit Interessen und Machtverhältnissen. |
Marcellinus hat folgendes geschrieben: |
Eine behauptete Ethik einzusetzen, um Macht über andere zu gewinnen, ... |
fwo hat folgendes geschrieben: |
Aber wie wichtig die Ebene der Macht bei Meinungsführern ist, können wir alle täglich erleben. Man sollte sie nicht ignorieren. |
Marcellinus hat folgendes geschrieben: |
@step
Naturlich habe ich geschrieben, daß es bei der Debatte um Ethik eigentlich um Macht geht, nämlich um Macht über das Verhalten anderer Menschen, indem man deren Verhalten als „unethisch“ zu diskreditieren sucht. |
Marcellinus hat folgendes geschrieben: |
Naturlich habe ich geschrieben, daß es bei der Debatte um Ethik eigentlich um Macht geht, nämlich um Macht über das Verhalten anderer Menschen, indem man deren Verhalten als „unethisch“ zu diskreditieren sucht. |
step hat folgendes geschrieben: | ||
Wen meinst Du denn hier? Wer will die Anderen unterdrücken? - mächtige deontologische Moralverkünder, z.B. Ayatollahs? - Philosophinnen, die über Utilitarismus als Methode schreiben als Beispiel moralische Doppelstandards kritisieren? - jeder Mensch, der eine Handlung moralisch bewertet? Willst Du sagen, daß Leute sich überhaupt nicht auf z.B. ethische Werte und Regeln einigen sollten, weil bereits das einen Akt der Unterdrückung darstellt? |
fwo hat folgendes geschrieben: | ||||
Die Gefahr, dass jemand das versuchen wird, halte ich auch für real. Wir sind so. |
Kramer hat folgendes geschrieben: | ||||||
Mal ein ganz konkretes Beispiel - keine SF. Ich habe neulich einen Bericht im Fernsehen gesehen, dass die Betreiber von Partnerbörsen im Internet Fake-Accounts einrichten, die dazu dienen, die zahlende Kundschaft bei der Stange zu halten. Bisher ist es wohl so, dass die dafür extra Leute einstellen, die für ein wenig Geld ahnungslosen Kunden die grosse Liebe vorgaukeln und mit leeren Versprechungen möglichst lange auf dem Portal halten sollen. Wer diesen Job macht, kann mit Fug und Recht behaupten "ich bin Berufspsychopath". Auch wenn diese Leute nicht wirklich Psychopathen sein müssen, machen sie genau das, was Psychopathen von sich aus machen. Sie nutzen die Gefühle und die Bedürftigkeit von anderen Menschen aus, um denen Geld aus der Tasche zu ziehen. Richtige Menschen mit dieser Aufgabe zu betrauen, birgt aber auch ein gewisses Risiko, denn die können ja das Geschäftsgeheimnis ausplaudern oder aus Gewissensgründen aussteigen und den Schwindel bekannt machen. Hier haben wir also einen Markt, der ideale Voraussetzungen für den Einsatz künstlicher Intelligenzen bietet. Ich halte es für nicht allzu utopisch, dass es in nächster Zukunft gelingen wird, Bots zu programmieren, die entsprechend auf Partnerschaftsgesuche eingehen können. Und schon haben wir sie, die gewissen- und empathielose Maschine, deren Aufgabe es sein wird, die intimsten Gefühle von Menschen zu manipulieren. Das wird nicht mehr lange dauern. |
fwo hat folgendes geschrieben: |
KI wird nicht geschaffen, um den leistungsfähigeren Menschen zu machen, sondern um bestimmte Bereiche besser beherrschen zu können. |
fwo hat folgendes geschrieben: |
Ich glaube nicht, dass moralische Bewertungen dazugehören. |
step hat folgendes geschrieben: | ||||
Anfangs sicher - der Mensch will ja weiter das Gefühl haben, der Entscheidung und Macht zu haben. Eine solche KI hätte vermutlich keinerlei Personeneigenschaften (z.B. Bewußtsein, Interessen), sondern würde Techniken wie deep learning nur ganz gezielt zu einem vorbestimmten Nutzen einsetzen.
Ich denke, daß moralische Bewertungen schon sehr bald dazugehören werden, gerade weil das Gebiet komplex ist. Und ich denke, das wird schon geschehen in einer Phase, in der KIs selbst noch keinerlei Personeneigenschaften haben, sondern nur lernende Algorhithmen sind. Oft genannt wird das Beispiel mit dem autonomen Fahrzeug in einer Triagesituation. zelig wird vermutlich protestieren, aber aus meiner Sicht sind es nun mal moralische Bewertungen, sobald nach bestimmten Regeln Entscheidungen mit Konsequenzen für leidfähige Wesen getroffen werden. Und auch wenn das vlt ein mulmiges bzw. unromantisches Gefühl auslöst, meiner Ansicht nach hat ein Algorhithmus das Potential, moralische Bewertungen schneller, sicherer, vorurteilsfreier und mit insgesamt besseren Konsequenzen zu treffen, als das der Mensch typischerweise kann. |
step hat folgendes geschrieben: | ||||
Anfangs sicher - der Mensch will ja weiter das Gefühl haben, der Entscheidung und Macht zu haben. Eine solche KI hätte vermutlich keinerlei Personeneigenschaften (z.B. Bewußtsein, Interessen), sondern würde Techniken wie deep learning nur ganz gezielt zu einem vorbestimmten Nutzen einsetzen.
Ich denke, daß moralische Bewertungen schon sehr bald dazugehören werden, gerade weil das Gebiet komplex ist. Und ich denke, das wird schon geschehen in einer Phase, in der KIs selbst noch keinerlei Personeneigenschaften haben, sondern nur lernende Algorhithmen sind. Oft genannt wird das Beispiel mit dem autonomen Fahrzeug in einer Triagesituation. zelig wird vermutlich protestieren, aber aus meiner Sicht sind es nun mal moralische Bewertungen, sobald nach bestimmten Regeln Entscheidungen mit Konsequenzen für leidfähige Wesen getroffen werden. Und auch wenn das vlt ein mulmiges bzw. unromantisches Gefühl auslöst, meiner Ansicht nach hat ein Algorhithmus das Potential, moralische Bewertungen schneller, sicherer, vorurteilsfreier und mit insgesamt besseren Konsequenzen zu treffen, als das der Mensch typischerweise kann. |
Zumsel hat folgendes geschrieben: |
Mir ist noch nicht ganz klar, was es deiner Meinung nach bedeutet, ethisch zu handeln:
- Handlungsregeln, die dem effizienten Ausgleich einerseits gegenläufiger, anderserseits sich gegenseitig nicht ignorieren könnender Interesse, dienen - Handlungsregeln, die Konsequenzen für leidfähige Wesen haben. Mir scheint, du legst deinen Ausführungen wie selbstverständlich mal diese, mal jene Definition zu Grunde. Aber offensichtlich ist das doch nicht dasselbe. |
fwo hat folgendes geschrieben: |
Was Du an dieser Stelle einfach vermischst ..., ist die Handlung nach Regeln, die von der Moral bestimmt werden, und das Aufstellen der Moral, des Regelwerkes selbst. |
fwo hat folgendes geschrieben: | ||
|
fwo hat folgendes geschrieben: |
Aber die Moral kommt nicht von der Maschine. Der Bewertungsschlüssel an dieser Stelle ist so schwierig zu erstellen und hat so erhebliche Konsequenzen, dass er entweder auf der Ingenieursebene erstellt wird, weil ein kleiner Ingenieur sich ganz gut kreuzigen lässt, oder aber, der schafft es, den Vorstand zu involvieren. Aber der wird sich hüten, die Finger in dieses Feuer zu stecken, und wird nach dem Gesetzgeber rufen. |
fwo hat folgendes geschrieben: |
Und da kommen wir zum Anfang des Threads. Ich hatte da einen ganz groben Schlüssel versucht, nachdem zu unterscheiden wäre, wann eine KI verpflichtet sein sollte, sich zu erkennen zu geben. |
step hat folgendes geschrieben: |
...
Ich denke, man sollte hier sehr vorsichtig mit einer radikalen Grenze sein, etwa angesichts der Beobachtung, daß auch die allermeisten menschlichen moralischen Bewertungen durch Biologie, Erziehung und Kultur vorprogrammiert sind - Verläßlichkeit / Determination ist hier auch ein Thema. ... |
fwo hat folgendes geschrieben: |
....Auch beim Menschen wird die Ratio, also die angeblich freie Entscheidung in dieser Ebene weitgehend durch Gefühle gesteuert, deren Grundlage genauso genetisch wie kulturell sein kann. Bei bestimmten Regeln wäre es in meinen Augen keine Einschränkung der KI. sondern sinnvoll, wenn sie "hart" programmiert würden. |
Kramer hat folgendes geschrieben: | ||
Ich vermute, dass gesetzliche Regelungen in diesem Bereich relativ sinnlos sein werden. Wenn die KI auf einer Serverfarm im Ausland läuft und sich über die normalen Log-In-Prozeduren beim System anmeldet, wird es kaum nachweisbar sein, dass hier geschummelt wird. |
fwo hat folgendes geschrieben: |
Es ist sofort nachweisbar, wenn in Stichproben nach dem Menschen auf der anderen Seite gesehen wird. |
Kramer hat folgendes geschrieben: | ||
Wer soll das tun? Und woher hat der die Daten? |
fwo hat folgendes geschrieben: | ||||
Wenn Du damit sagen möchtest, dass da Handlungsbedarf in mehr als einer Ebene besteht, widerspreche ich nicht. |
Kramer hat folgendes geschrieben: | ||||||
Ich sehe da mehr als nur Handlungsbedarf, ich sehe schwer zu lösende Widersprüche. Die Kunden von Partnerbörsen (oder auch Pornoangeboten) wollen i.d.R. anonym bleiben. Anonymität ist ist hier ein wichtiges Qualitätskriterium. Aber Anonymität und Datenschutz bieten eben auch ideale Bedingungen für den Missbrauch von KI. |
fwo hat folgendes geschrieben: |
Deshalb ja auch meine Hoffnung auf eine kostenlose Konkurrenz von der GNU-Seite. |
Kramer hat folgendes geschrieben: | ||
Der Sinn einer solchen GNU-Version von Fake-Bots erschliesst sich mir nicht. Ich vermute mal, dass nur sehr wenige Menschen sich bei Partnerbörsen anmelden, um mit Fake-Accounts oder Bots zu kommunizieren. |
output generated using printer-friendly topic mod. Alle Zeiten sind GMT + 1 Stunde