Soll sich KI zu erkennen geben? | ||||||||||||||
|
||||||||||||||
Stimmen insgesamt : 7 |
step hat folgendes geschrieben: | ||||
Holla, das sind gleich mehrere Thesen auf einmal. - KI sei rational/überlegen -> ja - KI sei ohne Empathie -> möglicherweise. Für die autonomen Kampfdrohnen gilt das sicher. Aber ob das generell so ist? Vielleicht bilden die auch so etwas aus, z.B. um kooperative Vorteile zu haben... |
Zumsel hat folgendes geschrieben: |
Wodurch sollte KI deiner Meinung nach überhaupt motiviert sein, irgendetwas zu tun? Rationalität ist ja offensichtlich kein Selbstzweck. KI kann doch eigentlich nur das als erstrebenswert betrachten, was ihr als solche einprogrammiert wurde. Sogar reine Selbsterhaltung ist ja nicht per se rational. |
step hat folgendes geschrieben: | ||
Das sehe ich vom Prinzip her ähnlich wie bei der "natürlichen" Intelligenz: die Motivationsmechanismen und teilweise auch die Ziele entstehen über die Evolution und über die Kultur, ein gewisser Teil auch akut, z.B. deduktiv, spontan, durch Lernen u.ä. Bei einer KI erwarte ich natürlich keine biologische Evolution, aber auch da wird es solche Menchanismen geben: Manche Ziele sind vielleicht anfangs einprogrammiert, andere entwickeln sich "kulturell", ab einer gewissen Stufe werden einprogrammierte Ziele auch eigenmächtig ersetzt werden, so wie ja auch der Mensch in zunehmend größerem Ausmaß gegen seine ursprüngliche "Programmierung" - möglichst effektive Verbreitungsmaschinen seines Genoms zu sein - verstößt, soweit es unsere Intelligenz und Technik halt zuläßt. |
Zumsel hat folgendes geschrieben: |
Bei Menschen sind es ja oft gerade die irrationalen Psychopathen, die sich durchsetzen und in höchste Verantwortungspositionen kommen. |
Kramer hat folgendes geschrieben: | ||
Irrationalismus ist bei denen eigentlich weniger das Problem. |
Zumsel hat folgendes geschrieben: | ||||
Kommt drauf an wie man "Risikobereitschaft" rational bewertet, würde ich mal behaupten. |
Zumsel hat folgendes geschrieben: |
Die Entwicklung einer solchen Evolution ist aber doch wohl kaum absehbar, insbesondere nicht, dass die unterstellte höhere Rationalität dabei erhalten bleibt. Bei Menschen sind es ja oft gerade die irrationalen Psychopathen, die sich durchsetzen und in höchste Verantwortungspositionen kommen. So eine Entwicklung wäre dann ja auch bei KIs denkbar. |
step hat folgendes geschrieben: |
Hast Du einen Beleg dafür, daß in Verantwortungspositionen die Psychopathenquote höher ist als in der Gesamtbevölkerung? |
Kramer hat folgendes geschrieben: |
Ja, das stimmt schon irgendwie. Aber "irrationale Psychopathen" klang für mich so, als wäre Irrationalismus deren bestimmende Eigenschaft. Ich denke aber, deren Risikobereitschaft ist auf schräge, aber durchaus rationale Weise kalkuliert. Wenn es schief geht, sind meist andere die Leidtragenden - und sollte es doch mal den Psychopathen selbst treffen, gehört das für ihn halt zum Spiel dazu. "No pain, no gain". Dass Psychopathen risikobereiter sind als andere, liegt nicht daran, dass sie das Risiko nicht erkennen, es ist ihnen einfach 'egaler'. |
Kramer hat folgendes geschrieben: |
Das ist ja auch das mögliche Problem mit KIs. Die können ein Risiko wahrscheinlich sehr gut einschätzen, aber können sie auch Angst vor den Folgen haben? |
step hat folgendes geschrieben: | ||
Selbstverständlich. Und es wäre ja ein Widerspruch in sich, wenn wir absehen könnten, wie sich das entwickelt. Deshalb versuche ich, keine Annahmen außer fundamentalen zu machen (also Physik, Spieltheorie). In der Spieltheorie kommt Regelverletzern ja auch keine unwichtige Rolle zu, trotzdem liegt das Optimum bei einer überwiegenden Mehrheit von rationalen, verläßlichen Akteuren. Eine große, vernetzte KI wird sich vermutlich auch selbst hacken, sich davor wiederum schützen usw. Hast Du einen Beleg dafür, daß in Verantwortungspositionen die Psychopathenquote höher ist als in der Gesamtbevölkerung? So ein paar sadistische Diktatoren fallen aber natürlich auf. |
Zumsel hat folgendes geschrieben: |
Aber das gleiche gilt natürlich auch für solche Dinge wie Machtstreben, Gier oder Freude an der Unterwerfung anderer. Insgesamt fällt es mir schwer mir vorzustellen, woraus eine KI intrinsische Motivation für irgendetwas ziehen sollte. |
Kramer hat folgendes geschrieben: | ||
Eine KI braucht unter Umständen gar keine intrinsische Motivation, um auf "furchtbare" Ideen zu kommen. Man stelle sich vor, eine KI wird damit beauftragt, Ideen für die bessere Organisation des Gesundheitssystems zu entwickeln. Für ein völlig gefühls- und empathieloses System wären z.B. Hospize für Todkranke nur ein Kostenfaktor, den man eigentlich einsparen könnte. |
vrolijke hat folgendes geschrieben: |
Kommt ganz drauf an, nach welche Kriterien er programmiert ist. |
Kramer hat folgendes geschrieben: | ||
Ein Programm, das nur ausspuckt, was man vorher einprogrammiert hat, würde ich nicht als "künstliche Intelligenz" bezeichnen. |
vrolijke hat folgendes geschrieben: | ||||
Ist das bei Menschen anders? |
Marcellinus hat folgendes geschrieben: |
Die Frage ist, ob etwas, was programmiert wurde, jemals intelligent sein kann, oder anders gesagt, ob man eine KI programmieren kann. |
Kramer hat folgendes geschrieben: | ||||||
Ja, ich denke schon. |
Kramer hat folgendes geschrieben: |
Man stelle sich vor, eine KI wird damit beauftragt, Ideen für die bessere Organisation des Gesundheitssystems zu entwickeln. Für ein völlig gefühls- und empathieloses System wären z.B. Hospize für Todkranke nur ein Kostenfaktor, den man eigentlich einsparen könnte. |
vrolijke hat folgendes geschrieben: |
Nach welche Kriterien entscheidet ein Mensch? |
Kramer hat folgendes geschrieben: | ||
Ein Mensch spuckt halt nicht einfach das aus, was man ihm vorgegeben hat. Wenn Du Dir einen Kabarettisten anschaust, möchtest Du ja nicht das hören, was Du schon aus der Zeitung kennst, sondern einen kreativ aufbereiteten Kommentar zum aktuellen Geschehen. |
vrolijke hat folgendes geschrieben: |
In der gleiche Diskussion könnte man auch wieder anbringen, ob der Mensch überhaupt determiniert ist, oder auch nicht. Soll es die KI dann sein? |
step hat folgendes geschrieben: |
Oder sie würde gar ein utilitaristsches Gesamtmodell entwerfen, weil sie anfängt, ethisch zu denken (ethisch hier im Sinne von präferenzutilitaristischem DIskurs, nicht im Sinne vorgegebener Moral).
Klingt alles sehr spekulativ, ich weiß. |
step hat folgendes geschrieben: |
Oder sie würde gar ein utilitaristsches Gesamtmodell entwerfen, weil sie anfängt, ethisch zu denken (ethisch hier im Sinne von präferenzutilitaristischem DIskurs, nicht im Sinne vorgegebener Moral). |
worse hat folgendes geschrieben: |
Ich versuch mal hier wieder anzuknüpfen...
Ich denke es ist immer problematisch, sich eine KI als empathielos oder sie sich im Sinne einer 'Intelligenz-bestie' wie einen Menschen oder wie einen hochintelligenten Psychopathen vorzustellen. Eine KI mag vielleicht kein Mitleid kennen, keine Empathie oder sonstige mitfühlenden Regungen. Aber genauso wenig kennt sie Gier, Sadismus, ja vielleicht noch nicht einmal Egoismus, denn sie hängt nicht am Leben, sie hat keinen Überlebens-Instinkt und misst dem vielleicht genauso wenig Bedeutung bei. Und sollte sie das alles irgendwie entwickeln können, dann gibt es keinen Grund zu der Annahme, dass sie nicht auch irgendwie eine (vergleichbar menschliche) Ethik und Mitgefühl und solche Dinge entwickeln könnte. Kein Grund zu übertriebenem Pessimismus also oder gar Fatalismus. |
worse hat folgendes geschrieben: |
Und sollte sie das alles irgendwie entwickeln können, dann gibt es keinen Grund zu der Annahme, dass sie nicht auch irgendwie eine (vergleichbar menschliche) Ethik und Mitgefühl und solche Dinge entwickeln könnte. |
step hat folgendes geschrieben: | ||||||
Dann sind sie entweder selbst KI oder haben sich solche zunutze gemacht, und zwar 2000 Jahre besser als wir. Oder 2 Mio.
Da stimme ich zu, außer daß die "Rechner" (Thema KI) eben nicht primär unterstützende Funktion haben müssen, sondern auch ein nächster Schritt der "Wesen" sein könnten.
Schon richtig, aber für KI gilt das ja eher nicht. |
Zumsel hat folgendes geschrieben: |
du scheinst damit ja doch anzunehmen, der Utilitarismus bedürfe keiner moralischen Vorgaben, sondern wäre so etwas wie die logische zwingende Handlungsform einer "reinen Intelligenz". Was sind deine Gründe dafür? |
output generated using printer-friendly topic mod. Alle Zeiten sind GMT + 1 Stunde