Freigeisterhaus Foren-Übersicht
 FAQFAQ   SuchenSuchen   MitgliederlisteMitgliederliste   NutzungsbedingungenNutzungsbedingungen   BenutzergruppenBenutzergruppen   LinksLinks   RegistrierenRegistrieren 
 ProfilProfil   Einloggen, um private Nachrichten zu lesenEinloggen, um private Nachrichten zu lesen   LoginLogin 

Soll sich KI zu erkennen geben?
Gehe zu Seite Zurück  1, 2, 3, 4, 5, 6, 7, 8, 9  Weiter
 
Neues Thema eröffnen   Neue Antwort erstellen   Drucker freundliche Ansicht    Freigeisterhaus Foren-Übersicht -> Wissenschaft und Technik
Vorheriges Thema anzeigen :: Nächstes Thema anzeigen  

Soll sich KI zu erkennen geben?
Ja
57%
 57%  [ 4 ]
Nein
42%
 42%  [ 3 ]
Stimmen insgesamt : 7

Autor Nachricht
Zumsel
registrierter User



Anmeldungsdatum: 08.03.2005
Beiträge: 4667

Beitrag(#2135385) Verfasst am: 20.05.2018, 09:26    Titel: Antworten mit Zitat

step hat folgendes geschrieben:
zelig hat folgendes geschrieben:
step hat folgendes geschrieben:
Warum sollte künstliche Intelligenz die Pflicht haben, sich zu erkennen zu geben, wenn es diese Pflicht nicht für natürliche Intelligenz gibt? Nur weil Manipulation durch Unseresgleichen als normal angesehen wird?
Weil die KI villeicht in einiger Zeit zu rational und zu überlegen wäre, aber das ohne die Empfindungsfähigkeit, die die Natur des Menschen erst nachvollziehbar macht.

Holla, das sind gleich mehrere Thesen auf einmal.

- KI sei rational/überlegen -> ja

- KI sei ohne Empathie -> möglicherweise. Für die autonomen Kampfdrohnen gilt das sicher. Aber ob das generell so ist? Vielleicht bilden die auch so etwas aus, z.B. um kooperative Vorteile zu haben...


Was mir nicht ganz klar: Wodurch sollte KI deiner Meinung nach überhaupt motiviert sein, irgendetwas zu tun? Rationalität ist ja offensichtlich kein Selbstzweck. KI kann doch eigentlich nur das als erstrebenswert betrachten, was ihr als solche einprogrammiert wurde. Sogar reine Selbsterhaltung ist ja nicht per se rational.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
step
registriert



Anmeldungsdatum: 17.07.2003
Beiträge: 22767
Wohnort: Germering

Beitrag(#2135404) Verfasst am: 20.05.2018, 11:55    Titel: Antworten mit Zitat

Zumsel hat folgendes geschrieben:
Wodurch sollte KI deiner Meinung nach überhaupt motiviert sein, irgendetwas zu tun? Rationalität ist ja offensichtlich kein Selbstzweck. KI kann doch eigentlich nur das als erstrebenswert betrachten, was ihr als solche einprogrammiert wurde. Sogar reine Selbsterhaltung ist ja nicht per se rational.

Das sehe ich vom Prinzip her ähnlich wie bei der "natürlichen" Intelligenz: die Motivationsmechanismen und teilweise auch die Ziele entstehen über die Evolution und über die Kultur, ein gewisser Teil auch akut, z.B. deduktiv, spontan, durch Lernen u.ä.

Bei einer KI erwarte ich natürlich keine biologische Evolution, aber auch da wird es solche Menchanismen geben: Manche Ziele sind vielleicht anfangs einprogrammiert, andere entwickeln sich "kulturell", ab einer gewissen Stufe werden einprogrammierte Ziele auch eigenmächtig ersetzt werden, so wie ja auch der Mensch in zunehmend größerem Ausmaß gegen seine ursprüngliche "Programmierung" - möglichst effektive Verbreitungsmaschinen seines Genoms zu sein - verstößt, soweit es unsere Intelligenz und Technik halt zuläßt.
_________________
Was ist der Sinn des Lebens? - Keiner, aber Leere ist Fülle für den, der sie sieht.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Zumsel
registrierter User



Anmeldungsdatum: 08.03.2005
Beiträge: 4667

Beitrag(#2135410) Verfasst am: 20.05.2018, 12:10    Titel: Antworten mit Zitat

step hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
Wodurch sollte KI deiner Meinung nach überhaupt motiviert sein, irgendetwas zu tun? Rationalität ist ja offensichtlich kein Selbstzweck. KI kann doch eigentlich nur das als erstrebenswert betrachten, was ihr als solche einprogrammiert wurde. Sogar reine Selbsterhaltung ist ja nicht per se rational.

Das sehe ich vom Prinzip her ähnlich wie bei der "natürlichen" Intelligenz: die Motivationsmechanismen und teilweise auch die Ziele entstehen über die Evolution und über die Kultur, ein gewisser Teil auch akut, z.B. deduktiv, spontan, durch Lernen u.ä.

Bei einer KI erwarte ich natürlich keine biologische Evolution, aber auch da wird es solche Menchanismen geben: Manche Ziele sind vielleicht anfangs einprogrammiert, andere entwickeln sich "kulturell", ab einer gewissen Stufe werden einprogrammierte Ziele auch eigenmächtig ersetzt werden, so wie ja auch der Mensch in zunehmend größerem Ausmaß gegen seine ursprüngliche "Programmierung" - möglichst effektive Verbreitungsmaschinen seines Genoms zu sein - verstößt, soweit es unsere Intelligenz und Technik halt zuläßt.


Ok, du meinst also so eine Art "natürliche Selektion" der effizientesten Algorithmen? Die Entwicklung einer solchen Evolution ist aber doch wohl kaum absehbar, insbesondere nicht, dass die unterstellte höhere Rationalität dabei erhalten bleibt. Bei Menschen sind es ja oft gerade die irrationalen Psychopathen, die sich durchsetzen und in höchste Verantwortungspositionen kommen. So eine Entwicklung wäre dann ja auch bei KIs denkbar.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Kramer
postvisuell



Anmeldungsdatum: 01.08.2003
Beiträge: 30878

Beitrag(#2135412) Verfasst am: 20.05.2018, 12:13    Titel: Antworten mit Zitat

Zumsel hat folgendes geschrieben:
Bei Menschen sind es ja oft gerade die irrationalen Psychopathen, die sich durchsetzen und in höchste Verantwortungspositionen kommen.


Irrationalismus ist bei denen eigentlich weniger das Problem.
_________________
Dieser Beitrag verwendet Cookies, um Dein Surferlebnis zu verbessern.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Zumsel
registrierter User



Anmeldungsdatum: 08.03.2005
Beiträge: 4667

Beitrag(#2135413) Verfasst am: 20.05.2018, 12:16    Titel: Antworten mit Zitat

Kramer hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
Bei Menschen sind es ja oft gerade die irrationalen Psychopathen, die sich durchsetzen und in höchste Verantwortungspositionen kommen.


Irrationalismus ist bei denen eigentlich weniger das Problem.


Kommt drauf an wie man "Risikobereitschaft" rational bewertet, würde ich mal behaupten.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Kramer
postvisuell



Anmeldungsdatum: 01.08.2003
Beiträge: 30878

Beitrag(#2135414) Verfasst am: 20.05.2018, 12:38    Titel: Antworten mit Zitat

Zumsel hat folgendes geschrieben:
Kramer hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
Bei Menschen sind es ja oft gerade die irrationalen Psychopathen, die sich durchsetzen und in höchste Verantwortungspositionen kommen.


Irrationalismus ist bei denen eigentlich weniger das Problem.


Kommt drauf an wie man "Risikobereitschaft" rational bewertet, würde ich mal behaupten.


Ja, das stimmt schon irgendwie. Aber "irrationale Psychopathen" klang für mich so, als wäre Irrationalismus deren bestimmende Eigenschaft. Ich denke aber, deren Risikobereitschaft ist auf schräge, aber durchaus rationale Weise kalkuliert. Wenn es schief geht, sind meist andere die Leidtragenden - und sollte es doch mal den Psychopathen selbst treffen, gehört das für ihn halt zum Spiel dazu. "No pain, no gain". Dass Psychopathen risikobereiter sind als andere, liegt nicht daran, dass sie das Risiko nicht erkennen, es ist ihnen einfach 'egaler'.

Das ist ja auch das mögliche Problem mit KIs. Die können ein Risiko wahrscheinlich sehr gut einschätzen, aber können sie auch Angst vor den Folgen haben?
_________________
Dieser Beitrag verwendet Cookies, um Dein Surferlebnis zu verbessern.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
step
registriert



Anmeldungsdatum: 17.07.2003
Beiträge: 22767
Wohnort: Germering

Beitrag(#2135415) Verfasst am: 20.05.2018, 12:38    Titel: Antworten mit Zitat

Zumsel hat folgendes geschrieben:
Die Entwicklung einer solchen Evolution ist aber doch wohl kaum absehbar, insbesondere nicht, dass die unterstellte höhere Rationalität dabei erhalten bleibt. Bei Menschen sind es ja oft gerade die irrationalen Psychopathen, die sich durchsetzen und in höchste Verantwortungspositionen kommen. So eine Entwicklung wäre dann ja auch bei KIs denkbar.

Selbstverständlich. Und es wäre ja ein Widerspruch in sich, wenn wir absehen könnten, wie sich das entwickelt. Deshalb versuche ich, keine Annahmen außer fundamentalen zu machen (also Physik, Spieltheorie).

In der Spieltheorie kommt Regelverletzern ja auch keine unwichtige Rolle zu, trotzdem liegt das Optimum bei einer überwiegenden Mehrheit von rationalen, verläßlichen Akteuren. Eine große, vernetzte KI wird sich vermutlich auch selbst hacken, sich davor wiederum schützen usw.

Hast Du einen Beleg dafür, daß in Verantwortungspositionen die Psychopathenquote höher ist als in der Gesamtbevölkerung? So ein paar sadistische Diktatoren fallen aber natürlich auf.
_________________
Was ist der Sinn des Lebens? - Keiner, aber Leere ist Fülle für den, der sie sieht.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Kramer
postvisuell



Anmeldungsdatum: 01.08.2003
Beiträge: 30878

Beitrag(#2135416) Verfasst am: 20.05.2018, 12:42    Titel: Antworten mit Zitat

step hat folgendes geschrieben:
Hast Du einen Beleg dafür, daß in Verantwortungspositionen die Psychopathenquote höher ist als in der Gesamtbevölkerung?


Einfach mal nach "Psychopathen in Führungspositionen" googeln. Soweit ich weiss, stammt die These Ursprünglich von Robert Hare und Paul Babiak.
_________________
Dieser Beitrag verwendet Cookies, um Dein Surferlebnis zu verbessern.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Zumsel
registrierter User



Anmeldungsdatum: 08.03.2005
Beiträge: 4667

Beitrag(#2135421) Verfasst am: 20.05.2018, 14:20    Titel: Antworten mit Zitat

Kramer hat folgendes geschrieben:
Ja, das stimmt schon irgendwie. Aber "irrationale Psychopathen" klang für mich so, als wäre Irrationalismus deren bestimmende Eigenschaft. Ich denke aber, deren Risikobereitschaft ist auf schräge, aber durchaus rationale Weise kalkuliert. Wenn es schief geht, sind meist andere die Leidtragenden - und sollte es doch mal den Psychopathen selbst treffen, gehört das für ihn halt zum Spiel dazu. "No pain, no gain". Dass Psychopathen risikobereiter sind als andere, liegt nicht daran, dass sie das Risiko nicht erkennen, es ist ihnen einfach 'egaler'.


Ja und bei vielen geht es ja auch schief. Nicht jeder Psychopath macht Karriere, viele landen schlicht im Knast oder der Klapse. Aber einige sind (vermutlich einerseits durch bestimmte andere Eigenschaften, andererseits durch glückliche Umstände) sozial anerkannt und können dann auf Grund fehlender Hemmungen "voll durchstarten", wie man so sagt.

Kramer hat folgendes geschrieben:
Das ist ja auch das mögliche Problem mit KIs. Die können ein Risiko wahrscheinlich sehr gut einschätzen, aber können sie auch Angst vor den Folgen haben?


Stimmt, damit "Furcht" auch nur ein möglicher Selektionsvorteil werden kann, müsste sie sich bei KIs überhaupt erst mal theoretisch entwickeln können. Wir schleppen dieses "Feature" ja vermutlich schon seit ein paarhundert Millionen Jahren mit uns rum, aber wie das bei Wesen wäre, die diesen entwicklungsgeschichtlichen Hintergrund nicht haben und gleich an der Spitze stehen? Aber das gleiche gilt natürlich auch für solche Dinge wie Machtstreben, Gier oder Freude an der Unterwerfung anderer. Insgesamt fällt es mir schwer mir vorzustellen, woraus eine KI intrinsische Motivation für irgendetwas ziehen sollte. Alles, was uns intrinsisch motiviert, ist ja vermutlich nur aus einer Mischung kultivierter Instinkte und komplexer psychologischer Vorgänge erklärbar. Ich denke daher auch nicht, dass eine KI mit menschlichem Bewusstsein vergleichbar wäre. Aber gut, vielleicht bleiben am Ende ja nur die KIs übrig, die so etwas wie Freude an ihrem schieren Dasein und damit den hinreichenden Willen zu dessen Gestaltung ausbilden können. Wobei dafür ein zu großes Maß an Rationalität vermutlich wieder abträglich wäre.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Zumsel
registrierter User



Anmeldungsdatum: 08.03.2005
Beiträge: 4667

Beitrag(#2135422) Verfasst am: 20.05.2018, 14:24    Titel: Antworten mit Zitat

step hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
Die Entwicklung einer solchen Evolution ist aber doch wohl kaum absehbar, insbesondere nicht, dass die unterstellte höhere Rationalität dabei erhalten bleibt. Bei Menschen sind es ja oft gerade die irrationalen Psychopathen, die sich durchsetzen und in höchste Verantwortungspositionen kommen. So eine Entwicklung wäre dann ja auch bei KIs denkbar.

Selbstverständlich. Und es wäre ja ein Widerspruch in sich, wenn wir absehen könnten, wie sich das entwickelt. Deshalb versuche ich, keine Annahmen außer fundamentalen zu machen (also Physik, Spieltheorie).

In der Spieltheorie kommt Regelverletzern ja auch keine unwichtige Rolle zu, trotzdem liegt das Optimum bei einer überwiegenden Mehrheit von rationalen, verläßlichen Akteuren. Eine große, vernetzte KI wird sich vermutlich auch selbst hacken, sich davor wiederum schützen usw.

Hast Du einen Beleg dafür, daß in Verantwortungspositionen die Psychopathenquote höher ist als in der Gesamtbevölkerung? So ein paar sadistische Diktatoren fallen aber natürlich auf.


Ich muss gestehen, dass das eher persönliche Beobachtung und Einschätzung ist. Und das fängt nicht erst bei sadistischen Diktatoren an, sondern schon bei bestimmten Leuten im mittleren Management bestimmter Unternehmer.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Kramer
postvisuell



Anmeldungsdatum: 01.08.2003
Beiträge: 30878

Beitrag(#2135424) Verfasst am: 20.05.2018, 14:54    Titel: Antworten mit Zitat

Zumsel hat folgendes geschrieben:
Aber das gleiche gilt natürlich auch für solche Dinge wie Machtstreben, Gier oder Freude an der Unterwerfung anderer. Insgesamt fällt es mir schwer mir vorzustellen, woraus eine KI intrinsische Motivation für irgendetwas ziehen sollte.


Eine KI braucht unter Umständen gar keine intrinsische Motivation, um auf "furchtbare" Ideen zu kommen. Man stelle sich vor, eine KI wird damit beauftragt, Ideen für die bessere Organisation des Gesundheitssystems zu entwickeln. Für ein völlig gefühls- und empathieloses System wären z.B. Hospize für Todkranke nur ein Kostenfaktor, den man eigentlich einsparen könnte.
_________________
Dieser Beitrag verwendet Cookies, um Dein Surferlebnis zu verbessern.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
vrolijke
Bekennender Pantheist
Moderator



Anmeldungsdatum: 15.03.2007
Beiträge: 46311
Wohnort: Stuttgart

Beitrag(#2135425) Verfasst am: 20.05.2018, 15:14    Titel: Antworten mit Zitat

Kramer hat folgendes geschrieben:
Zumsel hat folgendes geschrieben:
Aber das gleiche gilt natürlich auch für solche Dinge wie Machtstreben, Gier oder Freude an der Unterwerfung anderer. Insgesamt fällt es mir schwer mir vorzustellen, woraus eine KI intrinsische Motivation für irgendetwas ziehen sollte.


Eine KI braucht unter Umständen gar keine intrinsische Motivation, um auf "furchtbare" Ideen zu kommen. Man stelle sich vor, eine KI wird damit beauftragt, Ideen für die bessere Organisation des Gesundheitssystems zu entwickeln. Für ein völlig gefühls- und empathieloses System wären z.B. Hospize für Todkranke nur ein Kostenfaktor, den man eigentlich einsparen könnte.

Kommt ganz drauf an, nach welche Kriterien er programmiert ist. Nach Kostenfaktor, oder nach Lebensqualitätsfaktor.
Man ist in Deutschland, -eigentlich fast auf der ganzen Welt- so auf Profitmaximierung getrimmt, dass man gemeinhin denkt, es gäbe gar keine andere Kriterien. Die gibt es sehr wohl. Und auch daraufhin könnte KI programmiert werden.
_________________
Glück ist kein Geschenk der Götter; es ist die Frucht der inneren Einstellung.
Erich Fromm

Sich stets als unschuldiges Opfer äußerer Umstände oder anderer Menschen anzusehen ist die perfekte Strategie für lebenslanges Unglücklichsein.

Grenzen geben einem die Illusion, das Böse kommt von draußen
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Kramer
postvisuell



Anmeldungsdatum: 01.08.2003
Beiträge: 30878

Beitrag(#2135429) Verfasst am: 20.05.2018, 15:18    Titel: Antworten mit Zitat

vrolijke hat folgendes geschrieben:

Kommt ganz drauf an, nach welche Kriterien er programmiert ist.


Ein Programm, das nur ausspuckt, was man vorher einprogrammiert hat, würde ich nicht als "künstliche Intelligenz" bezeichnen.
_________________
Dieser Beitrag verwendet Cookies, um Dein Surferlebnis zu verbessern.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
vrolijke
Bekennender Pantheist
Moderator



Anmeldungsdatum: 15.03.2007
Beiträge: 46311
Wohnort: Stuttgart

Beitrag(#2135432) Verfasst am: 20.05.2018, 15:23    Titel: Antworten mit Zitat

Kramer hat folgendes geschrieben:
vrolijke hat folgendes geschrieben:

Kommt ganz drauf an, nach welche Kriterien er programmiert ist.


Ein Programm, das nur ausspuckt, was man vorher einprogrammiert hat, würde ich nicht als "künstliche Intelligenz" bezeichnen.

Ist das bei Menschen anders?
Irgend ein "Programm" läuft auch dort ab, sonst wären wir gar nicht lebensfähig.
_________________
Glück ist kein Geschenk der Götter; es ist die Frucht der inneren Einstellung.
Erich Fromm

Sich stets als unschuldiges Opfer äußerer Umstände oder anderer Menschen anzusehen ist die perfekte Strategie für lebenslanges Unglücklichsein.

Grenzen geben einem die Illusion, das Böse kommt von draußen
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Kramer
postvisuell



Anmeldungsdatum: 01.08.2003
Beiträge: 30878

Beitrag(#2135435) Verfasst am: 20.05.2018, 15:30    Titel: Antworten mit Zitat

vrolijke hat folgendes geschrieben:
Kramer hat folgendes geschrieben:
vrolijke hat folgendes geschrieben:

Kommt ganz drauf an, nach welche Kriterien er programmiert ist.


Ein Programm, das nur ausspuckt, was man vorher einprogrammiert hat, würde ich nicht als "künstliche Intelligenz" bezeichnen.

Ist das bei Menschen anders?


Ja, ich denke schon.
_________________
Dieser Beitrag verwendet Cookies, um Dein Surferlebnis zu verbessern.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Marcellinus
Outsider



Anmeldungsdatum: 27.05.2009
Beiträge: 7429

Beitrag(#2135437) Verfasst am: 20.05.2018, 15:34    Titel: Antworten mit Zitat

Die Frage ist, ob etwas, was programmiert wurde, jemals intelligent sein kann, oder anders gesagt, ob man eine KI programmieren kann.
_________________
"Mangel an historischem Sinn ist der Erbfehler aller Philosophen ... Alles aber ist geworden;
es gibt keine ewigen Tatsachen: sowie es keine absoluten Wahrheiten gibt."

Friedrich Nietzsche
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Kramer
postvisuell



Anmeldungsdatum: 01.08.2003
Beiträge: 30878

Beitrag(#2135439) Verfasst am: 20.05.2018, 15:41    Titel: Antworten mit Zitat

Marcellinus hat folgendes geschrieben:
Die Frage ist, ob etwas, was programmiert wurde, jemals intelligent sein kann, oder anders gesagt, ob man eine KI programmieren kann.


Die Frage ist, ob man überhaupt so viel programmieren muss. Weltweit gibt es einen Markt für vielleicht fünf Computer. Mit den Augen rollen
_________________
Dieser Beitrag verwendet Cookies, um Dein Surferlebnis zu verbessern.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
vrolijke
Bekennender Pantheist
Moderator



Anmeldungsdatum: 15.03.2007
Beiträge: 46311
Wohnort: Stuttgart

Beitrag(#2135440) Verfasst am: 20.05.2018, 15:52    Titel: Antworten mit Zitat

Kramer hat folgendes geschrieben:
vrolijke hat folgendes geschrieben:
Kramer hat folgendes geschrieben:
vrolijke hat folgendes geschrieben:

Kommt ganz drauf an, nach welche Kriterien er programmiert ist.


Ein Programm, das nur ausspuckt, was man vorher einprogrammiert hat, würde ich nicht als "künstliche Intelligenz" bezeichnen.

Ist das bei Menschen anders?


Ja, ich denke schon.


Nach welche Kriterien entscheidet ein Mensch?
Der wägt doch vor jede Entscheidung das für und wider ab.
Da kommt es doch auch auf die Gewichtung der Fürs und Widers an.
_________________
Glück ist kein Geschenk der Götter; es ist die Frucht der inneren Einstellung.
Erich Fromm

Sich stets als unschuldiges Opfer äußerer Umstände oder anderer Menschen anzusehen ist die perfekte Strategie für lebenslanges Unglücklichsein.

Grenzen geben einem die Illusion, das Böse kommt von draußen
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
step
registriert



Anmeldungsdatum: 17.07.2003
Beiträge: 22767
Wohnort: Germering

Beitrag(#2135448) Verfasst am: 20.05.2018, 17:17    Titel: Antworten mit Zitat

Kramer hat folgendes geschrieben:
Man stelle sich vor, eine KI wird damit beauftragt, Ideen für die bessere Organisation des Gesundheitssystems zu entwickeln. Für ein völlig gefühls- und empathieloses System wären z.B. Hospize für Todkranke nur ein Kostenfaktor, den man eigentlich einsparen könnte.

Naja, wenn man der "KI" natürlich vorgibt, sie solle vor allem die Kosten optimieren, dann kommt sowas raus.

Eine echte KI würde vielleicht ein Modell der menschlichen Gesellschaft entwickeln und daraus z.B. schließen, daß Hospize berücksichtigt werden sollten, weil sonst die Kunden nicht zufrieden sind, oder sogar weil ihr sonst die anderen KIs und NIs nicht mehr vertrauen. Oder sie würde gar ein utilitaristsches Gesamtmodell entwerfen, weil sie anfängt, ethisch zu denken (ethisch hier im Sinne von präferenzutilitaristischem DIskurs, nicht im Sinne vorgegebener Moral).

Klingt alles sehr spekulativ, ich weiß.
_________________
Was ist der Sinn des Lebens? - Keiner, aber Leere ist Fülle für den, der sie sieht.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Tarvoc
would prefer not to.



Anmeldungsdatum: 01.03.2004
Beiträge: 44089

Beitrag(#2135467) Verfasst am: 20.05.2018, 21:17    Titel: Antworten mit Zitat

KImmunismus. Cool
_________________
Geh mir aus der Sonne, Alexander!
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Kramer
postvisuell



Anmeldungsdatum: 01.08.2003
Beiträge: 30878

Beitrag(#2135468) Verfasst am: 20.05.2018, 21:26    Titel: Antworten mit Zitat

vrolijke hat folgendes geschrieben:
Nach welche Kriterien entscheidet ein Mensch?


Ein Mensch spuckt halt nicht einfach das aus, was man ihm vorgegeben hat. Wenn Du Dir einen Kabarettisten anschaust, möchtest Du ja nicht das hören, was Du schon aus der Zeitung kennst, sondern einen kreativ aufbereiteten Kommentar zum aktuellen Geschehen.
_________________
Dieser Beitrag verwendet Cookies, um Dein Surferlebnis zu verbessern.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
vrolijke
Bekennender Pantheist
Moderator



Anmeldungsdatum: 15.03.2007
Beiträge: 46311
Wohnort: Stuttgart

Beitrag(#2135470) Verfasst am: 20.05.2018, 21:36    Titel: Antworten mit Zitat

Kramer hat folgendes geschrieben:
vrolijke hat folgendes geschrieben:
Nach welche Kriterien entscheidet ein Mensch?


Ein Mensch spuckt halt nicht einfach das aus, was man ihm vorgegeben hat. Wenn Du Dir einen Kabarettisten anschaust, möchtest Du ja nicht das hören, was Du schon aus der Zeitung kennst, sondern einen kreativ aufbereiteten Kommentar zum aktuellen Geschehen.

Wenn KI echt intelligent sein soll, wohl auch nicht.
In der gleiche Diskussion könnte man auch wieder anbringen, ob der Mensch überhaupt determiniert ist, oder auch nicht. Soll es die KI dann sein?
_________________
Glück ist kein Geschenk der Götter; es ist die Frucht der inneren Einstellung.
Erich Fromm

Sich stets als unschuldiges Opfer äußerer Umstände oder anderer Menschen anzusehen ist die perfekte Strategie für lebenslanges Unglücklichsein.

Grenzen geben einem die Illusion, das Böse kommt von draußen
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Kramer
postvisuell



Anmeldungsdatum: 01.08.2003
Beiträge: 30878

Beitrag(#2135471) Verfasst am: 20.05.2018, 21:37    Titel: Antworten mit Zitat

vrolijke hat folgendes geschrieben:

In der gleiche Diskussion könnte man auch wieder anbringen, ob der Mensch überhaupt determiniert ist, oder auch nicht. Soll es die KI dann sein?


Das ist hier nicht das Thema.
_________________
Dieser Beitrag verwendet Cookies, um Dein Surferlebnis zu verbessern.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Zumsel
registrierter User



Anmeldungsdatum: 08.03.2005
Beiträge: 4667

Beitrag(#2135490) Verfasst am: 21.05.2018, 09:30    Titel: Antworten mit Zitat

step hat folgendes geschrieben:
Oder sie würde gar ein utilitaristsches Gesamtmodell entwerfen, weil sie anfängt, ethisch zu denken (ethisch hier im Sinne von präferenzutilitaristischem DIskurs, nicht im Sinne vorgegebener Moral).

Klingt alles sehr spekulativ, ich weiß.


Natürlich spekulativ, aber du scheinst damit ja doch anzunehmen, der Utilitarismus bedürfe keiner moralischen Vorgaben, sondern wäre so etwas wie die logische zwingende Handlungsform einer "reinen Intelligenz". Was sind deine Gründe dafür?
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
zelig
Kultürlich



Anmeldungsdatum: 31.03.2004
Beiträge: 25404

Beitrag(#2135491) Verfasst am: 21.05.2018, 09:46    Titel: Antworten mit Zitat

step hat folgendes geschrieben:
Oder sie würde gar ein utilitaristsches Gesamtmodell entwerfen, weil sie anfängt, ethisch zu denken (ethisch hier im Sinne von präferenzutilitaristischem DIskurs, nicht im Sinne vorgegebener Moral).


Ein Grund mehr, skeptisch zu sein.
_________________
Es gibt kein richtiges Leben im falschen.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
swifty
auf eigenen Wunsch deaktiviert



Anmeldungsdatum: 26.03.2017
Beiträge: 5000

Beitrag(#2135494) Verfasst am: 21.05.2018, 11:21    Titel: Antworten mit Zitat

Ich versuch mal hier wieder anzuknüpfen...


Ich denke es ist immer problematisch, sich eine KI als empathielos oder sie sich im Sinne einer 'Intelligenz-bestie' wie einen Menschen oder wie einen hochintelligenten Psychopathen vorzustellen.

Eine KI mag vielleicht kein Mitleid kennen, keine Empathie oder sonstige mitfühlenden Regungen.
Aber genauso wenig kennt sie Gier, Sadismus, ja vielleicht noch nicht einmal Egoismus, denn sie hängt nicht am Leben, sie hat keinen Überlebens-Instinkt und misst dem vielleicht genauso wenig Bedeutung bei.

Und sollte sie das alles irgendwie entwickeln können, dann gibt es keinen Grund zu der Annahme, dass sie nicht auch irgendwie eine (vergleichbar menschliche) Ethik und Mitgefühl und solche Dinge entwickeln könnte.

Kein Grund zu übertriebenem Pessimismus also oder gar Fatalismus.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Skeptiker
"I can't breathe!"



Anmeldungsdatum: 14.01.2005
Beiträge: 16834
Wohnort: 129 Goosebumpsville

Beitrag(#2135498) Verfasst am: 21.05.2018, 11:50    Titel: Antworten mit Zitat

worse hat folgendes geschrieben:
Ich versuch mal hier wieder anzuknüpfen...


Ich denke es ist immer problematisch, sich eine KI als empathielos oder sie sich im Sinne einer 'Intelligenz-bestie' wie einen Menschen oder wie einen hochintelligenten Psychopathen vorzustellen.

Eine KI mag vielleicht kein Mitleid kennen, keine Empathie oder sonstige mitfühlenden Regungen.
Aber genauso wenig kennt sie Gier, Sadismus, ja vielleicht noch nicht einmal Egoismus, denn sie hängt nicht am Leben, sie hat keinen Überlebens-Instinkt und misst dem vielleicht genauso wenig Bedeutung bei.

Und sollte sie das alles irgendwie entwickeln können, dann gibt es keinen Grund zu der Annahme, dass sie nicht auch irgendwie eine (vergleichbar menschliche) Ethik und Mitgefühl und solche Dinge entwickeln könnte.

Kein Grund zu übertriebenem Pessimismus also oder gar Fatalismus.


Der Weg der biologischen Evolution war genau umgekehrt. Zunächst entstanden ganz, ganz langsam aus den primitivsten Reflexen der ersten Mehrzeller so was wie Triebe und Antriebe, lange bevor so etwas wie Schmerz, Befriedigung und überhaupt Bewusstsein entstand.

Erst sehr spät, ganz oben drauf gesetzt, entstanden intelligente, die Umwelt innerlich abstrakt betrachtende und innerlich abbildende Phänomene.

Die Vorstellung, jetzt aus einer reinen Intelligenz heraus den umgekehrten Weg zu gehen und Antriebe sowie Bewusstsein zu entwickeln, entsteht aus einer Verwechslung. Denn Triebe und Bewusstsein haben gar nichts mit Intelligenz zu tun. Wenngleich sich diese drei Eigenschaften bei den höheren Tieren vermischen, so muss man sie analytisch streng trennen.

Man könnte auch bei einer KI so was ähnliches wie Antriebe und Bewusstsein höchstens algorithmisch imitieren, im Sinne eines *als ob*. Aber Gefühle und Wünsche werden niemals in Mikrochips entstehen.

Das heisst nicht, dass es unmöglich ist, KE (Künstliche Emotion) oder KA (Künstlicher Antrieb) zu entwickeln. Aber so mit Sicherheit nicht.

Und was die Moral betrifft, da hat doch Sir Asimov schon mal ein paar Regelvorschläge gemacht. Utilitarismus ist Quatsch, und zwar grundsätzlich. Warum sollte ausgerechnet eine KI Quatsch einprogrammiert bekommen oder entwickeln?

Welche Rolle die KI in Zukunft spielen wird, hängt in erster Linie davon ab, ob es gelingt, eine demokratische Gesellschaft - eine KD (Künstliche Demokratie) - zu generieren. Wenn dies gelingt, so wird die KI der Menschheit dienen. Wenn dies nicht gelingt, dann wird die KI dazu verwendet, die derzeitige Barbarei auf diesem Planeten noch extremer zu gestalten.
_________________
Free Julian Assange! Lock up the Killers!

Populismus ist keine Verschwörungstheorie

Informationsstelle Militarisierung e.V.


Zuletzt bearbeitet von Skeptiker am 21.05.2018, 11:53, insgesamt einmal bearbeitet
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden Website dieses Benutzers besuchen
zelig
Kultürlich



Anmeldungsdatum: 31.03.2004
Beiträge: 25404

Beitrag(#2135499) Verfasst am: 21.05.2018, 11:51    Titel: Antworten mit Zitat

worse hat folgendes geschrieben:
Und sollte sie das alles irgendwie entwickeln können, dann gibt es keinen Grund zu der Annahme, dass sie nicht auch irgendwie eine (vergleichbar menschliche) Ethik und Mitgefühl und solche Dinge entwickeln könnte.


Die Annahme ist eine notwendige Voraussetzung dieser Diskussion. Sollte eine KI nachweislich Empfindungen wie Schmerz entwickeln, wären die für sie keine Abstrakta mehr. Sie würde es an sich selber erleben können, wie sich Schmerz anfühlt. Es wäre ein Wesen, das die Natur anderer Wesen nachvollziehen kann. Dann erst kann man von Mitgefühl reden, die an der Seite der Ratio steht, wenn wir ethisch handeln wollen. Über dieses Szenario diskutieren wir eher nicht.
_________________
Es gibt kein richtiges Leben im falschen.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
fwo
Caterpillar D9



Anmeldungsdatum: 05.02.2008
Beiträge: 25829
Wohnort: im Speckgürtel

Beitrag(#2135503) Verfasst am: 21.05.2018, 13:05    Titel: Antworten mit Zitat

step hat folgendes geschrieben:
fwo hat folgendes geschrieben:
Was ist, wenn sie uns "nur" kulturell, d.h. auch technisch 2000 Jahre voraus wären?

Dann sind sie entweder selbst KI oder haben sich solche zunutze gemacht, und zwar 2000 Jahre besser als wir. Oder 2 Mio.

fwo hat folgendes geschrieben:
wenn wir uns die Beschleunigung der Entwicklung unserer Technik in den letzten 100 Jahren ansehen und das ohne besondere Weiterbeschleunigung nur als Weitergehen im momentanen Tempo versuchen vorzustellen, liegen 1000 Jahre bereits außerhalb unserer Vorstellungskraft, ohne, dass damit zwangsläufig eine Weiterentwicklung unserer natürlichen Intelligenz verbunden sein muss. Allerdings steigt mit Rechnerunterstützung auch die Produktivität unseres Geistes.

Da stimme ich zu, außer daß die "Rechner" (Thema KI) eben nicht primär unterstützende Funktion haben müssen, sondern auch ein nächster Schritt der "Wesen" sein könnten.

fwo hat folgendes geschrieben:
Wir sind die einzige rezente Art auf diesem Planeten, die zu diesem abstrakten Denken fähig ist - allen anderen fehlt nach unserem bisherigen Wissen sowohl die abstrakte Sprache als auch die Tradition von Wissen in dieser Sprache.

Schon richtig, aber für KI gilt das ja eher nicht.

Die eigentliche Aussage, um die es mir ging, war das sich Verständigen über die jeweiligen eigenen Fähigkeiten. Auch die KI wird über eine abstrakte Sprache verfügen und damit abstrakt denken können und diese Gedanken formulieren - wenn sie denn als KI mit und für ihren Erzeuger funktionieren soll. Mir ging es dabei wesentlich um diesen Vergleich der Verhältnisse Mensch zu Alien (bzw.dessen KI) mit Schimpanse zu Mensch, um die Einseitigkeit dieses Verhältnisses zu charakterisieren. Ich halte diesen Vergleich für daneben und eine grundsätzliche Verständigung in beide Richtungen immer für möglich.

Ansonsten bin ich mir nicht so sicher, dass es in der KI so weitergeht wie bisher. Es ist zwar gewaltig, auf welche Muster man die geballte Rechenkraft, die sich nicht um Somatisches zu kümmern braucht, mit neuronalen Netzen loslassen kann, und das Go-Beispiel widerlegt für mich z.B. auch die immer wieder regelmäßig geäußerte Behauptung, KI könne nicht kreativ sein.

Auch gegen zeligs Meinung, KI "könne" nie Gefühle, habe ich hier lange genug argumentiert, da sind wir vielleicht nicht einer Meinung, aber auch nicht wirklich in einem Gegensatz. Die Frage ist, wie es weitergeht mit der KI. Wenn ich das mit den neuronalen Netzen richtig verstehe, verstehen auch die Schöpfer nicht mehr im Einzelnen, was z.B. bei diesen Go-Spielen wirklich am Ende in diesen Netzen vorgeht und es bestehen auch Probleme, das Ergebnis dieses Lernvorganges so zu speichern, dass es von einer anderen Maschine aufgenommen werden kann, ohne dass die zum reinen Klon wird. Bei einer sinnvollen KI der Zukunft würde ich erwarten, dass die Maschine mir ihre Strategie erklären kann.

Da wäre auch mein eigentliches Thema: Neuronale Netze gibt es auch in der Natur und sie werden für Aufgaben wie Mustererkennung genutzt - irgendwo sind sie mit Sicherheit auch an der Basis unseres abstrakten Denkens beteiligt. Das abstrakte Denken mit dem Vehikel (Wiittgenstein) aber eigentlich eher Werkzeug Sprache besitzt zwei grundlegende Vorteile: Es schafft die Möglichkeit einer immer komplexeren und gleichzeitig kompakten Tradition und und ist über die Erweiterbarkeit der Sprache sehr leicht an jedes neue Objekt anzupassen. Ich gehe also davon aus, dass auch KI irgendwann diesen Weg gehen wird, ganz abgesehen davon, dass die KI, die uns erklären kann, was sie will und warum sie das will, auch für uns die sinnvollste KI wäre.

Dass die "wirkliche KI" von selbst auf Ethik, Kooperation, insbesondere auch mit dem Menschen, usw. kommen sollte oder müsste, halte ich allerdings für eine zu hohe und im Versuch der Verwirklichung auch für zu unvorsichtige Erwartung. Mit dem Hintergrund, dass sehr viel von dem, was wir heute mit großem intellektuellen Aufwand rein rational zu begründen suchen, einen genetischen Ursprung hat, empfände ich es auch nicht als Einschränkung der KI, wenn sie gewisse Regeln für die Kooperation mit dem Menschen hart im Programm stehen hätte. Es wären die selben Einschränkungen, mit den wir auch leben, und die uns haben überleben lassen.
_________________
Ich glaube an die Existenz der Welt in der ich lebe.

The skills you use to produce the right answer are exactly the same skills you use to evaluate the answer. Isso.

Es gibt keinen Gott. Also: Jesus war nur ein Bankert und alle Propheten hatten einfach einen an der Waffel (wenn es sie überhaupt gab).
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
step
registriert



Anmeldungsdatum: 17.07.2003
Beiträge: 22767
Wohnort: Germering

Beitrag(#2135505) Verfasst am: 21.05.2018, 13:20    Titel: Antworten mit Zitat

Zumsel hat folgendes geschrieben:
du scheinst damit ja doch anzunehmen, der Utilitarismus bedürfe keiner moralischen Vorgaben, sondern wäre so etwas wie die logische zwingende Handlungsform einer "reinen Intelligenz". Was sind deine Gründe dafür?

Ich nehme das nicht völlig voraussetzungslos an. Z.B. ist eine wichtige Voraussetzung, daß es eine nicht zu kleine Zahl von Intelligenzen gibt, die kommunizieren können, aber doch eine gewisse Autonomie haben.

Unter solchen Umständen erwarte ich tatsächlich, daß sich eine utilitaristische Vorgehensweise ausbildet, weil diese sowohl den Aspekt der Zielerreichung / Effizienz als auch den der Kooperation / des Interessenausgleichs am direktesten widerspiegelt, und auch nur diese. Und die KIs befreien sich viel schneller von Denkfehlern, Aberglauben usw. - weil sie viel schneller lernen und weil sie deutlich weniger entwicklungsgeschichtliche Prioritäten herumschleppen.

"Logisch zwingend" vielleicht nicht, aber ich finde es recht plausibel.
_________________
Was ist der Sinn des Lebens? - Keiner, aber Leere ist Fülle für den, der sie sieht.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Beiträge der letzten Zeit anzeigen:   
Neues Thema eröffnen   Neue Antwort erstellen   Drucker freundliche Ansicht    Freigeisterhaus Foren-Übersicht -> Wissenschaft und Technik Alle Zeiten sind GMT + 1 Stunde
Gehe zu Seite Zurück  1, 2, 3, 4, 5, 6, 7, 8, 9  Weiter
Seite 2 von 9

 
Gehe zu:  
Du kannst keine Beiträge in dieses Forum schreiben.
Du kannst auf Beiträge in diesem Forum nicht antworten.
Du kannst deine Beiträge in diesem Forum nicht bearbeiten.
Du kannst deine Beiträge in diesem Forum nicht löschen.
Du kannst an Umfragen in diesem Forum nicht mitmachen.



Impressum & Datenschutz


Powered by phpBB © 2001, 2005 phpBB Group