fwo hat folgendes geschrieben: |
Einigen wir uns doch einfach darauf, dass das ein Versehen war. |
Kramer hat folgendes geschrieben: | ||
Nö. Meine Aussage war, Viele Eigenschaften des menschlichen Gehirns lassen sich darauf zurück führen, dass es "essbar" ist. "Essbar" in Anführungszeichen. Ich habe das dann ja näher erläutert: dass der Mensch für andere Arten ein Beutetier war/ist. Welche Körperteile ein Beutegreifer speziell verspeist ist unwesentlich. Für das Gehirn besteht dabei immer die Gefahr, dass der Organismus, von dem es abhängig ist, stirbt - und damit stirbt auch das Gehirn. Im übrigen stand vor der Aussage: "Oder anders formuliert". Das diente nur dazu, das vorher gesagte in den Kontext zur bisherigen Debatte zu rücken. |
fwo hat folgendes geschrieben: |
Dafür formuliere ich ein fehlerfreies ich bestehe in diesem Forum schon ziemlich lange den Turing-Test. |
fwo hat folgendes geschrieben: |
Aber selbst wenn ich das so auslege: Welche Eigenschaften des menschlichen Gehirnes, das ist ein Stück Anatomie, von dem Du da redest, meinst Du? |
Kramer hat folgendes geschrieben: |
Nur mal so als Denkansatz: Das menschliche Gehirn kann nicht nur rechnen, es kann auch an Dinge glauben, die nicht da sind. Stichwort: Religion, Aberglauben, Glaube an Geister etc. Es gibt Theorien, nach denen diese Eigenschaften des menschlichen Gehirns etwas mit der Fähigkeit zu tun haben, Muster zu erkennen. Wir können eventuelle Gefahren anhand von Mustern sehr schnell erkennen, aber diese Schnelligkeit geht auf Kosten der Genauigkeit. Das hat nicht nur Auswirkungen auf die konkrete Situation, das hat unsere Kultur geprägt und so direkt und indirekt wieder Auswirkungen auf die evolutionäre Entwicklung des Gehirns gehabt. Oder anders formuliert: Viele Eigenschaften des menschlichen Gehirns lassen sich darauf zurück führen, dass es "essbar" ist, dass der Mensch für andere Arten ein Beutetier war/ist - also sowas ähnliches wie eine Scheibe Brot für uns. |
zelig hat folgendes geschrieben: | ||
Danke @sponor, fwo und sz-magazin Als ich heute morgen im SZ-Magazin einen Bericht über Sex-Dolls gelesen habe, fiel mir wieder mein Haupteinwand gegen die These ein, die Summe der Funktionen einer Entität sei Identisch mit ihr. Ich bin mir nicht so ganz sicher, aber meiner derzeitigen Auffassung nach könnte man die Auseinandersetzung auf diese unterschiedlichen Positionen zuspitzen. Eine Simulation von etwas wäre dann immer wesensgleich mit der Entität, die simuliert wird. Ein augenfälliges Problem für diese Auffassung stellt zum Beispiel eine hochentwickelte Sex-Doll dar, deren Verhalten keinen erkennbaren Unterschied zum menschlichen Verhalten erkennen lässt. Für den Funktionalist müssten an der Stelle ethische Fragen auftauchen. Ist eine BDSM-Sexdoll, die Schmerzenslaute von sich gibt, und zwar auf eine Weise, die sich vom menschlichen Verhaltensrepertoire nicht unterscheiden lässt, nach dieser Auffassung automatisch ein ethisches Objekt? (Ich habe keine Zweifel daran, daß die Technik dereinst perfekte Simulationen menschlichen Verhaltens erschaffen kann). Wobei man hier aufpassen muss, daß wir nur über technische Simulationen reden (Computer/Gehirn). Ich rede nicht über den technischen Fortschritt, der es möglich macht, ein biologisches Wesen mit Gehirn aus chemischen Grundelementen zu erschaffen. Muss der Funktionalist also für einen Roboter, der sich äußerlich nicht von einem Menschen oder einem anderen empfindungsfähigen Wesen unterscheiden lässt, ethische Sorgfalt walten lassen? Ich denke das muss er. Das ist allerdings noch kein valides Argument gegen den Funtionalismus, auch wenn die Konsequenzen irrwitzig erscheinen. Der Funktionalist könnte die ethischen Bedenken ja befürworten. Ich glaube das wird er aber nicht. Ein valides Argument ist aber, daß der Funktionalist letztlich den Beweis schuldig bleibt, daß der Aufruf "Aua" durch eine Maschine das Vorhandensein von Schmerz bedeutet. Als Gegenargument wurde sinngemäß gesagt, wenn ein Mensch "Aua" sagt, kann man auch nicht wissen, ober er in dem Moment Schmerzen empfindet. Wir würden nur vermuten, daß er Schmerzen hat, weil wir selber Schmerzen empfinden, das sei also eine Art Analogie. .... |
Kramer hat folgendes geschrieben: | ||||
Das steht doch davor:
(Tippfehler nachträglich korrigiert.) |
fwo hat folgendes geschrieben: |
Das ist so ungefähr der momentane Konsens in der Entstehung der Menschheit ganz knapp zusammengefasst und vor dem Hintergrund hätte ich jetzt gerne nochmal erklärt, was Du für einen Zusammenhang zwischen vielen Eigenschaften des Gehirns und der Eigenschaft des Menschen als Beutetier siehst. |
Kramer hat folgendes geschrieben: | ||
Ich sehe da keinen Widerspruch zu meinem Beitrag. Dass der Mensch ein gefährlicher Jäger ist, macht ihn nicht unverwundbar. Zumal Menschen ja nicht als gefährliche Jäger auf die Welt kommen. |
Zitat: |
Viele Eigenschaften des menschlichen Gehirns lassen sich darauf zurück führen, dass es "essbar" ist, dass der Mensch für andere Arten ein Beutetier war/ist. |
fwo hat folgendes geschrieben: | ||||||
Das beantworte aber immer noch nicht die Frage nach den besonderen Eigenschaften des menschlichen Gehirns, die durch die Möglichkeit Beute zu sein erzeugt wurden:
Die Eigenschaften, von denen Du davor erzählst, sind für den Beutegreifer Mensch genauso wichtig, und in der Eigenschaft gibt es mehr Unterschiede zu den anderen Affen. |
Kramer hat folgendes geschrieben: |
...
Tut mir leid, ich habe keine Ahnung, was Du von mir willst. |
fwo hat folgendes geschrieben: |
Wir können mit sehr hoher Sicherheit von uns auf den anderen Menschen schließen, weil wir der selben Baureihe entstammen. Und diese Baureihe hat die Besonderheit, aus einer Evolution zu stammen. |
fwo hat folgendes geschrieben: |
Das bedeutet in der Praxis, sonst hätte die Evolution nicht funktioniert, dass jedes Individuum als Verhaltensdentenz, bei Arten mit Bewusstsein kann man auch vom Willen sprechen, hat, in den Zustand der Fortpflanzungsfähigkeit zu kommen und sich fortzupflanzen. |
fwo hat folgendes geschrieben: |
Diese Tendenz wird dadurch unterstützt, dass (näherungsweise) eine Meldung des Sensoriums mit dem Inhalt von Umständen, die dieses Ziel gefährden, dafür sorgt, dass andere Tätigkeiten unterbrochen werden und die gefährlichen Umstände verlassen werden können. Dieses Meldungssystem kennt die Dringlichkeit als skalare Größe, sie wird uns über den Schmerz signalisiert. |
Zitat: |
Wir sollten ein System spätestens dann als bewusstes Objekt be-
handeln, wenn es uns gegenüber auf überzeugende Weise demons- triert, dass die philosophische Frage nach dem Bewusstsein für es selbst ein Problem geworden ist, zum Beispiel wenn es eine eigene Theoriedes Bewusstseins vertritt, d.h. wenn es mit eigenen Argumen-tenin die Diskussion um künstliches Bewusstsein einzugreifen be- ginnt Was aber ist mit menschlichen Kleinkindern oder mit den vielen empfindungsfähigen Tieren auf unserem Planeten? Sicherlich kann man bewusst sein – z.B. Freude und Schmerz empfinden – ohne den- ken zu können, sicher sind auch Systeme mit einer sehr niedrigen In- telligenz leidensfähig und auf jeden Fall muss uns eine gute Theorie des Bewusstseins erklären können, was genau der Punkt ist, an dem im Laufe der biologischen Evolution Empfindungsfähigkeit und phäno- menales Erleben entstanden sind. |
fwo hat folgendes geschrieben: |
Es scheint mit der Evolution so zu sein wie mit der Schönheit - sie liegt dann wohl im Auge des Betrachters. |
Zitat: |
Technologien und technische Medien spielen eine wesentliche Rolle bei der Emergenz von Bedeutung. Letztere lässt sich aber nicht auf Informationsverarbeitungsprozesse zurückführen oder reduzieren. Technologien können soziale Beziehungen prägen, aber nicht ohne unser Zutun bestimmen, was als sinn- oder bedeutungsvoll zu gelten hat.
Da Informationsobjekte oder Maschinen zwischen Zufall und Notwendigkeit oszillieren, können sie unterschiedliche Grade von Determiniertheit aufweisen. Doch unsere unablässige Suche nach sinnvollen Bedeutungszusammenhängen unterläuft diese deterministische Logik. |
zelig hat folgendes geschrieben: |
Als ich heute morgen im SZ-Magazin einen Bericht über Sex-Dolls gelesen habe, fiel mir wieder mein Haupteinwand gegen die These ein, die Summe der Funktionen einer Entität sei Identisch mit ihr. ... Eine Simulation von etwas wäre dann immer wesensgleich mit der Entität, die simuliert wird. |
zelig hat folgendes geschrieben: |
Ein augenfälliges Problem für diese Auffassung stellt zum Beispiel eine hochentwickelte Sex-Doll dar, deren Verhalten keinen erkennbaren Unterschied zum menschlichen Verhalten erkennen lässt. Für den Funktionalist müssten an der Stelle ethische Fragen auftauchen. Ist eine BDSM-Sexdoll, die Schmerzenslaute von sich gibt, und zwar auf eine Weise, die sich vom menschlichen Verhaltensrepertoire nicht unterscheiden lässt, nach dieser Auffassung automatisch ein ethisches Objekt? |
zelig hat folgendes geschrieben: |
... Muss der Funktionalist also für einen Roboter, der sich äußerlich nicht von einem Menschen oder einem anderen empfindungsfähigen Wesen unterscheiden lässt, ethische Sorgfalt walten lassen? Ich denke das muss er. Das ist allerdings noch kein valides Argument gegen den Funtionalismus, auch wenn die Konsequenzen irrwitzig erscheinen. Der Funktionalist könnte die ethischen Bedenken ja befürworten. Ich glaube das wird er aber nicht. |
cortano hat folgendes geschrieben: | ||
Deine Gleichsetzungsbestrebungen Hirn/Computer/Informationsverarbeitung haben einen leicht transhumanistischen Touch - oder ?!
.... |
Kramer hat folgendes geschrieben: |
Eine weitere Eigenschaft des menschlichen Gehirns: Es kennt so merkwürdige Dinge wie Ironie. |
zelig hat folgendes geschrieben: | ||
Da bin ich ganz bei Dir. Für fwo ist es keine Analogie. |
fwo hat folgendes geschrieben: |
@zelig
Warum fragst Du nicht nach, wenn Du etwas nicht verstehst, bittest um Präzisierungen der Teile, die dir missverständlich erscheinen? |
cortano hat folgendes geschrieben: |
....
fwo: das hatten wir schon. Was bezweckt dein Ausflug in die Evolutionsbiologie bei dem Thema dann - da liegt Transhumanismus irgendwie nahe ... |
fwo hat folgendes geschrieben: | ||
Lies ihn. Man kann ihn verstehen. |
cortano hat folgendes geschrieben: | ||||
es geht um Rechthaben auf einem themenfernen Nebenschauplatz - und jetzt |
fwo hat folgendes geschrieben: |
Nein. Aber ich helfe Dir: Es geht um die Frage was Schmerz und Leid bedeuten, welche Funktion sie erfüllen und darum, ob eine künstliche Intelligenz mit Selbstbewusstsein unbedingt leidensfähig ist. Ich halte letzteres für einen Fehlschluss und habe das begründet. |
step hat folgendes geschrieben: | ||
Um die These zu vertreten, eine Entität habe Bewußtsein, ist es nicht erforderlich, daß sie mit irgendetwas identisch ist. Auch das in Frage stehende "Bewußtsein" selbst muß keine Entität sein (sondern z.B. eine Eigenschaft), so daß sich auch da das Identitätsproblem nicht stellt. |
step hat folgendes geschrieben: | ||
Selbst der strenge Funktionalist beschränkt die Identität der Funktion nicht einfach auf den rezeptiven Teil (die Wirkung). Die für den ethischen Objektstatus relevante Funktion (hier z.B. Schmerz) hängt ja nicht am Stöhnen, sondern daran, was wir nach bestem Wissen für verläßliche Indikatoren von Schmerz halten. Dazu gehört Stöhnen iegentlich nicht mehr wirklich, so weiß heutzutage nahezu jeder, daß gute Schauspieler Schmerz simulieren und auch sonst recht realistisch stöhnen können. Daher hängt die Antwort davon ab, wieviel der Funktionalist (und die Wissenschaft) weiß. Wenn der Android so gut gemacht ist, daß er nicht nur stöhnt, sondern auf allen bekannten Leveln Symptome von Schmerz zeigt - und es keinerlei Hinweise darauf gibt, daß sein Design zu unterkomplex ist, dann müsste man ihn mE tatsächlch als ethisches Objekt ansehen. Ähnlich etwa wie bei Tieren, die man nicht quälen sollte, weil wir nach derzeitigem Stand davon ausgehen müssen, daß sie Schmerzen empfinden. |
step hat folgendes geschrieben: |
Ähnlich etwa wie bei Tieren, die man nicht quälen sollte, weil wir nach derzeitigem Stand davon ausgehen müssen, daß sie Schmerzen empfinden. |
step hat folgendes geschrieben: |
Doch, zumindest ich neige dazu, unter den oben geäußerten Voraussetzungen. |
fwo hat folgendes geschrieben: | ||||||
Nein. Aber ich helfe Dir: Es geht um die Frage was Schmerz und Leid bedeuten, welche Funktion sie erfüllen und darum, ob eine künstliche Intelligenz mit Selbstbewusstsein unbedingt leidensfähig ist. Ich halte letzteres für einen Fehlschluss und habe das begründet. btw: Wer Funktionen des menschlichen Gehirnes nachbilden möchte, sollte sich bewusst sein, wo sie herkommen. Sonst gerät er in Versuchung, die Not beim Harndrang*** nachzubilden, während er versucht, soetwas wie "intuitive Lösungen" einzuführen. |
zelig hat folgendes geschrieben: |
... Denn dann schlägt trotzdem die Frage auf, ob eine Turing-Maschine ein ethisches Objekt ist. Und wie man damit umgehen soll. |
zelig hat folgendes geschrieben: |
... Der Funktionalist müsste davon ausgehen, daß auch alle "verlässlichen Indikatoren" für Schmerz simuliert oder gebaut werden können. |
zelig hat folgendes geschrieben: |
... Der Gegeneinwand ist: ... (b) Wenn man aber trotzdem daran glaubt, daß eine KI funktional mit dem Gehirn identisch ist, muss man ethische Vorsicht walten lassen. |
zelig hat folgendes geschrieben: |
Auch ist der Schauspieler eher ein Argument dafür, daß eine Funktion oder ein Phänomen, das einem anderen gleicht, kein hinreichender Grund für die Annahme ist, daß wir es mit identischen Phänomenen zu tun haben. |
zelig hat folgendes geschrieben: | ||
|
zelig hat folgendes geschrieben: | ||
|
fwo hat folgendes geschrieben: |
@ Cortano:
Es geht in dieser Diskussion nicht um "Die bis dato bekannte KI". Ich belasse es bei dieser Antwort and Dich, weil ich mich sonst verzettele. |
output generated using printer-friendly topic mod. Alle Zeiten sind GMT + 1 Stunde