step registriert
Anmeldungsdatum: 17.07.2003 Beiträge: 22782
Wohnort: Germering
|
(#844953) Verfasst am: 23.10.2007, 20:09 Titel: |
|
|
Lamarck hat folgendes geschrieben: | step hat folgendes geschrieben: | Lamarck hat folgendes geschrieben: | Für AL auf dem Weg zu AI wäre zunächst eine
Selbsterhaltungsfunktion vonnöten. | Warum? Und muß sich diese auf das Individuum beziehen? | Nun, wir betrachten hier dissipative Strukturen. Und daher: Yepp |
Das sehe ich noch nicht ein. Selbst wenn man jeden Mechanismus der Energiegewinnung für einen Stoffwechsel als "Selbsterhaltung" bezeichnen würde, so würde meines Erachtens eine AI nicht unbedingt einen Selbsterhaltungstrieb spüren müssen. Sie müßte sich nicht einmal fortpflanzen oder der Evolution unterliegen. Und ihr "Gehirn" müßte nicht unbedingt an einen individuellen Körper gebunden sein (Cluster, Netzwerk usw.).
Lamarck hat folgendes geschrieben: | step hat folgendes geschrieben: | Lamarck hat folgendes geschrieben: | ... So dient Schmerz (bzw. in der Folge die Vermeidung) letztlich zum Lernen. Aber schon hier ist es mit einem Regelkreis nicht getan ... | Könnte ein einfaches Schmerzempfindendes System nicht aber dennoch ohne Bewußtsein lernen, z.B. durch primitivere Memory-Effekte? Und wäre das dann Leiden? | Nach Komplexität geordnet, die genannten groben Stufen werden ergänzt, nicht ersetzt: "Memory-Effekte" < Schmerz (Untermenge: Leiden) < Bewusstsein |
OK, auch wenn ich die Zuordnung von Leiden nicht so einfach finde, da Leiden für mich eine Begleiterscheinung zur Wahrnehmung einer Abweichung vom Wunschzustand ist. Diese Begleiterscheinung kann vegetative Gefühls-, psychische oder sogar rationale Elemente beinhalten, weswegen es evtl. legitim erscheint, auch bei Tieren von "Leiden" und nicht nur von Schmerzen zu sprechen .
_________________ Was ist der Sinn des Lebens? - Keiner, aber Leere ist Fülle für den, der sie sieht.
|
|