El Schwalmo hat folgendes geschrieben: | ||
ich auch. Auch deshalb, weil es bei Lebewesen historisch gerade anders herum verlief. Im Bereich des Lebendigen waren die Emotionen eher da als das Rationale. Kann sein, dass dann nach der Entwicklung der ratio der 'Unterbau' irgendwie integriert wurde. Ob sich der Überbau einen Unterbau schafft? |
Steffen Rehm hat folgendes geschrieben: |
Sinn ist eine WAHRnehmung, kein Gefühl. |
Tom der Dino hat folgendes geschrieben: | ||||
Es sind selbstorganisierende Systeme, da beeinflusst das eine das andere. Kein Teil ist für sich alleine tätig und baut den anderen um. Eine körperliche Veränderung bewirkt immer auch eine geistige. (Blöder Satz, weil er dort eine Trennung behauptet, wo keine ist. Ich weiß nur grad keinen besseren Ausdruck.) Das merkt man schon wenn man Geräte z.B. Fahrräder, Autos oder Bohrmaschinen oder Gitarren etc. oft und intensiv nutzt. Sie werden zu einem Teil von einem Selbst. |
step hat folgendes geschrieben: | ||
Non sequitur. Kramer, das hast Du doch nicht nötig ... |
El Schwalmo hat folgendes geschrieben: | ||||||
ich habe mich wohl zu kurz ausgedrückt. Wenn Du Bilderserien der Hirne von Vorfahren des Menschen zum Menschen anschaust, fällt Dir auf, dass sich der Teil des Gehirns, mit dem wir denken ('Neopallium') wie ein Luftballon aufbläst, weil er relativ zum Rest gewaltig an Größe zunimmt ('positiv allometrisches Wachstum'). Viele der Zentren, die für Emotionen zuständig sind, liegen in 'tieferen', also evolutiv gesehen älteren, Bereichen. Man kann das so interpretieren, dass erst die Emotionen da waren, die dann, als die kognitiven Fähigkeiten dazu kamen, integriert wurden und das erzeugen, was Du beschrieben hast. Wenn Du nun eine Evolution von Maschinen betrachtest in dem Sinn, dass Roboter Fabriken bauen, die Roboter bauen, könnte es auch sein, dass diese Wesen denken. Die haben aber nie den 'Unterbau' besessen, den das Neopallium des Menschen hat. Hier müsste sich dann der Oberbau (also der Computer, der den Roboter steuert) bewusst den Unterbau (was auch immer das sein mag, was 'in silico' Emotionen sein könnten) schaffen. |
step hat folgendes geschrieben: |
Ich halte es für gut möglich, daß eine hinreichend komplexe KI quasi als Nebenprodukt Phänomene wie Sinngefühl, Personalität usw. ausbildet. Ob das notwendig so ist, da wäre ich eher vorsichtig. |
Kramer hat folgendes geschrieben: | ||
Ich bin da skeptisch. In beiden Punkten. Ich bin skeptisch, dass Maschinen diese Phänomene als Nebenprodukt ausbilden können, weil diese Phänomene Nebenprodukte unserer biologischen Evolution und der damit verbundenen Mangelwirtschaft sind. Und ich bin skeptisch, ob sich so etwas wie Intelligenz im Sinne von menschlicher Intelligenz ohne solche Nebenprodukte überhaupt entwickeln kann. |
step hat folgendes geschrieben: |
3) Ich denke allerdings, daß all diese Phänomene nur dann ausgebildet werden, wenn die KI grundlegende Kriterien verpaßt bekommt, die ihre Weiterentwicklung fördern, z.B. Lernfähigkeit, Zufallskomponenten, evtl. auch so etwas wie Fortpflanzung/Selektion. |
Kramer hat folgendes geschrieben: | ||
Genau da sehe ich das Problem. Diese Kriterien lassen sich nicht mal eben so implementieren, weil man das will. Wir müssten erstmal verstehen, wie diese Programme bei uns aufgebaut sind, um sie nachbilden zu können. Und davon sind wir m.E. noch meilenweit entfernt. |
Kramer hat folgendes geschrieben: | ||
|
El Schwalmo hat folgendes geschrieben: | ||||
ich habe ja das Beispiel 'Roboter, die Fabriken, die Roboter bauen, bauen' erwähnt. Die könnte man so bauen, dass die eine Evolution durchlaufen, also sich selber umprogrammieren etc., und sich dann, beispielsweise auf dem Mond, sich selber überlassen. Ich vermute, dass die dann, wie step angeführt hat, ein 'Selbst' entwickeln könnten, in dem Sinn, dass sie eine 'mentale' Abbildung des Raums und des eigenen Ich etc. haben, Vergangenheit und Zukunft unterscheiden etc. Ich kann mir aber schwer vorstellen, was in derartigen Maschinen ein Äquivalent zu Emotionen sein könnte. |
step hat folgendes geschrieben: | ||||
Ich denke nicht, daß wir dazu verstehen müßten, wie das genau bei uns funktioniert. Es reicht, genügend Freiheitsgrade zu lassen und eine sehr allgemeine Lernfähigkeit zu implementieren. Möglicherweise werden wir dann gar nicht verstehen, wieso eine solche KI dies oder jenes entscheidet. Meiner Ansicht nach wird dies nicht das wesentliche Problem sein. Eine größere Schwierigkeit scheint mir darin zu liegen, daß der Einsatzbereich zuerst mal sehr begrenzt sein wird, weil der Lernprozeß in jedem Kontext erstmal neu durchlaufen werden muß. |
Steffen Rehm hat folgendes geschrieben: |
... ein Zitat von Niklas Luhmann: "Mit dem Sinnschema gewinnen Systeme, die es verwenden, Abstand von den Auslösefaktoren, Abstand von ihrer Umwelt und sind dann gezwungen, ihre Umwelt und sich selbst mit größeren Freiheitsgraden zu erfahren." (Ideenevolution, Seite 19) |
Steffen Rehm hat folgendes geschrieben: |
Anstatt "leugnen" würde ich "entkommen" sagen ... |
Steffen Rehm hat folgendes geschrieben: |
... und wo sollte man von einem konsequenten Ende sprechen, wenn das Denken wie das Zählen gar kein Ende haben? |
step hat folgendes geschrieben: |
unsere Determiniertheit ... zu leugnen. |
El Schwalmo hat folgendes geschrieben: |
gibt es nicht auch Menschen, die Multiversen basteln, weil sie Kontingenz leugnen? |
step hat folgendes geschrieben: | ||
Kontingenz ist keine gute Theorie, sondern eine Kapitulationserklärung. Die brauche ich nicht mal leugnen. |
Steffen Rehm hat folgendes geschrieben: |
... sondern daß [Freiheit] als Selektionszwang eine notwendige Folge der temporalisierten Komplexität von Sinn ist ... |
El Schwalmo hat folgendes geschrieben: | ||||
Du scheinst wie ein KI-System zu arbeiten, das stolz 'nein' auf eine Frage, die es mit Datenbasis und Interferenzregeln nicht lösen kann, antwortet, obwohl 'ich kann das nicht entscheiden' die korrekte Antwort wäre. |
output generated using printer-friendly topic mod. Alle Zeiten sind GMT + 1 Stunde