Metaphysik und Wissenschaft
Wähle Beiträge von
# bis # FAQ
[/[Drucken]\]
Gehe zu Seite Zurück  1, 2, 3 ... 11, 12, 13  :| |:
Freigeisterhaus -> Wissenschaft und Technik

#361:  Autor: Steffen RehmWohnort: bei Berlin BeitragVerfasst am: 25.02.2012, 16:39
    —
Sinn ist eine WAHRnehmung, kein Gefühl.

#362:  Autor: Tom der Dino BeitragVerfasst am: 25.02.2012, 16:45
    —
El Schwalmo hat folgendes geschrieben:
step hat folgendes geschrieben:
Ich halte es für gut möglich, daß eine hinreichend komplexe KI quasi als Nebenprodukt Phänomene wie Sinngefühl, Personalität usw. ausbildet. Ob das notwendig so ist, da wäre ich eher vorsichtig.

ich auch. Auch deshalb, weil es bei Lebewesen historisch gerade anders herum verlief. Im Bereich des Lebendigen waren die Emotionen eher da als das Rationale. Kann sein, dass dann nach der Entwicklung der ratio der 'Unterbau' irgendwie integriert wurde. Ob sich der Überbau einen Unterbau schafft?


Es sind selbstorganisierende Systeme, da beeinflusst das eine das andere. Kein Teil ist für sich alleine tätig und baut den anderen um. Eine körperliche Veränderung bewirkt immer auch eine geistige. (Blöder Satz, weil er dort eine Trennung behauptet, wo keine ist. Ich weiß nur grad keinen besseren Ausdruck.) Das merkt man schon wenn man Geräte z.B. Fahrräder, Autos oder Bohrmaschinen oder Gitarren etc. oft und intensiv nutzt. Sie werden zu einem Teil von einem Selbst.

#363:  Autor: Tom der Dino BeitragVerfasst am: 25.02.2012, 16:45
    —
Steffen Rehm hat folgendes geschrieben:
Sinn ist eine WAHRnehmung, kein Gefühl.


Sinn ist eine Illusion.

#364:  Autor: El Schwalmo BeitragVerfasst am: 26.02.2012, 00:47
    —
Tom der Dino hat folgendes geschrieben:
El Schwalmo hat folgendes geschrieben:
step hat folgendes geschrieben:
Ich halte es für gut möglich, daß eine hinreichend komplexe KI quasi als Nebenprodukt Phänomene wie Sinngefühl, Personalität usw. ausbildet. Ob das notwendig so ist, da wäre ich eher vorsichtig.

ich auch. Auch deshalb, weil es bei Lebewesen historisch gerade anders herum verlief. Im Bereich des Lebendigen waren die Emotionen eher da als das Rationale. Kann sein, dass dann nach der Entwicklung der ratio der 'Unterbau' irgendwie integriert wurde. Ob sich der Überbau einen Unterbau schafft?


Es sind selbstorganisierende Systeme, da beeinflusst das eine das andere. Kein Teil ist für sich alleine tätig und baut den anderen um. Eine körperliche Veränderung bewirkt immer auch eine geistige. (Blöder Satz, weil er dort eine Trennung behauptet, wo keine ist. Ich weiß nur grad keinen besseren Ausdruck.) Das merkt man schon wenn man Geräte z.B. Fahrräder, Autos oder Bohrmaschinen oder Gitarren etc. oft und intensiv nutzt. Sie werden zu einem Teil von einem Selbst.

ich habe mich wohl zu kurz ausgedrückt.

Wenn Du Bilderserien der Hirne von Vorfahren des Menschen zum Menschen anschaust, fällt Dir auf, dass sich der Teil des Gehirns, mit dem wir denken ('Neopallium') wie ein Luftballon aufbläst, weil er relativ zum Rest gewaltig an Größe zunimmt ('positiv allometrisches Wachstum'). Viele der Zentren, die für Emotionen zuständig sind, liegen in 'tieferen', also evolutiv gesehen älteren, Bereichen. Man kann das so interpretieren, dass erst die Emotionen da waren, die dann, als die kognitiven Fähigkeiten dazu kamen, integriert wurden und das erzeugen, was Du beschrieben hast.

Wenn Du nun eine Evolution von Maschinen betrachtest in dem Sinn, dass Roboter Fabriken bauen, die Roboter bauen, könnte es auch sein, dass diese Wesen denken. Die haben aber nie den 'Unterbau' besessen, den das Neopallium des Menschen hat. Hier müsste sich dann der Oberbau (also der Computer, der den Roboter steuert) bewusst den Unterbau (was auch immer das sein mag, was 'in silico' Emotionen sein könnten) schaffen.

#365:  Autor: Kramer BeitragVerfasst am: 26.02.2012, 02:13
    —
step hat folgendes geschrieben:
Kramer hat folgendes geschrieben:
Heisst das, Du hast Sex nur zu Fortpflanzungszwecken?

Non sequitur. Kramer, das hast Du doch nicht nötig ... Traurig


Deine Reaktion finde ich interessant. Ich wollte gar nicht argumentieren, sondern nur indirekt darauf hinweisen, dass Deine Warnung, den Sinn zu überbewerten, daran scheitert, dass Du den Sinn unterbewertest. Ich meine das jetzt nicht despektierlich, aber Deine Antwort könnte tatsächlich von einem Computer stammen, der nur denotative und offensichtliche Zusammenhänge erfasst, aber nicht den Sinn, nicht die die Bedeutung einer Aussage.

Ich wollte Dich auf etwas hinweisen, das mir in Deiner Begründung falsch vorkam. Und ich habe dazu eine Methode gewählt, die genau das zur Erfassung der eigentlichen Bedeutung verlangt, das Du als überbewertet bezeichnet hast.

#366:  Autor: Tom der Dino BeitragVerfasst am: 26.02.2012, 02:47
    —
El Schwalmo hat folgendes geschrieben:
Tom der Dino hat folgendes geschrieben:
El Schwalmo hat folgendes geschrieben:
step hat folgendes geschrieben:
Ich halte es für gut möglich, daß eine hinreichend komplexe KI quasi als Nebenprodukt Phänomene wie Sinngefühl, Personalität usw. ausbildet. Ob das notwendig so ist, da wäre ich eher vorsichtig.

ich auch. Auch deshalb, weil es bei Lebewesen historisch gerade anders herum verlief. Im Bereich des Lebendigen waren die Emotionen eher da als das Rationale. Kann sein, dass dann nach der Entwicklung der ratio der 'Unterbau' irgendwie integriert wurde. Ob sich der Überbau einen Unterbau schafft?


Es sind selbstorganisierende Systeme, da beeinflusst das eine das andere. Kein Teil ist für sich alleine tätig und baut den anderen um. Eine körperliche Veränderung bewirkt immer auch eine geistige. (Blöder Satz, weil er dort eine Trennung behauptet, wo keine ist. Ich weiß nur grad keinen besseren Ausdruck.) Das merkt man schon wenn man Geräte z.B. Fahrräder, Autos oder Bohrmaschinen oder Gitarren etc. oft und intensiv nutzt. Sie werden zu einem Teil von einem Selbst.

ich habe mich wohl zu kurz ausgedrückt.

Wenn Du Bilderserien der Hirne von Vorfahren des Menschen zum Menschen anschaust, fällt Dir auf, dass sich der Teil des Gehirns, mit dem wir denken ('Neopallium') wie ein Luftballon aufbläst, weil er relativ zum Rest gewaltig an Größe zunimmt ('positiv allometrisches Wachstum'). Viele der Zentren, die für Emotionen zuständig sind, liegen in 'tieferen', also evolutiv gesehen älteren, Bereichen. Man kann das so interpretieren, dass erst die Emotionen da waren, die dann, als die kognitiven Fähigkeiten dazu kamen, integriert wurden und das erzeugen, was Du beschrieben hast.

Wenn Du nun eine Evolution von Maschinen betrachtest in dem Sinn, dass Roboter Fabriken bauen, die Roboter bauen, könnte es auch sein, dass diese Wesen denken. Die haben aber nie den 'Unterbau' besessen, den das Neopallium des Menschen hat. Hier müsste sich dann der Oberbau (also der Computer, der den Roboter steuert) bewusst den Unterbau (was auch immer das sein mag, was 'in silico' Emotionen sein könnten) schaffen.


Ah ok, ich hab das mit den Maschinen übersehen. Eins versteh ich noch nicht. Wenn ein Roboter der eine Fabrik baut, die Roboter baut, keine Emotionen hat, wird er wahrscheinlich weiterbauen bis kein Material mehr da ist und dann aufhören zu bauen und auf Material warten. Die Roboter, die in der Fabrik gebaut werden, müssen programmiert werden. Entweder bekommen sie immer perfekte Programme, dann passiert nichts evolutives, weil sie immer gleich bleiben und immer nur die Aufgabe ausführen, für die sie gebaut wurden. Da kein Roboter vorher Emotionen hatte, wird auch keiner auf die Idee kommen welche zu programmieren.
Oder die Programme sind nicht perfekt und zeigen Fehler, die abweichende Verhaltensweisen hervorbringen können. Dann ist zumindest eine Säule einer Evoultion vorhanden, die Veränderung. Es fehlt aber immer noch die zweite Säule, der Druck der "Fortpflanzung". Ist dieser Fortpflanzungsdruck nur auf die Roboterfabrikbauenden Roboter beschränkt, werden höchstwahrscheinlich diese Roboter die Roboter verdrängen, die nicht auch roboterbauende Roboter hervorbringen. ...Egal, über kurz oder lang wird es nur roboterbauende Roboter geben. Solange bis kein Material mehr da ist. Ab dem Zeitpunkt steht alles still. Außer der "Fortpflanzungsdruck" beinhaltet auch die Beschaffung von Baumaterial. Baumaterial aus anderen Robotern. Es wird zu Kriegen kommen, in deren Folge die Roboter überleben, die Eigenschaften wie Mut, Vorsicht, Umsicht haben und etwas äquivalentes wie Angst (sichert das Überleben durch weglaufen), Schmerz (lässt fehlfunktionen schnell erkennen und reparieren) etc. empfinden. Dann hast du aber einen Unterbau der unbewusst entstanden ist.
Oder drittens die anfänglichen Roboter bekommen die wichtigen evolutiven Voraussetzungen bereits einprogrammiert, z.B. von Menschen. Diese Eigenschaften wären wieder Fortpflanzungsdruck und Fehlerhaftigkeit. Auch in dem Fall haben die Roboter nicht die Chance sich ihren emotionalen Unterbau bewusst zu erschaffen.
Ich versteh noch nicht, wie es überhaupt möglich sein sollte, dass sich Roboter aus dem Nichts heraus einen emotionalen Unterbau schaffen sollten.

#367:  Autor: Kramer BeitragVerfasst am: 26.02.2012, 03:00
    —
step hat folgendes geschrieben:
Ich halte es für gut möglich, daß eine hinreichend komplexe KI quasi als Nebenprodukt Phänomene wie Sinngefühl, Personalität usw. ausbildet. Ob das notwendig so ist, da wäre ich eher vorsichtig.


Ich bin da skeptisch. In beiden Punkten. Ich bin skeptisch, dass Maschinen diese Phänomene als Nebenprodukt ausbilden können, weil diese Phänomene Nebenprodukte unserer biologischen Evolution und der damit verbundenen Mangelwirtschaft sind. Und ich bin skeptisch, ob sich so etwas wie Intelligenz im Sinne von menschlicher Intelligenz ohne solche Nebenprodukte überhaupt entwickeln kann.

Was uns Menschen von Computern unterscheidet, ist, dass wir den Zustand unseres Gehirnes nicht einfach so beeinflussen können. Wenn wir Hunger haben, können wir nicht die Subroutine "satt" aufrufen. Wenn wir unglücklich sind, können wir nicht einfach die Erinnerung an das, was uns unglücklich macht, aus unserem Speicher löschen. Wenn wir Glücksgefühle haben möchten - z.B. einen Orgasmus - dann können wir nicht einfach das Programm "Orgasmus" anklicken, sondern müssen komplexe biologische (und evtl. auch soziale) Abläufe in Gang bringen.

KIs oder Maschinen auf dem Weg zur KI hätten diese Beschränkungen nicht. Sie wären da - wie Computer nunmal so sind - binär. Entweder können sie etwas, oder sie können etwas nicht. Was sie können, das können sie dann aber immer, also z.B. ständig glücklich sein. Und was sie nicht können, das ist für sie nicht relevant. Das Problem liegt nicht in der Hardware, sondern im Design der Software. Wie programmiert einen Computer so, dass er das Bedürfnis hat, etwas zu können, das er noch nicht kann.

Oder anders formuliert: Wie bringt man dem Urahnen eines Taschenrechners bei, was es bedeutet, eine 5 in Mathe zu bekommen?

#368:  Autor: RohrspatzWohnort: NRW BeitragVerfasst am: 26.02.2012, 11:08
    —
Kramer hat folgendes geschrieben:
step hat folgendes geschrieben:
Ich halte es für gut möglich, daß eine hinreichend komplexe KI quasi als Nebenprodukt Phänomene wie Sinngefühl, Personalität usw. ausbildet. Ob das notwendig so ist, da wäre ich eher vorsichtig.


Ich bin da skeptisch. In beiden Punkten. Ich bin skeptisch, dass Maschinen diese Phänomene als Nebenprodukt ausbilden können, weil diese Phänomene Nebenprodukte unserer biologischen Evolution und der damit verbundenen Mangelwirtschaft sind. Und ich bin skeptisch, ob sich so etwas wie Intelligenz im Sinne von menschlicher Intelligenz ohne solche Nebenprodukte überhaupt entwickeln kann.


Ich auch. Ich denke, unsere Intelligenz ist davon abhängig, dass alles in einen Kontext eingeordnet werden kann, dessen Mittelpunkt der Organismus ist. Gefühle/Emotionen sind Bewertungen, deren Ziel das Überleben ist. Gut/schlecht sind die ersten Kategorien, durch die wir die Welt ordnen können. Und diese Dichotomie legt, da sie sich ja an dem Wohlergehen des Individuums bemisst, gleichzeitig den Bezugspunkt allen künftigen Wissens fest: Das Individuum selbst.
Deswegen kann ich auch die Verwendung des Wortes "Sinn" in diesem Zusammenhang verstehen. Man kann es auch anders ausdrücken: Die Welt muss in Bedeutungen für etwas zerlegt werden, damit eine Ordnung in die an sich erst einmal gleichwertigen Reize gebracht werden kann.
Funktionalität und Bedeutung (jeweils in Bezug zu etwas, vermutlich dem Individuum) würde ich als notwendige Bedingung einer echten, selbstständig lernenden "KI" ansehen.

#369:  Autor: stepWohnort: Germering BeitragVerfasst am: 26.02.2012, 11:12
    —
@Kramer: Du sprichst eigentlich 3 Dinge an:

1) Den Zusammenhang menschlicher Gefühle mit unserer biologischen Substratbasierung - in dem Punkt stimme ich Dir zu - eine nichtbiologische Intelligenz wird je nach Substartbasierung gar keine oder jedenfalls andere Gefühle haben als Tier und Mensch.

2) Welche Bewußtseinsphänomene sind Nebenprodukte von Komplexität, welche von speziell menschlicher Evolution? Da denke ich, daß es einige Phänomene gibt, die so oder ähnlich bei allen hinreichend komplexen / inteligenten Entitäten auftreten. Zum Beispiel gehört zu einem hinreichend intelligenten und lernfähigen System, daß es interne Repräsentationen (Modelle, Simulationen) ausbildet. Außerdem hat es ein oder mehrere Interfaces zu seiner Umwelt, z.B. steuerbare Arme, Sinnesorgane o.ä. - diese beiden Bedingungen zusammen legen es mE nahe, daß auch ein Selbstmodell ausgebidet wird. Und eine weitere Bedingung ist die Fähigkeit, Unwichtiges auszublenden. Die wird in Kombination mit dem o.g. dafür sorgen, daß ein solches Selbstmodell ähnlichen Illusionen wie beim Menschen unterliegt, z.B. Letzturheberschaft.

3) Ich denke allerdings, daß all diese Phänomene nur dann ausgebildet werden, wenn die KI grundlegende Kriterien verpaßt bekommt, die ihre Weiterentwicklung fördern, z.B. Lernfähigkeit, Zufallskomponenten, evtl. auch so etwas wie Fortpflanzung/Selektion.

#370:  Autor: Kramer BeitragVerfasst am: 26.02.2012, 15:08
    —
step hat folgendes geschrieben:
3) Ich denke allerdings, daß all diese Phänomene nur dann ausgebildet werden, wenn die KI grundlegende Kriterien verpaßt bekommt, die ihre Weiterentwicklung fördern, z.B. Lernfähigkeit, Zufallskomponenten, evtl. auch so etwas wie Fortpflanzung/Selektion.


Genau da sehe ich das Problem. Diese Kriterien lassen sich nicht mal eben so implementieren, weil man das will. Wir müssten erstmal verstehen, wie diese Programme bei uns aufgebaut sind, um sie nachbilden zu können. Und davon sind wir m.E. noch meilenweit entfernt.

#371:  Autor: El Schwalmo BeitragVerfasst am: 26.02.2012, 15:22
    —
Kramer hat folgendes geschrieben:
step hat folgendes geschrieben:
3) Ich denke allerdings, daß all diese Phänomene nur dann ausgebildet werden, wenn die KI grundlegende Kriterien verpaßt bekommt, die ihre Weiterentwicklung fördern, z.B. Lernfähigkeit, Zufallskomponenten, evtl. auch so etwas wie Fortpflanzung/Selektion.


Genau da sehe ich das Problem. Diese Kriterien lassen sich nicht mal eben so implementieren, weil man das will. Wir müssten erstmal verstehen, wie diese Programme bei uns aufgebaut sind, um sie nachbilden zu können. Und davon sind wir m.E. noch meilenweit entfernt.

ich habe ja das Beispiel 'Roboter, die Fabriken, die Roboter bauen, bauen' erwähnt. Die könnte man so bauen, dass die eine Evolution durchlaufen, also sich selber umprogrammieren etc., und sich dann, beispielsweise auf dem Mond, sich selber überlassen. Ich vermute, dass die dann, wie step angeführt hat, ein 'Selbst' entwickeln könnten, in dem Sinn, dass sie eine 'mentale' Abbildung des Raums und des eigenen Ich etc. haben, Vergangenheit und Zukunft unterscheiden etc. Ich kann mir aber schwer vorstellen, was in derartigen Maschinen ein Äquivalent zu Emotionen sein könnte.

#372:  Autor: stepWohnort: Germering BeitragVerfasst am: 26.02.2012, 15:55
    —
Kramer hat folgendes geschrieben:
step hat folgendes geschrieben:
3) Ich denke allerdings, daß all diese Phänomene nur dann ausgebildet werden, wenn die KI grundlegende Kriterien verpaßt bekommt, die ihre Weiterentwicklung fördern, z.B. Lernfähigkeit, Zufallskomponenten, evtl. auch so etwas wie Fortpflanzung/Selektion.
Genau da sehe ich das Problem. Diese Kriterien lassen sich nicht mal eben so implementieren, weil man das will. Wir müssten erstmal verstehen, wie diese Programme bei uns aufgebaut sind, um sie nachbilden zu können. Und davon sind wir m.E. noch meilenweit entfernt.

Ich denke nicht, daß wir dazu verstehen müßten, wie das genau bei uns funktioniert. Es reicht, genügend Freiheitsgrade zu lassen und eine sehr allgemeine Lernfähigkeit zu implementieren. Möglicherweise werden wir dann gar nicht verstehen, wieso eine solche KI dies oder jenes entscheidet.

Meiner Ansicht nach wird dies nicht das wesentliche Problem sein. Eine größere Schwierigkeit scheint mir darin zu liegen, daß der Einsatzbereich zuerst mal sehr begrenzt sein wird, weil der Lernprozeß in jedem Kontext erstmal neu durchlaufen werden muß.

#373:  Autor: Tom der Dino BeitragVerfasst am: 26.02.2012, 16:44
    —
El Schwalmo hat folgendes geschrieben:
Kramer hat folgendes geschrieben:
step hat folgendes geschrieben:
3) Ich denke allerdings, daß all diese Phänomene nur dann ausgebildet werden, wenn die KI grundlegende Kriterien verpaßt bekommt, die ihre Weiterentwicklung fördern, z.B. Lernfähigkeit, Zufallskomponenten, evtl. auch so etwas wie Fortpflanzung/Selektion.


Genau da sehe ich das Problem. Diese Kriterien lassen sich nicht mal eben so implementieren, weil man das will. Wir müssten erstmal verstehen, wie diese Programme bei uns aufgebaut sind, um sie nachbilden zu können. Und davon sind wir m.E. noch meilenweit entfernt.

ich habe ja das Beispiel 'Roboter, die Fabriken, die Roboter bauen, bauen' erwähnt. Die könnte man so bauen, dass die eine Evolution durchlaufen, also sich selber umprogrammieren etc., und sich dann, beispielsweise auf dem Mond, sich selber überlassen. Ich vermute, dass die dann, wie step angeführt hat, ein 'Selbst' entwickeln könnten, in dem Sinn, dass sie eine 'mentale' Abbildung des Raums und des eigenen Ich etc. haben, Vergangenheit und Zukunft unterscheiden etc. Ich kann mir aber schwer vorstellen, was in derartigen Maschinen ein Äquivalent zu Emotionen sein könnte.


Ich hatte dazu hier etwas geschrieben. Ich schätze fast wir haben unterschiedliche Vorstellungen davon, was Emotionen sind.

#374:  Autor: Steffen RehmWohnort: bei Berlin BeitragVerfasst am: 26.02.2012, 17:01
    —
step hat folgendes geschrieben:
Kramer hat folgendes geschrieben:
step hat folgendes geschrieben:
3) Ich denke allerdings, daß all diese Phänomene nur dann ausgebildet werden, wenn die KI grundlegende Kriterien verpaßt bekommt, die ihre Weiterentwicklung fördern, z.B. Lernfähigkeit, Zufallskomponenten, evtl. auch so etwas wie Fortpflanzung/Selektion.
Genau da sehe ich das Problem. Diese Kriterien lassen sich nicht mal eben so implementieren, weil man das will. Wir müssten erstmal verstehen, wie diese Programme bei uns aufgebaut sind, um sie nachbilden zu können. Und davon sind wir m.E. noch meilenweit entfernt.

Ich denke nicht, daß wir dazu verstehen müßten, wie das genau bei uns funktioniert. Es reicht, genügend Freiheitsgrade zu lassen und eine sehr allgemeine Lernfähigkeit zu implementieren. Möglicherweise werden wir dann gar nicht verstehen, wieso eine solche KI dies oder jenes entscheidet.

Meiner Ansicht nach wird dies nicht das wesentliche Problem sein. Eine größere Schwierigkeit scheint mir darin zu liegen, daß der Einsatzbereich zuerst mal sehr begrenzt sein wird, weil der Lernprozeß in jedem Kontext erstmal neu durchlaufen werden muß.


Zum fett gedruckten mal ein Zitat von Niklas Luhmann: "Mit dem Sinnschema gewinnen Systeme, die es verwenden, Abstand von den Auslösefaktoren, Abstand von ihrer Umwelt und sind dann gezwungen, ihre Umwelt und sich selbst mit größeren Freiheitsgraden zu erfahren." (Ideenevolution, Seite 19)

#375:  Autor: stepWohnort: Germering BeitragVerfasst am: 26.02.2012, 17:13
    —
Steffen Rehm hat folgendes geschrieben:
... ein Zitat von Niklas Luhmann: "Mit dem Sinnschema gewinnen Systeme, die es verwenden, Abstand von den Auslösefaktoren, Abstand von ihrer Umwelt und sind dann gezwungen, ihre Umwelt und sich selbst mit größeren Freiheitsgraden zu erfahren." (Ideenevolution, Seite 19)

Obwohl ich nicht viel von Luhmann halte, gefällt mir dieses Zitat sogar. Denn in der Tat hilft uns die Konstruktion von Sinnzusammenhängen, unsere Determiniertheit und unsere Verlorenheit in unserer Umwelt zu leugnen.

Ich fürchte allerdings, daß Luhmann selbst alles andere als konsequent zuendedenkt in diesem Punkt.

#376:  Autor: Steffen RehmWohnort: bei Berlin BeitragVerfasst am: 26.02.2012, 17:31
    —
Anstatt "leugnen" würde ich "entkommen" sagen, und wo sollte man von einem konsequenten Ende sprechen, wenn das Denken wie das Zählen gar kein Ende haben?

#377:  Autor: stepWohnort: Germering BeitragVerfasst am: 26.02.2012, 18:57
    —
Steffen Rehm hat folgendes geschrieben:
Anstatt "leugnen" würde ich "entkommen" sagen ...

"Leugnen" trifft es aber besser, da wir ja nicht wirklich entkommen, sondern uns das so nur leichter einreden können.

Steffen Rehm hat folgendes geschrieben:
... und wo sollte man von einem konsequenten Ende sprechen, wenn das Denken wie das Zählen gar kein Ende haben?

Ein Gedankengang kann - entsprechende Disziplin vorausgesetzt - durchaus zu einem konsequenten Ende führen, auch wenn man natürlich immer wieder neue Fragen stellen kann.

#378:  Autor: El Schwalmo BeitragVerfasst am: 26.02.2012, 19:15
    —
step hat folgendes geschrieben:
unsere Determiniertheit ... zu leugnen.

gibt es nicht auch Menschen, die Multiversen basteln, weil sie Kontingenz leugnen?

#379:  Autor: stepWohnort: Germering BeitragVerfasst am: 26.02.2012, 19:20
    —
El Schwalmo hat folgendes geschrieben:
gibt es nicht auch Menschen, die Multiversen basteln, weil sie Kontingenz leugnen?

Kontingenz ist keine gute Theorie, sondern eine Kapitulationserklärung. Die brauche ich nicht mal leugnen.

#380:  Autor: El Schwalmo BeitragVerfasst am: 26.02.2012, 19:28
    —
step hat folgendes geschrieben:
El Schwalmo hat folgendes geschrieben:
gibt es nicht auch Menschen, die Multiversen basteln, weil sie Kontingenz leugnen?

Kontingenz ist keine gute Theorie, sondern eine Kapitulationserklärung. Die brauche ich nicht mal leugnen.

Du scheinst wie ein KI-System zu arbeiten, das stolz 'nein' auf eine Frage, die es mit Datenbasis und Interferenzregeln nicht lösen kann, antwortet, obwohl 'ich kann das nicht entscheiden' die korrekte Antwort wäre.

#381:  Autor: Steffen RehmWohnort: bei Berlin BeitragVerfasst am: 26.02.2012, 20:07
    —
Luhmanns Denken ist ja durch seinen Tod zu einem Ende gekommen, aber seine Gedanken sind wertvoll dadurch, daß sie Anschlußmöglichkeiten anbieten.
Z.B. für die Hirnforschung sind seine Gedanken über SINN von einmaligem Wert (in:Soziale Systeme, Seite 92-148 und in: Ideenevolution das Kapitel „Sinn, Selbstreferenz und soziokulturelle Evolution“, S.7-72,). Darin wird deutlich, daß wir uns Freiheit nicht nur einreden sondern daß sie als Selektionszwang eine notwendige Folge der temporalisierten Komplexität von Sinn ist, die wir in jedem Augenblick neu bewältigen müssen.

#382:  Autor: stepWohnort: Germering BeitragVerfasst am: 26.02.2012, 20:11
    —
Steffen Rehm hat folgendes geschrieben:
... sondern daß [Freiheit] als Selektionszwang eine notwendige Folge der temporalisierten Komplexität von Sinn ist ...

Ja, das ist Luhman, wie ich ihn kenne! OMG, so ein Unsinn!

#383:  Autor: Steffen RehmWohnort: bei Berlin BeitragVerfasst am: 26.02.2012, 20:35
    —
Sinn oder Unsinn, das ist die Frage, aber auch Unsinn geht von der Existenz von Sinn aus.

#384:  Autor: vrolijkeWohnort: Stuttgart BeitragVerfasst am: 28.04.2023, 22:50
    —
Als Atheist, der "Gott" sieht in das gesamte selbsterhaltendes System mache ich mir folgender Gedanke:

Das ganze All strebt nach selbsterhaltung. Jede Galaxy, jedes Sonnensystem, jeder Planet, sowie alles was darauf kreucht und fleucht.
Z.Zt. macht die Erderwärmung die Erde arg zu schaffen.
Und anstatt dass die Erdbewohner alles daran setzen würden, dem aufzuhalten, haben sie nichts besseres zu tun als die Rüstung hochzufahren und Diktatoren an der Macht zu bringen oder zu halten.

Und folgendes könnte auch bei "Dumme Gedanken" stehen: vielleicht ist die Erde gerade dabei einen Resett vorzubereiten.
Potential wäre ja da.

#385:  Autor: Tarvoc BeitragVerfasst am: 28.04.2023, 23:20
    —
El Schwalmo hat folgendes geschrieben:
step hat folgendes geschrieben:
El Schwalmo hat folgendes geschrieben:
gibt es nicht auch Menschen, die Multiversen basteln, weil sie Kontingenz leugnen?

Kontingenz ist keine gute Theorie, sondern eine Kapitulationserklärung. Die brauche ich nicht mal leugnen.

Du scheinst wie ein KI-System zu arbeiten, das stolz 'nein' auf eine Frage, die es mit Datenbasis und Interferenzregeln nicht lösen kann, antwortet, obwohl 'ich kann das nicht entscheiden' die korrekte Antwort wäre.

Daumen hoch!



Freigeisterhaus -> Wissenschaft und Technik


output generated using printer-friendly topic mod. Alle Zeiten sind GMT + 1 Stunde

Gehe zu Seite Zurück  1, 2, 3 ... 11, 12, 13  :| |:
Seite 13 von 13

Powered by phpBB © 2001, 2005 phpBB Group