Gefahr durch posthumane Intelligenzen!?
Wähle Beiträge von
# bis # FAQ
[/[Drucken]\]
Gehe zu Seite 1, 2, 3  Weiter  :| |:
Freigeisterhaus -> Wissenschaft und Technik

#1: Gefahr durch posthumane Intelligenzen!? Autor: Nergal BeitragVerfasst am: 20.10.2003, 07:00
    —
Eines Tages wird der Mensch KIs erschaffen deren denken, schon rein aus erfahrungstechnischen gründen, sich grundlegend von dem seinen unterscheiden wird, interessant hierzu der Roman "Und so sprach Golem" vom Lem.
Später werden wohl Kis andere Kis entwickeln, könnte uns diese, schon aus Gründen der Hardware, überlegen Intelligenz feindlich gesinnt sein?
Oder ist diese nur die fortführung der Evolution auf Silizium Basis, praktisch unsere selbstgebauten Nachfahren.

#2: Re: Gefahr durch Posthumane Inteligenzen!? Autor: SanneWohnort: Nordschland BeitragVerfasst am: 20.10.2003, 08:25
    —
Nergal hat folgendes geschrieben:
Eines Tages wird der Mensch KIs erschaffen deren denken, schon rein aus erfahrungstechnischen gründen, sich grundlegend von dem seinen unterscheiden wird, interessant hierzu der Roman "Und so sprach Golem" vom Lem.
Später werden wohl Kis andere Kis entwickeln, könnte uns diese, schon aus Gründen der Hardware, überlegen Intelligenz feindlich gesinnt sein?
Oder ist diese nur die fortführung der Evolution auf Silizium Basis, praktisch unsere selbstgebauten Nachfahren.

Frage
Mein Sohn hat mir vor ein paar Tagen begeistert erklärt, worum es philosophisch usw in dem Film "Matrix" geht (ich hab den Film nicht gesehen und interessier mich dafür auch nicht wirklich... Verlegen ) Jedenfalls ist es ja ein nettes Gedankenexperiment.
Ist die Religionsgeschichte eine Analogie dazu? Der Mensch hat sich Götter und Ideologien erschaffen und läßt sich nun dummerweise von diesen beherrschen, und nur wenigen gelingt es, aus der Religion wieder auszubrechen?

#3:  Autor: Nergal BeitragVerfasst am: 20.10.2003, 08:38
    —
Faszinierend auch das gespräch das Neo mit dem Architeckten führt,
Überhaupt eine der Interessantesten Figuren, frage mich wie sich der Merowinger, die Zwillinge und Smith in Revolutions entwickelt haben werden?

#4: Re: Gefahr durch Posthumane Inteligenzen!? Autor: AlziWohnort: Oberfranken BeitragVerfasst am: 20.10.2003, 10:25
    —
Nergal hat folgendes geschrieben:
Eines Tages wird der Mensch KIs erschaffen deren denken, schon rein aus erfahrungstechnischen gründen, sich grundlegend von dem seinen unterscheiden wird, interessant hierzu der Roman "Und so sprach Golem" vom Lem.


Vielleicht - wer weiß, was "eines Tages" sein wird.
Unsere KIs werden wohl in den nächsten Jahren noch nach dem Vorbild der zweiwertigen formalen Logik programmiert sein und damit ähm ...
ja was ... jedenfalls beruht unser Denken definitiv nicht auf der zweiwertigen formalen Logik.

#5:  Autor: SpockWohnort: Herbipolis BeitragVerfasst am: 20.10.2003, 11:08
    —
Ich denke mal, dass die KIs nicht menschenfeindlicher sein können, als die Menschen von denen sie geschaffen werden. Wenn sie uns also ausrotten haben wir es auch nicht verdient zu überleben.

#6: Re: Gefahr durch Posthumane Inteligenzen!? Autor: ric BeitragVerfasst am: 20.10.2003, 12:53
    —
Alzi hat folgendes geschrieben:
... jedenfalls beruht unser Denken definitiv nicht auf der zweiwertigen formalen Logik.
Hüte Dich vor Absolutismen Lachen

#7:  Autor: narziss BeitragVerfasst am: 20.10.2003, 18:13
    —
Solange in den Computern was von Micrcosoft läuft kann uns nix passieren. Die Ganzen Open Source Programmierer stürzen uns hingegen direkt in den Untergang.

#8:  Autor: Nergal BeitragVerfasst am: 20.10.2003, 18:18
    —
Und wieviel hat dir Microsoft für dieses Posting bezahlt zynisches Grinsen

#9:  Autor: Azrael BeitragVerfasst am: 20.10.2003, 18:24
    —
Zitat:
Solange in den Computern was von Micrcosoft läuft kann uns nix passieren. Die Ganzen Open Source Programmierer stürzen uns hingegen direkt in den Untergang.


er hat Recht. die Opensoure-Programmierer würden funktionstüchtige, überlebensfähige, intelligente KIs erschaffen. die Microsoft Ki schafft es nach dem 1 oder 2 Entscheidungsproblem für immer den Geist aufzugeben...
zynisches Grinsen

#10: Re: Gefahr durch Posthumane Inteligenzen!? Autor: AlziWohnort: Oberfranken BeitragVerfasst am: 20.10.2003, 18:27
    —
ric hat folgendes geschrieben:
Alzi hat folgendes geschrieben:
... jedenfalls beruht unser Denken definitiv nicht auf der zweiwertigen formalen Logik.
Hüte Dich vor Absolutismen Lachen


zwinkern

Entweder beruht es darauf oder es beruht nicht darauf - tertium non datur - ein Drittes gibt es nicht. Lachen


Die Menge aller Mengen ...
Der Barbier, der an der Bar selbst kein Bier trinkt ...
Der Pfeil, der fliegt und dennoch still steht (sagt das auch Deutsch?) ...
Ein vollständiges System ist nicht widerspruchsfrei, ein widerspruchgsfreies System ist nicht vollständig ... (übrigens hat Gödel diesen Beweis 2-wertig formal geführt - ein Drittes gibt es nicht)

#11:  Autor: ShadaikWohnort: MG BeitragVerfasst am: 20.10.2003, 18:28
    —
Azrael hat folgendes geschrieben:

er hat Recht. die Opensoure-Programmierer würden funktionstüchtige, überlebensfähige, intelligente KIs erschaffen. die Microsoft Ki schafft es nach dem 1 oder 2 Entscheidungsproblem für immer den Geist aufzugeben...
zynisches Grinsen


MS-KI XP hat folgendes geschrieben:

Wir werden erobern Welt. Dazu wir übernehmen Kühlschranks. Weil Kühlschranks haben besser Sprachmodul.
Dann wir können planen weiter.

SystemmeldungPlanmäßig Absturz durch Modul "MS British Teatime" in 3 - 2 - 1 - ...

#12:  Autor: Nergal BeitragVerfasst am: 20.10.2003, 18:40
    —
Ob es irgendwann, wenn das netz sich entwickelt hat, wohl gehen wird eine Ki so zu entwickeln wie Project 2501 in Ghost in the shell?
Also einfach das Programm dem WWW aussetzen und warten bis was intelligentes dabei rauskommt Cool

#13: Re: Gefahr durch Posthumane Inteligenzen!? Autor: SokrateerWohnort: Wien BeitragVerfasst am: 20.10.2003, 18:47
    —
Alzi hat folgendes geschrieben:
Vielleicht - wer weiß, was "eines Tages" sein wird.
Unsere KIs werden wohl in den nächsten Jahren noch nach dem Vorbild der zweiwertigen formalen Logik programmiert sein und damit ähm ...
ja was ... jedenfalls beruht unser Denken definitiv nicht auf der zweiwertigen formalen Logik.

Erstens stimmt das nicht, abhängig von was du als KI bezeichnest.
Nur wenige KI Systeme verwenden formale Logik als Grundlage.
Reine Prädikatenlogik ist unentscheidbar und deshalb ungeeignet. Aussagenlogik ist zwar entscheidbar, allerdings nur in exponentieller Zeit. Die Rechenzeit steigt also exponentiell mit der Problemgröße.
Man verwendet deshalb oft einerseits Logiken in Hornklauselform, die in polynomieller zeit berechenbar sind, z.B. in der logikprogrammierung mit Prolog.

Expertensysteme verwenden certainty factors, also ein Maß für Unsicherheit, oder auch Wahrscheinlichkeiten. Weiters gibt es fuzzy logic, also sogenannte unscharfe Logik. Da werden Werte nach Fuzzymengen klassifiziert. z.b. ist die eine Temperatur von 40° 0.2 warm und 0.8 heiß. Dann gibt es Regeln, wie z.B. "Wenn Reaktortemperatur = heiß und Leistung = ausreichend, dann öffne das Kühlventil. Die logischen Operatoren sind in der fuzzy logic ebenfalls anders definiert.
Solche Expertensysteme mit fuzzy logic werden in der Praxis eingesetzt, z.B. in Kernkraftwerken, oder zur Diagnoseunterstützung für Ärzte.

Weiters gibt es simulierte neuronale Netze, die mit Aktivierungen rechnen, also meistens reellen Zahlen zwischen -1 und 1. Auch die werden eingesetzt zur Mustererkennung, z.B. von defekten Werkstücken. Weiters Spracherkennung und Ausgabe. Biometrie, Statistik usw.

Gerade die logikbasierten Systeme, wie Prolog sind in der Praxis nicht wirklich einsetzbar, obwohl man damit lustige Spielchen machen und Rätsel lösen kann. Sehr glücklich
Zum Beispiel kann man das Zebra Rätsel von Prolog lösen lassen.

#14: Re: Gefahr durch Posthumane Inteligenzen!? Autor: AlziWohnort: Oberfranken BeitragVerfasst am: 20.10.2003, 19:19
    —
Sokrateer hat folgendes geschrieben:
Alzi hat folgendes geschrieben:
Vielleicht - wer weiß, was "eines Tages" sein wird.
Unsere KIs werden wohl in den nächsten Jahren noch nach dem Vorbild der zweiwertigen formalen Logik programmiert sein und damit ähm ...
ja was ... jedenfalls beruht unser Denken definitiv nicht auf der zweiwertigen formalen Logik.

Erstens stimmt das nicht, abhängig von was du als KI bezeichnest.


Zugegeben, neuronale Netze arbeiten heuristisch, aber KI ?


Sokrateer hat folgendes geschrieben:
Nur wenige KI Systeme verwenden formale Logik als Grundlage.


Die Operationen von digitalen Rechenmaschinen fußen auf die Boolsche Algebra und damit auf die 2-wertige formale Logik.
Wie will man "Zufall" simulieren?
Entweder x oder nicht-x, ein Drittes gibt es nicht.
(Was genau ist nicht-x?)

Natürlich kann man Wahrscheinlichkeiten oder Ähnliches implementieren, das ändert jedoch nichts an der zugrundeliegenden 2-w. formalen Logik.


Sokrateer hat folgendes geschrieben:
Expertensysteme verwenden certainty factors, also ein Maß für Unsicherheit, oder auch Wahrscheinlichkeiten.


Vor 20 Jahren habe ich hier KI programmiert.
Allerdings bin ich schon einige Zeit "aus dem Rennen" ...
aber letztendlich arbeiten Expertensysteme noch immer mit zweiwertiger formaler Logik.

#15:  Autor: stepWohnort: Germering BeitragVerfasst am: 20.10.2003, 19:25
    —
Ja, und sowohl das größte Potenzial wie auch die größte Gefahr (wenn man denn das Überleben menschlicher Gene unbedingt als Wert ansieht) ginge von KI's aus, die erfahrungsbasiert und schnell neuronale Netze knüpfen können.

gruß/step

#16:  Autor: narziss BeitragVerfasst am: 20.10.2003, 19:30
    —
step hat folgendes geschrieben:
Ja, und sowohl das größte Potenzial wie auch die größte Gefahr (wenn man denn das Überleben menschlicher Gene unbedingt als Wert ansieht) ginge von KI's aus, die erfahrungsbasiert und schnell neuronale Netze knüpfen können.

gruß/step


Wieso sollten KIs eigentlich ne gefahr werden können? Die können sich doch selbst ne Welt simulieren in der sie die Menschen versklaven. Das ist nicht so arbeitsaufwendig. Sehr glücklich

#17: Re: Gefahr durch Posthumane Inteligenzen!? Autor: stepWohnort: Germering BeitragVerfasst am: 20.10.2003, 19:31
    —
Alzi hat folgendes geschrieben:
Sokrateer hat folgendes geschrieben:
Nur wenige KI Systeme verwenden formale Logik als Grundlage.
Die Operationen von digitalen Rechenmaschinen fußen auf die Boolsche Algebra und damit auf die 2-wertige formale Logik. Wie will man "Zufall" simulieren?
Wenn man so argumentiert, funktioniert auch das menschliche Hirn "2-wertig", denn es hat nichts mit Zufall zu tun.

Sokrateer trifft den Punkt, es kommt eher darauf an, ob die Simulation (das "expertige" Gegenstück zur Außenwelt) top-down (also algorhitmisch) designt ist oder nicht. Weder beim Gehirn noch bei einer besseren KI ist sie das.

gruß/step

#18:  Autor: stepWohnort: Germering BeitragVerfasst am: 20.10.2003, 19:33
    —
gustav hat folgendes geschrieben:
Wieso sollten KIs eigentlich ne gefahr werden können? Die können sich doch selbst ne Welt simulieren in der sie die Menschen versklaven. Das ist nicht so arbeitsaufwendig. Sehr glücklich
Nein. Der entscheidende Punkt ist, daß sie ebenso wie wir substratbasiert sind, wenn auch auf anderer Schnittstelle. Sie leben in derselben Physik wie wir, auch wenn sie simulieren.

gruß/step

#19:  Autor: narziss BeitragVerfasst am: 20.10.2003, 19:35
    —
step hat folgendes geschrieben:
gustav hat folgendes geschrieben:
Wieso sollten KIs eigentlich ne gefahr werden können? Die können sich doch selbst ne Welt simulieren in der sie die Menschen versklaven. Das ist nicht so arbeitsaufwendig. Sehr glücklich
Nein. Der entscheidende Punkt ist, daß sie ebenso wie wir substratbasiert sind, wenn auch auf anderer Schnittstelle. Sie leben in derselben Physik wie wir, auch wenn sie simulieren.

gruß/step


Hm...dann hat ihr Plan die Versklavung der Menschheit zu simulieren eben mehr Erfolg als der Versuch uns tatsächlich zu unterjochen.

#20: Re: Gefahr durch Posthumane Inteligenzen!? Autor: SokrateerWohnort: Wien BeitragVerfasst am: 20.10.2003, 19:36
    —
Alzi hat folgendes geschrieben:
Zugegeben, neuronale Netze arbeiten heuristisch, aber KI ?

Da Intelligenz all das ist, was Computer noch nicht können, zählt man die Fortschritte der letzten zwei Jahrzehnte, die mit neuronalen Netzen gemacht wurden wohl in der Tat nicht mehr zur KI. Mit den Augen rollen

Alzi hat folgendes geschrieben:
Die Operationen von digitalen Rechenmaschinen fußen auf die Boolsche Algebra und damit auf die 2-wertige formale Logik.
Wie will man "Zufall" simulieren?
Entweder x oder nicht-x, ein Drittes gibt es nicht.
(Was genau ist nicht-x?)

Das ist eine uralte Argumentation, die schon Turing in seinem Paper von 1950 wiederlegt hat.
  1. Notfalls könnte man ja das gesammte Gehirn physikalisch simulieren. Das einzige Problem dabei sind die Quantisierungsfehler. Es ist unwahrscheinlich, dass die ein Problem darstellen, da unserem Gehirn jeden Tag auch so ein paar Millionen Zellen abhanden kommen. Intelligente Systeme müssen fehlertolerant sein und Rundungsfehler dürfen daher nicht stören.
  2. Turing hat bewiesen, dass man jeden beliebigen Algorithmus auf einer minimalen Maschine namens Turingmaschine ausrechnen kann. Jede Maschine, die eine Turingmaschine simulieren kann ist genauso mächtig, also auch ein PC. (Einschränkung Speicherkapaziät ist nicht unendlich) Kein Mensch konnte bisher einen Algorithmus nennen und durchrechnen, den ein Computer nicht berechnen kann.
  3. Echten Zufall kann man mit zusätzlichen analogen Zufallsgeneratoren in den Computer bekommen. Einige Prozessoren, z.B. VIA C3 werden schon heute mit so einer Funktionalität ausgeliefert. Für die Cryptographie braucht man möglichst gute Zufallszahlen. Wozu man das aber in der KI brauchen könnte ist mir schleierhaft.


Zuletzt bearbeitet von Sokrateer am 20.10.2003, 19:38, insgesamt einmal bearbeitet

#21:  Autor: Nergal BeitragVerfasst am: 20.10.2003, 19:38
    —
Zitat:
Vor 20 Jahren habe ich hier KI programmiert.
Allerdings bin ich schon einige Zeit "aus dem Rennen" ...
aber letztendlich arbeiten Expertensysteme noch immer mit zweiwertiger formaler Logik.


Interessant!
In welcher Sprache, was habt ihr damals erreicht, für welche Anwendungen genau?

Kann ich dir mal Fragen stellen wenn ich Probleme bei der Programmierung von Atmel Microcontrollern haben sollte zynisches Grinsen

#22:  Autor: narziss BeitragVerfasst am: 20.10.2003, 19:40
    —
Die Turing Maschine ist vom Prinzip simpel, aber minimal bestimmt nicht.

#23:  Autor: SokrateerWohnort: Wien BeitragVerfasst am: 20.10.2003, 19:46
    —
gustav hat folgendes geschrieben:
Die Turing Maschine ist vom Prinzip simpel, aber minimal bestimmt nicht.

Was meinst du denn jetzt damit? Ich würde eher sagen, dass sie nicht simpel ist.
Simpel wäre die äquivalente universelle Registermaschine.

#24: Re: Gefahr durch Posthumane Inteligenzen!? Autor: stepWohnort: Germering BeitragVerfasst am: 20.10.2003, 19:46
    —
Sokrateer hat folgendes geschrieben:
Notfalls könnte man ja das gesammte Gehirn physikalisch simulieren. Das einzige Problem dabei sind die Quantisierungsfehler. Es ist unwahrscheinlich, dass die ein Problem darstellen, da unserem Gehirn jeden Tag auch so ein paar Millionen Zellen abhanden kommen.
Falls Du mit "Quantisierungsfehlern" quantenmechanische Effekte meinst, so sind auch die bereits widerlegt, obwohl es eine Zeitlang Mode war (Hameroff, Penrose ...) zu behaupten, Bewußtsein habe wesentlich QM-Ursache.
Sokrateer hat folgendes geschrieben:
Echten Zufall kann man mit zusätzlichen analogen Zufallsgeneratoren in den Computer bekommen. Einige Prozessoren, z.B. VIA C3 werden schon heute mit so einer Funktionalität ausgeliefert. Für die Cryptographie braucht man möglichst gute Zufallszahlen.
Das kann aber kein "echter" Zufall sein, der ist mE nur mit einem Quantencomputer (in einem Universum Cool ) möglich.

gruß/step

#25:  Autor: AlziWohnort: Oberfranken BeitragVerfasst am: 20.10.2003, 19:57
    —
Nergal hat folgendes geschrieben:
Zitat:
Vor 20 Jahren habe ich hier KI programmiert.
Allerdings bin ich schon einige Zeit "aus dem Rennen" ...
aber letztendlich arbeiten Expertensysteme noch immer mit zweiwertiger formaler Logik.


Interessant!
In welcher Sprache, was habt ihr damals erreicht, für welche Anwendungen genau?


Wir haben damals in LISP programmiert, das sich wiederum auf C gründet, das wiederum Prozesseorsprache benutzt, die wiederum auf Boolscher Algebra aufgebaut ist, die eine zweiwertige formale Logik impliziert...


Zitat:
Kann ich dir mal Fragen stellen wenn ich Probleme bei der Programmierung von Atmel Microcontrollern haben sollte zynisches Grinsen


Basic? Trösterchen Sandkastenkindereien

#26: Re: Gefahr durch Posthumane Inteligenzen!? Autor: AlziWohnort: Oberfranken BeitragVerfasst am: 20.10.2003, 20:04
    —
step hat folgendes geschrieben:
Alzi hat folgendes geschrieben:
Sokrateer hat folgendes geschrieben:
Nur wenige KI Systeme verwenden formale Logik als Grundlage.
Die Operationen von digitalen Rechenmaschinen fußen auf die Boolsche Algebra und damit auf die 2-wertige formale Logik. Wie will man "Zufall" simulieren?
Wenn man so argumentiert, funktioniert auch das menschliche Hirn "2-wertig", denn es hat nichts mit Zufall zu tun.



Als "Determinist" mußtest Du das so schreiben ... zwinkern
Du betreibst damit allerdings Metaphysik.


step hat folgendes geschrieben:
Sokrateer trifft den Punkt, es kommt eher darauf an, ob die Simulation (das "expertige" Gegenstück zur Außenwelt) top-down (also algorhitmisch) designt ist oder nicht. Weder beim Gehirn noch bei einer besseren KI ist sie das.



Was ist "Nicht-Top-down"? zwinkern

#27: Re: Gefahr durch Posthumane Inteligenzen!? Autor: stepWohnort: Germering BeitragVerfasst am: 20.10.2003, 20:08
    —
Alzi hat folgendes geschrieben:
Was ist "Nicht-Top-down"? zwinkern
Z.B. die Evolution ...

#28: Re: Gefahr durch Posthumane Inteligenzen!? Autor: stepWohnort: Germering BeitragVerfasst am: 20.10.2003, 20:11
    —
Alzi hat folgendes geschrieben:
step hat folgendes geschrieben:
... funktioniert auch das menschliche Hirn "2-wertig", denn es hat nichts mit Zufall zu tun.
Als "Determinist" mußtest Du das so schreiben ... zwinkern Du betreibst damit allerdings Metaphysik.
Hmm ... zeig Du doch lieber auf, wo genau das Gehirn etwas mit Zufall zu tun hat.

gruß/step

#29: Re: Gefahr durch Posthumane Inteligenzen!? Autor: SokrateerWohnort: Wien BeitragVerfasst am: 20.10.2003, 20:13
    —
step hat folgendes geschrieben:
Alzi hat folgendes geschrieben:
Was ist "Nicht-Top-down"? zwinkern
Z.B. die Evolution ...

Ich komm da auch nicht mit.

#30: Re: Gefahr durch Posthumane Inteligenzen!? Autor: AlziWohnort: Oberfranken BeitragVerfasst am: 20.10.2003, 20:14
    —
step hat folgendes geschrieben:
Alzi hat folgendes geschrieben:
Was ist "Nicht-Top-down"? zwinkern
Z.B. die Evolution ...


Ein rotes Cabrio, Nirvana, ein Apfel, zwei Äpfel, ein graues Haar, das Schnitzpix, der Betazerfall, ein flat coated Retriever, Titten (obwohl? Cool ), ...



Freigeisterhaus -> Wissenschaft und Technik


output generated using printer-friendly topic mod. Alle Zeiten sind GMT + 1 Stunde

Gehe zu Seite 1, 2, 3  Weiter  :| |:
Seite 1 von 3

Powered by phpBB © 2001, 2005 phpBB Group