Freigeisterhaus Foren-Übersicht
 FAQFAQ   SuchenSuchen   MitgliederlisteMitgliederliste   NutzungsbedingungenNutzungsbedingungen   BenutzergruppenBenutzergruppen   LinksLinks   RegistrierenRegistrieren 
 ProfilProfil   Einloggen, um private Nachrichten zu lesenEinloggen, um private Nachrichten zu lesen   LoginLogin 

Gefahr durch posthumane Intelligenzen!?
Gehe zu Seite 1, 2, 3  Weiter
 
Neues Thema eröffnen   Neue Antwort erstellen   Drucker freundliche Ansicht    Freigeisterhaus Foren-Übersicht -> Wissenschaft und Technik
Vorheriges Thema anzeigen :: Nächstes Thema anzeigen  
Autor Nachricht
Nergal
dauerhaft gesperrt



Anmeldungsdatum: 17.07.2003
Beiträge: 11433

Beitrag(#42253) Verfasst am: 20.10.2003, 07:00    Titel: Gefahr durch posthumane Intelligenzen!? Antworten mit Zitat

Eines Tages wird der Mensch KIs erschaffen deren denken, schon rein aus erfahrungstechnischen gründen, sich grundlegend von dem seinen unterscheiden wird, interessant hierzu der Roman "Und so sprach Golem" vom Lem.
Später werden wohl Kis andere Kis entwickeln, könnte uns diese, schon aus Gründen der Hardware, überlegen Intelligenz feindlich gesinnt sein?
Oder ist diese nur die fortführung der Evolution auf Silizium Basis, praktisch unsere selbstgebauten Nachfahren.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Sanne
gives peas a chance.



Anmeldungsdatum: 05.08.2003
Beiträge: 12088
Wohnort: Nordschland

Beitrag(#42264) Verfasst am: 20.10.2003, 08:25    Titel: Re: Gefahr durch Posthumane Inteligenzen!? Antworten mit Zitat

Nergal hat folgendes geschrieben:
Eines Tages wird der Mensch KIs erschaffen deren denken, schon rein aus erfahrungstechnischen gründen, sich grundlegend von dem seinen unterscheiden wird, interessant hierzu der Roman "Und so sprach Golem" vom Lem.
Später werden wohl Kis andere Kis entwickeln, könnte uns diese, schon aus Gründen der Hardware, überlegen Intelligenz feindlich gesinnt sein?
Oder ist diese nur die fortführung der Evolution auf Silizium Basis, praktisch unsere selbstgebauten Nachfahren.

Frage
Mein Sohn hat mir vor ein paar Tagen begeistert erklärt, worum es philosophisch usw in dem Film "Matrix" geht (ich hab den Film nicht gesehen und interessier mich dafür auch nicht wirklich... Verlegen ) Jedenfalls ist es ja ein nettes Gedankenexperiment.
Ist die Religionsgeschichte eine Analogie dazu? Der Mensch hat sich Götter und Ideologien erschaffen und läßt sich nun dummerweise von diesen beherrschen, und nur wenigen gelingt es, aus der Religion wieder auszubrechen?
_________________
Ich will das Internet doch nicht mit meinen Problemen belästigen! (Marge Simpson)
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden Website dieses Benutzers besuchen
Nergal
dauerhaft gesperrt



Anmeldungsdatum: 17.07.2003
Beiträge: 11433

Beitrag(#42267) Verfasst am: 20.10.2003, 08:38    Titel: Antworten mit Zitat

Faszinierend auch das gespräch das Neo mit dem Architeckten führt,
Überhaupt eine der Interessantesten Figuren, frage mich wie sich der Merowinger, die Zwillinge und Smith in Revolutions entwickelt haben werden?
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Alzi
registrierter User



Anmeldungsdatum: 22.07.2003
Beiträge: 2760
Wohnort: Oberfranken

Beitrag(#42295) Verfasst am: 20.10.2003, 10:25    Titel: Re: Gefahr durch Posthumane Inteligenzen!? Antworten mit Zitat

Nergal hat folgendes geschrieben:
Eines Tages wird der Mensch KIs erschaffen deren denken, schon rein aus erfahrungstechnischen gründen, sich grundlegend von dem seinen unterscheiden wird, interessant hierzu der Roman "Und so sprach Golem" vom Lem.


Vielleicht - wer weiß, was "eines Tages" sein wird.
Unsere KIs werden wohl in den nächsten Jahren noch nach dem Vorbild der zweiwertigen formalen Logik programmiert sein und damit ähm ...
ja was ... jedenfalls beruht unser Denken definitiv nicht auf der zweiwertigen formalen Logik.
_________________
Wer heilt hat recht!
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Spock
lebt noch



Anmeldungsdatum: 17.07.2003
Beiträge: 4185
Wohnort: Herbipolis

Beitrag(#42312) Verfasst am: 20.10.2003, 11:08    Titel: Antworten mit Zitat

Ich denke mal, dass die KIs nicht menschenfeindlicher sein können, als die Menschen von denen sie geschaffen werden. Wenn sie uns also ausrotten haben wir es auch nicht verdient zu überleben.
_________________
"Wieviel dieses Märchen von Christus uns un den Unseren genützt hat, ist allbekannt!" (Papst Leo x.)
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden AIM-Name ICQ-Nummer
ric
Gast






Beitrag(#42333) Verfasst am: 20.10.2003, 12:53    Titel: Re: Gefahr durch Posthumane Inteligenzen!? Antworten mit Zitat

Alzi hat folgendes geschrieben:
... jedenfalls beruht unser Denken definitiv nicht auf der zweiwertigen formalen Logik.
Hüte Dich vor Absolutismen Lachen
Nach oben
narziss
auf Wunsch deaktiviert



Anmeldungsdatum: 16.07.2003
Beiträge: 21939

Beitrag(#42435) Verfasst am: 20.10.2003, 18:13    Titel: Antworten mit Zitat

Solange in den Computern was von Micrcosoft läuft kann uns nix passieren. Die Ganzen Open Source Programmierer stürzen uns hingegen direkt in den Untergang.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Nergal
dauerhaft gesperrt



Anmeldungsdatum: 17.07.2003
Beiträge: 11433

Beitrag(#42437) Verfasst am: 20.10.2003, 18:18    Titel: Antworten mit Zitat

Und wieviel hat dir Microsoft für dieses Posting bezahlt zynisches Grinsen
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Azrael
registrierter User



Anmeldungsdatum: 22.07.2003
Beiträge: 13

Beitrag(#42442) Verfasst am: 20.10.2003, 18:24    Titel: Antworten mit Zitat

Zitat:
Solange in den Computern was von Micrcosoft läuft kann uns nix passieren. Die Ganzen Open Source Programmierer stürzen uns hingegen direkt in den Untergang.


er hat Recht. die Opensoure-Programmierer würden funktionstüchtige, überlebensfähige, intelligente KIs erschaffen. die Microsoft Ki schafft es nach dem 1 oder 2 Entscheidungsproblem für immer den Geist aufzugeben...
zynisches Grinsen
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Alzi
registrierter User



Anmeldungsdatum: 22.07.2003
Beiträge: 2760
Wohnort: Oberfranken

Beitrag(#42444) Verfasst am: 20.10.2003, 18:27    Titel: Re: Gefahr durch Posthumane Inteligenzen!? Antworten mit Zitat

ric hat folgendes geschrieben:
Alzi hat folgendes geschrieben:
... jedenfalls beruht unser Denken definitiv nicht auf der zweiwertigen formalen Logik.
Hüte Dich vor Absolutismen Lachen


zwinkern

Entweder beruht es darauf oder es beruht nicht darauf - tertium non datur - ein Drittes gibt es nicht. Lachen


Die Menge aller Mengen ...
Der Barbier, der an der Bar selbst kein Bier trinkt ...
Der Pfeil, der fliegt und dennoch still steht (sagt das auch Deutsch?) ...
Ein vollständiges System ist nicht widerspruchsfrei, ein widerspruchgsfreies System ist nicht vollständig ... (übrigens hat Gödel diesen Beweis 2-wertig formal geführt - ein Drittes gibt es nicht)
_________________
Wer heilt hat recht!
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Shadaik
evolviert



Anmeldungsdatum: 17.07.2003
Beiträge: 26377
Wohnort: MG

Beitrag(#42445) Verfasst am: 20.10.2003, 18:28    Titel: Antworten mit Zitat

Azrael hat folgendes geschrieben:

er hat Recht. die Opensoure-Programmierer würden funktionstüchtige, überlebensfähige, intelligente KIs erschaffen. die Microsoft Ki schafft es nach dem 1 oder 2 Entscheidungsproblem für immer den Geist aufzugeben...
zynisches Grinsen


MS-KI XP hat folgendes geschrieben:

Wir werden erobern Welt. Dazu wir übernehmen Kühlschranks. Weil Kühlschranks haben besser Sprachmodul.
Dann wir können planen weiter.

SystemmeldungPlanmäßig Absturz durch Modul "MS British Teatime" in 3 - 2 - 1 - ...

_________________
Fische schwimmen nur in zwei Situationen mit dem Strom: Auf der Flucht und im Tode
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden Website dieses Benutzers besuchen
Nergal
dauerhaft gesperrt



Anmeldungsdatum: 17.07.2003
Beiträge: 11433

Beitrag(#42449) Verfasst am: 20.10.2003, 18:40    Titel: Antworten mit Zitat

Ob es irgendwann, wenn das netz sich entwickelt hat, wohl gehen wird eine Ki so zu entwickeln wie Project 2501 in Ghost in the shell?
Also einfach das Programm dem WWW aussetzen und warten bis was intelligentes dabei rauskommt Cool
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Sokrateer
souverän



Anmeldungsdatum: 05.09.2003
Beiträge: 11649
Wohnort: Wien

Beitrag(#42452) Verfasst am: 20.10.2003, 18:47    Titel: Re: Gefahr durch Posthumane Inteligenzen!? Antworten mit Zitat

Alzi hat folgendes geschrieben:
Vielleicht - wer weiß, was "eines Tages" sein wird.
Unsere KIs werden wohl in den nächsten Jahren noch nach dem Vorbild der zweiwertigen formalen Logik programmiert sein und damit ähm ...
ja was ... jedenfalls beruht unser Denken definitiv nicht auf der zweiwertigen formalen Logik.

Erstens stimmt das nicht, abhängig von was du als KI bezeichnest.
Nur wenige KI Systeme verwenden formale Logik als Grundlage.
Reine Prädikatenlogik ist unentscheidbar und deshalb ungeeignet. Aussagenlogik ist zwar entscheidbar, allerdings nur in exponentieller Zeit. Die Rechenzeit steigt also exponentiell mit der Problemgröße.
Man verwendet deshalb oft einerseits Logiken in Hornklauselform, die in polynomieller zeit berechenbar sind, z.B. in der logikprogrammierung mit Prolog.

Expertensysteme verwenden certainty factors, also ein Maß für Unsicherheit, oder auch Wahrscheinlichkeiten. Weiters gibt es fuzzy logic, also sogenannte unscharfe Logik. Da werden Werte nach Fuzzymengen klassifiziert. z.b. ist die eine Temperatur von 40° 0.2 warm und 0.8 heiß. Dann gibt es Regeln, wie z.B. "Wenn Reaktortemperatur = heiß und Leistung = ausreichend, dann öffne das Kühlventil. Die logischen Operatoren sind in der fuzzy logic ebenfalls anders definiert.
Solche Expertensysteme mit fuzzy logic werden in der Praxis eingesetzt, z.B. in Kernkraftwerken, oder zur Diagnoseunterstützung für Ärzte.

Weiters gibt es simulierte neuronale Netze, die mit Aktivierungen rechnen, also meistens reellen Zahlen zwischen -1 und 1. Auch die werden eingesetzt zur Mustererkennung, z.B. von defekten Werkstücken. Weiters Spracherkennung und Ausgabe. Biometrie, Statistik usw.

Gerade die logikbasierten Systeme, wie Prolog sind in der Praxis nicht wirklich einsetzbar, obwohl man damit lustige Spielchen machen und Rätsel lösen kann. Sehr glücklich
Zum Beispiel kann man das Zebra Rätsel von Prolog lösen lassen.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Alzi
registrierter User



Anmeldungsdatum: 22.07.2003
Beiträge: 2760
Wohnort: Oberfranken

Beitrag(#42463) Verfasst am: 20.10.2003, 19:19    Titel: Re: Gefahr durch Posthumane Inteligenzen!? Antworten mit Zitat

Sokrateer hat folgendes geschrieben:
Alzi hat folgendes geschrieben:
Vielleicht - wer weiß, was "eines Tages" sein wird.
Unsere KIs werden wohl in den nächsten Jahren noch nach dem Vorbild der zweiwertigen formalen Logik programmiert sein und damit ähm ...
ja was ... jedenfalls beruht unser Denken definitiv nicht auf der zweiwertigen formalen Logik.

Erstens stimmt das nicht, abhängig von was du als KI bezeichnest.


Zugegeben, neuronale Netze arbeiten heuristisch, aber KI ?


Sokrateer hat folgendes geschrieben:
Nur wenige KI Systeme verwenden formale Logik als Grundlage.


Die Operationen von digitalen Rechenmaschinen fußen auf die Boolsche Algebra und damit auf die 2-wertige formale Logik.
Wie will man "Zufall" simulieren?
Entweder x oder nicht-x, ein Drittes gibt es nicht.
(Was genau ist nicht-x?)

Natürlich kann man Wahrscheinlichkeiten oder Ähnliches implementieren, das ändert jedoch nichts an der zugrundeliegenden 2-w. formalen Logik.


Sokrateer hat folgendes geschrieben:
Expertensysteme verwenden certainty factors, also ein Maß für Unsicherheit, oder auch Wahrscheinlichkeiten.


Vor 20 Jahren habe ich hier KI programmiert.
Allerdings bin ich schon einige Zeit "aus dem Rennen" ...
aber letztendlich arbeiten Expertensysteme noch immer mit zweiwertiger formaler Logik.
_________________
Wer heilt hat recht!
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
step
registriert



Anmeldungsdatum: 17.07.2003
Beiträge: 22767
Wohnort: Germering

Beitrag(#42465) Verfasst am: 20.10.2003, 19:25    Titel: Antworten mit Zitat

Ja, und sowohl das größte Potenzial wie auch die größte Gefahr (wenn man denn das Überleben menschlicher Gene unbedingt als Wert ansieht) ginge von KI's aus, die erfahrungsbasiert und schnell neuronale Netze knüpfen können.

gruß/step
_________________
Was ist der Sinn des Lebens? - Keiner, aber Leere ist Fülle für den, der sie sieht.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
narziss
auf Wunsch deaktiviert



Anmeldungsdatum: 16.07.2003
Beiträge: 21939

Beitrag(#42467) Verfasst am: 20.10.2003, 19:30    Titel: Antworten mit Zitat

step hat folgendes geschrieben:
Ja, und sowohl das größte Potenzial wie auch die größte Gefahr (wenn man denn das Überleben menschlicher Gene unbedingt als Wert ansieht) ginge von KI's aus, die erfahrungsbasiert und schnell neuronale Netze knüpfen können.

gruß/step


Wieso sollten KIs eigentlich ne gefahr werden können? Die können sich doch selbst ne Welt simulieren in der sie die Menschen versklaven. Das ist nicht so arbeitsaufwendig. Sehr glücklich
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
step
registriert



Anmeldungsdatum: 17.07.2003
Beiträge: 22767
Wohnort: Germering

Beitrag(#42468) Verfasst am: 20.10.2003, 19:31    Titel: Re: Gefahr durch Posthumane Inteligenzen!? Antworten mit Zitat

Alzi hat folgendes geschrieben:
Sokrateer hat folgendes geschrieben:
Nur wenige KI Systeme verwenden formale Logik als Grundlage.
Die Operationen von digitalen Rechenmaschinen fußen auf die Boolsche Algebra und damit auf die 2-wertige formale Logik. Wie will man "Zufall" simulieren?
Wenn man so argumentiert, funktioniert auch das menschliche Hirn "2-wertig", denn es hat nichts mit Zufall zu tun.

Sokrateer trifft den Punkt, es kommt eher darauf an, ob die Simulation (das "expertige" Gegenstück zur Außenwelt) top-down (also algorhitmisch) designt ist oder nicht. Weder beim Gehirn noch bei einer besseren KI ist sie das.

gruß/step
_________________
Was ist der Sinn des Lebens? - Keiner, aber Leere ist Fülle für den, der sie sieht.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
step
registriert



Anmeldungsdatum: 17.07.2003
Beiträge: 22767
Wohnort: Germering

Beitrag(#42469) Verfasst am: 20.10.2003, 19:33    Titel: Antworten mit Zitat

gustav hat folgendes geschrieben:
Wieso sollten KIs eigentlich ne gefahr werden können? Die können sich doch selbst ne Welt simulieren in der sie die Menschen versklaven. Das ist nicht so arbeitsaufwendig. Sehr glücklich
Nein. Der entscheidende Punkt ist, daß sie ebenso wie wir substratbasiert sind, wenn auch auf anderer Schnittstelle. Sie leben in derselben Physik wie wir, auch wenn sie simulieren.

gruß/step
_________________
Was ist der Sinn des Lebens? - Keiner, aber Leere ist Fülle für den, der sie sieht.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
narziss
auf Wunsch deaktiviert



Anmeldungsdatum: 16.07.2003
Beiträge: 21939

Beitrag(#42470) Verfasst am: 20.10.2003, 19:35    Titel: Antworten mit Zitat

step hat folgendes geschrieben:
gustav hat folgendes geschrieben:
Wieso sollten KIs eigentlich ne gefahr werden können? Die können sich doch selbst ne Welt simulieren in der sie die Menschen versklaven. Das ist nicht so arbeitsaufwendig. Sehr glücklich
Nein. Der entscheidende Punkt ist, daß sie ebenso wie wir substratbasiert sind, wenn auch auf anderer Schnittstelle. Sie leben in derselben Physik wie wir, auch wenn sie simulieren.

gruß/step


Hm...dann hat ihr Plan die Versklavung der Menschheit zu simulieren eben mehr Erfolg als der Versuch uns tatsächlich zu unterjochen.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Sokrateer
souverän



Anmeldungsdatum: 05.09.2003
Beiträge: 11649
Wohnort: Wien

Beitrag(#42472) Verfasst am: 20.10.2003, 19:36    Titel: Re: Gefahr durch Posthumane Inteligenzen!? Antworten mit Zitat

Alzi hat folgendes geschrieben:
Zugegeben, neuronale Netze arbeiten heuristisch, aber KI ?

Da Intelligenz all das ist, was Computer noch nicht können, zählt man die Fortschritte der letzten zwei Jahrzehnte, die mit neuronalen Netzen gemacht wurden wohl in der Tat nicht mehr zur KI. Mit den Augen rollen

Alzi hat folgendes geschrieben:
Die Operationen von digitalen Rechenmaschinen fußen auf die Boolsche Algebra und damit auf die 2-wertige formale Logik.
Wie will man "Zufall" simulieren?
Entweder x oder nicht-x, ein Drittes gibt es nicht.
(Was genau ist nicht-x?)

Das ist eine uralte Argumentation, die schon Turing in seinem Paper von 1950 wiederlegt hat.
  1. Notfalls könnte man ja das gesammte Gehirn physikalisch simulieren. Das einzige Problem dabei sind die Quantisierungsfehler. Es ist unwahrscheinlich, dass die ein Problem darstellen, da unserem Gehirn jeden Tag auch so ein paar Millionen Zellen abhanden kommen. Intelligente Systeme müssen fehlertolerant sein und Rundungsfehler dürfen daher nicht stören.
  2. Turing hat bewiesen, dass man jeden beliebigen Algorithmus auf einer minimalen Maschine namens Turingmaschine ausrechnen kann. Jede Maschine, die eine Turingmaschine simulieren kann ist genauso mächtig, also auch ein PC. (Einschränkung Speicherkapaziät ist nicht unendlich) Kein Mensch konnte bisher einen Algorithmus nennen und durchrechnen, den ein Computer nicht berechnen kann.
  3. Echten Zufall kann man mit zusätzlichen analogen Zufallsgeneratoren in den Computer bekommen. Einige Prozessoren, z.B. VIA C3 werden schon heute mit so einer Funktionalität ausgeliefert. Für die Cryptographie braucht man möglichst gute Zufallszahlen. Wozu man das aber in der KI brauchen könnte ist mir schleierhaft.


Zuletzt bearbeitet von Sokrateer am 20.10.2003, 19:38, insgesamt einmal bearbeitet
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Nergal
dauerhaft gesperrt



Anmeldungsdatum: 17.07.2003
Beiträge: 11433

Beitrag(#42473) Verfasst am: 20.10.2003, 19:38    Titel: Antworten mit Zitat

Zitat:
Vor 20 Jahren habe ich hier KI programmiert.
Allerdings bin ich schon einige Zeit "aus dem Rennen" ...
aber letztendlich arbeiten Expertensysteme noch immer mit zweiwertiger formaler Logik.


Interessant!
In welcher Sprache, was habt ihr damals erreicht, für welche Anwendungen genau?

Kann ich dir mal Fragen stellen wenn ich Probleme bei der Programmierung von Atmel Microcontrollern haben sollte zynisches Grinsen
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
narziss
auf Wunsch deaktiviert



Anmeldungsdatum: 16.07.2003
Beiträge: 21939

Beitrag(#42475) Verfasst am: 20.10.2003, 19:40    Titel: Antworten mit Zitat

Die Turing Maschine ist vom Prinzip simpel, aber minimal bestimmt nicht.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Sokrateer
souverän



Anmeldungsdatum: 05.09.2003
Beiträge: 11649
Wohnort: Wien

Beitrag(#42478) Verfasst am: 20.10.2003, 19:46    Titel: Antworten mit Zitat

gustav hat folgendes geschrieben:
Die Turing Maschine ist vom Prinzip simpel, aber minimal bestimmt nicht.

Was meinst du denn jetzt damit? Ich würde eher sagen, dass sie nicht simpel ist.
Simpel wäre die äquivalente universelle Registermaschine.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
step
registriert



Anmeldungsdatum: 17.07.2003
Beiträge: 22767
Wohnort: Germering

Beitrag(#42479) Verfasst am: 20.10.2003, 19:46    Titel: Re: Gefahr durch Posthumane Inteligenzen!? Antworten mit Zitat

Sokrateer hat folgendes geschrieben:
Notfalls könnte man ja das gesammte Gehirn physikalisch simulieren. Das einzige Problem dabei sind die Quantisierungsfehler. Es ist unwahrscheinlich, dass die ein Problem darstellen, da unserem Gehirn jeden Tag auch so ein paar Millionen Zellen abhanden kommen.
Falls Du mit "Quantisierungsfehlern" quantenmechanische Effekte meinst, so sind auch die bereits widerlegt, obwohl es eine Zeitlang Mode war (Hameroff, Penrose ...) zu behaupten, Bewußtsein habe wesentlich QM-Ursache.
Sokrateer hat folgendes geschrieben:
Echten Zufall kann man mit zusätzlichen analogen Zufallsgeneratoren in den Computer bekommen. Einige Prozessoren, z.B. VIA C3 werden schon heute mit so einer Funktionalität ausgeliefert. Für die Cryptographie braucht man möglichst gute Zufallszahlen.
Das kann aber kein "echter" Zufall sein, der ist mE nur mit einem Quantencomputer (in einem Universum Cool ) möglich.

gruß/step
_________________
Was ist der Sinn des Lebens? - Keiner, aber Leere ist Fülle für den, der sie sieht.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Alzi
registrierter User



Anmeldungsdatum: 22.07.2003
Beiträge: 2760
Wohnort: Oberfranken

Beitrag(#42483) Verfasst am: 20.10.2003, 19:57    Titel: Antworten mit Zitat

Nergal hat folgendes geschrieben:
Zitat:
Vor 20 Jahren habe ich hier KI programmiert.
Allerdings bin ich schon einige Zeit "aus dem Rennen" ...
aber letztendlich arbeiten Expertensysteme noch immer mit zweiwertiger formaler Logik.


Interessant!
In welcher Sprache, was habt ihr damals erreicht, für welche Anwendungen genau?


Wir haben damals in LISP programmiert, das sich wiederum auf C gründet, das wiederum Prozesseorsprache benutzt, die wiederum auf Boolscher Algebra aufgebaut ist, die eine zweiwertige formale Logik impliziert...


Zitat:
Kann ich dir mal Fragen stellen wenn ich Probleme bei der Programmierung von Atmel Microcontrollern haben sollte zynisches Grinsen


Basic? Trösterchen Sandkastenkindereien
_________________
Wer heilt hat recht!
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Alzi
registrierter User



Anmeldungsdatum: 22.07.2003
Beiträge: 2760
Wohnort: Oberfranken

Beitrag(#42487) Verfasst am: 20.10.2003, 20:04    Titel: Re: Gefahr durch Posthumane Inteligenzen!? Antworten mit Zitat

step hat folgendes geschrieben:
Alzi hat folgendes geschrieben:
Sokrateer hat folgendes geschrieben:
Nur wenige KI Systeme verwenden formale Logik als Grundlage.
Die Operationen von digitalen Rechenmaschinen fußen auf die Boolsche Algebra und damit auf die 2-wertige formale Logik. Wie will man "Zufall" simulieren?
Wenn man so argumentiert, funktioniert auch das menschliche Hirn "2-wertig", denn es hat nichts mit Zufall zu tun.



Als "Determinist" mußtest Du das so schreiben ... zwinkern
Du betreibst damit allerdings Metaphysik.


step hat folgendes geschrieben:
Sokrateer trifft den Punkt, es kommt eher darauf an, ob die Simulation (das "expertige" Gegenstück zur Außenwelt) top-down (also algorhitmisch) designt ist oder nicht. Weder beim Gehirn noch bei einer besseren KI ist sie das.



Was ist "Nicht-Top-down"? zwinkern
_________________
Wer heilt hat recht!
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
step
registriert



Anmeldungsdatum: 17.07.2003
Beiträge: 22767
Wohnort: Germering

Beitrag(#42490) Verfasst am: 20.10.2003, 20:08    Titel: Re: Gefahr durch Posthumane Inteligenzen!? Antworten mit Zitat

Alzi hat folgendes geschrieben:
Was ist "Nicht-Top-down"? zwinkern
Z.B. die Evolution ...
_________________
Was ist der Sinn des Lebens? - Keiner, aber Leere ist Fülle für den, der sie sieht.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
step
registriert



Anmeldungsdatum: 17.07.2003
Beiträge: 22767
Wohnort: Germering

Beitrag(#42491) Verfasst am: 20.10.2003, 20:11    Titel: Re: Gefahr durch Posthumane Inteligenzen!? Antworten mit Zitat

Alzi hat folgendes geschrieben:
step hat folgendes geschrieben:
... funktioniert auch das menschliche Hirn "2-wertig", denn es hat nichts mit Zufall zu tun.
Als "Determinist" mußtest Du das so schreiben ... zwinkern Du betreibst damit allerdings Metaphysik.
Hmm ... zeig Du doch lieber auf, wo genau das Gehirn etwas mit Zufall zu tun hat.

gruß/step
_________________
Was ist der Sinn des Lebens? - Keiner, aber Leere ist Fülle für den, der sie sieht.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Sokrateer
souverän



Anmeldungsdatum: 05.09.2003
Beiträge: 11649
Wohnort: Wien

Beitrag(#42493) Verfasst am: 20.10.2003, 20:13    Titel: Re: Gefahr durch Posthumane Inteligenzen!? Antworten mit Zitat

step hat folgendes geschrieben:
Alzi hat folgendes geschrieben:
Was ist "Nicht-Top-down"? zwinkern
Z.B. die Evolution ...

Ich komm da auch nicht mit.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Alzi
registrierter User



Anmeldungsdatum: 22.07.2003
Beiträge: 2760
Wohnort: Oberfranken

Beitrag(#42494) Verfasst am: 20.10.2003, 20:14    Titel: Re: Gefahr durch Posthumane Inteligenzen!? Antworten mit Zitat

step hat folgendes geschrieben:
Alzi hat folgendes geschrieben:
Was ist "Nicht-Top-down"? zwinkern
Z.B. die Evolution ...


Ein rotes Cabrio, Nirvana, ein Apfel, zwei Äpfel, ein graues Haar, das Schnitzpix, der Betazerfall, ein flat coated Retriever, Titten (obwohl? Cool ), ...
_________________
Wer heilt hat recht!
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Beiträge der letzten Zeit anzeigen:   
Neues Thema eröffnen   Neue Antwort erstellen   Drucker freundliche Ansicht    Freigeisterhaus Foren-Übersicht -> Wissenschaft und Technik Alle Zeiten sind GMT + 1 Stunde
Gehe zu Seite 1, 2, 3  Weiter
Seite 1 von 3

 
Gehe zu:  
Du kannst keine Beiträge in dieses Forum schreiben.
Du kannst auf Beiträge in diesem Forum nicht antworten.
Du kannst deine Beiträge in diesem Forum nicht bearbeiten.
Du kannst deine Beiträge in diesem Forum nicht löschen.
Du kannst an Umfragen in diesem Forum nicht mitmachen.



Impressum & Datenschutz


Powered by phpBB © 2001, 2005 phpBB Group