Freigeisterhaus Foren-Übersicht
 FAQFAQ   SuchenSuchen   MitgliederlisteMitgliederliste   NutzungsbedingungenNutzungsbedingungen   BenutzergruppenBenutzergruppen   LinksLinks   RegistrierenRegistrieren 
 ProfilProfil   Einloggen, um private Nachrichten zu lesenEinloggen, um private Nachrichten zu lesen   LoginLogin 

Supercomputer
Gehe zu Seite Zurück  1, 2, 3 ... 8, 9, 10, 11  Weiter
 
Neues Thema eröffnen   Neue Antwort erstellen   Drucker freundliche Ansicht    Freigeisterhaus Foren-Übersicht -> Wissenschaft und Technik
Vorheriges Thema anzeigen :: Nächstes Thema anzeigen  
Autor Nachricht
Er_Win
dauerhaft gesperrt



Anmeldungsdatum: 31.01.2008
Beiträge: 4482

Beitrag(#1975002) Verfasst am: 30.12.2014, 23:35    Titel: Antworten mit Zitat

sehr gut hat folgendes geschrieben:

Bleib mal aufm Teppich, es mögen einige neue Dinge gerade zusammengefrickelt werden, aber dein Auto wird immer noch überwiegend von 'Robotern' gebaut die einen Befehl nach dem anderen abarbeiten, "simple Strukturen".
Du verknüpfst Maschine gleich mit "Human Brain Project" - was in deinem Umfeld Alltag sein mag, aber für viele eben nicht.


jaja, das ist mir schon klar - so ganz simpel sind Robotersteuerungen mit Heuristik ja auch gar nicht, nur werden die sicher keine Intelligenz entwickeln - zumindest nicht in dem Sinne, wie ich es verstehe zwinkern

Nur ging es bei steps "Hypothesen" ja gerade nicht um solche Computer, sondern um solche, die eventuell mal sowas wie ein "Selbst" entwickeln können - btw. ich kenne keinen ernsthaften Wissenschaftler der behauptet, dass "sowas" überhaupt sicher gelingen wird, aber die Forschung ist sicher spannend...
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Rabert
Sapere aude!



Anmeldungsdatum: 31.03.2010
Beiträge: 977
Wohnort: im Zug

Beitrag(#1975004) Verfasst am: 30.12.2014, 23:48    Titel: Antworten mit Zitat

Er_Win hat folgendes geschrieben:
Computer nach "normaler" (sg. von Neumann) Architektur können per se keine "Intelligenz" entwickeln. Allenfalls darauf (in Simulation) laufende neuronale Netze. Normale ganz simple vernetzte Strukturen (zB. vernetzte Börsenprogramme, genauso wie irgendwas im militärischen Bereich) können sicher reale Gefahren auslösen.

Von Neumann beschreibt keinen Computer als solchen, sondern ein System sich selbständig replizierender Maschinen. Das eine von Neumann Architektur neuronale Netze (oder andere Vernetzungen) entwickeln oder implizieren könnte, kann niemand mit Sicherheit ausschließen. Leute die sich hauptberuflich mit diesen Fragen beschäftigen, halten eine derartige Entwicklung dagegen für eher wahrscheinlich.

Er_Win hat folgendes geschrieben:
Aber scheinbar wird A.I. hier http://cser.org/emerging-risks-from-technology/artificial-intelligence/ auch sehr im Sinne von "narrow" verstanden. Das alles fällt bei mir gar nicht (mehr) unter "künstliche Intelligenz" und ich würde auch Stuart Russell nicht als weltbekannt führenden Wissenschaftler auf diesem Gebiet bezeichnen.

Stimmt, Stuart Russell ist eigentlich ein Amateurforscher an einer unbedeutenden amerikanischen Provinz-Uni, der irgendwie meint etwas von A.I. zu verstehen ... Mit den Augen rollen . Und das CSER besteht aus lauter unbedeutenden Möchtegern-Professoren, die wie auch immer den Präsidenten der unbedeutenden Kleinstadt-Uni im britischen Cambridge überreden konnten, ihre weit hergeholten, völlig unbegründeten und erschreckend unwissenschaftlichen Thesen mit Staatsknete zu vertiefen, und prinzipiell schon mal gar keine Ahnung von Künstlicher Intelligenz haben. Sagt Erwin.
_________________
Unsere Kinder und Enkelkinder werden uns eines Tages fragen: "Warum habt ihr nichts getan?!"
Auch der längste Weg beginnt mit dem ersten Schritt.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden Website dieses Benutzers besuchen
Rabert
Sapere aude!



Anmeldungsdatum: 31.03.2010
Beiträge: 977
Wohnort: im Zug

Beitrag(#1975009) Verfasst am: 30.12.2014, 23:58    Titel: Antworten mit Zitat

Er_Win hat folgendes geschrieben:
btw. ich kenne keinen ernsthaften Wissenschaftler der behauptet, dass "sowas" überhaupt sicher gelingen wird, aber die Forschung ist sicher spannend...

Sicher ist in der wissenschaftlichen Forschung gar nichts, solange es nicht zu einem naturwissenschaftlichen Axiom erklärt wird, und davon gibt es nur ziemlich wenige. Ansonsten redet man in der wissenschaftlichen Forschung von Wahrscheinlichkeiten. Und es gibt eine Vielzahl - auch sehr renommierter - Wissenschaftler, die die Entwicklung künstlicher Intelligenz (im Sinne einer Vergleichbarkeit zur menschlichen Intelligenz) nicht nur für möglich, sondern sogar für wahrscheinlich halten.
_________________
Unsere Kinder und Enkelkinder werden uns eines Tages fragen: "Warum habt ihr nichts getan?!"
Auch der längste Weg beginnt mit dem ersten Schritt.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden Website dieses Benutzers besuchen
Er_Win
dauerhaft gesperrt



Anmeldungsdatum: 31.01.2008
Beiträge: 4482

Beitrag(#1975011) Verfasst am: 31.12.2014, 00:04    Titel: Antworten mit Zitat

Rabert hat folgendes geschrieben:
Er_Win hat folgendes geschrieben:
Computer nach "normaler" (sg. von Neumann) Architektur können per se keine "Intelligenz" entwickeln. Allenfalls darauf (in Simulation) laufende neuronale Netze. Normale ganz simple vernetzte Strukturen (zB. vernetzte Börsenprogramme, genauso wie irgendwas im militärischen Bereich) können sicher reale Gefahren auslösen.

Von Neumann beschreibt keinen Computer als solchen, sondern ein System sich selbständig replizierender Maschinen. Das eine von Neumann Architektur neuronale Netze (oder andere Vernetzungen) entwickeln oder implizieren könnte, kann niemand mit Sicherheit ausschließen. Leute die sich hauptberuflich mit diesen Fragen beschäftigen, halten eine derartige Entwicklung dagegen für eher wahrscheinlich.


dann habe ich sicher was falsch verstanden http://de.wikipedia.org/wiki/Von-Neumann-Architektur

Tja, ich beschäftige mich zufällig damit Lachen

Sicher kann man übrigens auf einer solchen Architektur - per Software - neuronale Netze realisieren, das wird ja auch überwiegend so gemacht. Das HBP geht diesbzgl. aber einen ganz anderen Weg...

Rabert hat folgendes geschrieben:
Er_Win hat folgendes geschrieben:
Aber scheinbar wird A.I. hier http://cser.org/emerging-risks-from-technology/artificial-intelligence/ auch sehr im Sinne von "narrow" verstanden. Das alles fällt bei mir gar nicht (mehr) unter "künstliche Intelligenz" und ich würde auch Stuart Russell nicht als weltbekannt führenden Wissenschaftler auf diesem Gebiet bezeichnen.

Stimmt, Stuart Russell ist eigentlich ein Amateurforscher an einer unbedeutenden amerikanischen Provinz-Uni, der irgendwie meint etwas von A.I. zu verstehen ... Mit den Augen rollen . Und das CSER besteht aus lauter unbedeutenden Möchtegern-Professoren, die wie auch immer den Präsidenten der unbedeutenden Kleinstadt-Uni im britischen Cambridge überreden konnten, ihre weit hergeholten, völlig unbegründeten und erschreckend unwissenschaftlichen Thesen mit Staatsknete zu vertiefen, und prinzipiell schon mal gar keine Ahnung von Künstlicher Intelligenz haben. Sagt Erwin.


was soll der blöde Strohmann ? Ich bin nicht der Auffassung, dass er - wie dort geschrieben - DER (noch dazu weltweit) FÜHRENDE Wissenschaftler auf dem Gebiet ist. Sonst nix !
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Er_Win
dauerhaft gesperrt



Anmeldungsdatum: 31.01.2008
Beiträge: 4482

Beitrag(#1975013) Verfasst am: 31.12.2014, 00:12    Titel: Antworten mit Zitat

Rabert hat folgendes geschrieben:
Er_Win hat folgendes geschrieben:
btw. ich kenne keinen ernsthaften Wissenschaftler der behauptet, dass "sowas" überhaupt sicher gelingen wird, aber die Forschung ist sicher spannend...

Sicher ist in der wissenschaftlichen Forschung gar nichts, solange es nicht zu einem naturwissenschaftlichen Axiom erklärt wird, und davon gibt es nur ziemlich wenige. Ansonsten redet man in der wissenschaftlichen Forschung von Wahrscheinlichkeiten. Und es gibt eine Vielzahl - auch sehr renommierter - Wissenschaftler, die die Entwicklung künstlicher Intelligenz (im Sinne einer Vergleichbarkeit zur menschlichen Intelligenz) nicht nur für möglich, sondern sogar für wahrscheinlich halten.


Welche (heutigen !) renommierten Wissenschaftler sind das ?

In den Anfängen der K.I.-Zeit, war ein entsprechender Hype diesbezgl. in der Gemeinde gegeben - insbesondere wenn man "Computer-Intelligenz" nach dem http://de.wikipedia.org/wiki/Turing-Test definiert. Dies mache ich zB. nicht und ich kann mir auch nicht vorstellen, dass step das gemeint hat, wenn er von einem "Computer-Selbst" schreibt.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Rabert
Sapere aude!



Anmeldungsdatum: 31.03.2010
Beiträge: 977
Wohnort: im Zug

Beitrag(#1975014) Verfasst am: 31.12.2014, 00:17    Titel: Antworten mit Zitat

Er_Win hat folgendes geschrieben:
dann habe ich sicher was falsch verstanden http://de.wikipedia.org/wiki/Von-Neumann-Architektur

Tja, ich beschäftige mich zufällig damit Lachen

Sicher kann man übrigens auf einer solchen Architektur - per Software - neuronale Netze realisieren, das wird ja auch überwiegend so gemacht. Das HBP geht diesbzgl. aber einen ganz anderen Weg...

Ja, hast du. Du kennst die Geschichte der von Neumann Architektur nicht. Da ging es nicht um Computer, sondern um Maschinen/Automaten.

Zitat:
Wissenschaftliche Studien über selbstreplizierende Strukturen oder Maschinen wurden zuerst 1929 von J. D. Bernal und von Mathematikern wie Stephen C. Kleene veröffentlicht, der die Rekursionstheorie in den 1930er Jahren zu entwickeln begann. Obwohl ursprünglich von einem anhaltenden Interesse an Biologie getrieben, waren viele seiner Arbeiten vom Verlangen beseelt, die fundamentalen informationsverarbeitenden Prinzipien und Algorithmen zu verstehen, die bei der Selbstreplikation beteiligt sind, sogar unabhängig von ihrer physikalischen Realisierung.

Bei der Diskussion um die Selbstreplikation von Automaten ist es wesentlich, von Anbeginn an wichtige Grundregeln festzulegen. Zum Beispiel gilt nach Kemeny: „Wenn wir mit dem Begriff 'Reproduktion' die Kreation eines Objektes wie sein Original aus dem Nichts meinen, dann kann sich keine Maschine selbst reproduzieren – aber genauso wenig kann es ein Mensch. Das charakteristische Merkmal der Reproduktion des Lebens ist, dass der lebende Organismus einen neuen Organismus, wie er selbst einer ist, aus unbeweglicher, ihn umgebender Materie schaffen kann.“

John von Neumann war aus Sicht der Informatik einer der ersten, der in den 1940er Jahren wissenschaftlich fundierte Überlegungen zu einem hypothetischen, replikationsfähigen Roboter anstellte. Dieses rein theoretische Konzept war praktisch jedoch nicht umsetzbar. 1953 entwickelte er daher die Theorie selbstreproduzierender Automaten (nach seinem Tod von Burks im Jahre 1966 als Theory of Self-reproducing Automata herausgegeben), als ein mit Computertechnologie umsetzbares Modell für eine softwarebasierte Lösung von Selbstreplikation.

Künstliche selbstreplizierende Software erschien zum ersten Mal in den Sechziger Jahren, und vermehrte sich in späteren Jahrzehnten sehr schnell in Form von Viren, Würmern und vor allem bei Programmen, die sich mit künstlichem Leben befassten.

Ihm ging es ursprünglich nicht um Computer, sondern um sich selbst replizierende Maschinen. Er hatte das Glück, dass während seiner Lebenszeit Computer aufkamen, die er dann wunderbar für seine Theorien instrumentalisieren konnte.

Er_Win hat folgendes geschrieben:
was soll der blöde Strohmann ? Ich bin nicht der Auffassung, dass er - wie dort geschrieben - DER (noch dazu weltweit) FÜHRENDE Wissenschaftler auf dem Gebiet ist. Sonst nix !

Sagt wer? Er ist einer von sieben, die dort gelistet werden, und in diese Liste passt er gut hinein. Es sei denn, du hälst sowohl das CSER als auch die dort versammelten Personen für nicht geeignet, die Qualifikation von Wissenschaftlern, die sie in ihrer Mitte aufnehmen, beurteilen zu können.
_________________
Unsere Kinder und Enkelkinder werden uns eines Tages fragen: "Warum habt ihr nichts getan?!"
Auch der längste Weg beginnt mit dem ersten Schritt.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden Website dieses Benutzers besuchen
Rabert
Sapere aude!



Anmeldungsdatum: 31.03.2010
Beiträge: 977
Wohnort: im Zug

Beitrag(#1975015) Verfasst am: 31.12.2014, 00:26    Titel: Antworten mit Zitat

Er_Win hat folgendes geschrieben:
Welche (heutigen !) renommierten Wissenschaftler sind das ?

Schau dir für den Anfang mal die Namen auf dieser Liste an.
_________________
Unsere Kinder und Enkelkinder werden uns eines Tages fragen: "Warum habt ihr nichts getan?!"
Auch der längste Weg beginnt mit dem ersten Schritt.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden Website dieses Benutzers besuchen
Er_Win
dauerhaft gesperrt



Anmeldungsdatum: 31.01.2008
Beiträge: 4482

Beitrag(#1975020) Verfasst am: 31.12.2014, 00:42    Titel: Antworten mit Zitat

Rabert hat folgendes geschrieben:
Er_Win hat folgendes geschrieben:
Welche (heutigen !) renommierten Wissenschaftler sind das ?

Schau dir für den Anfang mal die Namen auf dieser Liste an.


Hast jetzt schnell gegooglet oder holst du dir dein Wissen echt von einer amerikanischen Lobbygruppe ? Sehr glücklich Sehr glücklich


Und ich bezog mich nicht auf den historischen Weg, wie v.Neumann dazu kam, sondern darauf, was unter vN-Architektur i.A. von Menschen, die sich wissenschaftl. mit Computern befassen, verstanden wird. Wenn du da was anderes verstehst oder verstehen möchtest, bitteschön ...
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Rabert
Sapere aude!



Anmeldungsdatum: 31.03.2010
Beiträge: 977
Wohnort: im Zug

Beitrag(#1975021) Verfasst am: 31.12.2014, 01:02    Titel: Antworten mit Zitat

Er_Win hat folgendes geschrieben:
Rabert hat folgendes geschrieben:
Er_Win hat folgendes geschrieben:
Welche (heutigen !) renommierten Wissenschaftler sind das ?

Schau dir für den Anfang mal die Namen auf dieser Liste an.


Hast jetzt schnell gegooglet oder holst du dir dein Wissen echt von einer amerikanischen Lobbygruppe ? Sehr glücklich Sehr glücklich

Lobbygruppe? Ist für dich jede internationale Organisation von Wissenschaftlern einer Fachdisziplin eine amerikanische Lobbygruppe? Dann wirst du in der Scientific Community ziemlich einsam bleiben, wenn du das so siehst (sofern du amerikanische Lobbygruppen auf Abstand halten möchtest). Wenn dir Namen aus dem deutschsprachigen Raum lieber sind (du hast ja nach weltbekannten, renommierten Wissenschaftlern gefragt, die findet man eher in der führenden internationalen Organisation der Disziplin), bitte sehr.

Er_Win hat folgendes geschrieben:
Und ich bezog mich nicht auf den historischen Weg, wie v.Neumann dazu kam, sondern darauf, was unter vN-Architektur i.A. von Menschen, die sich wissenschaftl. mit Computern befassen, verstanden wird. Wenn du da was anderes verstehst oder verstehen möchtest, bitteschön ...

Mir geht es um das Prinzip einer von Neumann Architektur, nicht um dessen Anwendung in der praktischen Informatik. Insbesondere in der Diskussion bezüglich der Risiken von künstlicher Intelligenz ist dies von Bedeutung, da damit ein Reproduktionsmechanismus der Träger künstlicher Intelligenz beschrieben werden kann.
_________________
Unsere Kinder und Enkelkinder werden uns eines Tages fragen: "Warum habt ihr nichts getan?!"
Auch der längste Weg beginnt mit dem ersten Schritt.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden Website dieses Benutzers besuchen
Er_Win
dauerhaft gesperrt



Anmeldungsdatum: 31.01.2008
Beiträge: 4482

Beitrag(#1975025) Verfasst am: 31.12.2014, 01:36    Titel: Antworten mit Zitat

Rabert hat folgendes geschrieben:

Lobbygruppe? Ist für dich jede internationale Organisation von Wissenschaftlern einer Fachdisziplin eine amerikanische Lobbygruppe? Dann wirst du in der Scientific Community ziemlich einsam bleiben, wenn du das so siehst (sofern du amerikanische Lobbygruppen auf Abstand halten möchtest). Wenn dir Namen aus dem deutschsprachigen Raum lieber sind (du hast ja nach weltbekannten, renommierten Wissenschaftlern gefragt, die findet man eher in der führenden internationalen Organisation der Disziplin), bitte sehr.


Jede nicht, diese kenne ich nicht, würde das aber nach ihrer eigenen Beschreibung als solche einstufen.

Zitat:
AAAI aims to promote research in, and responsible use of, artificial intelligence. AAAI also aims to increase public understanding of artificial intelligence, improve the teaching and training of AI practitioners, and provide guidance for research planners and funders concerning the importance and potential of current AI developments and future directions.


Und du kannst jetzt sicher noch' paar Forscher ergooglen - das ist sicher kein Problem. Von den dort genannten befasst sich Hovy mit semantischer Texterkennung, Liebermann mit medizinischen Expertensystemen, etc.etc - sicher alles ernst zu nehmende Forscher/Wissenschaftler. Darum geht's ja gar nicht. Du behauptest alle oder viele von denen unterstützen die Aussage, dass sie "die Entwicklung künstlicher Intelligenz (im Sinne einer Vergleichbarkeit zur menschlichen Intelligenz) nicht nur für möglich, sondern sogar für wahrscheinlich halten."

Gerade weil die auf Teildisziplinen seriös forschen, halte ich das nmE. für eher unwahrscheinlich. Also bring doch einfach konkrete Links zu deren diesbzgl. Aussagen/Vorträgen/Publikationen. Wobei meine Interpretation bei "Vergleichbarkeit mit menschlicher Intelligenz" dann auch zwingend das Vorhandensein eines "Computer-Selbst(Bewusstseins)" impliziert - das nur zur Abgrenzung von dem wie zB. Turing - oder andere - das sehen.

Und guck dir vielleicht auch selbst mal in der von dir verlinkten KI 2014 die Themenliste der Vorträge an. "Seltsamerweise" geht's da nirgends um menschen-vergleichbare Intelligenz, sondern um die üblichen Erkenntnisse/Fortschritte in Teilbereichen wie Routing/Suchen/Fuzzy/Clustering/Learning/etc,etc...




Rabert hat folgendes geschrieben:

Mir geht es um das Prinzip einer von Neumann Architektur, nicht um dessen Anwendung in der praktischen Informatik. Insbesondere in der Diskussion bezüglich der Risiken von künstlicher Intelligenz ist dies von Bedeutung, da damit ein Reproduktionsmechanismus der Träger künstlicher Intelligenz beschrieben werden kann.


sorry, ich verstehe nicht, wie bzw. was bei v.Neumann steht, das als risikoträchtiger (!) Reproduktionsmechanismus als Träger künstlicher Intelligenz gedeutet bzw. verstanden werden kann ? skeptisch

Oder meinst du einfach Computerviren/Trojaner? Die können - insbesondere wenn man sich nicht auskennt - sicher gefährlich sein. Intelligenz messe ich denen trotz Selbstmodifikations- & Replikationsfähigkeit aber keine zu.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Rabert
Sapere aude!



Anmeldungsdatum: 31.03.2010
Beiträge: 977
Wohnort: im Zug

Beitrag(#1975033) Verfasst am: 31.12.2014, 12:14    Titel: Antworten mit Zitat

Er_Win hat folgendes geschrieben:
Jede nicht, diese kenne ich nicht, würde das aber nach ihrer eigenen Beschreibung als solche einstufen.

Zitat:
AAAI aims to promote research in, and responsible use of, artificial intelligence. AAAI also aims to increase public understanding of artificial intelligence, improve the teaching and training of AI practitioners, and provide guidance for research planners and funders concerning the importance and potential of current AI developments and future directions.

Derartige Beschreibungen hat praktisch jede internationale wissenschaftliche Vereinigung in ihren Statuten (Ausnahmen bestätigen diese Regel). Ich finde es überraschend, dass du die m.W. größte internationale wissenschaftliche Gesellschaft zum Thema AI nicht kennst. Aber sei's drum. Wie gesagt, einsamer Privatgelehrter war schon immer für einige Leute ein erstrebenswerter Lebensentwurf ...

Er_Win hat folgendes geschrieben:
Und du kannst jetzt sicher noch' paar Forscher ergooglen - das ist sicher kein Problem. Von den dort genannten befasst sich Hovy mit semantischer Texterkennung, Liebermann mit medizinischen Expertensystemen, etc.etc - sicher alles ernst zu nehmende Forscher/Wissenschaftler. Darum geht's ja gar nicht. Du behauptest alle oder viele von denen unterstützen die Aussage, dass sie "die Entwicklung künstlicher Intelligenz (im Sinne einer Vergleichbarkeit zur menschlichen Intelligenz) nicht nur für möglich, sondern sogar für wahrscheinlich halten."

Gerade weil die auf Teildisziplinen seriös forschen, halte ich das nmE. für eher unwahrscheinlich. Also bring doch einfach konkrete Links zu deren diesbzgl. Aussagen/Vorträgen/Publikationen. Wobei meine Interpretation bei "Vergleichbarkeit mit menschlicher Intelligenz" dann auch zwingend das Vorhandensein eines "Computer-Selbst(Bewusstseins)" impliziert - das nur zur Abgrenzung von dem wie zB. Turing - oder andere - das sehen.

Und guck dir vielleicht auch selbst mal in der von dir verlinkten KI 2014 die Themenliste der Vorträge an. "Seltsamerweise" geht's da nirgends um menschen-vergleichbare Intelligenz, sondern um die üblichen Erkenntnisse/Fortschritte in Teilbereichen wie Routing/Suchen/Fuzzy/Clustering/Learning/etc,etc...

Du beliebst zu scherzen? Ich liefere dir - wie gewünscht - Dutzende von Namen von Wissenschaftlern, die im Kontext "Artificial Intelligence" in Fachzeitschriften veröffentlichen, auf Fachkonferenzen vortragen, in internationalen Organisationen ihrer Disziplin organisiert sind - und du glaubst ernsthaft, dass diese das tun, weil sie das Aufkommen künstlicher Intelligenz mehrheitlich für unwahrscheinlich halten? Und du erwartest nun von mir eine detailllierte Vortrags- und Literaturrecherche über -zig Wissenschaftler, um das Offensichtliche zu bestätigen? Träum weiter ....

Er_Win hat folgendes geschrieben:
Rabert hat folgendes geschrieben:

Mir geht es um das Prinzip einer von Neumann Architektur, nicht um dessen Anwendung in der praktischen Informatik. Insbesondere in der Diskussion bezüglich der Risiken von künstlicher Intelligenz ist dies von Bedeutung, da damit ein Reproduktionsmechanismus der Träger künstlicher Intelligenz beschrieben werden kann.


sorry, ich verstehe nicht, wie bzw. was bei v.Neumann steht, das als risikoträchtiger (!) Reproduktionsmechanismus als Träger künstlicher Intelligenz gedeutet bzw. verstanden werden kann ? skeptisch

Oder meinst du einfach Computerviren/Trojaner? Die können - insbesondere wenn man sich nicht auskennt - sicher gefährlich sein. Intelligenz messe ich denen trotz Selbstmodifikations- & Replikationsfähigkeit aber keine zu.

Informiere dich mal über das auf von Neumann Sonden angewandte Fermi Paradoxon. Mir geht es jetzt nicht um die Diskussion dieses Paradoxons, sondern darum, dass dies hervorragend das implizite theoretische Risiko sich selbst replizierender Maschinen illustriert. Und genau das ist ein Gegenstand der Forschung und der Sorge des CSER. Du könntest mal ein wenig über den Tellerrand der Informatik hinausdenken.
_________________
Unsere Kinder und Enkelkinder werden uns eines Tages fragen: "Warum habt ihr nichts getan?!"
Auch der längste Weg beginnt mit dem ersten Schritt.


Zuletzt bearbeitet von Rabert am 31.12.2014, 12:34, insgesamt einmal bearbeitet
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden Website dieses Benutzers besuchen
Ahriman
Tattergreis



Anmeldungsdatum: 31.03.2006
Beiträge: 17976
Wohnort: 89250 Senden

Beitrag(#1975043) Verfasst am: 31.12.2014, 12:40    Titel: Antworten mit Zitat

Naastika hat folgendes geschrieben:
step hat folgendes geschrieben:

- Reflektion und Identifikation von Präferenzen --> Interessen / Wille


In der Natur betreffen die Präferenzen eigentlich vorrangig das Überleben und die Weitergabe der eigenen Gene (Fortpflanzung).

Weswegen sollte eine Maschine das Interesse an eigenem Fortbestehen spontan enwicklen?

Steht doch in der Grundprogrammierung. Hat so viel ich weiß schon Asimov erzählt.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden E-Mail senden
Er_Win
dauerhaft gesperrt



Anmeldungsdatum: 31.01.2008
Beiträge: 4482

Beitrag(#1975044) Verfasst am: 31.12.2014, 12:40    Titel: Antworten mit Zitat

Rückblick 2008:
göttertod hat folgendes geschrieben:
http://kurse.focus.de/news/ne_id_news_88342630.html

Zitat:
Um in der Telekommunikation weiter zu kommen, brauche man nach Ansicht von Trendforscher Lars Thomsen von der Agentur Future Matters http://www.future*matters.com eine neues Verständnis von Künstlicher Intelligenz. ,,Erst wenn Geräte eine höhere Intelligenz bekommen, sind Systemsprünge möglich. Wir stehen jetzt noch am Anfang eines solchen Prozesses", erläutert Thomsen. Zur Zeit würde die Computerintelligenz noch auf dem Niveau einer Stubenfliege liegen. In fünf Jahren erreiche man die Intelligenz eines Hundes und in zehn Jahren ungefähr die Intelligenz eines Menschen. ,,Speicher und Bandbreite werden dann in einem für heute unvorstellbaren Bereich liegen * rund 200.000 mal höher. Der Zugang zum Internet wird so allgegenwärtig sein wie elektrischer Strom. Vor allem aber können wir die meisten organisatorischen Aufgaben an persönliche Assistenten delegieren und uns so auf die wichtigen Dinge konzentrieren", sagt Thomsen.


naja klar, ist halt nur irgend ein mehr oder weniger bekannter Trendforscher (ich kannte ihn bisher nicht), aber es passt zu meiner Weltsicht. Und so optimistisch lese ich es selten Smilie, von den Zeitdaten her.


naja, die 10 Jahre haben wir noch nicht ganz seit 2008, aber solche optimistische Prognosen kommen nmE. immer aus Kreisen, die eigentlich keine Ahnung haben, was i.d. KI-Forschung wirklich gemacht wird, bzw. was realistisch in absehbarer Zeit realisierbar sein dürfte und was zwar nicht unmöglich ist, aber wo das konkrete wie/wann noch völlig offen ist.

Ich erwarte vom HBP sicher interessante Aufschlüsse durchaus auch neue Erkenntnisse bei der Modellbildung geistiger Dysfunktionen (was ja u.a. ein Forschungs-Schwerpunkt ist), prognostiziere aber, dass sich auch am geplanten Projektende 2023 noch nichts herausgebildet hat bzw. entwickelt wurde, das man zu Recht als "menschenähnliche Intelligenz" bezeichnen kann.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Er_Win
dauerhaft gesperrt



Anmeldungsdatum: 31.01.2008
Beiträge: 4482

Beitrag(#1975050) Verfasst am: 31.12.2014, 13:02    Titel: Antworten mit Zitat

Rabert hat folgendes geschrieben:

Derartige Beschreibungen hat praktisch jede internationale wissenschaftliche Vereinigung in ihren Statuten (Ausnahmen bestätigen diese Regel). Ich finde es überraschend, dass du die m.W. größte internationale wissenschaftliche Gesellschaft zum Thema AI nicht kennst. Aber sei's drum. Wie gesagt, einsamer Privatgelehrter war schon immer für einige Leute ein erstrebenswerter Lebensentwurf ...


schön langsam fällt es mir etwas schwer dich ernst zu nehmen, sicher auch dank deiner ad hominem "Nettigkeiten" Sehr glücklich

Im https://www.humanbrainproject.eu/de steht zB.
Zitat:
The goal is to encourage visionary, "mission-oriented" research with the potential to deliver breakthroughs in information technology


Rabert hat folgendes geschrieben:

[...snip]
Du beliebst zu scherzen? Ich liefere dir - wie gewünscht - Dutzende von Namen von Wissenschaftlern, die im Kontext "Artificial Intelligence" in Fachzeitschriften veröffentlichen ...


...ich schrieb schon, googlen kann ich selbst Mit den Augen rollen

Und jetzt unterstelle ich dir ebenso mal ad hominem, dass du selbst gar keine Ahnung hast, woran die von dir "mühsam recherchierten" Fachleute überhaupt arbeiten wenn du jetzt als "Argument"...


Rabert hat folgendes geschrieben:
Informiere dich mal über das auf von Neumann Sonden angewandte Fermi Paradoxon. Mir geht es jetzt nicht um die Diskussion dieses Paradoxons, sondern darum, dass dies hervorragend das implizite theoretische Risiko sich selbst replizierender Maschinen illustriert. Und genau das ist ein Gegenstand der Forschung und der Sorge des CSER. Du könntest mal ein wenig über den Tellerrand der Informatik hinausdenken.


... mit lustigen Spekulationen aus der Frühzeit der K.I. ankommst und das dann als "über den Tellerrand" hinausdenken bezeichnest. Sorry, aber das kann ich (wissenschaftlich) nicht ernst nehmen !

aus Wikipedia
Zitat:
Die Von-Neumann-Sonde ist ein hypothetisches Konzept für selbstreplizierende Raumschiffe, das auf der Idee der selbstreproduzierenden Automaten des Mathematikers John von Neumann beruht. Es wird in der Science-Fiction verwendet und war Gegenstand spekulativer Betrachtungen über außerirdische Zivilisationen.


btw. ich liebe SciFi und habe insbesondere in früheren Jahren so ziemlich alles "verschlungen" an Literatur, aber man sollte schon fähig sein zwischen spannenden, aber völlig fiktionalen Gedanken und dem Stand aktueller Forschung zu differenzieren.


Rabert hat folgendes geschrieben:
Und genau das ist ein Gegenstand der Forschung und der Sorge des CSER


Ah ja Lachen

Könntest du bitte mal belegen dass im CSER hauptsächlich die Gefahr, die von selbstreplizierenden Raumschiffen ausgeht, Gegenstand der Forschung ist. Vermutlich weil ich nicht über den Tellerrand blicken kann, finde ich dazu auf die Schnelle nix...


Zuletzt bearbeitet von Er_Win am 31.12.2014, 13:15, insgesamt einmal bearbeitet
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Rabert
Sapere aude!



Anmeldungsdatum: 31.03.2010
Beiträge: 977
Wohnort: im Zug

Beitrag(#1975054) Verfasst am: 31.12.2014, 13:11    Titel: Antworten mit Zitat

Aha, weil in Konzept mal in der SciFi Literatur verwendet wurde, ist es unwissenschaftlich? Hast du dir mal die Liste der am CSER beteiligten Professoren genauer angeschaut? Hälst du die auch alle für inkompetente Spinner, die Hinrgespinsten nachjagen?
_________________
Unsere Kinder und Enkelkinder werden uns eines Tages fragen: "Warum habt ihr nichts getan?!"
Auch der längste Weg beginnt mit dem ersten Schritt.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden Website dieses Benutzers besuchen
Er_Win
dauerhaft gesperrt



Anmeldungsdatum: 31.01.2008
Beiträge: 4482

Beitrag(#1975058) Verfasst am: 31.12.2014, 13:20    Titel: Antworten mit Zitat

Rabert hat folgendes geschrieben:
Aha, weil in Konzept mal in der SciFi Literatur verwendet wurde, ist es unwissenschaftlich?


habe ich DAS irgendwo geschrieben? Ich schrieb man sollte fähig sein zwischen SciFi und aktueller Forschung unterscheiden zu können...


Rabert hat folgendes geschrieben:
Hast du dir mal die Liste der am CSER beteiligten Professoren genauer angeschaut?


ja sicher !

Rabert hat folgendes geschrieben:
Hälst du die auch alle für inkompetente Spinner, die Hinrgespinsten nachjagen?


Nein - DIE halte ich nicht für Spinner...

Deshalb wiederhole ich meine Bitte: Könntest du bitte mal belegen dass im CSER hauptsächlich die Gefahr, die von selbstreplizierenden Raumschiffen ausgeht, Gegenstand der Forschung ist. Vermutlich weil ich nicht über den Tellerrand blicken kann, finde ich dazu auf die Schnelle nix...

Ich lese da:
Zitat:
Risk from artificial intelligence

As AI algorithms become both more powerful and more general – able to function in a wider variety of ways in different environments – their potential benefits and their potential for harm will increase rapidly. Even very simple algorithms, such as those implicated in the 2010 financial flash crash, demonstrate the difficulty in designing safe goals and controls for AI; goals and controls that prevent unexpected catastrophic behaviours and interactions from occurring.
...

http://cser.org/emerging-risks-from-technology/artificial-intelligence/

das kann ich alles unterschreiben - insbesondere Gefahren, die von "durchdrehenden" Bots im spekulativen Börsenbereich ausgehen sind sehr real ! Die fallen bei mir aber nur sehr bedingt unter den Begriff A.I. (aber das ist Definitionssache)...
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Er_Win
dauerhaft gesperrt



Anmeldungsdatum: 31.01.2008
Beiträge: 4482

Beitrag(#1975076) Verfasst am: 31.12.2014, 14:09    Titel: Antworten mit Zitat

Rabert hat folgendes geschrieben:
Ich liefere dir - wie gewünscht - Dutzende von Namen von Wissenschaftlern, die im Kontext "Artificial Intelligence" in Fachzeitschriften veröffentlichen, auf Fachkonferenzen vortragen, in internationalen Organisationen ihrer Disziplin organisiert sind - und du glaubst ernsthaft, dass diese das tun, weil sie das Aufkommen künstlicher Intelligenz mehrheitlich für unwahrscheinlich halten?


um das ernsthaft zu diskutieren müsste man sich zuerst mal einigen, was unter KI verstanden wird. Durchaus etliche verstehen darunter jedes Stückchen Software, in der Algorithmen stecken, welche auch in "ernsthafteren" KI-Projekten von Relevanz sind.

Hier ging es doch expressis verbis um KI, welche es hypothetisch ermöglichen soll, dass der Computer "menschenähnliche Intelligenz" hat, was - wie ich schrieb - von mir und vielen anderen nicht im Sinne eines bestandenen Turing-Tests verstanden wird, sondern erst mit der Ausformung von sowas wie einem "Computer-Selbst(Bewußtsein)" erreicht wäre.

Und in diesem Sinne, sind die meisten namhaften Forscher, die mir so unterkommen in ihren Aussagen "agnostisch". Also viele halten es nicht für unmöglich, sondern sagen, dass sie es nicht wissen und reden beim "wann" auch nicht davon, dass das in ein paar Jahren schon soweit sein wird, sondern reden eher von fernerer Zukunft.

Überzogene SciFi-Aussagen treffe ich eher bei Leuten, die eigentlich von der Materie wenig Ahnung haben und es werden in deren "Argumenten" irgendwelche realen Forscher/Forschungen auch ein bißchen ähnlich "vergewaltigt" wie in der Esoterik-Szene die gesamte Quantenphysik.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Er_Win
dauerhaft gesperrt



Anmeldungsdatum: 31.01.2008
Beiträge: 4482

Beitrag(#1975081) Verfasst am: 31.12.2014, 14:26    Titel: Antworten mit Zitat

Ahriman hat folgendes geschrieben:
Naastika hat folgendes geschrieben:
step hat folgendes geschrieben:

- Reflektion und Identifikation von Präferenzen --> Interessen / Wille


In der Natur betreffen die Präferenzen eigentlich vorrangig das Überleben und die Weitergabe der eigenen Gene (Fortpflanzung).

Weswegen sollte eine Maschine das Interesse an eigenem Fortbestehen spontan enwicklen?

Steht doch in der Grundprogrammierung. Hat so viel ich weiß schon Asimov erzählt.


Genau - Asimov ist geil - und wie jeder weiss, ist er der führende heutige Forscher auf dem Gebiet.
Hat aber wohl auch zu wenig über den Tellerrand geblickt, weil er nicht explizit vor den Gefahren der selbstreplizierenden Raumschiffe warnt... zwinkern
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Kival
Profeminist Ghost



Anmeldungsdatum: 14.11.2006
Beiträge: 24071

Beitrag(#1975124) Verfasst am: 31.12.2014, 16:12    Titel: Antworten mit Zitat

Er_Win hat folgendes geschrieben:
Kival hat folgendes geschrieben:

Darum ging es doch auch überhaupt nicht, sondern darum, ob und inwiefern eine solche künstliche Intelligenz Interessen hätte, oder nicht ... Es sind hypothetische Überlegungen.


ah ja - also nicht um Wissenschaft, dann ist ja alles ok ... Sehr glücklich


Ne, keine Wissenschaft, höchstens insoweit man Ethik und Philosophie usw. halt als Wissenschaften bezeichnen kann. Es *streift* natürlich durchaus wissenschaftliche Gebiete, aber es geht nicht um aktuelle Realisierbarkeit, sondern um interne Konsistenz solcher Gedanken und Vorstellungen.
_________________
"A basic literacy in statistics will one day be as necessary for efficient citizenship as the ability to read and write." (angeblich H. G. Wells)
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
zelig
Kultürlich



Anmeldungsdatum: 31.03.2004
Beiträge: 25404

Beitrag(#1975133) Verfasst am: 31.12.2014, 16:36    Titel: Antworten mit Zitat

Vorausgesetzt es wäre möglich, dann wäre aus meiner Sicht die entscheidende ethische Frage, ob es gerechtfertigt sein kann, Maschinen Leidensfähigkeit einzupflanzen, wenn sie ihre Funktionen auch ohne sie erfüllen kann. Was dann zu der Frage führt, ob bestimmte Funktionen ohne Leidensfähigkeit nicht, oder schlechter erfüllt werden könnten. Und das wieder führt zu der Frage, ob es ethisch gerechtfertigt sein kann, Leiden aus funktionalen Überlegungen in die Welt zu setzen. Der Kreis schließt sich mit der Überlegung, daß die Bejahung dieser Frage auf Menschen übertragbar wäre, wenn man die gleiche Qualität von Empfindungen bei Mensch und Maschine unterstellt.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Naastika
RL rulez<->auf Wunsch deaktiviert



Anmeldungsdatum: 23.11.2003
Beiträge: 6100
Wohnort: an der Fütterungsstelle der Eichhörnchen

Beitrag(#1975144) Verfasst am: 31.12.2014, 17:09    Titel: Antworten mit Zitat

zelig hat folgendes geschrieben:
Vorausgesetzt es wäre möglich, dann wäre aus meiner Sicht die entscheidende ethische Frage, ob es gerechtfertigt sein kann, Maschinen Leidensfähigkeit einzupflanzen, wenn sie ihre Funktionen auch ohne sie erfüllen kann. Was dann zu der Frage führt, ob bestimmte Funktionen ohne Leidensfähigkeit nicht, oder schlechter erfüllt werden könnten. Und das wieder führt zu der Frage, ob es ethisch gerechtfertigt sein kann, Leiden aus funktionalen Überlegungen in die Welt zu setzen. Der Kreis schließt sich mit der Überlegung, daß die Bejahung dieser Frage auf Menschen übertragbar wäre, wenn man die gleiche Qualität von Empfindungen bei Mensch und Maschine unterstellt.


Das unterschrieb ich unumschränkt. zwinkern
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Er_Win
dauerhaft gesperrt



Anmeldungsdatum: 31.01.2008
Beiträge: 4482

Beitrag(#1975157) Verfasst am: 31.12.2014, 17:43    Titel: Antworten mit Zitat

zelig hat folgendes geschrieben:
Vorausgesetzt es wäre möglich, dann wäre aus meiner Sicht die entscheidende ethische Frage, ob es gerechtfertigt sein kann, Maschinen Leidensfähigkeit einzupflanzen, wenn sie ihre Funktionen auch ohne sie erfüllen kann.


Was verbindest du mit der Vorstellung von "Einpflanzung" ? Ich will's mal versuchen etwas zu konkretisieren: Solange ein musterbildendes Konzept eine von aussen "eingepflanzte" Bedeutung hat, bin ich der Überzeugung, dass dies keine Emotion im menschlichen Sinne ist.

Nur Muster welche sich in einer Art "Selbsterfahrung" der künstlich erschaffenen Struktur herausbilden kann *imho eine solche Qualität zugemessen werden.

Insoferne stellt sich mir die Frage ganz anders: nicht ob da jemand extern etwas "einpflanzt" oder nicht, sondern ob bzw. wie man die Bedeutungen "richtig" erkennt, die sich in so einer selbstorganisierenden Struktur uU. bilden können.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
zelig
Kultürlich



Anmeldungsdatum: 31.03.2004
Beiträge: 25404

Beitrag(#1975166) Verfasst am: 31.12.2014, 18:11    Titel: Antworten mit Zitat

Er_Win hat folgendes geschrieben:
zelig hat folgendes geschrieben:
Vorausgesetzt es wäre möglich, dann wäre aus meiner Sicht die entscheidende ethische Frage, ob es gerechtfertigt sein kann, Maschinen Leidensfähigkeit einzupflanzen, wenn sie ihre Funktionen auch ohne sie erfüllen kann.


Was verbindest du mit der Vorstellung von "Einpflanzung" ? Ich will's mal versuchen etwas zu konkretisieren: Solange ein musterbildendes Konzept eine von aussen "eingepflanzte" Bedeutung hat, bin ich der Überzeugung, dass dies keine Emotion im menschlichen Sinne ist.

Nur Muster welche sich in einer Art "Selbsterfahrung" der künstlich erschaffenen Struktur herausbilden kann *imho eine solche Qualität zugemessen werden.

Insoferne stellt sich mir die Frage ganz anders: nicht ob da jemand extern etwas "einpflanzt" oder nicht, sondern ob bzw. wie man die Bedeutungen "richtig" erkennt, die sich in so einer selbstorganisierenden Struktur uU. bilden können.


Die letzte Frage ist wichtig, falls ich sie richtig verstanden habe. Vor allem vor dem Hintergrund unterschiedlicher Auffassungen darüber, ob wir es hier bei den Maschinen wirklich mit Selbstäußerungen zur Qualia zu tun hätten. Ich weiß, der Begriff ist hier verpönt. Aber gebt mir einen besseren, der in aller Kürze den Dissenz festmachen würde. Nur wäre die Frage, wie man den Unterschied zwischen einer Simulation ohne Empfindung und einer Simulation mit Empfindung (der nach der Position, die ich nicht vertrete, letztlich nicht existieren dürfte) festmacht, keine ethische Frage.
"Einpflanzen" ist möglicherweise ein schlechter Begriff. Wie soll man den Vorgang bezeichnen, der die Erstellung eines leidensfähigen Wesens bedeutet? Schöpfen? Kreieren? Herstellen? In die Welt setzen?
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Er_Win
dauerhaft gesperrt



Anmeldungsdatum: 31.01.2008
Beiträge: 4482

Beitrag(#1975172) Verfasst am: 31.12.2014, 18:39    Titel: Antworten mit Zitat

zelig hat folgendes geschrieben:
Er_Win hat folgendes geschrieben:
zelig hat folgendes geschrieben:
Vorausgesetzt es wäre möglich, dann wäre aus meiner Sicht die entscheidende ethische Frage, ob es gerechtfertigt sein kann, Maschinen Leidensfähigkeit einzupflanzen, wenn sie ihre Funktionen auch ohne sie erfüllen kann.


Was verbindest du mit der Vorstellung von "Einpflanzung" ? Ich will's mal versuchen etwas zu konkretisieren: Solange ein musterbildendes Konzept eine von aussen "eingepflanzte" Bedeutung hat, bin ich der Überzeugung, dass dies keine Emotion im menschlichen Sinne ist.

Nur Muster welche sich in einer Art "Selbsterfahrung" der künstlich erschaffenen Struktur herausbilden kann *imho eine solche Qualität zugemessen werden.

Insoferne stellt sich mir die Frage ganz anders: nicht ob da jemand extern etwas "einpflanzt" oder nicht, sondern ob bzw. wie man die Bedeutungen "richtig" erkennt, die sich in so einer selbstorganisierenden Struktur uU. bilden können.


Die letzte Frage ist wichtig, falls ich sie richtig verstanden habe. Vor allem vor dem Hintergrund unterschiedlicher Auffassungen darüber, ob wir es hier bei den Maschinen wirklich mit Selbstäußerungen zur Qualia zu tun hätten.


Bei allen Computern/Simulationen die heute real existieren kann ich das eindeutig verneinen, auch wenn sie an ihrer Mensch/Maschine-Schnittstelle mitunter den Eindruck erwecken können, sie würden Selbstäusserungen erzeugen.

Eine "Gefahr" besteht da viel mehr in unbedarften menschlichen Kommunikationspartnern bzw. deren völligen Fehlinterpretationen, wie ja schon seinerzeit Weizenbaum anhand seiner ziemlich simplen ELIZA-Simulation eher selbst erschreckt konstatierte. http://de.wikipedia.org/wiki/ELIZA

zelig hat folgendes geschrieben:
Nur wäre die Frage, wie man den Unterschied zwischen einer Simulation ohne Empfindung und einer Simulation mit Empfindung (der nach der Position, die ich nicht vertrete, letztlich nicht existieren dürfte) festmacht, keine ethische Frage.
"Einpflanzen" ist möglicherweise ein schlechter Begriff. Wie soll man den Vorgang bezeichnen, der die Erstellung eines leidensfähigen Wesens bedeutet? Schöpfen? Kreieren? Herstellen? In die Welt setzen?


Im Sinne einer kommunikativen Aussenbetrachtung (zB. Turing-Test) würde ich diesen Unterschied auch gar nicht festmachen wollen. Und aus meinem Verständnis erstelle, kreiere etc. - egal wie man das nennt - auch gar kein "Computer-Dingsbums", mit irgendeiner bestimmten "Qualia", sondern wie der Ansatz jetzt im HBP verfolgt wird, eine selbstorganisationsfähige Struktur von der angenommen wird, dass die Ausbildung irgendeiner "Qualia" im Sinne von musterbildender "Selbsterfahrung" möglich sein könnte.

Und wegen der anvisierten Grössenangaben zur Vernetzungsstruktur bezweifle ich in dem konkreten Projekt auch, dass man da überhaupt schon in die Nähe von dem kommt. Es geht eher um die Möglichkeiten in Teilbereichen der Hirnforschung zu evaluieren, ob das künstliche System ähnliche Eigenschaften bei der Musterbildung/Verarbeitung zeigen kann und da sehen die ersten Ergebnisse interessant aus. Wobei ich nochmal darauf hinweise, dass auch bei diesen Experimenten *imho jegliche Bedeutung noch der äusseren (menschlichen) Interpretation obliegt...



edit PS: ELIZA zum selbst ausprobieren http://www.masswerk.at/elizabot/
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
schtonk
dauerhaft gesperrt



Anmeldungsdatum: 17.12.2013
Beiträge: 12078

Beitrag(#1975180) Verfasst am: 31.12.2014, 19:09    Titel: Antworten mit Zitat

zelig hat folgendes geschrieben:
Vorausgesetzt es wäre möglich, dann wäre aus meiner Sicht die entscheidende ethische Frage, ob es gerechtfertigt sein kann, Maschinen Leidensfähigkeit einzupflanzen, wenn sie ihre Funktionen auch ohne sie erfüllen kann. Was dann zu der Frage führt, ob bestimmte Funktionen ohne Leidensfähigkeit nicht, oder schlechter erfüllt werden könnten. Und das wieder führt zu der Frage, ob es ethisch gerechtfertigt sein kann, Leiden aus funktionalen Überlegungen in die Welt zu setzen. Der Kreis schließt sich mit der Überlegung, daß die Bejahung dieser Frage auf Menschen übertragbar wäre, wenn man die gleiche Qualität von Empfindungen bei Mensch und Maschine unterstellt.

fett von mir
Ich antworte auf Basis deiner Hypothese: Vielleicht gelingt es der Wissenschaft irgendwann mal ein maschinelles/elektronisches "Schmerzzentrum"
zu simulieren, dass bei entsprechendem Stimulus eine Art Äquivalent von Leiden erzeugt. Das wäre keinesfalls übertragbar auf den Menschen.
Ich spreche absichtlich von Äquivalent, der Terminus "Leiden" wird in deiner Sichtweise m.E. überstrapaziert. Schon heute leiden Maschinen im übertragenen
Sinne: der Motor des Autos "leidet", wenn er zu hochtourig gefahren wird z.B. Der Beifahrer wird in dieser Situation evtl sogar "mitleiden". Das ist allgemeiner
Sprachgebrauch bei gleichzeitigem Konsens, das menschliches Leiden damit nicht gleichgesetzt werden kann.

Maschinelles "Leiden" bleibt ein solches. Sollte es im obigen Sinne einmal generiert werden können, dann kann man über den Sinn dessen sicher trefflich streiten.
Aber hier von einem "Leiden aus funktionalen Überlegungen in die Welt [zu] setzen" zu sprechen ist verfehlt, ja sogar gefährlich. Damit liefert man möglicherweise
den Apologeten alles für den Menschen Leidverursachenden Munition zur Relativierung.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Er_Win
dauerhaft gesperrt



Anmeldungsdatum: 31.01.2008
Beiträge: 4482

Beitrag(#1975189) Verfasst am: 31.12.2014, 19:48    Titel: Antworten mit Zitat

schtonk hat folgendes geschrieben:

Ich antworte auf Basis deiner Hypothese: Vielleicht gelingt es der Wissenschaft irgendwann mal ein maschinelles/elektronisches "Schmerzzentrum"
zu simulieren, dass bei entsprechendem Stimulus eine Art Äquivalent von Leiden erzeugt. Das wäre keinesfalls übertragbar auf den Menschen.


Auch an dich die Frage, wie du dir (strukturell) diese Simulation eines Äquivalents von Leiden vorstellst ?

Wobei ich in einem hinreichend komplexen, selbstorganisierenden und zur Selbstempfindung fähigen künstlichen System verneine, dass das dann keinesfalls übertragbar wäre.

Filme wie http://de.wikipedia.org/wiki/A.I._%E2%80%93_K%C3%BCnstliche_Intelligenz thematisieren ja genau diese "Schranke" - wenn sicher auch nur fiktional und nicht unbedingt wissenschaftlich sinnig in einigen Bereichen. Stark vereinfacht könnte man in dem Film sagen, alles incl. der Fähigkeit zur "Prägung" an David ist "eingepflanzt" und seine Emotionen sind zuerst nur Simulation. Doch dann "passiert" eben etwas was nicht "eingepflanzt" wurde und zumindest den Teil betrachte ich als wissenschaftlich sinnig, dass sein "Schöpfer" dann auch nur mehr als Beobachter auftritt und somit dank der Struktur nur das Potential gelegt hat, aber selbst nicht weiss, was sich dann konkret entwickelt.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
zelig
Kultürlich



Anmeldungsdatum: 31.03.2004
Beiträge: 25404

Beitrag(#1975190) Verfasst am: 31.12.2014, 19:49    Titel: Antworten mit Zitat

schtonk hat folgendes geschrieben:
zelig hat folgendes geschrieben:
Vorausgesetzt es wäre möglich, dann wäre aus meiner Sicht die entscheidende ethische Frage, ob es gerechtfertigt sein kann, Maschinen Leidensfähigkeit einzupflanzen, wenn sie ihre Funktionen auch ohne sie erfüllen kann. Was dann zu der Frage führt, ob bestimmte Funktionen ohne Leidensfähigkeit nicht, oder schlechter erfüllt werden könnten. Und das wieder führt zu der Frage, ob es ethisch gerechtfertigt sein kann, Leiden aus funktionalen Überlegungen in die Welt zu setzen. Der Kreis schließt sich mit der Überlegung, daß die Bejahung dieser Frage auf Menschen übertragbar wäre, wenn man die gleiche Qualität von Empfindungen bei Mensch und Maschine unterstellt.

fett von mir
Ich antworte auf Basis deiner Hypothese: Vielleicht gelingt es der Wissenschaft irgendwann mal ein maschinelles/elektronisches "Schmerzzentrum"
zu simulieren, dass bei entsprechendem Stimulus eine Art Äquivalent von Leiden erzeugt. Das wäre keinesfalls übertragbar auf den Menschen.
Ich spreche absichtlich von Äquivalent, der Terminus "Leiden" wird in deiner Sichtweise m.E. überstrapaziert. Schon heute leiden Maschinen im übertragenen
Sinne: der Motor des Autos "leidet", wenn er zu hochtourig gefahren wird z.B. Der Beifahrer wird in dieser Situation evtl sogar "mitleiden". Das ist allgemeiner
Sprachgebrauch bei gleichzeitigem Konsens, das menschliches Leiden damit nicht gleichgesetzt werden kann.

Maschinelles "Leiden" bleibt ein solches. Sollte es im obigen Sinne einmal generiert werden können, dann kann man über den Sinn dessen sicher trefflich streiten.
Aber hier von einem "Leiden aus funktionalen Überlegungen in die Welt [zu] setzen" zu sprechen ist verfehlt, ja sogar gefährlich. Damit liefert man möglicherweise
den Apologeten alles für den Menschen Leidverursachenden Munition zur Relativierung.


Nur zum Verständnis. Meine Auffassung ist, daß mit der Simulation menschlicher Verhaltensweisen und Fertigkeiten durch Maschinen (eine solche wäre es meiner Ansicht nach), echte Empfindung und somit Leidensfähigkeit eben noch nicht gegeben wäre. Soweit man aber Empfindungen und Leidensfähigkeit als gegeben betrachtet, steht man vor der ethischen Fragestellung und dem Dilemma, das ich versucht habe zu skizzieren.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
step
registriert



Anmeldungsdatum: 17.07.2003
Beiträge: 22767
Wohnort: Germering

Beitrag(#1975195) Verfasst am: 31.12.2014, 20:13    Titel: Antworten mit Zitat

Sollten AIs ein Selbstbild und Interessen haben (ob nun augebildet, wie ich erwarte, oder eingepflanzt), kann man mE nicht gut begründen, warum man diese (und die mE damit verbundene Leidfähigkeit) nicht ethisch ähnlich wie die menschliche berücksichtigen sollte.

Zu zeligs Frage: Ja, auch ich finde, daß man im Vorfeld überlegen muß, ob es überhaupt ethisch vertretbar ist, künstliche Intelligenzen entstehen zu lassen, die personale Selbstmodelle ausbilden (könnten). Aber nicht weil es nichtbiologische Personen wären, sondern weil es Personen wären. Also sehr ähnlich zu etwa der Frage, ob man Kinder oder höhere Tiere in die Welt setzen sollte.
_________________
Was ist der Sinn des Lebens? - Keiner, aber Leere ist Fülle für den, der sie sieht.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
schtonk
dauerhaft gesperrt



Anmeldungsdatum: 17.12.2013
Beiträge: 12078

Beitrag(#1975212) Verfasst am: 31.12.2014, 21:41    Titel: Antworten mit Zitat

zelig hat folgendes geschrieben:
schtonk hat folgendes geschrieben:
zelig hat folgendes geschrieben:
Vorausgesetzt es wäre möglich, dann wäre aus meiner Sicht die entscheidende ethische Frage, ob es gerechtfertigt sein kann, Maschinen Leidensfähigkeit einzupflanzen, wenn sie ihre Funktionen auch ohne sie erfüllen kann. Was dann zu der Frage führt, ob bestimmte Funktionen ohne Leidensfähigkeit nicht, oder schlechter erfüllt werden könnten. Und das wieder führt zu der Frage, ob es ethisch gerechtfertigt sein kann, Leiden aus funktionalen Überlegungen in die Welt zu setzen. Der Kreis schließt sich mit der Überlegung, daß die Bejahung dieser Frage auf Menschen übertragbar wäre, wenn man die gleiche Qualität von Empfindungen bei Mensch und Maschine unterstellt.

fett von mir
Ich antworte auf Basis deiner Hypothese: Vielleicht gelingt es der Wissenschaft irgendwann mal ein maschinelles/elektronisches "Schmerzzentrum"
zu simulieren, dass bei entsprechendem Stimulus eine Art Äquivalent von Leiden erzeugt. Das wäre keinesfalls übertragbar auf den Menschen.
Ich spreche absichtlich von Äquivalent, der Terminus "Leiden" wird in deiner Sichtweise m.E. überstrapaziert. Schon heute leiden Maschinen im übertragenen
Sinne: der Motor des Autos "leidet", wenn er zu hochtourig gefahren wird z.B. Der Beifahrer wird in dieser Situation evtl sogar "mitleiden". Das ist allgemeiner
Sprachgebrauch bei gleichzeitigem Konsens, das menschliches Leiden damit nicht gleichgesetzt werden kann.

Maschinelles "Leiden" bleibt ein solches. Sollte es im obigen Sinne einmal generiert werden können, dann kann man über den Sinn dessen sicher trefflich streiten.
Aber hier von einem "Leiden aus funktionalen Überlegungen in die Welt [zu] setzen" zu sprechen ist verfehlt, ja sogar gefährlich. Damit liefert man möglicherweise
den Apologeten alles für den Menschen Leidverursachenden Munition zur Relativierung.


Nur zum Verständnis. Meine Auffassung ist, daß mit der Simulation menschlicher Verhaltensweisen und Fertigkeiten durch Maschinen (eine solche wäre es meiner Ansicht nach), echte Empfindung und somit Leidensfähigkeit eben noch nicht gegeben wäre. Soweit man aber Empfindungen und Leidensfähigkeit als gegeben betrachtet, steht man vor der ethischen Fragestellung und dem Dilemma, das ich versucht habe zu skizzieren.

Habe ich verstanden, ist mir aber zu spekulativ und deshalb m.E. auch kein Dilemma.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Ahriman
Tattergreis



Anmeldungsdatum: 31.03.2006
Beiträge: 17976
Wohnort: 89250 Senden

Beitrag(#1975263) Verfasst am: 01.01.2015, 12:42    Titel: Antworten mit Zitat

zelig hat folgendes geschrieben:
Vorausgesetzt es wäre möglich, dann wäre aus meiner Sicht die entscheidende ethische Frage, ob es gerechtfertigt sein kann, Maschinen Leidensfähigkeit einzupflanzen, wenn sie ihre Funktionen auch ohne sie erfüllen kann. Was dann zu der Frage führt, ob bestimmte Funktionen ohne Leidensfähigkeit nicht, oder schlechter erfüllt werden könnten. Und das wieder führt zu der Frage, ob es ethisch gerechtfertigt sein kann, Leiden aus funktionalen Überlegungen in die Welt zu setzen. Der Kreis schließt sich mit der Überlegung, daß die Bejahung dieser Frage auf Menschen übertragbar wäre, wenn man die gleiche Qualität von Empfindungen bei Mensch und Maschine unterstellt.

Mal vereinfacht dargestellt: Soll es einem denkenden Roboter mit Ego wehtun, wenn in ihm irgendwo ein Kondensator durchbrennt? Der Zweck wäre der gleiche, den die Evolution bei ihren Kreaturen damit verfolgt, sie zu zwingen, daß sie versuchen dem abzuhelfen. Daß also der Roboter schnellstens in die Werkstatt eilt.
Wir sollten dann aber gnädiger sein als die Evolution und dem Robot die Möglichkeit geben, das "Schmerzsignal" abzuschalten, wenn er feststellt, daß eine Reparatur nicht möglich ist.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden E-Mail senden
Beiträge der letzten Zeit anzeigen:   
Neues Thema eröffnen   Neue Antwort erstellen   Drucker freundliche Ansicht    Freigeisterhaus Foren-Übersicht -> Wissenschaft und Technik Alle Zeiten sind GMT + 1 Stunde
Gehe zu Seite Zurück  1, 2, 3 ... 8, 9, 10, 11  Weiter
Seite 9 von 11

 
Gehe zu:  
Du kannst keine Beiträge in dieses Forum schreiben.
Du kannst auf Beiträge in diesem Forum nicht antworten.
Du kannst deine Beiträge in diesem Forum nicht bearbeiten.
Du kannst deine Beiträge in diesem Forum nicht löschen.
Du kannst an Umfragen in diesem Forum nicht mitmachen.



Impressum & Datenschutz


Powered by phpBB © 2001, 2005 phpBB Group