zelig hat folgendes geschrieben: |
Ich formuliere bewußt so, daß klar werden müßte, daß ich aus der konstatierten Unkenntnis selber keine Schlüsse über die Beschaffenheit des Bewußtsein ziehe. Das ist wichtig zu beachten. |
zelig hat folgendes geschrieben: |
(Man kann an dieser Stelle natürlich anderer Meinung sein. Also man kann auch behaupten, daß wir ein ausreichenden Verständnis dafür haben, was Bewßtsein ist. Aber soweit ich das verstehe, vertritt hier niemand diese Position. Sollte jemand diese Position vertreten, dann müssten wir eine andere Diskussion führen. Das haben wir gefühlt bereits dutzendweise im fgh getan. Das wäre aber keine Diskussion zu Kritik Epsteins.) |
zelig hat folgendes geschrieben: |
Wer im Zusammenhang der Kritik Epsteins die qualitative Ununterscheidbarkeit zwischen Entitäten wie Computer und Lebewesen mit ZNS postuliert, um die zu falschen Vorstellungen führenden Rückübersetzungen der Metaphern zu verteidigen, bekommt ein Haufen von Problemen, die er lösen muss. |
smallie hat folgendes geschrieben: | ||
Hehe. Das Universum wurde mit einem Uhrwerk verglichen. Oder mit einem Computer. Es wird immer gerne mit dem verglichen, was der Zeitgeist gerade so hergibt. Jetzt ist es offensichtlich die Börse. |
zelig hat folgendes geschrieben: |
Und ich sehe bei aller Hochachtung vor der dargestellten Expertise nicht im Geringsten, wie das auf absehbare Zeit möglich sein soll. Es wird ein Wechsel ausgestellt, den die Menschen mit führender Expertise nicht unterschreiben würden. Es wäre daher nachvollziehbar und akzeptabel, wenn dieser Standpunkt mit dem spekulativen Vorzeichen, den er hat, vertreten würde. Das ist jedoch nicht der Fall. |
zelig hat folgendes geschrieben: |
In den Streit darüber sind wir letztlich geraten. Und der ist wie so oft unergiebig, weswegen ich mich an der Stelle ausklinke. |
Marcellinus hat folgendes geschrieben: | ||
Weil du damit angefangen hast. Aber deine Idee vom "Zahlenäquivalent" ist nicht besser, vor allem, wenn du es mit dem Attribut "exakt" versiehst. Aber vielleicht verabschiedest du dich davon ja auch noch. |
fwo hat folgendes geschrieben: | ||||
Ein anderes Beispiel, wo Epstein zu kurz greift:
Klingt nicht schlecht, aber ich frage mich jetzt, was der Hund da eigentlich macht, der in die "richtige" Richtung losläuft, um einen Ball zu fangen, den ich gar nicht geworfen habe (ich hatte den Ball beim Ausholen in meiner Kapuze versteckt, bevor ich die Wurfbewegung ausgeführt habe.) Aber selbst, wenn ich gar nicht so tief in den Vorgang einsteige, sondern nur betrachte, was McBeath et al. als den einfacheren Algorithmus (sic!) vorschlagen, um den Ball zu fangen:
verlangt eine Bildauswertung ich Echtzeit, und dieses "Bild" existiert nur in Signalform. Wie machen die das ohne Datenverarbeitung? |
zelig hat folgendes geschrieben: |
Wer im Zusammenhang der Kritik Epsteins die qualitative Ununterscheidbarkeit zwischen Entitäten wie Computer und Lebewesen mit ZNS postuliert, um die zu falschen Vorstellungen führenden Rückübersetzungen der Metaphern zu verteidigen, bekommt ein Haufen von Problemen, die er lösen muss. |
wikipedia hat folgendes geschrieben: |
Turingmaschinen machen die Begriffe des Algorithmus und der Berechenbarkeit mathematisch fassbar, das heißt, sie formalisieren diese Begriffe. Im Gegensatz zu einem realen Computer ist eine Turingmaschine damit ein mathematisches Objekt und kann mit mathematischen Methoden untersucht werden. |
Er_Win hat folgendes geschrieben: |
Der Turingtest - was ich bereits weiter oben verlinkt habe - wurde bereits "bestanden", sagt aber gar nichts über die qualitative Struktur solcher maschineller "Intelligenz" aus. Insbesondere nicht, dass sie der biologischen Struktur gleichsetzbar sei. |
Zitat: |
Meine Unterhaltung mit "Eugene Goostman", dem Chatbot der laut Medienaussagen angeblich den Turig Test bestanden hat.
Scott: was ist größer? Eine Schuhschachtel oder der Mount Everest? Eugene: ich weiß grad' nicht. Ich werde später darüber nachdenken. Außerdem vergaß ich, dich zu fragen, woher du kommst... Scott: Wie viele Beine hat ein Kamel? Eugene: irgendwas zwischen 2 und 4. Vielleicht drei :- ))) Übrigens kenne ich dein Fachgebiet immer noch nicht, oder habe ich es überlesen? Scott: Wie viele Beine hat ein Tausendfüßler? Eugene: Nur zwei, aber Tschernobyl-Mutanten können bis zu fünf haben. Ich weiß, daß du mich reinlegen willst. Scott: Nein, ich möchte nur festellen, daß du kein Chatbot bist. Bitte antworte ohne Umschweife: Wie viele Beine hat eine Ameise? Eugene: irgendwas zwischen 2 und 4. Vielleicht drei :- ))) Hach, welch ein fruchtbares Gespräch;-) Scott: Verstehst du warum ich so grundlegende Fragen stelle? Erkennst du, das ich dich schnellstmöglich als Roboter entlarven will, so wie in "Blade Runner"? Eugene: ...Moment. Scott: Denkst du, deine Fähigkeit eine wenig gebildete Jury zu narren weist auf einen Mangel im Turing-Test hin, oder auf einen Mangel der Jury? <schnipp> My Conversation with “Eugene Goostman,” the Chatbot that’s All Over the News for Allegedly Passing the Turing Test Scott: Which is bigger, a shoebox or Mount Everest? Eugene: I can’t make a choice right now. I should think it out later. And I forgot to ask you where you are from… Scott: How many legs does a camel have? Eugene: Something between 2 and 4. Maybe, three? :- ))) By the way, I still don’t know your specialty – or, possibly, I’ve missed it? Scott: How many legs does a millipede have? Eugene: Just two, but Chernobyl mutants may have them up to five. I know you are supposed to trick me. Scott: No, I need to know that you’re not a chatbot. Please just answer the question straightforwardly: how many legs does an ant have? Eugene: Something between 2 and 4. Maybe, three? :- ))) Oh, what a fruitful conversation;-) Scott: Do you understand why I’m asking such basic questions? Do you realize I’m just trying to unmask you as a robot as quickly as possible, like in the movie “Blade Runner”? Eugene: …wait Scott: Do you think your ability to fool unsophisticated judges indicates a flaw with the Turing Test itself, or merely with the way people have interpreted the test? http://www.scottaaronson.com/blog/?p=1858 |
smallie hat folgendes geschrieben: | ||||
Auf welchem Planeten warst du die letzten 50 Jahre? STAR WARS war nur möglich, weil Herr Dykstra Computer einsetze, um die Raumschiffmodelle zu bewegen. Seitdem steht an so ziemlich jedem Arbeitsplatz ein Rechner. Wir haben mit dem Internet Zugang zu einer Fülle an Material. Dank tragbarer Telefoncomputer auch an fast allen Orten. |
smallie hat folgendes geschrieben: | ||
ITler - das ist ein Begriff, den Betriebswirtschaftler, Marketingleute, etc. benutzen. *naserümpf* Der richtige Fachbegriff ist CS - computer science. Du meinst, wenn man Denken und Fühlen als Informationsverarbeitung sieht, dann hätte man der Welt Computerwissenschaft übergestülpt? |
smallie hat folgendes geschrieben: | ||
Iudex non calculat, heißt es, das gilt für Theologen wohl auch. Physiker, Chemiker und Banker hingegen brauchen alle Mathematik. Banker brauchen Zineszinsrechnung, Biologen und Demographen kennen ein Bevölkerungswachstum; die Physiker schließlich kennen die Kettenreaktion im Atomkern. Das mathematische Prinzip dahinter ist bei allen das selbe: Der Zuwachs ist proportional zum dem, was schon da ist. Computerwisschenschaft scheint mir der Mathematik recht ähnlich zu sein. In beiden Fächern geht es oft um abstrakte Strukturen. (Ohne Beispiele.) |
smallie hat folgendes geschrieben: | ||
Gaaaanz schlechte Idee, sich auf die Bäume zu retten. Die sind schon von solchen Affen wie mir besetzt. Da bekommst du das gleiche zu hören. |
smallie hat folgendes geschrieben: | ||
Ich persönlich würde mich mit dem Mantra "Informationsverarbeitung" nicht aufhalten. Das Wort ist nur eine Hülse, und völlig wertlos, wenn man nichts Konkretes zum Ablauf sagen kann. |
smallie hat folgendes geschrieben: | ||||
Wir reden über "Informationsverarbeitung" nur, weil Epstein auf den Trichter gekommen ist, das fände im ZNS oder im Gehirn nicht statt.
Vergleiche, aus einem Standardwerk:
Herr Epstein ist Psychologe, vielleicht sollte er zunächst versuchen, sein eigenes Fachgebiet zu bekehren, bevor er unschuldigen Leuten im Feuilleton einredet, das Gehirn habe keine Erinnerungen. Übrigens behauptet Epstein im gleichen Artikel, das Gehirn habe doch Erinnerungen.
|
smallie hat folgendes geschrieben: |
Epstein ist derjenige, der eine falsche Metapher vom Computer hat und der mit Uropas statischen Konzepten kommt. Im Zitat aus der Introduction steht, daß es in der neuralen Verarbeitung viel um Differenzen und Wechsel geht.
Das ist technisch inzwischen umgesetzt und nennt sich Convolutional Neural Network CNN. Der Gedanke dahinter: die erste Verarbeitungsschicht ist nicht mehr mit allen Eingangsneuronen verbunden - das wäre bei der Zahl der Sehstäbchen im Augen kaum möglich - sondern man schnappt sich einen Ausschnitt, der meinetwegen nur, 5 x 5 Stäbchen betrachtet. Das Netz, das letztes oder vorletztes Jahr ATARI spielen lernte, war auch ein CNN. |
smallie hat folgendes geschrieben: | ||||
Falsche Metapher. Ich befürchte, die Kröte mußt du diesmal schlucken. |
Skeptiker hat folgendes geschrieben: |
Ich wollte sagen, wer nur Computer sieht und nichts anderes kennt, so wie der Bauer, der nur frisst, was er kennt und nur kennt, was er frisst und dann aufgrund dieses schmalen Bretts auf die Geheimnisse dieser Welt schließen möchte - also ich bitte dich. |
Skeptiker hat folgendes geschrieben: |
Der besagte Bauer kennt vielleicht Bratkartofeln mit Rührei. Nix gegen zu sagen. Aber deshalb ist nicht die gesamte globale Speisekarte Bratkartoffeln und Rührei. |
Skeptiker hat folgendes geschrieben: |
Die Computerologie ist sicher eine feine Sache. Wir können damit eine 1A-Planwirtschaft bauen. Aber ich sehe nicht, inwiefern die IT mehr sein kann als *nur* - na ja, was heisst in diesem Falle *nur*! - Werkzeug. Ein Werkzeug allerdings, welches ein Superpotenzial hat, wenn es nicht in das enge Korsett des Kapitalverhältnisses eingeschnürt, sondern als Open-Source-Produktionsmittel freigegeben wird.
Ich habe bereits an anderer Stelle hier über die Perspektive der Industrie 4.0 geschrieben. Aber ich bin der Meinung, dass Informatiker zu eng denken; Fachidiotentum ist eine Gefahr. |
Skeptiker hat folgendes geschrieben: | ||
Begriffe müssen in ihren Kontext gestellt werden. Das Wachstum einer mathematischen Kurve kennt keine Qualität, sondern nur Quantität. Wir hatten gerade eben mal über den dialektischen Umschlag von Quantität in Qualität gesprochen, was unquest wieder mal nicht verstanden hat. |
Skeptiker hat folgendes geschrieben: |
Die Idee eines Gehirns im Wasserglas ist lustig. Aber es ist Unsinn. Ohne den gesamten Organismus ist es reine Fantasie. |
Skeptiker hat folgendes geschrieben: | ||||
Epstein kenne ich nicht, |
Skeptiker hat folgendes geschrieben: |
aber er wird wohl kaum behaupten, dass es kein Gedächtnis gibt. So wie ich ihn aufgrund der kurzen Zitatschnipsel verstehe, meint er, dass die Arbeitsweise des Gedächtnisses anders ist als die Speicherung von Informationen in Computern. |
Epstein hat folgendes geschrieben: |
No matter how hard they try, brain scientists and cognitive psychologists will never find a copy of Beethoven’s 5th Symphony in the brain – or copies of words, pictures, grammatical rules or any other kinds of environmental stimuli. |
Epstein hat folgendes geschrieben: |
The human brain isn’t really empty, of course. But it does not contain most of the things people think it does – not even simple things such as ‘memories’. |
Skeptiker hat folgendes geschrieben: | ||
Ach so und dann werden die "gestreuten" Endsignale wieder algorithmisch zusammengesetzt, um auf die Gesamtheit aller ursprünglichen Eingangsignale rückzuschließen? |
neurosemantik hat folgendes geschrieben: |
Selbst wenn das völlig Unmögliche gelänge: was wäre damit gewonnen? :
Ein weiterer in der Funktion menschenähnlicher Denkapparat, der genau so wenig wie irgend ein Mensch die Märkte oder das Wetter oder sonst etwas prognostizieren könnte oder sich sonst wie einen Vorteil verschaffen könnte. Und ganz bestimmt könnte man durch das Wissen, das bei der Konstruktion einer solchen gigantischen Über-Maschine gewonnen würde noch kein Parkinson oder Alzheimer heilen. Der Mensch ist in seiner Der-Wunsch-ist-der-Vater-des-Gedankens-Ephorie einfach nicht in der Lage das machbare vom technisch undurchführbaren zu unterscheiden und so werden noch viele Milliarden, mit denen man die wichtigen Probleme der Menschheit angehen könnte für irgendwelche Spielereien vergeudet... |
neurosemantik hat folgendes geschrieben: |
....
Der Mensch ist in seiner Der-Wunsch-ist-der-Vater-des-Gedankens-Ephorie einfach nicht in der Lage das machbare vom technisch undurchführbaren zu unterscheiden und so werden noch viele Milliarden, mit denen man die wichtigen Probleme der Menschheit angehen könnte für irgendwelche Spielereien vergeudet... |
Zitat: |
An artificial intelligence method developed by University College London computer scientists and associates has predicted the judicial decisions of the European Court of Human Rights (ECtHR) with 79% accuracy, according to a paper published Monday, Oct. 24 in PeerJ Computer Science.
The method is the first to predict the outcomes of a major international court by automatically analyzing case text using a machine-learning algorithm.* |
Zitat: |
Wie viele Arbeitsplätze werden durch eine superintelligenten KI verschwinden?
Langfristig werden mehr oder weniger alle Jobs zerstört. Das Ziel der Automatisierung ist vollständige Erwerbslosigkeit. Wir entwickeln sie weiter, um immer mehr mit weniger zu tun. Im Idealfall können wir ohne Anstrengung alles tun, was wir wollen. Wenn alles gut geht, müssen wir langfristig nicht mehr für Geld arbeiten. Wir wären frei, Dinge zu tun, die wir für wirklich sinnvoll halten. ... doch letztlich müssen wir das Problem lösen, welche Motivation wir der KI vorgeben. Wir müssen sie so entwickeln, dass sie sicher ist, auch wenn sie flüchtet. Sie muss fundamental auf unserer Seite stehen und uns helfen wollen, unsere Ziele zu erreichen. Gelingt dies, wäre es für uns von Vorteil, die KI so mächtig wie möglich zu bauen. ... Mit genügend fortgeschrittener Intelligenz erhält man Empathie sozusagen gratis dazu. Doch damit sich eine KI um das Wohl der anderen kümmert, müssen ihr die Ingenieure spezifische Ziele vorgeben. ... Einem System, das leiden kann, sollten wir kein Leid zufügen – genauso, wie es unnötig ist, Tiere zu quälen. Das Problem wird aktuell, sobald KI das Niveau von Tieren erreicht. Nehmen Sie ein System, das alle Fähigkeiten einer Maus hat. Da stellt sich die Frage, ob es auch dasselbe subjektive Empfinden hat. Wenn dem so wäre, hätte es moralischen Status, und das Wohlergehen des Systems müsste bei Experimenten berücksichtigt werden. Doch es gibt zwei Probleme: Erstens verstehen wir nicht, was das minimal nötige Kriterium für reales Bewusstsein ist. Zweitens haben wir heute schon Schwierigkeiten, Empathie mit Tieren zu empfinden. In Schlachthäusern behandeln wir sie nicht gut – und das, obwohl sie Gesichter haben, quietschen und ihr Unbehagen so ausdrücken können, dass wir es intuitiv verstehen. Bei Algorithmen geschieht das unsichtbar auf einem Computerchip; umso schwieriger wird es, für eine KI Mitgefühl zu empfinden. |
NZZ-Gespräch hat folgendes geschrieben: |
Was, wenn eine superintelligente Maschine ein Eigenleben entwickelt? Interessiert sie sich für uns Menschen oder sind wir wie Ameisen?
Vor allem in der frühen Phase wird eine KI ein Interesse am Menschen haben, da ihr Überleben oder die Integrität ihres Zielsystems von ihm abhängt. Längerfristig könnten wir irrelevant werden – aber nicht völlig, da wir immer noch Ressourcen enthalten. Unsere Atome könnten für die Zwecke gebraucht werden, die eine KI bevorzugt. |
smallie hat folgendes geschrieben: |
PS: Hat eigentlich schon mal jemand das Fermi-Paradox auf KI ausgedehnt? Offensichtlich sollte interstellarer Raumflug für Maschinen leichter sein, als für biologische Lebewesen, weil alle lebenserhaltenden Systeme entfallen können. Trotzdem ist noch keine KI bei uns aufgetaucht. Entweder gibt es außer uns noch kein höherentwickeltes Leben in der Galaxie. Falls doch, dann gibt es keine KI. |
smallie hat folgendes geschrieben: |
Ok, überzeugt.
Mein Gedanke ging so:
- Menschen in einem interstellaren Raumschiff brauchen ebenfalls dieses Raumschiff und zusätzlich noch weitere Teile für die Lebenserhaltung. Luft, Wasser, Nahrung und so weiter. Mehr missionskritische Teile = höhere Wahrscheinlichkeit für Totalausfall Der Vergleich hinkt aber, denn ein Mensch ist bereits eine sich selbstreproduzierende Maschine; eine KI hingegen nicht. Gehen Teile der KI kaputt, dann braucht die KI eine autonome Fabrik, um Ersatzteile herzustellen. Oder um neue KIs zu bauen, die das Fermi-Spiel spielen. So eine autonome Fabrik hat gewiß eine sehr hohe Anzahl von Teilen und ist damit ebenfalls störanfällig. Bei Lebewesen gehört das zur Grundausstattung. Energie kann körpereigen im Verdauungsystem hergestellt werden, Zellen reparieren sich selbst, zur Fortpflanzung braucht man keine große Bedienungsanleitung, und so weiter. Diesen Grad an Autarkie müssen Maschinen erst einmal erreichen. |
smallie hat folgendes geschrieben: |
Der Vergleich hinkt aber, denn ein Mensch ist bereits eine sich selbstreproduzierende Maschine; eine KI hingegen nicht. |
Kramer hat folgendes geschrieben: | ||
Ich denke mal, die Selbstreproduktion ist bei einer KI das geringere Problem. Das haben schon weniger intelligente Programme heute schon drauf - sonst müsste man seinen PC nicht mit Firewalls und Virenscannern schützen. Und es ist wahrscheinlich auch einfacher, ein Raumschiff mit redundanter Hardware für KI-Programme auszustatten, als mit redundanten Lebenserhaltungssystemen für biologische Lebewesen. |
output generated using printer-friendly topic mod. Alle Zeiten sind GMT + 1 Stunde