zelig hat folgendes geschrieben: | ||
https://www.spektrum.de/news/kuenstliche-intelligenz-scheint-besser-in-sprachtests-als-der-mensch/1705760 |
Skeptiker hat folgendes geschrieben: | ||
|
step hat folgendes geschrieben: | ||||
Ja, und auch Sprachverständnis erfordert kein Bewußtsein. Und aus dieser Unterscheidung folgt natürlich keineswegs, daß nicht auch maschinelles Bewußtsein möglich wäre. |
Marcellinus hat folgendes geschrieben: |
Die entscheidende Frage stellt der Artikel selbst, nämlich ob es sich dabei um Sprachverständnis, oder nicht eher um Sprachalgorithem handelt ... |
step hat folgendes geschrieben: | ||
Diese Frage sollten wir langsam mal hinter uns lassen. Was sonst soll denn Sprachverständnis sein, wenn nicht die Fähigkeit, sinnvoll und kontextbezogen zu antworten? Muß es Knochen und blonde Haare haben? |
zelig hat folgendes geschrieben: | ||
|
step hat folgendes geschrieben: |
Zudem ist der Kontext, den ich meine, nicht selbstreferentiell, da er sich auf die physische Welt bezieht. Der Delfin macht sich ein Bild der Welt, der Mensch auch, und die KI (potenziell) ebenso. Jeweils mit unterschiedlich viel begleitenden Faktoren wie Selbstbewußtheit, Hormonschwankungen etc. |
Marcellinus hat folgendes geschrieben: | ||||
Die entscheidende Frage stellt der Artikel selbst, nämlich ob es sich dabei um Sprachverständnis, oder nicht eher um Sprachalgorithem handelt, mithin also um die Frage, was KI eigentlich mit Intelligenz zu tun hat. |
SdW hat folgendes geschrieben: |
Doch schon die Autoren der Studie selbst vermuteten, die Erklärung sei banaler: BERT könnte sich an oberflächlichen Mustern in der Formulierung der Voraussetzungen orientiert haben. Als sie ihre Trainingsdaten auf Hinweise darauf durchgingen, entdeckten sie zahlreiche solcher unerwünschter Anhaltspunkte. Nur ein Beispiel: Hätte BERT lediglich gelernt, immer diejenige Voraussetzung auszuwählen, die das Wort »nicht« enthielt, wäre er bereits auf eine Trefferquote von 61 Prozent gekommen. Entfernten die Forscher diese Schleichwege, sank BERTs Score von 77 auf 53. Er war dann nicht besser als jemand, der jede Antwort per Münzwurf ermittelt. |
Marcellinus hat folgendes geschrieben: |
Das eigentliche Problem scheint mir, daß Maschinen immer mehr Dinge tun, und damit auch Entscheidungen treffen, für die man eigentlich Menschen bräuchte, während sich die Menschen darauf beschränken, nur noch stichprobenartig diese Tätigkeiten zu überprüfen, wenn überhaupt, und ansonsten in ihrer übergroßen Zahl einfach verdummen, so daß zunehmend weniger Menschen überhaupt in der Lage sind, die Tätigkeiten der Maschinen zu überprüfen. |
zelig hat folgendes geschrieben: | ||
|
Artikel hat folgendes geschrieben: |
»Schach sah immer wie ein wirklich guter Intelligenztest aus. Bis wir herausfanden, wie man einen Schachcomputer programmiert«, sagt Bowman. |
smallie hat folgendes geschrieben: |
Der Bundesrechnungshof zum Beispiel prüft auch nur stichprobenartig. Würde er flächendeckend prüfen, käme sicher ganz schön was zusammen. |
Marcellinus hat folgendes geschrieben: |
Menschen wie Delfine, und deren Wahrnehmungs- und Selbstwahrnehmungsfähigkeiten sind evolutionär in der Auseinandersetzung mit ihrer jeweiligen Umgebung in Jahrmillionen entstanden. KIs sind dagegen von Menschen geschaffene Werkzeuge ... |
step hat folgendes geschrieben: | ||||
Sprache abstrahiert und formalisiert ihren Kontext sowieso, mit einem Rest an sozial oder sogar individuell spezifischen Qualia - etwas weniger bei deskriptiven Aussagen, etwas mehr bei Gefühlsäußerungen. Ich denke, Sprache funktioniert zu einem Gutteil gerade deswegen, weil sie ein Mindestmaß an Kontextabstraktion erlaubt. Das macht sie verständlich bzw. nützlich. Zudem ist der Kontext, den ich meine, nicht selbstreferentiell, da er sich auf die physische Welt bezieht. Der Delfin macht sich ein Bild der Welt, der Mensch auch, und die KI (potenziell) ebenso. Jeweils mit unterschiedlich viel begleitenden Faktoren wie Selbstbewußtheit, Hormonschwankungen etc. |
zelig hat folgendes geschrieben: |
BERT ist selbstferentiell, weil er keine Semantik kann. ... Ich argumentiere hier nicht allgemein, sondern spezifisch im Zusammenhang mit dem Spektrum-Artikel. |
zelig hat folgendes geschrieben: |
... Vielleicht ändert es sich ja mal, wenn die Systeme Bedeutung über einen visuellen Input (realer Objekte) lernen. |
step hat folgendes geschrieben: |
Wenn eine KI eine Sprache lernt, würde sie ein einfacheres semantisches Netzwerk von "Hund" ausbilden, z.B. ohne Gefühle und ohne haptische Empfindungen, aber dieses Netzwerk würde doch auf eine bestimmte Weise äquivalent zu einer Vereinfachung Deines Netzes sein. Selbst zwischen zwei Menschen ist die Semantik ja nicht gleich, z.B. aufgrund unterschiedlicher Erinnerungen. |
zelig hat folgendes geschrieben: | ||
|
step hat folgendes geschrieben: | ||||
War ja klar, daß Du gleich mit der Liebe daherkommst ;-) |
step hat folgendes geschrieben: |
Die KI würde die Bedeutung von "Liebe" ungefähr so gut/schlecht verstehen, wie ein Gehörloser die Bedeutung von Musik erfassen kann, wenn er ausführlich beobachtet, mit Musikern redet, Analogien findet usw. - er kann sie nicht empfinden, aber doch wesentliche Teile ihrer Bedeutung erfassen. |
zelig hat folgendes geschrieben: | ||
|
step hat folgendes geschrieben: | ||||
"Die Musik selber" gibt es nicht. Sowohl die KI als auch ein Mensch würden jeweils auf ein Bündel von Eigenschaften, Relationen usw. verweisen, das sie, ungenau aber effizient, mit dem Begriff "Musik" zusammenfassen. |
zelig hat folgendes geschrieben: | ||
Existiert eine Differenz zwischen dem, worauf die KI und der Mensch verweist? |
step hat folgendes geschrieben: | ||||
Natürlich! Es existiert sogar eine Differenz zwischen dem, worauf 2 Menschen verweisen, wenn sie "Musik" sagen. |
zelig hat folgendes geschrieben: |
Wobei die entscheidende Differenz aus meiner Sicht die ist, daß die KI keine Erfahrung hat. |
zelig hat folgendes geschrieben: |
Selbst jemand der Taub ist, hat einen kategorial abweichenden Bezug zur Musik gegenüber der KI. Der Taubstumme kann über die Analogie erfassen, daß Musik ähnlich wirkt wie vielleicht eine gute Mahlzeit, oder ein Gemälde. |
zelig hat folgendes geschrieben: |
Die KI kann die Grenze über das Zeichensystem hinaus nicht überspringen. |
zelig hat folgendes geschrieben: |
Falls doch, wäre ich geneigt es als Lebewesen zu betrachten. |
step hat folgendes geschrieben: |
Aber wo wir gerade dabei sind: Welche Fähigkeit zum Erfassen von Bedeutung haben Deiner Ansicht nach nichtmenschliche Lebewesen? |
zelig hat folgendes geschrieben: | ||
|
zelig hat folgendes geschrieben: |
Hast Du eigentlich mal "A.I." gesehen? |
step hat folgendes geschrieben: | ||||
Da hast Du aber was ganz Anderes beantwortet als meine Frage. Oder willst Du damit sagen, daß Tiere, die keinen Begriff von sich selbst haben, keine Bedeutung erfassen können? ... |
fwo hat folgendes geschrieben: | ||||||
|
step hat folgendes geschrieben: | ||||||||
Ich hab doch gar nix gegen die adäquate Reaktion als Kriterium. |
Slate Star Codex hat folgendes geschrieben: |
MEANINGFUL
FEBRUARY 28, 2019 Zwei Kinder lesen einen von einer KI geschriebenen Text:
Ein Kind sagt zum anderen: "Wow! Nachdem es einen Text gelesen hat, versteht die KI, was Wasser ist! Das zweite Kind sagt: "Es versteht nicht wirklich." Das erste Kind sagt: "Klar doch! Es versteht, dass Wasser die Art von Substanz ist, die spritzt. Es versteht, dass Menschen, die mit Wasser bespritzt werden, nass werden. Was gibt es sonst noch zu verstehen?" Das zweite Kind sagt: "Es versteht nur die Beziehungen zwischen den Wörtern. Keines der Wörter hat eine Verbindung zur Realität. Es hat keine innere Vorstellung davon, wie Wasser aussieht oder wie es sich anfühlt, wenn es nass ist. Nur, dass die Buchstaben W-A-S-S-E-R, wenn sie in der Nähe der Buchstaben S-P-R-I-T-Z-E-N erscheinen, eine gewisse statistische Beziehung zu den Buchstaben N-A-S-S haben." Das erste Kind beginnt zu weinen. -------------------------------------------------------------------------------------------- Zwei Chemiker beobachten die Kinder beim Streiten miteinander. Der erste Chemiker sagt: "Wow! Nachdem sie eine KI gesehen haben, können diese Kinder über die Natur des Wassers diskutieren! Der zweite Chemiker sagt: "Ironisch, nicht wahr? Schließlich verstehen die Kinder selbst nicht, was Wasser ist! Wasser besteht aus zwei Wasserstoffatomen und einem Sauerstoffatom, und keiner von beiden weiß es!" Der erste Chemiker antwortet: "Komm schon. Das Kind weiß genug über Wasser, um zu sagen, dass es es es versteht. Sie weiß, wie es aussieht. Sie weiß, wie es schmeckt. Das sind so ziemlich die Grundlagen des Wassers." Der zweite Chemiker antwortet: "Das sind nur Beziehungen zwischen den Sinnesdaten. ..." https://slatestarcodex.com/2019/02/28/meaningful/ |
output generated using printer-friendly topic mod. Alle Zeiten sind GMT + 1 Stunde