Künstliche Intelligenz - Interessante Nachrichten aus der Praxis
Wähle Beiträge von
# bis # FAQ
[/[Drucken]\]
Gehe zu Seite Zurück  1, 2, 3 ... 11, 12, 13 ... 16, 17, 18  Weiter  :| |:
Freigeisterhaus -> Wissenschaft und Technik

#331:  Autor: SkeptikerWohnort: 129 Goosebumpsville BeitragVerfasst am: 15.02.2020, 12:16
    —
zelig hat folgendes geschrieben:
Zitat:
2019 gelang KI-Forschern ein verblüffender Durchbruch: Seitdem übertreffen ihre Computer den Menschen bei Lesetests. Aber können diese Systeme tatsächlich Sätze verstehen?
...
Doch viele Forscher halten es für fraglich, ob es jemals einen Test geben wird, der uns zweifelsfrei davon überzeugt, dass eine Maschine echte künstliche Intelligenz anwendet. Man denke nur an Schach: »Schach sah immer wie ein wirklich guter Intelligenztest aus. Bis wir herausfanden, wie man einen Schachcomputer programmiert«, sagt Bowman.


https://www.spektrum.de/news/kuenstliche-intelligenz-scheint-besser-in-sprachtests-als-der-mensch/1705760


Schachcomputer und die neuen KI-Lesealgorithmen zeigen doch nur, dass Intelligenz etwas ganz anderes ist als Bewusstsein. Denken kann auch komplett unbewusst stattfinden und dies ist in gut programmierten Computerchips auch der Fall.

Was kann die Realität dafür, dass irgendwelche Forscher mit einer schlechten Philosophie ständig Intelligenz und Bewusstsein vermischt haben?

Nun kommen sie wieder mühsam auf den Trichter, dass beides von Natur aus von vorn herein getrennt war.

Von vertiefter Intelligenz zeugt dies nicht gerade, das ist die Meta-Pointe dieser Geschichte. Cool

#332:  Autor: stepWohnort: Germering BeitragVerfasst am: 15.02.2020, 13:07
    —
Skeptiker hat folgendes geschrieben:
zelig hat folgendes geschrieben:
... https://www.spektrum.de/news/kuenstliche-intelligenz-scheint-besser-in-sprachtests-als-der-mensch/1705760
Schachcomputer und die neuen KI-Lesealgorithmen zeigen doch nur, dass Intelligenz etwas ganz anderes ist als Bewusstsein.

Ja, und auch Sprachverständnis erfordert kein Bewußtsein. Und aus dieser Unterscheidung folgt natürlich keineswegs, daß nicht auch maschinelles Bewußtsein möglich wäre.

#333:  Autor: Marcellinus BeitragVerfasst am: 15.02.2020, 13:24
    —
step hat folgendes geschrieben:
Skeptiker hat folgendes geschrieben:
zelig hat folgendes geschrieben:
... https://www.spektrum.de/news/kuenstliche-intelligenz-scheint-besser-in-sprachtests-als-der-mensch/1705760
Schachcomputer und die neuen KI-Lesealgorithmen zeigen doch nur, dass Intelligenz etwas ganz anderes ist als Bewusstsein.

Ja, und auch Sprachverständnis erfordert kein Bewußtsein. Und aus dieser Unterscheidung folgt natürlich keineswegs, daß nicht auch maschinelles Bewußtsein möglich wäre.

Die entscheidende Frage stellt der Artikel selbst, nämlich ob es sich dabei um Sprachverständnis, oder nicht eher um Sprachalgorithem handelt, mithin also um die Frage, was KI eigentlich mit Intelligenz zu tun hat.

#334:  Autor: Marcellinus BeitragVerfasst am: 15.02.2020, 13:34
    —
Das eigentliche Problem scheint mir, daß Maschinen immer mehr Dinge tun, und damit auch Entscheidungen treffen, für die man eigentlich Menschen bräuchte, während sich die Menschen darauf beschränken, nur noch stichprobenartig diese Tätigkeiten zu überprüfen, wenn überhaupt, und ansonsten in ihrer übergroßen Zahl einfach verdummen, so daß zunehmend weniger Menschen überhaupt in der Lage sind, die Tätigkeiten der Maschinen zu überprüfen. Erste bittere Erfahrungen mit aus dem Ruder laufenden Algorithmen haben wir ja im Wertpapierhandel schon gemacht. Mich erinnert das alles an die Geschichte vom Zauberlehrling (oder müßte man heute Zauber*innen-Azubi sagen?)

#335:  Autor: stepWohnort: Germering BeitragVerfasst am: 15.02.2020, 15:16
    —
Marcellinus hat folgendes geschrieben:
Die entscheidende Frage stellt der Artikel selbst, nämlich ob es sich dabei um Sprachverständnis, oder nicht eher um Sprachalgorithem handelt ...

Diese Frage sollten wir langsam mal hinter uns lassen. Was sonst soll denn Sprachverständnis sein, wenn nicht die Fähigkeit, sinnvoll und kontextbezogen zu antworten? Muß es Knochen und blonde Haare haben?

#336:  Autor: zelig BeitragVerfasst am: 15.02.2020, 15:30
    —
step hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
Die entscheidende Frage stellt der Artikel selbst, nämlich ob es sich dabei um Sprachverständnis, oder nicht eher um Sprachalgorithem handelt ...

Diese Frage sollten wir langsam mal hinter uns lassen. Was sonst soll denn Sprachverständnis sein, wenn nicht die Fähigkeit, sinnvoll und kontextbezogen zu antworten? Muß es Knochen und blonde Haare haben?
in gewisser Weise genau das. Denn der Kontext, den du meinst, ist selbstrefennziell, er hat keinen Bezug zu dem, worauf ein Begriff zeigt.

Sorry für Fehler, getippt vom handy

#337:  Autor: stepWohnort: Germering BeitragVerfasst am: 15.02.2020, 16:14
    —
zelig hat folgendes geschrieben:
step hat folgendes geschrieben:
Was sonst soll denn Sprachverständnis sein, wenn nicht die Fähigkeit, sinnvoll und kontextbezogen zu antworten? Muß es Knochen und blonde Haare haben?
in gewisser Weise genau das. Denn der Kontext, den du meinst, ist selbstrefennziell, er hat keinen Bezug zu dem, worauf ein Begriff zeigt.

Sprache abstrahiert und formalisiert ihren Kontext sowieso, mit einem Rest an sozial oder sogar individuell spezifischen Qualia - etwas weniger bei deskriptiven Aussagen, etwas mehr bei Gefühlsäußerungen. Ich denke, Sprache funktioniert zu einem Gutteil gerade deswegen, weil sie ein Mindestmaß an Kontextabstraktion erlaubt. Das macht sie verständlich bzw. nützlich.

Zudem ist der Kontext, den ich meine, nicht selbstreferentiell, da er sich auf die physische Welt bezieht. Der Delfin macht sich ein Bild der Welt, der Mensch auch, und die KI (potenziell) ebenso. Jeweils mit unterschiedlich viel begleitenden Faktoren wie Selbstbewußtheit, Hormonschwankungen etc.

#338:  Autor: Marcellinus BeitragVerfasst am: 15.02.2020, 16:26
    —
step hat folgendes geschrieben:

Zudem ist der Kontext, den ich meine, nicht selbstreferentiell, da er sich auf die physische Welt bezieht. Der Delfin macht sich ein Bild der Welt, der Mensch auch, und die KI (potenziell) ebenso. Jeweils mit unterschiedlich viel begleitenden Faktoren wie Selbstbewußtheit, Hormonschwankungen etc.

Nein, Menschen wie Delfine, und deren Wahrnehmungs- und Selbstwahrnehmungsfähigkeiten sind evolutionär in der Auseinandersetzung mit ihrer jeweiligen Umgebung in Jahrmillionen entstanden. KIs sind dagegen von Menschen geschaffene Werkzeuge, noch dazu von Menschen, deren Bild von sich selbst und der eigenen Intelligenz durchaus noch ausbaufähig ist. Die Idee, Maschinen auf dieser Entwicklungsstufe mit Lebenwesen gleichsetzen zu wollen, ist schon ziemlich mutig.

#339:  Autor: smallie BeitragVerfasst am: 15.02.2020, 16:53
    —
Marcellinus hat folgendes geschrieben:
step hat folgendes geschrieben:
Skeptiker hat folgendes geschrieben:
Schachcomputer und die neuen KI-Lesealgorithmen zeigen doch nur, dass Intelligenz etwas ganz anderes ist als Bewusstsein.

Ja, und auch Sprachverständnis erfordert kein Bewußtsein. Und aus dieser Unterscheidung folgt natürlich keineswegs, daß nicht auch maschinelles Bewußtsein möglich wäre.

Die entscheidende Frage stellt der Artikel selbst, nämlich ob es sich dabei um Sprachverständnis, oder nicht eher um Sprachalgorithem handelt, mithin also um die Frage, was KI eigentlich mit Intelligenz zu tun hat.

Das Zitat zur entscheidenden Frage:

SdW hat folgendes geschrieben:
Doch schon die Autoren der Studie selbst vermuteten, die Erklärung sei banaler: BERT könnte sich an oberflächlichen Mustern in der Formulierung der Voraussetzungen orientiert haben. Als sie ihre Trainingsdaten auf Hinweise darauf durchgingen, entdeckten sie zahlreiche solcher unerwünschter Anhaltspunkte. Nur ein Beispiel: Hätte BERT lediglich gelernt, immer diejenige Voraussetzung auszuwählen, die das Wort »nicht« enthielt, wäre er bereits auf eine Trefferquote von 61 Prozent gekommen. Entfernten die Forscher diese Schleichwege, sank BERTs Score von 77 auf 53. Er war dann nicht besser als jemand, der jede Antwort per Münzwurf ermittelt.

Die Algorithmen schnitten deshalb so gut im Test ab, weil sie die Klischees fanden, die in den Tests versteckt waren. Ihr gutes Abschneiden war ein Anzeichen für schlechte Tests.


Marcellinus hat folgendes geschrieben:
Das eigentliche Problem scheint mir, daß Maschinen immer mehr Dinge tun, und damit auch Entscheidungen treffen, für die man eigentlich Menschen bräuchte, während sich die Menschen darauf beschränken, nur noch stichprobenartig diese Tätigkeiten zu überprüfen, wenn überhaupt, und ansonsten in ihrer übergroßen Zahl einfach verdummen, so daß zunehmend weniger Menschen überhaupt in der Lage sind, die Tätigkeiten der Maschinen zu überprüfen.

Ahhm, wie viele von Menschen getroffene Entscheidungen halten einer Überprüfung statt?

Der Bundesrechnungshof zum Beispiel prüft auch nur stichprobenartig. Würde er flächendeckend prüfen, käme sicher ganz schön was zusammen. Gilt vermutlich immer und überall.

#340:  Autor: smallie BeitragVerfasst am: 15.02.2020, 16:56
    —
zelig hat folgendes geschrieben:
Zitat:
Doch viele Forscher halten es für fraglich, ob es jemals einen Test geben wird, der uns zweifelsfrei davon überzeugt, dass eine Maschine echte künstliche Intelligenz anwendet.

Falls mich eine Maschine zum Nachdenken bringt oder zur Einsicht eines Fehlers, reicht mir das.


Artikel hat folgendes geschrieben:
»Schach sah immer wie ein wirklich guter Intelligenztest aus. Bis wir herausfanden, wie man einen Schachcomputer programmiert«, sagt Bowman.

Menschen wurden als intelligent betrachtet. Bis wir herausfanden, wie programmiert sie sind. Pfeifen zynisches Grinsen

#341:  Autor: stepWohnort: Germering BeitragVerfasst am: 15.02.2020, 17:18
    —
smallie hat folgendes geschrieben:
Der Bundesrechnungshof zum Beispiel prüft auch nur stichprobenartig. Würde er flächendeckend prüfen, käme sicher ganz schön was zusammen.

Ich kenne jemanden, der arbeitet gerade beruflich an einer KI Anwendung, die unregelmäßige Muster in Finanzdaten erkennt. Findet so viel wie ein Heer von Controllern / Finanzbeamten, obwohl überhaupt kein Kontextverständnis da ist.

#342:  Autor: stepWohnort: Germering BeitragVerfasst am: 15.02.2020, 17:33
    —
Marcellinus hat folgendes geschrieben:
Menschen wie Delfine, und deren Wahrnehmungs- und Selbstwahrnehmungsfähigkeiten sind evolutionär in der Auseinandersetzung mit ihrer jeweiligen Umgebung in Jahrmillionen entstanden. KIs sind dagegen von Menschen geschaffene Werkzeuge ...

Vorsicht: Die Evolution legte keineswegs den aktuellen Kontext in die Sprache, sondern hat nur die Fähigkeit entwickelt, daß Gehirne und Kehlköpfe Sprache und Kontext lernen können. Solange sprachliche Aussagen sich hauptsächlich auf Verhältnisse der realen Welt beziehen, besteht der Kontext daher vor allem aus modellierbaren Zusammenhängen. Damit ein solches modellfähiges neuronales Netzwerk entsteht, ist keine biologische Evolution nötig.

Zudem finde ich Deine Benutzung des Begriffs "geschaffen" problematisch, solange nicht klar ist, was das Minderwertige daran sein sollte. Der Mensch ist schließlich von etwas viel Dümmerem "geschaffen" worden als die KI. Und die KI ist auch nicht programmiert, sondern (verkürzt gesagt und mit Einschränkungen) nur ihre Lernfähigkeit.

Könnten Menschen denn Deiner Meinung nach prinzipiell den Kontext der Delfinsprache verstehen lernen? Ich denke: Ja, zumindest den Anteil davon, der sich auf Verhältnisse der realen Welt bezieht.

#343:  Autor: zelig BeitragVerfasst am: 15.02.2020, 18:41
    —
step hat folgendes geschrieben:
zelig hat folgendes geschrieben:
step hat folgendes geschrieben:
Was sonst soll denn Sprachverständnis sein, wenn nicht die Fähigkeit, sinnvoll und kontextbezogen zu antworten? Muß es Knochen und blonde Haare haben?
in gewisser Weise genau das. Denn der Kontext, den du meinst, ist selbstrefennziell, er hat keinen Bezug zu dem, worauf ein Begriff zeigt.

Sprache abstrahiert und formalisiert ihren Kontext sowieso, mit einem Rest an sozial oder sogar individuell spezifischen Qualia - etwas weniger bei deskriptiven Aussagen, etwas mehr bei Gefühlsäußerungen. Ich denke, Sprache funktioniert zu einem Gutteil gerade deswegen, weil sie ein Mindestmaß an Kontextabstraktion erlaubt. Das macht sie verständlich bzw. nützlich.

Zudem ist der Kontext, den ich meine, nicht selbstreferentiell, da er sich auf die physische Welt bezieht. Der Delfin macht sich ein Bild der Welt, der Mensch auch, und die KI (potenziell) ebenso. Jeweils mit unterschiedlich viel begleitenden Faktoren wie Selbstbewußtheit, Hormonschwankungen etc.


BERT ist selbstferentiell, weil er keine Semantik kann. Du kannst BERT mit allen Lexika der Welt füttern, aber die Analyse erfasst keine Bedeutung. Vielleicht ändert es sich ja mal, wenn die Systeme Bedeutung über einen visuellen Input (realer Objekte) lernen. Ich argumentiere hier nicht allgemein, sondern spezifisch im Zusammenhang mit dem Spektrum-Artikel.

#344:  Autor: stepWohnort: Germering BeitragVerfasst am: 15.02.2020, 19:40
    —
zelig hat folgendes geschrieben:
BERT ist selbstferentiell, weil er keine Semantik kann. ... Ich argumentiere hier nicht allgemein, sondern spezifisch im Zusammenhang mit dem Spektrum-Artikel.

OK, so kann man das sehen in bezug auf BERT.

zelig hat folgendes geschrieben:
... Vielleicht ändert es sich ja mal, wenn die Systeme Bedeutung über einen visuellen Input (realer Objekte) lernen.

Ich denke nicht, daß das unbedingt nötig ist - auch wenn es natürlich das Verständnis des Kontextes erweitern würde. Ein signifikanter Teil der Bedeutung eines Satzes liegt aber mE bereits in dem abstrakten Muster, das dieser Satz und seine Worte in Zusammenhang mit anderen Wörtern und Sätzen haben.

Nehmen wir an, Du würdest Dein semantisches Netzwerk zu "Hund" irgendwie aufmalen, z.B. Hund kann beißen, Du assoziiertst Fell, Bellen, Gefahr, weglaufen usw. - es wäre sicher sehr komplex und hätte verschiedene Ebenen, also attributive, Verhaltenswahrscheinlichkeiten, haptische, Gefühle usw.. Wenn eine KI eine Sprache lernt, würde sie ein einfacheres semantisches Netzwerk von "Hund" ausbilden, z.B. ohne Gefühle und ohne haptische Empfindungen, aber dieses Netzwerk würde doch auf eine bestimmte Weise äquivalent zu einer Vereinfachung Deines Netzes sein. Selbst zwischen zwei Menschen ist die Semantik ja nicht gleich, z.B. aufgrund unterschiedlicher Erinnerungen.

#345:  Autor: zelig BeitragVerfasst am: 16.02.2020, 10:49
    —
step hat folgendes geschrieben:
Wenn eine KI eine Sprache lernt, würde sie ein einfacheres semantisches Netzwerk von "Hund" ausbilden, z.B. ohne Gefühle und ohne haptische Empfindungen, aber dieses Netzwerk würde doch auf eine bestimmte Weise äquivalent zu einer Vereinfachung Deines Netzes sein. Selbst zwischen zwei Menschen ist die Semantik ja nicht gleich, z.B. aufgrund unterschiedlicher Erinnerungen.


Ja. Aber auf eine Weise, die das Sosein nicht berücksichtigen kann. Stell dir vor, der Hund wird vom Herrchen sehr geliebt. Verharrte das semantische Netz der KI nicht in einem Phantom-Status?

#346:  Autor: stepWohnort: Germering BeitragVerfasst am: 16.02.2020, 15:19
    —
zelig hat folgendes geschrieben:
step hat folgendes geschrieben:
Wenn eine KI eine Sprache lernt, würde sie ein einfacheres semantisches Netzwerk von "Hund" ausbilden, z.B. ohne Gefühle und ohne haptische Empfindungen, aber dieses Netzwerk würde doch auf eine bestimmte Weise äquivalent zu einer Vereinfachung Deines Netzes sein. Selbst zwischen zwei Menschen ist die Semantik ja nicht gleich, z.B. aufgrund unterschiedlicher Erinnerungen.
Ja. Aber auf eine Weise, die das Sosein nicht berücksichtigen kann. Stell dir vor, der Hund wird vom Herrchen sehr geliebt. Verharrte das semantische Netz der KI nicht in einem Phantom-Status?

War ja klar, daß Du gleich mit der Liebe daherkommst zwinkern Wie schon gesagt, je spezifischer eine Eigenschaft für den Menschen wird (z.B. Gefühle), desto abstrakter würde eine KI sie abbilden.

Aber nehmen wir dennoch Dein Beispiel: Die KI würde lernen, daß es eine Relation "Liebe" gibt vom Menschen zum Hund, die sich so und so äußert, die so und so in Worten beschrieben wird, die mit diesen und jenen Nebenwirkungen einhergeht. Die KI würde die Bedeutung von "Liebe" ungefähr so gut/schlecht verstehen, wie ein Gehörloser die Bedeutung von Musik erfassen kann, wenn er ausführlich beobachtet, mit Musikern redet, Analogien findet usw. - er kann sie nicht empfinden, aber doch wesentliche Teile ihrer Bedeutung erfassen.

Oder stell Dir einen, oBdA, Chinesen vor, der Hunde eher so kennt wir wir Masthähnchen. Der liest in einem Buch, daß ein Herrchen seinen Hund sehr "liebte". Dann denkt er vielleicht: "Hmm ... Liebe ist bedeutet das Gefühl meinen Kindern gegenüber, oder auch dem Großen Vorsitzenden" und versucht, bestimmte mehr oder weniger abstrakte Attribute dieses Gefühls (verehren, sich kümmern, gern dran denken, ...) auf die Relation zum Hund in dem Buch zu übertragen, um diesem Satz Bedeutung zu verleihen. Was dabei herauskommt, ist eine andere Bedeutung als die vom Autor intendierte, aber auch nicht völlig anders - auf einer gewissen Ebene kongruent vielleicht.

Wenn Du nun natürlich definierst, daß alles außer einem physischen und naturgetreuen Nachempfinden nur "Phantom" sei, dann landen wir schnell beim Solipsismus.

#347:  Autor: zelig BeitragVerfasst am: 16.02.2020, 16:07
    —
step hat folgendes geschrieben:
zelig hat folgendes geschrieben:
step hat folgendes geschrieben:
Wenn eine KI eine Sprache lernt, würde sie ein einfacheres semantisches Netzwerk von "Hund" ausbilden, z.B. ohne Gefühle und ohne haptische Empfindungen, aber dieses Netzwerk würde doch auf eine bestimmte Weise äquivalent zu einer Vereinfachung Deines Netzes sein. Selbst zwischen zwei Menschen ist die Semantik ja nicht gleich, z.B. aufgrund unterschiedlicher Erinnerungen.
Ja. Aber auf eine Weise, die das Sosein nicht berücksichtigen kann. Stell dir vor, der Hund wird vom Herrchen sehr geliebt. Verharrte das semantische Netz der KI nicht in einem Phantom-Status?

War ja klar, daß Du gleich mit der Liebe daherkommst ;-)


Oha, scheint ja notorisch bei mir zu sein. Ich muss mal drauf achten.


step hat folgendes geschrieben:
Die KI würde die Bedeutung von "Liebe" ungefähr so gut/schlecht verstehen, wie ein Gehörloser die Bedeutung von Musik erfassen kann, wenn er ausführlich beobachtet, mit Musikern redet, Analogien findet usw. - er kann sie nicht empfinden, aber doch wesentliche Teile ihrer Bedeutung erfassen.


Sag mal genau, worauf denn die KI nach deiner Meinung verweist? Doch nicht auf die Musik selber, oder?

#348:  Autor: stepWohnort: Germering BeitragVerfasst am: 16.02.2020, 17:31
    —
zelig hat folgendes geschrieben:
step hat folgendes geschrieben:
Die KI würde die Bedeutung von "Liebe" ungefähr so gut/schlecht verstehen, wie ein Gehörloser die Bedeutung von Musik erfassen kann, wenn er ausführlich beobachtet, mit Musikern redet, Analogien findet usw. - er kann sie nicht empfinden, aber doch wesentliche Teile ihrer Bedeutung erfassen.
Sag mal genau, worauf denn die KI nach deiner Meinung verweist? Doch nicht auf die Musik selber, oder?

"Die Musik selber" gibt es nicht. Sowohl die KI als auch ein Mensch würden jeweils auf ein Bündel von Eigenschaften, Relationen usw. verweisen, das sie, ungenau aber effizient, mit dem Begriff "Musik" zusammenfassen.

#349:  Autor: zelig BeitragVerfasst am: 16.02.2020, 17:41
    —
step hat folgendes geschrieben:
zelig hat folgendes geschrieben:
step hat folgendes geschrieben:
Die KI würde die Bedeutung von "Liebe" ungefähr so gut/schlecht verstehen, wie ein Gehörloser die Bedeutung von Musik erfassen kann, wenn er ausführlich beobachtet, mit Musikern redet, Analogien findet usw. - er kann sie nicht empfinden, aber doch wesentliche Teile ihrer Bedeutung erfassen.
Sag mal genau, worauf denn die KI nach deiner Meinung verweist? Doch nicht auf die Musik selber, oder?

"Die Musik selber" gibt es nicht. Sowohl die KI als auch ein Mensch würden jeweils auf ein Bündel von Eigenschaften, Relationen usw. verweisen, das sie, ungenau aber effizient, mit dem Begriff "Musik" zusammenfassen.

Existiert eine Differenz zwischen dem, worauf die KI und der Mensch verweist?

#350:  Autor: stepWohnort: Germering BeitragVerfasst am: 16.02.2020, 17:50
    —
zelig hat folgendes geschrieben:
step hat folgendes geschrieben:
Sowohl die KI als auch ein Mensch würden jeweils auf ein Bündel von Eigenschaften, Relationen usw. verweisen, das sie, ungenau aber effizient, mit dem Begriff "Musik" zusammenfassen.

Existiert eine Differenz zwischen dem, worauf die KI und der Mensch verweist?

Natürlich! Es existiert sogar eine Differenz zwischen dem, worauf 2 Menschen verweisen, wenn sie "Musik" sagen. Mein Punkt war, daß es genügend Überlappungen / Kongruenz im Geflecht der Bedeutungsaspekte geben muß, sonst funktioniert Sprache nicht. Und daß dies mE auch eine KI prinzipiell lernen kann, natürlich umso schwieriger, je mehr individuelle oder menschenspezifische Aspekte in einem Wort stecken.

#351:  Autor: zelig BeitragVerfasst am: 16.02.2020, 18:11
    —
step hat folgendes geschrieben:
zelig hat folgendes geschrieben:
step hat folgendes geschrieben:
Sowohl die KI als auch ein Mensch würden jeweils auf ein Bündel von Eigenschaften, Relationen usw. verweisen, das sie, ungenau aber effizient, mit dem Begriff "Musik" zusammenfassen.

Existiert eine Differenz zwischen dem, worauf die KI und der Mensch verweist?

Natürlich! Es existiert sogar eine Differenz zwischen dem, worauf 2 Menschen verweisen, wenn sie "Musik" sagen.

Ja. Wobei die entscheidende Differenz aus meiner Sicht die ist, daß die KI keine Erfahrung hat. Selbst jemand der Taub ist, hat einen kategorial abweichenden Bezug zur Musik gegenüber der KI. Der Taubstumme kann über die Analogie erfassen, daß Musik ähnlich wirkt wie vielleicht eine gute Mahlzeit, oder ein Gemälde. Die KI kann die Grenze über das Zeichensystem hinaus nicht überspringen. Falls doch, wäre ich geneigt es als Lebewesen zu betrachten.

#352:  Autor: stepWohnort: Germering BeitragVerfasst am: 16.02.2020, 18:32
    —
zelig hat folgendes geschrieben:
Wobei die entscheidende Differenz aus meiner Sicht die ist, daß die KI keine Erfahrung hat.

Hmm ... doch, sie lernt das Einsortieren von Phänomenen in Bedeutungskategorien.

zelig hat folgendes geschrieben:
Selbst jemand der Taub ist, hat einen kategorial abweichenden Bezug zur Musik gegenüber der KI. Der Taubstumme kann über die Analogie erfassen, daß Musik ähnlich wirkt wie vielleicht eine gute Mahlzeit, oder ein Gemälde.

Weiß nicht, ob das wirklich so kategorial ist, oder nur graduell. Was der KI fehlt, sind ja manche Ebenen der Bedeutung, die z.B. über die Erfahrung mit Sinnen, Bewegung, Verdauung usw. kommt und die sich eine KI nur indirekt erschließen kann - oder phantomhaft, wie Du sagst. Die Bedeutung des Ausdrucks "dieses Haus da vorn an der Ecke" wäre für eine KI mit Roboter dran nochmal deutlich faßbarer als für eine reine KI.

zelig hat folgendes geschrieben:
Die KI kann die Grenze über das Zeichensystem hinaus nicht überspringen.

Ich habe ja Beispiele genannt, wo zumindest einige Bedeutungsebenen gelernt werden könnten. Daher würde ich eher sagen, eine reine KI (ohne Roboter, Sensorik usw. dran) hat eine ähnliche Grenze wie ein menschliches Gehirn, das "im Tank" lernt.

zelig hat folgendes geschrieben:
Falls doch, wäre ich geneigt es als Lebewesen zu betrachten.

Naja, "Lebewesen" bedeutet für viele ja auch Stoffwechsel, Fortpflanzung usw.

Aber wo wir gerade dabei sind: Welche Fähigkeit zum Erfassen von Bedeutung haben Deiner Ansicht nach nichtmenschliche Lebewesen?


Zuletzt bearbeitet von step am 16.02.2020, 19:16, insgesamt einmal bearbeitet

#353:  Autor: zelig BeitragVerfasst am: 16.02.2020, 18:44
    —
step hat folgendes geschrieben:
Aber wo wir gerade dabei sind: Welche Fähigkeit zum Erfassen von Bedeutung haben Deiner Ansicht nach nichtmenschliche Lebewesen?


Als notwendige Bedingung muss es einen Begriff von sich selber und seiner Stellung zur Umwelt bilden können.

Hast Du eigentlich mal "A.I." gesehen?

#354:  Autor: stepWohnort: Germering BeitragVerfasst am: 16.02.2020, 19:32
    —
zelig hat folgendes geschrieben:
step hat folgendes geschrieben:
Aber wo wir gerade dabei sind: Welche Fähigkeit zum Erfassen von Bedeutung haben Deiner Ansicht nach nichtmenschliche Lebewesen?
Als notwendige Bedingung muss es einen Begriff von sich selber und seiner Stellung zur Umwelt bilden können.

Da hast Du aber was ganz Anderes beantwortet als meine Frage. Oder willst Du damit sagen, daß Tiere, die keinen Begriff von sich selbst haben, keine Bedeutung erfassen können?

zelig hat folgendes geschrieben:
Hast Du eigentlich mal "A.I." gesehen?

Ja, vor langer Zeit, fand ich aber ziemlich schlecht. Die enthaltenen interessanten Aspekte gehen irgendwie unter in Kitsch und Gesülze. Außerdem hat mich das "amerikanische" Mutterbild total genervt, das ja zudem einige der Probleme erst schafft.

#355:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 17.02.2020, 14:38
    —
step hat folgendes geschrieben:
zelig hat folgendes geschrieben:
step hat folgendes geschrieben:
Aber wo wir gerade dabei sind: Welche Fähigkeit zum Erfassen von Bedeutung haben Deiner Ansicht nach nichtmenschliche Lebewesen?
Als notwendige Bedingung muss es einen Begriff von sich selber und seiner Stellung zur Umwelt bilden können.

Da hast Du aber was ganz Anderes beantwortet als meine Frage. Oder willst Du damit sagen, daß Tiere, die keinen Begriff von sich selbst haben, keine Bedeutung erfassen können?
...

An welch anderem Kennzeichen als an der adäquaten Reaktion lässt sich überhaupt erkennen, dass ein System die Bedeutung einer Situation erfasst hat?

#356:  Autor: stepWohnort: Germering BeitragVerfasst am: 17.02.2020, 16:51
    —
fwo hat folgendes geschrieben:
step hat folgendes geschrieben:
zelig hat folgendes geschrieben:
step hat folgendes geschrieben:
Aber wo wir gerade dabei sind: Welche Fähigkeit zum Erfassen von Bedeutung haben Deiner Ansicht nach nichtmenschliche Lebewesen?
Als notwendige Bedingung muss es einen Begriff von sich selber und seiner Stellung zur Umwelt bilden können.
Da hast Du aber was ganz Anderes beantwortet als meine Frage. Oder willst Du damit sagen, daß Tiere, die keinen Begriff von sich selbst haben, keine Bedeutung erfassen können? ...
An welch anderem Kennzeichen als an der adäquaten Reaktion lässt sich überhaupt erkennen, dass ein System die Bedeutung einer Situation erfasst hat?

Ich hab doch gar nix gegen die adäquate Reaktion als Kriterium.

#357:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 17.02.2020, 18:44
    —
step hat folgendes geschrieben:
fwo hat folgendes geschrieben:
step hat folgendes geschrieben:
zelig hat folgendes geschrieben:
step hat folgendes geschrieben:
Aber wo wir gerade dabei sind: Welche Fähigkeit zum Erfassen von Bedeutung haben Deiner Ansicht nach nichtmenschliche Lebewesen?
Als notwendige Bedingung muss es einen Begriff von sich selber und seiner Stellung zur Umwelt bilden können.
Da hast Du aber was ganz Anderes beantwortet als meine Frage. Oder willst Du damit sagen, daß Tiere, die keinen Begriff von sich selbst haben, keine Bedeutung erfassen können? ...
An welch anderem Kennzeichen als an der adäquaten Reaktion lässt sich überhaupt erkennen, dass ein System die Bedeutung einer Situation erfasst hat?

Ich hab doch gar nix gegen die adäquate Reaktion als Kriterium.
fett von mir
Die Frage ging auch nicht speziell an Dich.
Dass die adäquate Reaktion ein Kriterium ist, ist auch klar - meine Frage ist deshalb, ob es noch mehr gibt, sowie Knochen oder brünettes Haar (blond war nicht so ein gutes Beispiel).

#358:  Autor: smallie BeitragVerfasst am: 20.02.2020, 20:23
    —
Letzte Jahr stellte OpenAI ihr GPT-2 vor, ein neuronales Netz, das mit 8 Millionen Texten trainiert wurde. Es kann Texte schreiben zu solchen Aufgaben:

    - Für die heutige Hausaufgabe beschreiben Sie bitte die Gründe für den US-Bürgerkrieg.
    - Legolas und Gimli rückten auf die Orks vor und erhoben ihre Waffen mit einem erschütternden Kriegsschrei.

Die Ergebnisse sind wie ein Brabbeln, das statt Lauten und Silben ganze Sätze hervorbringt. Siehe Link. Verblüffend sind sie dennoch.




Das ist der Hintergrund zu folgendem Artikel von Scott Alexander. Ich habe ihn von DeepL übersetzen lassen.

Slate Star Codex hat folgendes geschrieben:
MEANINGFUL
FEBRUARY 28, 2019


Zwei Kinder lesen einen von einer KI geschriebenen Text:

    Die Jungen spritzten sich gegenseitig Wasser ins Gesicht, bis sie beide klatschnass waren.

Ein Kind sagt zum anderen: "Wow! Nachdem es einen Text gelesen hat, versteht die KI, was Wasser ist!

Das zweite Kind sagt: "Es versteht nicht wirklich."

Das erste Kind sagt: "Klar doch! Es versteht, dass Wasser die Art von Substanz ist, die spritzt. Es versteht, dass Menschen, die mit Wasser bespritzt werden, nass werden. Was gibt es sonst noch zu verstehen?"

Das zweite Kind sagt: "Es versteht nur die Beziehungen zwischen den Wörtern. Keines der Wörter hat eine Verbindung zur Realität. Es hat keine innere Vorstellung davon, wie Wasser aussieht oder wie es sich anfühlt, wenn es nass ist. Nur, dass die Buchstaben W-A-S-S-E-R, wenn sie in der Nähe der Buchstaben S-P-R-I-T-Z-E-N erscheinen, eine gewisse statistische Beziehung zu den Buchstaben N-A-S-S haben."

Das erste Kind beginnt zu weinen.

--------------------------------------------------------------------------------------------

Zwei Chemiker beobachten die Kinder beim Streiten miteinander. Der erste Chemiker sagt: "Wow! Nachdem sie eine KI gesehen haben, können diese Kinder über die Natur des Wassers diskutieren!

Der zweite Chemiker sagt: "Ironisch, nicht wahr? Schließlich verstehen die Kinder selbst nicht, was Wasser ist! Wasser besteht aus zwei Wasserstoffatomen und einem Sauerstoffatom, und keiner von beiden weiß es!"

Der erste Chemiker antwortet: "Komm schon. Das Kind weiß genug über Wasser, um zu sagen, dass es es es versteht. Sie weiß, wie es aussieht. Sie weiß, wie es schmeckt. Das sind so ziemlich die Grundlagen des Wassers."

Der zweite Chemiker antwortet: "Das sind nur Beziehungen zwischen den Sinnesdaten. ..."

https://slatestarcodex.com/2019/02/28/meaningful/

Die Chemiker argumentieren noch weiter, dann treten Engel auf, die über die Chemiker reden wie die Chemiker über die Kinder. Zum Schluß meint Gott dann lakonisch, der zelluläre Automat brächte heute wieder faszinierende Muster hervor. Was wohl als nächstes passiere?

#359:  Autor: stepWohnort: Germering BeitragVerfasst am: 20.02.2020, 21:08
    —
Das Beispiel gefällt mir, smallie!

#360:  Autor: zelig BeitragVerfasst am: 20.02.2020, 21:12
    —
Amüsanter Text. Aber für meinen Geschmack zu hierarchisch. Am Ende der Erzählung hätte ich gerne den lachendenden Diogenes mit einem Spielzeug in der Hand. : )



Freigeisterhaus -> Wissenschaft und Technik


output generated using printer-friendly topic mod. Alle Zeiten sind GMT + 1 Stunde

Gehe zu Seite Zurück  1, 2, 3 ... 11, 12, 13 ... 16, 17, 18  Weiter  :| |:
Seite 12 von 18

Powered by phpBB © 2001, 2005 phpBB Group