Go
Wähle Beiträge von
# bis # FAQ
[/[Drucken]\]
Gehe zu Seite 1, 2  Weiter  :| |:
Freigeisterhaus -> Spiel, Spaß und Unterhaltung

#1: Go Autor: zelig BeitragVerfasst am: 10.03.2016, 18:56
    —
Heute hat der als weltbeste geltende Go-Spieler seine 2 Partie gegen ein Programm von Google verloren
Zitat:
Der derzeit weltbeste Spieler des asiatischen Brettspiels Go hat zum zweiten Mal gegen eine Google-Software verloren. Go-Profis weltweit sind fassungslos - auch angesichts der Spielweise der Künstlichen Intelligenz.

http://www.spiegel.de/netzwelt/gadgets/google-software-alphago-spielzuege-die-ein-mensch-nie-machen-wuerde-a-1081652.html

Verfolgt ihr das auch?
Ich finde es faszinierend, daß es ein selbstlernendes Programm ist. Doch nicht nur die Spielstärke selber beeindruckt, sondern vielleicht noch mehr die Tatsache, daß AlphaGo anscheinend bereits eine halbe Stunde vor dem Gegner eine Prognose abgeben konnte, die das Programm selber als sicheren Sieger voraussah.
Vielleicht

#2: Re: Go Autor: Marcellinus BeitragVerfasst am: 10.03.2016, 19:50
    —
zelig hat folgendes geschrieben:
Heute hat der als weltbeste geltende Go-Spieler seine 2 Partie gegen ein Programm von Google verloren
Zitat:
Der derzeit weltbeste Spieler des asiatischen Brettspiels Go hat zum zweiten Mal gegen eine Google-Software verloren. Go-Profis weltweit sind fassungslos - auch angesichts der Spielweise der Künstlichen Intelligenz.

http://www.spiegel.de/netzwelt/gadgets/google-software-alphago-spielzuege-die-ein-mensch-nie-machen-wuerde-a-1081652.html

Verfolgt ihr das auch?
Ich finde es faszinierend, daß es ein selbstlernendes Programm ist. Doch nicht nur die Spielstärke selber beeindruckt, sondern vielleicht noch mehr die Tatsache, daß AlphaGo anscheinend bereits eine halbe Stunde vor dem Gegner eine Prognose abgeben konnte, die das Programm selber als sicheren Sieger voraussah.
Vielleicht


Ich habe nicht den Eindruck, daß "faszinierend" genau das Wort ist, was asiatische Go-Spieler für dieses Ereignis verwenden würden. zwinkern

#3: Re: Go Autor: Tarvoc BeitragVerfasst am: 11.03.2016, 05:31
    —
Marcellinus hat folgendes geschrieben:
Ich habe nicht den Eindruck, daß "faszinierend" genau das Wort ist, was asiatische Go-Spieler für dieses Ereignis verwenden würden. zwinkern

Insofern sie englisch sprechen, beginnt das Wort, das sie verwenden, aber womöglich auch mit f. noc

#4:  Autor: zelig BeitragVerfasst am: 12.03.2016, 12:39
    —
Zitat:
Im Kräftevergleich zwischen Mensch und Computer im Brettspiel Go hat die Google-Software AlphaGo zum dritten Mal den Spitzenspieler Lee Sedol besiegt. Das Programm sicherte sich damit am Samstag in Seoul vorzeitig den Gesamtsieg in dem Fünf-Spiele-Match.


http://www.spiegel.de/netzwelt/gadgets/go-duell-software-alphago-siegt-gegen-lee-sedol-a-1081975.html

#5:  Autor: schtonk BeitragVerfasst am: 12.03.2016, 12:44
    —
Hört sich schon ein bisserl merkwürdig an: Das Programm sicherte sich den Gesamtsieg.

#6:  Autor: stepWohnort: Germering BeitragVerfasst am: 12.03.2016, 20:02
    —
Ich finde es interessant, die Kommentare der gekränkten Feuilletonisten zu verfolgen.

Vor dem Match herrschte der Ton vor: "Die KI ist zu dumm, ein solch komplexes Spiel zu gewinnen", "es fehlt die Intiuition" usw.

Nach dem Match tönt es jetzt: "Das Spiel ist nicht komplex genug", "das war keine echte Intuition", "kein Wunder, Google hat doch so viel Geld", ...

Hier ein schönes Beispiel:

Zitat:
die nachgeahmte Intuition von AlphaGo hat wenig gemein mit menschlicher. ... Manch offensive Spielzüge der Software würde ein Mensch nie so machen, sagen Go-Spieler: "Unser Lehrer hätte uns auf die Finger geklopft. So etwas tut man nicht." Kulturelle Gepflogenheit wie "das macht man nicht" werden eine der letzten Bastionen sein, die Computer verstehen.

http://www.spektrum.de/news/was-der-sieg-von-alphago-bedeutet/1403016

In der Tat, so einige "kulturelle Gepflogenheiten" sind für Intelligenzen sicher sehr schwer nachzuvollziehen ...

#7:  Autor: MisterfritzWohnort: badisch sibirien BeitragVerfasst am: 12.03.2016, 20:37
    —
step hat folgendes geschrieben:
Ich finde es interessant, die Kommentare der gekränkten Feuilletonisten zu verfolgen.

Vor dem Match herrschte der Ton vor: "Die KI ist zu dumm, ein solch komplexes Spiel zu gewinnen", "es fehlt die Intiuition" usw.

Nach dem Match tönt es jetzt: "Das Spiel ist nicht komplex genug", "das war keine echte Intuition", "kein Wunder, Google hat doch so viel Geld", ...

Hier ein schönes Beispiel:

Zitat:
die nachgeahmte Intuition von AlphaGo hat wenig gemein mit menschlicher. ... Manch offensive Spielzüge der Software würde ein Mensch nie so machen, sagen Go-Spieler: "Unser Lehrer hätte uns auf die Finger geklopft. So etwas tut man nicht." Kulturelle Gepflogenheit wie "das macht man nicht" werden eine der letzten Bastionen sein, die Computer verstehen.

http://www.spektrum.de/news/was-der-sieg-von-alphago-bedeutet/1403016

In der Tat, so einige "kulturelle Gepflogenheiten" sind für Intelligenzen sicher sehr schwer nachzuvollziehen ...
es gibt aber auch kommentare, die anders gelagert snd - weil sie die möglichkeiten, die über das spiel hinaus gehen, berücksichtigen.
Der Sieg der Google-Software AlphaGo gegen den wohl weltbesten Go-Profi macht einen Wendepunkt sichtbar: Künftig lernen Menschen von Maschinen. Das könnte uns sogar retten.

#8:  Autor: Tarvoc BeitragVerfasst am: 12.03.2016, 21:42
    —
Aus dem Artikel:

Zitat:
Das birgt eine Gefahr: Wenn wir uns auf die Vorhersagen der Rechenmaschinen verlassen, ohne zu begreifen, wie diese Vorhersagen zustandekommen, verabschieden wir uns vom Grundprinzip wissenschaftlicher Erkenntnis, ja von der Erkenntnis an sich: Die Black Box wird uns nicht verraten, wie sie auf ihr Ergebnis gekommen ist.

Richtig interessant wird's, wenn die Maschinen das irgendwann eben doch können.

#9:  Autor: stepWohnort: Germering BeitragVerfasst am: 12.03.2016, 22:03
    —
Tarvoc hat folgendes geschrieben:
Aus dem Artikel:
Zitat:
Das birgt eine Gefahr: Wenn wir uns auf die Vorhersagen der Rechenmaschinen verlassen, ohne zu begreifen, wie diese Vorhersagen zustandekommen, verabschieden wir uns vom Grundprinzip wissenschaftlicher Erkenntnis, ja von der Erkenntnis an sich: Die Black Box wird uns nicht verraten, wie sie auf ihr Ergebnis gekommen ist.
Richtig interessant wird's, wenn die Maschinen das irgendwann eben doch können.

Ja, und sie werden es bald können. Die Frage ist, ob sie es tun.

Es ist eben keine Abkehr vom wissenschaftlichen Prinzip, denn die Maschinen werden lernen, daß die wiss. Methode auch für sie die effizienteste ist, wenn es um Wissenserwerb geht. Aber eben nur wenn. Geht es dagegen um andere Dinge, z.B. die soziale Interaktion mit Mensch und Tier, dann sind sicher andere Kriterien wichtiger.

#10:  Autor: Marcellinus BeitragVerfasst am: 13.03.2016, 12:01
    —
step hat folgendes geschrieben:
Tarvoc hat folgendes geschrieben:
Aus dem Artikel:
Zitat:
Das birgt eine Gefahr: Wenn wir uns auf die Vorhersagen der Rechenmaschinen verlassen, ohne zu begreifen, wie diese Vorhersagen zustandekommen, verabschieden wir uns vom Grundprinzip wissenschaftlicher Erkenntnis, ja von der Erkenntnis an sich: Die Black Box wird uns nicht verraten, wie sie auf ihr Ergebnis gekommen ist.
Richtig interessant wird's, wenn die Maschinen das irgendwann eben doch können.

Ja, und sie werden es bald können. Die Frage ist, ob sie es tun.

Es ist eben keine Abkehr vom wissenschaftlichen Prinzip, denn die Maschinen werden lernen, daß die wiss. Methode auch für sie die effizienteste ist, wenn es um Wissenserwerb geht. Aber eben nur wenn. Geht es dagegen um andere Dinge, z.B. die soziale Interaktion mit Mensch und Tier, dann sind sicher andere Kriterien wichtiger.


Der Kern dieser Geschichte ist doch, daß Go ein Spiel mit festen, eindeutig zu definierenden Regeln ist. Das Wissen der Maschine zur Orientierung in diesem Spiel spielt sich also auf der gleichen Ebene ab wie das Spiel selbst. Es ist gewissermaßen eine eingleisig Veranstaltung.

Wissenschaften dagegen sind zweigleisig, einmal die menschengemachten, theoretischen Modelle, die uns die Orientierung innerhalb dieser Welt ermöglichen soll, und andererseits die Welt der Tatsachen selbst, die eben nicht aus menschengemachter Theorie besteht. Hier gibt es keine festen Regeln und auch nicht "die" eine Methode, an denen man die Richtigkeit von Modellen prüfen könnte, und damit auch nichts, an dem eine solche Maschine sich selbst weiterentwickeln kann.

So bedauerlich, wie das klingen mag, aber wissenschaftliche Orientierung in dieser Welt ist vermutlich auf einige Zeit noch Sache der Menschen, was nur fair ist, denn wir müssen die Folgen ja auch ausbaden. zwinkern

#11:  Autor: stepWohnort: Germering BeitragVerfasst am: 13.03.2016, 12:39
    —
Marcellinus hat folgendes geschrieben:
Der Kern dieser Geschichte ist doch, daß Go ein Spiel mit festen, eindeutig zu definierenden Regeln ist. Das Wissen der Maschine zur Orientierung in diesem Spiel spielt sich also auf der gleichen Ebene ab wie das Spiel selbst. Es ist gewissermaßen eine eingleisig Veranstaltung.

Die algorithmische Faßbarkeit ist bei Go besonders schlecht - die Reglen sind trivial, die Komplexität aber hoch. Der Kern der Geschichte ist daher gerade nicht die Einschränkung durch (wenige) Regeln. Im Gegensatz zu früheren Spielautomaten, etwa auch (früheren) Schachcomputern, spielt es sich hier nicht auf der Regelebene ab, sondern auf der eines neuronalen Netzes bzw. selbstlernenden Systems.

Marcellinus hat folgendes geschrieben:
Wissenschaften dagegen sind zweigleisig, einmal die menschengemachten, theoretischen Modelle, die uns die Orientierung innerhalb dieser Welt ermöglichen soll, und andererseits die Welt der Tatsachen selbst, die eben nicht aus menschengemachter Theorie besteht.

Diese Zweiseitigkeit wäre auch bei einer Wissenschaft betreibenden KI erfüllt: Sie würde Hypothesen und Theorien aufstellen und diese an der realen Welt messen. Dazu benötigt sie natürlich ein Experimental-Interface, z.B. die Steuerung eines Teleskops, eines Teilchenbeschleunigers oder eines Genlabors. An dieser Stelle werden in einer Übergangszeit vermutlich menschliche Hilfskräfte benötigt.

Marcellinus hat folgendes geschrieben:
Hier gibt es keine festen Regeln und auch nicht "die" eine Methode, an denen man die Richtigkeit von Modellen prüfen könnte, ...

Die gibt es bei Go genaugenommen auch nicht. Die Regel, mit der das Programm eine vorausberechnete Stellung bewertet, ist nicht programmiert!

Marcellinus hat folgendes geschrieben:
... und damit auch nichts, an dem eine solche Maschine sich selbst weiterentwickeln kann. So bedauerlich, wie das klingen mag, aber wissenschaftliche Orientierung in dieser Welt ist vermutlich auf einige Zeit noch Sache der Menschen, ...

Ich denke, das unterschätzt Du.

Marcellinus hat folgendes geschrieben:
... was nur fair ist, denn wir müssen die Folgen ja auch ausbaden. zwinkern

Besonders "bedauerlich" scheinst Du das ja dann doch nicht zu finden. Aber KI und Fairness wird jedenfalls auch noch ein interessantes Thema ...

#12:  Autor: zelig BeitragVerfasst am: 13.03.2016, 14:14
    —
Ich würde nicht von Wissen sprechen, über das das Programm verfügt. Was aber jetzt sichtbar wird, ist, daß der Mensch solche Programme wird nutzen können, um sein eigenes Wissen auf eine neue Weise und beschleunigt zu erweitern.

#13:  Autor: stepWohnort: Germering BeitragVerfasst am: 13.03.2016, 14:17
    —
zelig hat folgendes geschrieben:
Ich würde nicht von Wissen sprechen, über das das Programm verfügt.

Das liest man jetzt auch häufig. Aber fällt die (gelernte, nicht regelbasierte) Fähigkeit, z.B. Stellungen mit Vor-/Nachteilen zu assoziieren, nicht genau unter das, was wir mit Wissen bezeichnen? Was genau fehlt denn zum Wissen?

#14:  Autor: Marcellinus BeitragVerfasst am: 13.03.2016, 14:26
    —
zelig hat folgendes geschrieben:
Ich würde nicht von Wissen sprechen, über das das Programm verfügt. Was aber jetzt sichtbar wird, ist, daß der Mensch solche Programme wird nutzen können, um sein eigenes Wissen auf eine neue Weise und beschleunigt zu erweitern.


Solange man nicht weiß, was und wo man suchen soll, scheinen mir solche Programme eher geeignet, schneller und umfänglicher Fehler zu produzieren. Sehr glücklich

#15:  Autor: zelig BeitragVerfasst am: 13.03.2016, 14:28
    —
step hat folgendes geschrieben:
zelig hat folgendes geschrieben:
Ich würde nicht von Wissen sprechen, über das das Programm verfügt.

Das liest man jetzt auch häufig. Aber fällt die (gelernte, nicht regelbasierte) Fähigkeit, z.B. Stellungen mit Vor-/Nachteilen zu assoziieren, nicht genau unter das, was wir mit Wissen bezeichnen? Was genau fehlt denn zum Wissen?


Spontan und und wenig durchdacht geantwortet: Der Bezug zu einem Selbstmodell, zum Modell einer allgemeinen Realität, und der Verknüpfung dieser Modelle inkl. Go-Regeln.

#16:  Autor: Marcellinus BeitragVerfasst am: 13.03.2016, 14:31
    —
step hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
Der Kern dieser Geschichte ist doch, daß Go ein Spiel mit festen, eindeutig zu definierenden Regeln ist. Das Wissen der Maschine zur Orientierung in diesem Spiel spielt sich also auf der gleichen Ebene ab wie das Spiel selbst. Es ist gewissermaßen eine eingleisig Veranstaltung.

Die algorithmische Faßbarkeit ist bei Go besonders schlecht - die Reglen sind trivial, die Komplexität aber hoch. Der Kern der Geschichte ist daher gerade nicht die Einschränkung durch (wenige) Regeln. Im Gegensatz zu früheren Spielautomaten, etwa auch (früheren) Schachcomputern, spielt es sich hier nicht auf der Regelebene ab, sondern auf der eines neuronalen Netzes bzw. selbstlernenden Systems.


Das ändert aber nichts daran, daß dieses Programm berechnen kann, ob es gewonnen hat oder nicht. Das geht in den Wissenschaften nicht.

step hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
... was nur fair ist, denn wir müssen die Folgen ja auch ausbaden. zwinkern

Besonders "bedauerlich" scheinst Du das ja dann doch nicht zu finden. Aber KI und Fairness wird jedenfalls auch noch ein interessantes Thema ...


Es geht nicht darum, wie ich etwas emotional bewerte, sondern mir geht es um das Verstehen dieses speziellen Zusammenhangs. Da ich kein Go-Experte bin, kann ich auch dabei sicherlich noch eine Menge lerne. zwinkern

quote gerichtet. vrolijke

#17: Mensch noch lange besser als Maschine Autor: Religionskritik-WiesbadenWohnort: Wiesbaden BeitragVerfasst am: 13.03.2016, 14:34
    —
Ha!,
Mensch schlägt Maschine dann doch:

http://www.faz.net/aktuell/gesellschaft/go-weltmeister-gewinnt-gegen-computer-14121668.html

Zitat:
Im viel beachteten Brettspiel-Duell zwischen Mensch und Computer hat die Google-Software AlphaGo die vierte Partie verloren. Der südkoreanische Spitzenspieler Lee Sedol feierte am Sonntag in Seoul nach mehr als viereinhalb Stunden seinen ersten Sieg, nachdem er die Gesamtwertung bereits verloren geben musste.


Mmh,
vielleicht hat sich aber die Software nun zutiefst menschlich verhalten,
und nachdem sie uneinholbar vorne lag (3 Siege), statt der Füße ein paar ihrer Algorithmen 'hochgelegt' und gegen den Menschen nur noch mit 95 oder gar 80 % gespielt.
Smilie
Das wäre zumindest menschlich - und man kennt dies bei Olympioniken, die dann bei aufgelegten Weltrekordhöhen im Hochsprung regelmäßig scheitern, weil nach sicherer Goldmedaille die 'Spannung' raus ist.
Aber so menschlich wird wohl dieses Maschinchen nicht sein, Smilie

Oder aber, die Maschine 'probierte' mal was aus, jetzt wo sie der sichere Sieger ist - auch das wäre 'menschlich'.

Auch schön,
während das Maschinchen eine Geisel der Stromzufuhr ist,
kann Herr Sedol die übrige Zeit nun mit dem Abfeiern seiner Antrittsgelder mit Mann, Weib oder Gesang verbringen.

Der Mensch verliert vielleicht gegen eine getrimmte Maschine in einer Disziplin,
hat aber dafür ein 'Leben' mit vielen Entscheidungsmöglichkeiten.

#18:  Autor: stepWohnort: Germering BeitragVerfasst am: 13.03.2016, 14:35
    —
Marcellinus hat folgendes geschrieben:
Das ändert aber nichts daran, daß dieses Programm berechnen kann, ob es gewonnen hat oder nicht. Das geht in den Wissenschaften nicht.

Wieso nicht? Folgendes könnte - wie ich finde nachvollziehbar - als "Gewinn" gelten:
- das Finden einer Theorie, die viel voraussagt
- das Falsifizieren einer Theorie durch ein Experiment
- das Bestätigen einer Theorie durch ein Experiment

#19: Mensch noch lange besser als Maschine Autor: Religionskritik-WiesbadenWohnort: Wiesbaden BeitragVerfasst am: 13.03.2016, 14:38
    —
Ha!,
Mensch schlägt Maschine dann doch:

http://www.faz.net/aktuell/gesellschaft/go-weltmeister-gewinnt-gegen-computer-14121668.html

Zitat:
Im viel beachteten Brettspiel-Duell zwischen Mensch und Computer hat die Google-Software AlphaGo die vierte Partie verloren. Der südkoreanische Spitzenspieler Lee Sedol feierte am Sonntag in Seoul nach mehr als viereinhalb Stunden seinen ersten Sieg, nachdem er die Gesamtwertung bereits verloren geben musste.


Mmh,
vielleicht hat sich aber die Software nun zutiefst menschlich verhalten,
und nachdem sie uneinholbar vorne lag (3 Siege), statt der Füße ein paar ihrer Algorithmen 'hochgelegt' und gegen den Menschen nur noch mit 95 oder gar 80 % gespielt.
Smilie
Das wäre zumindest menschlich - und man kennt dies bei Olympioniken, die dann bei aufgelegten Weltrekordhöhen im Hochsprung regelmäßig scheitern, weil nach sicherer Goldmedaille die 'Spannung' raus ist.
Aber so menschlich wird wohl dieses Maschinchen nicht sein, Smilie

Oder aber, die Maschine 'probierte' mal was aus, jetzt wo sie der sichere Sieger ist - auch das wäre 'menschlich'.

Auch schön,
während das Maschinchen eine Geisel der Stromzufuhr ist,
kann Herr Sedol die übrige Zeit nun mit dem Abfeiern seiner Antrittsgelder mit Mann, Weib oder Gesang verbringen.

Der Mensch verliert vielleicht gegen eine getrimmte Maschine in einer Disziplin,
hat aber dafür ein 'Leben' mit vielen Entscheidungsmöglichkeiten.

#20:  Autor: zelig BeitragVerfasst am: 13.03.2016, 14:40
    —
Marcellinus hat folgendes geschrieben:
zelig hat folgendes geschrieben:
Ich würde nicht von Wissen sprechen, über das das Programm verfügt. Was aber jetzt sichtbar wird, ist, daß der Mensch solche Programme wird nutzen können, um sein eigenes Wissen auf eine neue Weise und beschleunigt zu erweitern.


Solange man nicht weiß, was und wo man suchen soll, scheinen mir solche Programme eher geeignet, schneller und umfänglicher Fehler zu produzieren. :D


Selbstlernende neuronale Netze scheinen mir nach derzeitigem Wissensstand so eng an die Natur menschlicher Erkenntnisfähigkeit anzudocken, daß daraus tatsächlich die Notwendigkeit neuer Überprüfungsmethoden und philosophischer Ansätze zur Bewertung der daraus resultierenden Erkenntnisse entsteht. Die Frage wurde ja schon gestellt: Wie soll man die Ergebnisse überprüfen, wenn man als Mensch dazu kognitiv nicht in der Lage ist?

#21:  Autor: stepWohnort: Germering BeitragVerfasst am: 13.03.2016, 14:41
    —
zelig hat folgendes geschrieben:
step hat folgendes geschrieben:
zelig hat folgendes geschrieben:
Ich würde nicht von Wissen sprechen, über das das Programm verfügt.
Das liest man jetzt auch häufig. Aber fällt die (gelernte, nicht regelbasierte) Fähigkeit, z.B. Stellungen mit Vor-/Nachteilen zu assoziieren, nicht genau unter das, was wir mit Wissen bezeichnen? Was genau fehlt denn zum Wissen?
Spontan und und wenig durchdacht geantwortet: Der Bezug zu einem Selbstmodell, zum Modell einer allgemeinen Realität, und der Verknüpfung dieser Modelle inkl. Go-Regeln.

Hmm ... mir leuchtet nicht ein, warum dies notwendig zu "Wissen" gehören müßte. Natürlich kann man "Wissen" sehr anthropozentrisch definieren, aber damit unterschätzt man nichtmenschliches Wissen.

Übrigens denke ich, daß der "Bezug zu einem Selbstmodell" dann schon mehr oder weniger von selbst dazukommt, wenn auch nicht bei der Go-KI.

#22:  Autor: Marcellinus BeitragVerfasst am: 13.03.2016, 14:42
    —
step hat folgendes geschrieben:
Marcellinus hat folgendes geschrieben:
Das ändert aber nichts daran, daß dieses Programm berechnen kann, ob es gewonnen hat oder nicht. Das geht in den Wissenschaften nicht.

Wieso nicht? Folgendes könnte - wie ich finde nachvollziehbar - als "Gewinn" gelten:
- das Finden einer Theorie, die viel voraussagt
- das Falsifizieren einer Theorie durch ein Experiment
- das Bestätigen einer Theorie durch ein Experiment

Wie "findet" man eine Theorie? Wissenschaftliche Modellbildung ist etwas anderes als Steinchen auf eine festgelegte Anzahl von Kreuzungspunkten von Gitterlinien zu setzten. zwinkern

#23: Re: Mensch noch lange besser als Maschine Autor: zelig BeitragVerfasst am: 13.03.2016, 14:42
    —
Religionskritik-Wiesbaden hat folgendes geschrieben:
Ha!,
Mensch schlägt Maschine dann doch:

http://www.faz.net/aktuell/gesellschaft/go-weltmeister-gewinnt-gegen-computer-14121668.html

Zitat:
Im viel beachteten Brettspiel-Duell zwischen Mensch und Computer hat die Google-Software AlphaGo die vierte Partie verloren. Der südkoreanische Spitzenspieler Lee Sedol feierte am Sonntag in Seoul nach mehr als viereinhalb Stunden seinen ersten Sieg, nachdem er die Gesamtwertung bereits verloren geben musste.


Mmh,
vielleicht hat sich aber die Software nun zutiefst menschlich verhalten,
und nachdem sie uneinholbar vorne lag (3 Siege), statt der Füße ein paar ihrer Algorithmen 'hochgelegt' und gegen den Menschen nur noch mit 95 oder gar 80 % gespielt.


Faszinierender Gedanke. Vielleicht wollen die Entwickler das Signal großer Überlegenheit vermeiden. : )

#24:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 13.03.2016, 14:47
    —
step hat folgendes geschrieben:
zelig hat folgendes geschrieben:
Ich würde nicht von Wissen sprechen, über das das Programm verfügt.

Das liest man jetzt auch häufig. Aber fällt die (gelernte, nicht regelbasierte) Fähigkeit, z.B. Stellungen mit Vor-/Nachteilen zu assoziieren, nicht genau unter das, was wir mit Wissen bezeichnen? Was genau fehlt denn zum Wissen?

Die Frage hätte ich jetzt auch gestellt. Wobei ich Wissen noch anders definieren würde: Nicht mit der Fähigkeit zu assoziieren, sondern der, adäquat zu reagieren: In der Biologie (ohne Bezug auf die diesbezügliche Sonderstellung der Tiere und unter denen der erneuten des Menschen): Das Genom eines Organismus enthält das über die Evolution gesammtelt Wissen über die Welt. Da wird nicht nur nicht assoziert, in den Pflanzen wird nicht mal prozessiert.

#25:  Autor: zelig BeitragVerfasst am: 13.03.2016, 14:47
    —
step hat folgendes geschrieben:
zelig hat folgendes geschrieben:
step hat folgendes geschrieben:
zelig hat folgendes geschrieben:
Ich würde nicht von Wissen sprechen, über das das Programm verfügt.
Das liest man jetzt auch häufig. Aber fällt die (gelernte, nicht regelbasierte) Fähigkeit, z.B. Stellungen mit Vor-/Nachteilen zu assoziieren, nicht genau unter das, was wir mit Wissen bezeichnen? Was genau fehlt denn zum Wissen?
Spontan und und wenig durchdacht geantwortet: Der Bezug zu einem Selbstmodell, zum Modell einer allgemeinen Realität, und der Verknüpfung dieser Modelle inkl. Go-Regeln.

Hmm ... mir leuchtet nicht ein, warum dies notwendig zu "Wissen" gehören müßte. Natürlich kann man "Wissen" sehr anthropozentrisch definieren, aber damit unterschätzt man nichtmenschliches Wissen.

Übrigens denke ich, daß der "Bezug zu einem Selbstmodell" dann schon mehr oder weniger von selbst dazukommt, wenn auch nicht bei der Go-KI.


Ja, könnte sein. Ich ging vom derzeitigen Stand aus, bei dem ich das nicht als gegeben sehe.
Wenn Du das für Wissen hältst, gehe ich recht in der Annahme, daß Wissen aus Deiner Sicht vollständig unter Datenverarbeitung zu subsummieren wäre? Wenn ja, das sehe ich anders.

#26: Re: Mensch noch lange besser als Maschine Autor: Religionskritik-WiesbadenWohnort: Wiesbaden BeitragVerfasst am: 13.03.2016, 14:50
    —
zelig hat folgendes geschrieben:
Religionskritik-Wiesbaden hat folgendes geschrieben:
Ha!,
Mensch schlägt Maschine dann doch:

http://www.faz.net/aktuell/gesellschaft/go-weltmeister-gewinnt-gegen-computer-14121668.html

Zitat:
Im viel beachteten Brettspiel-Duell zwischen Mensch und Computer hat die Google-Software AlphaGo die vierte Partie verloren. Der südkoreanische Spitzenspieler Lee Sedol feierte am Sonntag in Seoul nach mehr als viereinhalb Stunden seinen ersten Sieg, nachdem er die Gesamtwertung bereits verloren geben musste.


Mmh,
vielleicht hat sich aber die Software nun zutiefst menschlich verhalten,
und nachdem sie uneinholbar vorne lag (3 Siege), statt der Füße ein paar ihrer Algorithmen 'hochgelegt' und gegen den Menschen nur noch mit 95 oder gar 80 % gespielt.


Faszinierender Gedanke. Vielleicht wollen die Entwickler das Signal großer Überlegenheit vermeiden. : )


wäre auch eine Möglichkeit,
eine all zu große Dominanz der Technik führte immer auch zu großen Widerständen - da lässt man Technik lieber etwas gegen einen Menschen schwächeln.

So was wie - wenn Du 3 Spiele gewonnen hast, verliere das 4 Spiel und beginne mit Fehlern ab der Stunde - können die doch bestimmt locker einprogrammieren.

Ich bin schon jetzt auf die VTs gespannt, die um das Spiel entstehen werden.

#27:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 13.03.2016, 14:51
    —
zelig hat folgendes geschrieben:
step hat folgendes geschrieben:
zelig hat folgendes geschrieben:
Ich würde nicht von Wissen sprechen, über das das Programm verfügt.

Das liest man jetzt auch häufig. Aber fällt die (gelernte, nicht regelbasierte) Fähigkeit, z.B. Stellungen mit Vor-/Nachteilen zu assoziieren, nicht genau unter das, was wir mit Wissen bezeichnen? Was genau fehlt denn zum Wissen?


Spontan und und wenig durchdacht geantwortet: Der Bezug zu einem Selbstmodell, zum Modell einer allgemeinen Realität, und der Verknüpfung dieser Modelle inkl. Go-Regeln.

Das ist eine Einschränkung auf die bewusste Informationsverarbeitung. Das bedeutete aber, dass das kein Wissen ist, das im Brockhausoder Wikipedia gesammelt wurde?

Mir scheint eher, Du meinst das Bewusstsein.

#28:  Autor: zelig BeitragVerfasst am: 13.03.2016, 15:12
    —
fwo hat folgendes geschrieben:
zelig hat folgendes geschrieben:
step hat folgendes geschrieben:
zelig hat folgendes geschrieben:
Ich würde nicht von Wissen sprechen, über das das Programm verfügt.

Das liest man jetzt auch häufig. Aber fällt die (gelernte, nicht regelbasierte) Fähigkeit, z.B. Stellungen mit Vor-/Nachteilen zu assoziieren, nicht genau unter das, was wir mit Wissen bezeichnen? Was genau fehlt denn zum Wissen?


Spontan und und wenig durchdacht geantwortet: Der Bezug zu einem Selbstmodell, zum Modell einer allgemeinen Realität, und der Verknüpfung dieser Modelle inkl. Go-Regeln.

Das ist eine Einschränkung auf die bewusste Informationsverarbeitung. Das bedeutete aber, dass das kein Wissen ist, das im Brockhausoder Wikipedia gesammelt wurde?

Mir scheint eher, Du meinst das Bewusstsein.


Fast. Wissen ist gegeben, wenn Bewußtsein gegeben ist. Stimmt. So seh ich das.

#29:  Autor: fwoWohnort: im Speckgürtel BeitragVerfasst am: 13.03.2016, 15:14
    —
zelig hat folgendes geschrieben:
fwo hat folgendes geschrieben:
zelig hat folgendes geschrieben:
step hat folgendes geschrieben:
zelig hat folgendes geschrieben:
Ich würde nicht von Wissen sprechen, über das das Programm verfügt.

Das liest man jetzt auch häufig. Aber fällt die (gelernte, nicht regelbasierte) Fähigkeit, z.B. Stellungen mit Vor-/Nachteilen zu assoziieren, nicht genau unter das, was wir mit Wissen bezeichnen? Was genau fehlt denn zum Wissen?


Spontan und und wenig durchdacht geantwortet: Der Bezug zu einem Selbstmodell, zum Modell einer allgemeinen Realität, und der Verknüpfung dieser Modelle inkl. Go-Regeln.

Das ist eine Einschränkung auf die bewusste Informationsverarbeitung. Das bedeutete aber, dass das kein Wissen ist, das im Brockhausoder Wikipedia gesammelt wurde?

Mir scheint eher, Du meinst das Bewusstsein.


Fast. Wissen ist gegeben, wenn Bewußtsein gegeben ist. Stimmt. So seh ich das.

Was ist das dann, was etwa im Brockhaus gesammelt wurde?

p.s.
Oder was ist das, was im Genom eines Organismus steckt, oder im Programm eines anderen, das ich mir dann durch "Reengineering" nutzbar mache?

#30:  Autor: zelig BeitragVerfasst am: 13.03.2016, 15:24
    —
fwo hat folgendes geschrieben:
zelig hat folgendes geschrieben:
fwo hat folgendes geschrieben:
zelig hat folgendes geschrieben:
step hat folgendes geschrieben:
zelig hat folgendes geschrieben:
Ich würde nicht von Wissen sprechen, über das das Programm verfügt.

Das liest man jetzt auch häufig. Aber fällt die (gelernte, nicht regelbasierte) Fähigkeit, z.B. Stellungen mit Vor-/Nachteilen zu assoziieren, nicht genau unter das, was wir mit Wissen bezeichnen? Was genau fehlt denn zum Wissen?


Spontan und und wenig durchdacht geantwortet: Der Bezug zu einem Selbstmodell, zum Modell einer allgemeinen Realität, und der Verknüpfung dieser Modelle inkl. Go-Regeln.

Das ist eine Einschränkung auf die bewusste Informationsverarbeitung. Das bedeutete aber, dass das kein Wissen ist, das im Brockhausoder Wikipedia gesammelt wurde?

Mir scheint eher, Du meinst das Bewusstsein.


Fast. Wissen ist gegeben, wenn Bewußtsein gegeben ist. Stimmt. So seh ich das.

Was ist das dann, was etwa im Brockhaus gesammelt wurde?

p.s.
Oder was ist das, was im Genom eines Organismus steckt, oder im Programm eines anderen, das ich mir dann durch "Reengineering" nutzbar mache?


Daten?



Freigeisterhaus -> Spiel, Spaß und Unterhaltung


output generated using printer-friendly topic mod. Alle Zeiten sind GMT + 1 Stunde

Gehe zu Seite 1, 2  Weiter  :| |:
Seite 1 von 2

Powered by phpBB © 2001, 2005 phpBB Group