cortano hat folgendes geschrieben: | ||||||
Mühsam, mühsam ... Du hast in "fiktional autodidaktischer" Weise aus der GO-KI "Schlüsse" gezogen, welche Dorian Aur irgendwann mal zukünftig als Ergebnisse gänzlich anderer HYBRIDER KI-Strukturen für möglich hält. Du solltest vielleicht genauer und etwas mehr lesen als nur das Abstract. Und obwohl das ganze wissenschaftlich interessant ist, sollte man beim "Züchten biologischer Hirne" für den hybriden Gebrauch in KI's auch ein paar ethische Fragen zur Methodik stellen.
|
Zitat: |
Der Satz, den ich oben gefettet habe, bedeutet, dass auch Aur davon ausgeht, dass einfach genügend neuronales Netz mit genügend Training den Sprung ins Bewusstsein schafft. |
fwo hat folgendes geschrieben: |
... weil ich den Inhalt trockener Fachartikel sowieso nicht verstehe. |
cortano hat folgendes geschrieben: | ||
Nebelkerzenweitwurf
Aber wenn du dich unbedingt lächerlich machen willst - bitte:
NEIN - das steht da nicht ! Sowohl im Abstract und noch viel mehr im Text steht, dass das mit rein "künstlicher" (Silikon) KI nicht klappen wird, aber mit hybrider, die biologisch gezüchtete Hirnzellen mit "normaler" KI/Computing verbindet - also etwas in Richtung Cyborg. ... |
cortano hat folgendes geschrieben: | ||||
Bist du sicher, dass du verstanden hast, worum es bei dem geht, was du da verlinkt hast ? |
Zitat: | ||
|
Zitat: |
In mathematical biology, the weights represent the fitness of individual alleles, and filtering reproductive success based on this and updating weights for successful organisms produces a mechanism very much like evolution. With modifications, it also provides a mechanism through which to understand sex in the context of evolutionary biology. |
cortano hat folgendes geschrieben: |
Und wenn ja, wo kommen da Schichten und wo kommt da Bewußtsein ins Spiel ? |
cortano hat folgendes geschrieben: |
Es geht bei MWUA um Optimierungsprobleme so zB: https://de.wikipedia.org/wiki/Konvexe_Optimierung https://de.wikipedia.org/wiki/Lineare_Optimierung https://de.wikipedia.org/wiki/Semidefinite_Programmierung |
cortano hat folgendes geschrieben: |
Aber vielleicht habe ich etwas nicht verstanden und du zeigst mir beispielhaft, wo es da um Bewußtsein und Schichten statt "nur" um effiziente Optimierungsalgorithmen geht. |
Zitat: |
The Multiplicative Weights method is a simple idea which has been repeatedly discovered in fields as diverse as Machine Learning, Optimization, and Game Theory. The setting for this algorithm is the following.
A decision maker has a choice of n decisions, and needs to repeatedly make a decision and obtain an associated payo. The decision maker's goal, in the long run, is to achieve a total payoff which is comparable to the payoff of that fixed decision that maximizes the total payoff with the benefit of hindsight. [...] In each successive round, the weights are updated by multiplying them with factors which depend on the payoff of the associated decision in that round. Intuitively, this scheme works because it tends to focus higher weight on higher payoff decisions in the long run. |
smallie hat folgendes geschrieben: |
Die Schichten kommen ins Spiel durch passende Nummerierung der Objekte. Zum Beispiel statt x(i), alternativ ein x(i, j) oder x(i, j, k). |
step hat folgendes geschrieben: |
Und der Artikel wurde sicher auch schon gepostet?
http://www.spektrum.de/magazin/revolutionieren-neuronale-netze-die-wissenschaft/1520773 Titel ist mißverständlich, ist vor allem ein allgemeinverständlicher Überblick über "tiefe" NNs. Mit einigen Beispielen, z.B. Bilderkennung, AlphaGo usw. - bei Interesse PN mit email. |
zelig hat folgendes geschrieben: |
Übrgens bin ich heute über einen Artikel in der Spektrum über die Züchtung von "Minigehirnen" gestolpert. Man versucht das Gehirn mittels nur Millimeter großer Gehirnorganider besser zu verstehen. So als Laie liest sich das erfolgsversprechend. |
smallie hat folgendes geschrieben: | ||||
Die Schichten kommen ins Spiel durch passende Nummerierung der Objekte. Zum Beispiel statt x(i), alternativ ein x(i, j) oder x(i, j, k). Das Bewußtsein ist eine ganz andere Baustelle. Ich passe.
Das ist mir zu viel Jargon. Kannst du deinen Einwand auch in Alltagssprache sagen? |
zelig hat folgendes geschrieben: |
Übrgens bin ich heute über einen Artikel in der Spektrum über die Züchtung von "Minigehirnen" gestolpert. Man versucht das Gehirn mittels nur Millimeter großer Gehirnorganider besser zu verstehen. So als Laie liest sich das erfolgsversprechend. |
step hat folgendes geschrieben: | ||
Das möchte ich mal bezweifeln. |
step hat folgendes geschrieben: |
Die Schichten unterscheiden sich vor allem dadurch, daß die höheren Schichten auf komplexere Objektklassen ansprechen. Zum Beispiel in der Gesichtserkennung: Eine untere Schicht sucht nach einzelnen typischen Hell/Dunkel Kanten - dabei ist es noch ziemlich egal, ob die von einem Gesicht oder einem Haus stammen. Eine höhere Schicht sucht nach Mustern von Mustern, z.B. relativen Anordnungen - sie macht eine völlig eigene Bewertung von Objektklassen, und danach eine "Backpropagation" des Fehlers an die untere Schicht. |
step hat folgendes geschrieben: |
Ich denke, Dein Pseudocode beschreibt nur eine Schicht, und Du mußt mehrere davon übereinanderschichten, mit Fehlerpropagation nach unten zusätzlich zur Gewichtung. |
cortano hat folgendes geschrieben: | ||||
Bei dem was du gepostet hast geht es um die Optimierung wie man (eine Schicht) des Netzes trainiert, bzw. eben die Knoten gewichtet und gar nicht um Schichten. Zum Rest war step schon schneller ... |
cortano hat folgendes geschrieben: |
Als ein Standardwerk gilt "Deep learning" (Yann Le Cun u.a) - dazu gibts ein gutes Review als PDF. Nur wenige Seiten |
cortano hat folgendes geschrieben: | ||
Lieg` ich richtig - es geht darum ? https://www.ncbi.nlm.nih.gov/pubmed/23995685 https://www.grk1727.uni-luebeck.de/fileadmin/grk1727/events/Lancaster_Nature_2013.pdf |
smallie hat folgendes geschrieben: | ||
Wäre es nicht merkwürdig, wenn ich sagte, sobald der Multiplicative Weights Update Algorithm nicht mehr auf einem eindimensionalem Array sondern in mehr Dimensionen ausgeführt wird, dann wäre es ein anderer Algorithmus? |
smallie hat folgendes geschrieben: |
cortano, step - ist euch aufgefallen, daß die Go-Maschine gar kein reinrassiges "Deep learning" macht? |
smallie hat folgendes geschrieben: |
cortano, step - ist euch aufgefallen, daß die Go-Maschine gar kein reinrassiges "Deep learning" macht? |
step hat folgendes geschrieben: | ||||
|
step hat folgendes geschrieben: |
Aber selbst dann fehlt Deinem Pseudcode ein entscheidendes Element, nämlich daß für Teile des Vektors (die oberen Schichten entsprechen) komplexere Objektklassen gelten. |
step hat folgendes geschrieben: |
Bis ganz am Ende so etwas wie "Intuition" oder "Bedeutung" steht. |
step hat folgendes geschrieben: |
@smallie:
Ich bezweifle in keiner Weise, daß sich ein tiefes neuronales Netz, und auch die Ausbildung von Intuition, als Turingmaschine formulieren läßt. Ich wehre mich auch nicht prinzipiell dagegen, die Ebenen zu linearisieren, auch wenn das für die Realisierung wohl eher kein guter Ansatz wäre, weil die Klassenstruktur, Topologie und Performance verlorengeht - anders als beim Schachspiel, wo es eine reine Koordinatentransformation ist und evtl. sogar die Performance erhöht. |
step hat folgendes geschrieben: |
Ich bleibe daher dabei, daß Dein Pseudocode eben den wesentlichen Punkt der schichtenweisen Abstraktion nicht abbildet - obwohl er ihn natürlich zusätzlich erlaubt. |
step hat folgendes geschrieben: |
Ich denke also, man könnte auf jeder Ebene Deinen Code verwenden, aber man sollte das z.B. in eine Schleife über die Ebenen hängen - diese enthält zusätzlchen Code, der die Schichtentopologie und auch die Backpropagation klarer macht. |
smallie hat folgendes geschrieben: |
step hat folgendes geschrieben: |
Wahrscheinlich wäre es am besten, ich würde den Pseudocode für ein Schichten-Netzwerk mal hinschreiben ... mal sehen. |
Despiteful hat folgendes geschrieben: |
Wenn wir die Unterschiede herausstellen zwischen dem, wozu eine Maschine heute fähig ist und dem, wozu der Mensch fähig ist, dann können wir vielleicht festmachen, woran es bei der Maschine noch hapert und diese ggf optimieren. |
Despiteful hat folgendes geschrieben: |
Wenn Du dagegen menschliches Lernen und Intelligenz und die von Computern gleichsetzt und die Unterschiede negierst oder marginalisierst, dann verhinderst Du letztendlich eine weitere Entwicklung oder stehst ihr zumindest im Wege. |
Despiteful hat folgendes geschrieben: |
Wie gesagt, eine saubere Sprache, sauber definierte und vor allem abgegrenzte Begriffe sind das A und O. |
Zitat: |
Natural selection. IV. The Price equation
Steven A. Frank 2012 Price and Hamilton noted that the Price equation can be expanded recursively to represent nested levels of analysis, for example, individuals living in groups. Start with the basic Price equation as given in eqn 10. Recall that in defining z(i), we specified the meaning of the index i to be any sort of labeling of set members, subject to minimal consistency requirements. We may, for example, label all members of a group by i, and measure z(i) as some property of the group. If the index i itself represents a set, then we may consider the members of that set. For example, z(ij) may be the j-th member of the i-th set, or we may say, the i-th group. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3354028/ |
smallie hat folgendes geschrieben: |
....
Gehirn Die Information über vergangene Ereignisse ist in den Gewichtung der Verbindungen gespeichert. Und zwar in Schichten, die es möglich machen, daß das Gehirn viel mehr lernen kann, als nur Trampelpfaden zu folgen. (Autsch. Wirklich? Oft genug sieht es nach Trampelpfad aus.) Das Pheromon-System oder das Schänzeltanz-System kann nur Probleme lösen, für die es gebaut ist. Das Gehirn kennt diese Einschränkung nicht, es ist ein Allzweck-Korrelationsfinder. Das geht soweit, daß es sich Symbolsysteme ausdenken kann wie Sprache. Statt eines Schwänzeltanzes kann ich einfach sagen: "Geh in die Wunderbar, die mixen dir dort einen Ritz." .... |
fwo hat folgendes geschrieben: | ||
An der Stelle bist Du etwas ungenau. |
fwo hat folgendes geschrieben: |
Es ist nicht ein menschliches Gehirn, das sich die Sprache ausgedacht hat, ... |
fwo hat folgendes geschrieben: |
Und erst, nachdem sie diese abstrakte Sprache mit sehr viel weiterer Tradion zu dem Denkzeug ausgebaut hatten, das wir heute als Sprache haben, begann das, was wir heute am menschlichen Gehirn bewundern. |
fwo hat folgendes geschrieben: |
Es ist ein verflucht aufwändiges System, das wir während unserer Sozialisierung mühsam booten. Und ohne das ist die Leistung unseres Gehirnes nicht zuverstehen. |
zelig hat folgendes geschrieben: |
Die KI wird im Rahmen heutiger Erkenntnisfähigkeit immer den Status einer Simulation behalten. |
smallie hat folgendes geschrieben: | ||
....
Du kennst den Fall der nicaraguanischen, taubstummen Kinder, die ohne großartige Betreuung in Heime gesteckt wurden, und dort spontan eine Zeichensprache entwickelten? |
Zitat: |
An einer Entschlüsselung des Voynich-Manuskrips haben sich seit seiner Entdeckung vor mehr als einem Jahrhundert ganze Heerscharen an Linguisten und Kryptografen versucht – bis heute ohne nennenswerten Erfolgen. Die Handschrift aus dem 15. Jahrhundert besteht aus Abbildern von unergründlichen mechanischen Apparaturen, seltsamen teils nackten Frauenfiguren und fremdartigen botanischen und astronomischen Welten sowie einem Text in unbekannter Sprache und nicht identifizierbarem Schiftcode. Nun aber scheint ein kanadisches Forscherteam der Lösung des Geheimnisses um das Voynich-Manuskript einen wesentlichen Schritt näher gekommen zu sein. Den entscheidenden Beitrag dazu lieferte eine künstliche Intelligenz. |
cortano hat folgendes geschrieben: | ||
weiterer Erfolg der KI bei der Mustererkennung:
https://derstandard.at/2000073310057/Kuenstliche-Intelligenz-koennte-raetselhaften-Voynich-Code-geknackt-haben
|
zelig hat folgendes geschrieben: | ||||
Spannend. Es würde mich aber auch nicht wundern, wenn die Mustererkennung der KI eine plausibel erscheinende aber falsche Inerpretation liefern würde. Was wäre, wenn wir nicht in Lage wären das zu entscheiden? Und das zunehmend. |
output generated using printer-friendly topic mod. Alle Zeiten sind GMT + 1 Stunde