fwo hat folgendes geschrieben: | ||
Btw. Zukunftsszenarien: Bisher habe ich bezüglich weiterer Automatisierungsfolgen für den Arbeitsmarkt nur meine eigene Meinung vertreten. Inzwischen bin ich aus Versehen (ich suchte eigentlich was anderes) in einem relativ neuen Spektrum (1/16 : S.51, Digitale Demokratie statt Datendiktatur von Dirk Helbing, Bruno S.Frey, Gerd Gegerenzer, Ernst Hafen, Michael Hagner, Yvonne Hofstetter, Jeroen van den Hoven, Roberto V. Zicarl und Andrej Zwitter) auf folgende Prognose gestoßen:
Die Autoren sind allesamt nicht als Spinner bekannt, und diese Aussage ist mit Sicherheit keine Gefälligkeit für die Industrie oder irgendeine Regierung (auch sowas findet man im Spektrum). Und selbst, wenn sie sich in der Zeit um den Faktor 2 vertun, dann wären sie ca. bei meiner vorsichtigeren Schätzung, ist diese Aussage in Schlag ins Gesicht aller Wirtschaftsfritzen, die Deutschland für diese Verjüngung gratulieren. (Man kann sich höchstens fragen, von wem die dafür bezahlt werden.) |
Zitat: |
"In der Geschichte der KI reiht sich Misserfolg an Misserfolg, aber dazwischen gab es immer wieder entscheidende Fortschritte", meint einer der Pioniere des Deep Learning, Yann LeCun, derzeit Direktor des Center for Data Science der New York University, "mit einem solchen Sprung nach vorn können wir es hier zu tun haben."
"In den nächsten Jahren werden wir eine Art Rausch erleben", pflichtet ihm Jitendra Malik bei. "Eine Menge Leute werden auf den Deep-Learning-Zug aufspringen", so der Experte für computergestützte Bilderkennung an der University of California in Berkley. Doch auf lange Sicht sei Deep Learning womöglich nicht der Weisheit letzter Schluss. Andere Ansätze hätten ebenfalls Potenzial. |
Er_Win hat folgendes geschrieben: |
angeregt durch @fwo's OT:....
edit PS: noch ein weiterer Artikel zu dem Thema ... |
Er_Win hat folgendes geschrieben: | ||||||
angeregt durch @fwo's OT:
http://www.spektrum.de/news/maschinenlernen-deep-learning-macht-kuenstliche-intelligenz-praxistauglich-spektrum-de/1220451
Lernfähige Heuristiken zur Analyse/Mustererkennung von Bigdata machen in der Tat rasche Fortschritte, nur habe ich persönlich ein "Problem" damit, das als besonders intelligenten Einsatz von Computing zu werten. Zweckoptimierte kommerzielle Massenmanipulationsversuche vs. intelligenter Einsatz der IT als Hilfsmittel gesellschaftlicher (Kommunikations-)Prozesse ?! edit PS: noch ein weiterer Artikel zu dem Thema ... |
Skeptiker hat folgendes geschrieben: |
Ohne totale Demokratie auf dem gesamten Planeten und unter Einreissen aller nationalen Grenzen wird es keinen kulturellen Fortschritt mehr geben. Deswegen ist die ganze Technikfixierung eine gefährliche Sache. Zur Zeit ist die Technik auch wirklich das einzige, was sich an dieser Gesellschaft überhaupt noch weiter entwickelt. Na ja gut, wenn man von den einschlägigen *Kulturkämpfen* mal absieht, welche den menschlichen Fortschritt vorwiegend in einem anderen Denken verorten ...- |
Er_Win hat folgendes geschrieben: |
Lernfähige Heuristiken zur Analyse/Mustererkennung von Bigdata machen in der Tat rasche Fortschritte, nur habe ich persönlich ein "Problem" damit, das als besonders intelligenten Einsatz von Computing zu werten. Zweckoptimierte kommerzielle Massenmanipulationsversuche vs. intelligenter Einsatz der IT als Hilfsmittel gesellschaftlicher (Kommunikations-)Prozesse ?! |
Zitat: |
This paper published in Nature on 28th January 2016, describes a new approach to computer Go that combines Monte-Carlo tree search with deep neural networks that have been trained by supervised learning, from human expert games, and by reinforcement learning from games of self-play. |
Zitat: |
Das offizielle Unternehmensziel von Google DeepMind ist, Intelligenz zu verstehen ("Solve Intelligence"). Im Gegensatz zu anderen künstlichen Intelligenzen wie z.B. DeepBlue von IBM hat Google DeepMind kein vordefiniertes Ziel und ist somit flexibler in der Anwendung für verschiedene Probleme. Google DeepMind unterscheidet sich ebenfalls in der grundsätzlichen Strukturierung der künstlichen Intelligenz. Statt ausschließlich auf ein neuronales Netz zu setzen, erweiterte man die KI mit einem Kurzzeitspeicher, um somit die Fähigkeit eines künstlichen Gedächtnisses zu simulieren. Die Entwickler von Google DeepMind bezeichnen die künstliche Intelligenz deshalb auch als "neuronale Turing Maschine" und nicht als neuronales Netz. |
Er_Win hat folgendes geschrieben: |
Lernfähige Heuristiken zur Analyse/Mustererkennung von Bigdata machen in der Tat rasche Fortschritte, nur habe ich persönlich ein "Problem" damit, das als besonders intelligenten Einsatz von Computing zu werten.
Zweckoptimierte kommerzielle Massenmanipulationsversuche vs. intelligenter Einsatz der IT als Hilfsmittel gesellschaftlicher (Kommunikations-)Prozesse ?! |
smallie hat folgendes geschrieben: |
Die Eingangsfrage scheint mir mehrdeutig zu sein.
a) Taugt deep learning, um so etwas wie Intelligenz zu erzeugen? b) Wird deep learning intelligent eingesetzt? |
smallie hat folgendes geschrieben: |
Was leisten künstliche neuronale Netze?
Weniger als 100 000 Neuronen reichen, um klassische Atari-2600-Computerspiele zu meistern. Was könnten Netze mit 80 000 000 000 Neuronen wohl leisten? Ungefähr so viele Gehirnzellen hat der Mensch. Ich zweifle keine Sekunde daran, daß neuronale Netze ein Weg wären, um echte KI zu bauen. Allerdings bin ich mir nicht sicher, ob es technisch möglich ist, einen Computer zu bauen, der 80 000 000 000 Neuronen in Echtzeit berechnen kann. Ich denke nicht, daß sich Moore's Law beliebig weit fortsetzt. Zumindest nicht mit heutiger Technik. (Dieser Beitrag wurde mit 40 Watt Grundumsatz des menschlichen Körpers erstellt. ) |
göttertod hat folgendes geschrieben: |
Jürgen Schmidhuber |
göttertod hat folgendes geschrieben: |
hier ein tolles Interview mit Jürgen Schmidhuber über unser aller Zukunft
http://www.infoq.com/articles/interview-schmidhuber-deep-learning |
Zitat: |
Schmidhuber: It is a new branding of an old hat. It is mostly about deep neural networks with many subsequent processing stages, not just a few. With today’s faster computers, such nets have revolutionized Pattern Recognition and Machine Learning. The term "Deep Learning" itself was first introduced to Machine Learning by Dechter in 1986, and to Artificial Neural Networks (NNs) by Aizenberg et al in 2000. |
Er_Win hat folgendes geschrieben: |
....
Da ich vor Zeiten mal auch selber mit einem Kollegen im Zuge des Studium an künstlich "intelligenten" Programmen (Schach) gearbeitet habe, die mich selbst dann geschlagen haben, frage ich mich heute hauptsächlich woher der populärwissenschaftliche Hype um künstliche "Intelligenz" kommt bzw. wie und warum diese *imho eher unsinnige Begriffsverbreitung in der IT Platz gegriffen hat..... |
fwo hat folgendes geschrieben: |
Intelligenz ist hier nichts anderes als ein Ausdruck für ein lernfähiges System. Kann man doch einfach so hinnehmen. |
Er_Win hat folgendes geschrieben: |
Da ich vor Zeiten mal auch selber mit einem Kollegen im Zuge des Studium an künstlich "intelligenten" Programmen (Schach) gearbeitet habe, die mich selbst dann geschlagen haben, frage ich mich heute hauptsächlich woher der populärwissenschaftliche Hype um künstliche "Intelligenz" kommt bzw. wie und warum diese *imho eher unsinnige Begriffsverbreitung in der IT Platz gegriffen hat. |
wikipedia hat folgendes geschrieben: |
Mycin
MYCIN war nie im praktischen Einsatz. Das lag nicht an schlechten Ergebnissen. Wie erwähnt schnitt es bei Tests besser ab als die Mitglieder der medizinischen Fakultät in Stanford. Einige Kommentatoren erhoben ethische und rechtliche Einwände gegen den Einsatz von Computern in der Medizin - sollte ein Programm eine falsche Diagnose stellen oder eine falsche Therapie vorschlagen, wer wäre verantwortlich? Original: MYCIN was never actually used in practice. This wasn't because of any weakness in its performance. As mentioned, in tests it outperformed members of the Stanford medical school faculty. Some observers raised ethical and legal issues related to the use of computers in medicine — if a program gives the wrong diagnosis or recommends the wrong therapy, who should be held responsible? https://en.wikipedia.org/wiki/Mycin |
Er_Win hat folgendes geschrieben: |
Ich wollte nur auf das, dem Begriff innewohnende und recht wirksame, assoziative Desinformationspotential hinweisen. |
Zitat: |
Ich persönlich finde den Begriff "machine learning" einfach treffender, wenn auch weniger "sexy" ... |
smallie hat folgendes geschrieben: |
Was ist "sexy"? Erzähl mir mehr! |
smallie hat folgendes geschrieben: |
Die passende Schublade AL - Artificial Life - hat sich nie so recht durchgesetzt. |
smallie hat folgendes geschrieben: | ||
*imho. So, so. Wie und warum? |
smallie hat folgendes geschrieben: |
Du sitzt einem "falschen Freund" auf. Englisch Intelligence ist etwas anderes als deutsch Intelligenz.
Wer würde schon CIA mit Intelligenzhauptamt übersetzen? [snip "wg. für mich überflüssigem Lehrveranstalungsversuch"...] |
smallie hat folgendes geschrieben: |
Was ist "sexy"? Erzähl mir mehr! |
göttertod hat folgendes geschrieben: | ||
Das ist sexy ----> |
göttertod hat folgendes geschrieben: | ||
Wobei mich hier immer das Adjektiv "künstlich" stört. Aber nur, weil im Studium die religiöse Fraktion der Studenten (und teilweise der Lehrenden), das Wort genutzt haben, um das letztliche, zukünftige Resultat - bewusstes Leben - zu denunzieren, oder besser diesem Leben die Echtheit/Gleichwertigkeit abzusprechen. (Alles in unserem Universum ist natürlich, selbst das künstliche.) |
göttertod hat folgendes geschrieben: |
Ich freue mich schon auf das Zeitalter der Individuumsrechte! |
Er_Win hat folgendes geschrieben: | ||||
weil die "normalen" Heuristiken und neuronalen Netze noch immer recht wenig mit der Struktur und dem intelligenten Ergebnis dessen zu tun haben, was sich zwischen deinen Ohren abspielt. |
smallie hat folgendes geschrieben: |
Was könnten Netze mit 80 000 000 000 Neuronen wohl leisten? Ungefähr so viele Gehirnzellen hat der Mensch. |
Er_Win hat folgendes geschrieben: |
Selbst das HBP verzeichnet diesbzgl. bis dato eher bescheidene Fortschritte. |
smallie hat folgendes geschrieben: |
Das Blue-Brain-Projekt in der Schweiz wird scheitern. Ich möchte nicht unken, vermute aber, daß die dort nur einen epileptischen Anfall simuleren werden, um es salopp zu sagen. |
Er_Win hat folgendes geschrieben: | ||
wem sitze ich auf ? Ich schrieb, dass ich "machine learning" (bzw. maschinelles Lernen) treffender finde als KI. Was hat das jetzt mit deinem -Hinweis bzgl. deutsch/englisch zu tun ? AI bzw. KI werden synonym verwendet ... |
Sermon hat folgendes geschrieben: |
Vom Algorithmus diskriminiert |
Lange-Hausstein hat folgendes geschrieben: |
Algorithmen entscheiden objektiv? Ein Märchen.
Dass Algorithmen objektiv entscheiden, ist dabei eine Mär. Weil sie von Menschen programmiert werden, spiegeln Algorithmen die Vorurteile ihres Programmierers. Code ist Werturteil. Algorithmen entscheiden zu lassen, ist zudem problematisch, weil sie durch Wiederholung menschlichen Verhaltens bereits vorhandene Diskriminierungen vertiefen. |
Lange-Hausstein hat folgendes geschrieben: |
Gleichbehandlung ist eine Kategorie der Gerechtigkeit. Gerechtigkeit fordert aber nicht nur, Gleiches gleich zu behandeln. Für eine gerechte Entscheidung kann auch erforderlich sein, dass Ungleiches ungleich behandelt wird. Wenn sich ein potenzieller Kreditnehmer als Betrüger strafbar gemacht hat, wird die Entscheidung einer Bank, ihm einen Kredit nur gegen einen höheren Zins zu geben als anderen, kaum als ungerecht wahrgenommen werden. |
zelig hat folgendes geschrieben: |
Stell dir einfach vor, der Mann raubt die Bank aus, bei der er ein Konto hat. Verliert der das Anrecht auf Zinsen für sein Guthaben? |
Lange-Hausstein hat folgendes geschrieben: |
Anders sieht es aus, wenn der gegenüber anderen höhere Zins mit der Herkunft begründet wird. Der Grund für die Ungleichbehandlung ist entscheidend. Es gibt Gründe, die wir akzeptieren - Betrug - und Gründe, für die das nicht gilt - Herkunft. |
Sermon hat folgendes geschrieben: |
Why Microsoft's 'Tay' AI bot went wrong |
Zitat: |
"Any AI system learning from bad examples could end up socially inappropriate," Yampolskiy said, "like a human raised by wolves." |
smallie hat folgendes geschrieben: | ||
[...]
Es bräuchte einen eigenen Thread, um alles aufzuschreiben, was mir dazu einfällt. Egalitarismus unter Jägern/Sammler habe ich schon oft erwähnt. Zum "Alltagsfaschismus" habe ich mich hie und da auch schon ausgelassen. (Nur noch nicht oft genug. ) Aber das ist ein anderes Thema. Soweit es diesen Thread betrifft, sage ich: warum sollte eine künstliche Intelligenz nicht auf den selben Käse hereinfallen wie eine natürliche? Oder anders gefragt: was hat KI mit Individuumsrechten zu tun? |
Sermon hat folgendes geschrieben: |
Vom Algorithmus diskriminiert
Why Microsoft's 'Tay' AI bot went wrong |
smallie hat folgendes geschrieben: | ||
|
göttertod hat folgendes geschrieben: |
1. objektive Wahrheit (der vertretenen Systemkomponenten/-manifestationen/-äußerungen; Transparenz) 2. Handlungsfreiheit (aller Individuen; dazu zählen vorrangig die Freiheitsrechte) 3. soziale Nützlichkeit/Hedonismus (als Schwerpunkt der vorallem politischen Entscheidungen; siehe z.B. EDIT: Deutscher Amtseid) (4. Diversität (entsteht aber automatisch, wenn die ersten drei Punkte eingehalten werden)) (zur Vertiefung von mir empfohlen John Stuart Mill / Freiheit / Wahrheit / (soziale) Nützlichkeit / Sozialstaat? |
Zitat: |
Evaluating New York Teachers, Perhaps the Numbers Do Lie
MICHAEL WINERIPMARCH 6, 2011 A statistical model the school system uses in calculating the effectiveness of teachers. http://www.nytimes.com/2011/03/07/education/07winerip.html |
Zitat: |
Analyzing Released NYC Value-Added Data
Gary Rubinstein - 2012 (?) Rubinstein hat sich die VAM-Daten von 18 000 New Yorker Lehrern angesehen, die zwischen 2007 und 2010 erhoben wurden. Seine Annahmen waren: 1) Lehrer verbessern sich innerhalb eines Schuljahres kaum. 2) Lehrer können sich im Laufe ihrer Karriere verbessern, muß aber nicht sein. 3) Lehrer verbessern sich vom ersten auf's zweite Jahr am Meisten, weil sie dann ihre Materialien schon bereit haben, usw. Rubinstein hat die Zahlen nach verschiedenen Kriterien ausgewertet. Zunächst setzte er die Punktzahl eines Lehrer mit seiner Punktzahl ein Jahr später in Beziehung. Wenn gemäß der Annahmen ein bestimmter Lehrer in einem Jahr 50 Punkte hatte und im nächsten 51, dann sollte sich eine Gerade ergeben, wenn man die Punktzahl aller Lehrer im ersten Jahr auf der x-Achse einträgt und das zweite Jahr auf der Y-Achse. |
Code: |
* * * C * * * A * * * B * * * * * * * * * * * * 0 1 2 3 4 5 6 7 8 9 |
Rubinstein hat folgendes geschrieben: |
Tatsächlich sieht der scatterplot ganz anders aus:
Die Leistung eines Lehrer in zwei Jahren korreliert nur schwach. (0,3) Heißt auf deutsch: dieses Jahr ein guter Leher, nächstes Jahr ein schlechter. Letztlich ist das Modell kaum besser als ein Zufallsgenerator. Unter den 18 000 Lehrer waren 707 Anfänger, die nach Annahme 3) am meisten Verbesserung zeigen müßten. Auch hier konnte Rubinstein keinen Effekt finden: Weiter gab es Lehrer, die zwei oder mehr Fächer unterrichtet haben. Die Daten liegen getrennt nach Fächern vor. Nun könnte man meinen, daß ein guter Lehrer immer ein guter Lehrer ist, egal ob er gerade Mathe oder Englisch oder Kunst unterrichtet. Auch das findet sich nicht in den Daten. Hmm, vielleicht kann ein Lehrer als Mathelehrer gut sein, und schlecht als Sprachlehrer. Aber sollte man nicht wenigstens annehmen können, daß ein guter Mathelehrer gut ist, egal welche Jahrgangsstufe er unterrichtet? Auch nichts. Noch kurz O-Ton Rubinstein, darin fordert er dazu auf, obiges weiterzuerzählen. Aye, sir. I’ve never asked the people who read my blog to do this before since I prefer that it happen spontaneously, but I’d ask for you to spread the word about this post. Tweet it, email it, post it on Facebook. Whatever needs to happen for this to go ‘viral,’ I’d appreciate it. I don’t do this for money or for personal glory. I do it because I can’t stand when people lie and teachers, and yes those teachers’ students, get hurt because of it. I write these posts because I can’t stand by and watch it happen anymore. http://garyrubinstein.teachforus.org/2012/02/26/analyzing-released-nyc-value-added-data-part-1/ |
Wickipedia hat folgendes geschrieben: |
Value-added modeling
Critics say that the use of tests to evaluate individual teachers has not been scientifically validated, and much of the results are due to chance or conditions beyond the teacher's control, such as outside tutoring. Research shows, however, that differences in teacher effectiveness as measured by value-added of teachers are associated with very large economic effects on students. https://en.wikipedia.org/wiki/Value-added_modeling |
göttertod hat folgendes geschrieben: |
jetzt meine Frage an euch: Ist die Erschaffung unserer eigenen Behüter~Götter~Kinder jetzt offiziell? die Technologische Singularität [...] dürfen wir nächsten Monat einen immensen Schub an Performance auf der Liste erwarten; z.B. wegen der neuen KI/deeplearning-Chips von Nvidia Tesla P100 |
göttertod hat folgendes geschrieben: |
jetzt meine Frage an euch:
Ist die Erschaffung unserer eigenen Behüter~Götter~Kinder jetzt offiziell? die Technologische Singularität |
Zitat: |
Hans Moravec bezifferte die Rechenleistung des Gehirns auf 100 Teraflops, Raymond Kurzweil auf 10.000 Teraflops. |
göttertod hat folgendes geschrieben: |
als ich das letzte Mal drauf geschaut hab, war die Prognose noch linear??!!!
http://www.top500.org/statistics/perfdevel/ |
göttertod hat folgendes geschrieben: |
dürfen wir nächsten Monat einen immensen Schub an Performance auf der Liste erwarten; z.B. wegen der neuen KI/deeplearning-Chips von Nvidia Tesla P100 |
smallie hat folgendes geschrieben: | ||
Mal sehen. Die Kernfrage scheint mir zu sein, wieviel Rechenleistung ein Gehirn erbringt. |
Er_Win hat folgendes geschrieben: | ||||
Dein Schein trügt |
smallie hat folgendes geschrieben: |
Angemerkt sei, daß ich die Funktionsweise neuronaler Netze schamlos auf Gehirne übertrage. |
Er_Win hat folgendes geschrieben: |
Es ist schon nicht besonders sinnig überhaupt die "Rechenleistung" des Hirns in flops zu "messen" und noch viel unsinniger aus der Relation der flops in der IT zu den "flops" des Hirns eine Korrelation in Bezug auf Intelligenz ableiten zu wollen. |
Er_Win hat folgendes geschrieben: |
Wie auch in wikipedia erwähnt liegt der Kern bei (künstlichen) neuronalen Netzen in deren Struktur und der Art wie man das Netz mit "Lerninhalten füttert". |
Er_Win hat folgendes geschrieben: |
Flops sind als Mass nur insoweit relevant, als dass die zugrundeliegende "normale" Hardware einfach eine gewisse Verarbeitungsgeschwindigkeit benötigt, damit man in praktikabler Zeit das Netz lernen lassen kann. |
Er_Win hat folgendes geschrieben: |
Wenn jemand aus den flops von Hardware Rückschlüsse auf die Intelligenz zieht, dann erscheint mir das so, wie wenn jemand aus der Tatsache dass sein Golf 110 PS hat schließt, dass deshalb eine hohe Ähnlichkeit seines Fahrzeuge bzgl. der Fortbewegungsart zu einer Herde von 110 Pferden bestehe. |
Zitat: |
The empty brain
Your brain does not process information, retrieve knowledge or store memories. In short: your brain is not a computer [...] We don’t store words or the rules that tell us how to manipulate them. We don’t create representations of visual stimuli, store them in a short-term memory buffer, and then transfer the representation into a long-term memory device. We don’t retrieve information or images or words from memory registers. Computers do all of these things, but organisms do not. [...] Forgive me for this introduction to computing, but I need to be clear: computers really do operate on symbolic representations of the world. They really store and retrieve. They really process. They really have physical memories. They really are guided in everything they do, without exception, by algorithms. Humans, on the other hand, do not – never did, never will. Given this reality, why do so many scientists talk about our mental life as if we were computers? [...] The information processing (IP) metaphor of human intelligence now dominates human thinking, both on the street and in the sciences. There is virtually no form of discourse about intelligent human behaviour that proceeds without employing this metaphor, just as no form of discourse about intelligent human behaviour could proceed in certain eras and cultures without reference to a spirit or deity. The validity of the IP metaphor in today’s world is generally assumed without question. But the IP metaphor is, after all, just another zelig: neben den vorangegangenen, zeitgemäß dominierenden metaphor – a story we tell to make sense of something we don’t actually understand. And like all the metaphors that preceded it, it will certainly be cast aside at some point – either replaced by another metaphor or, in the end, replaced by actual knowledge. |
Zitat: |
[...]
Forgive me for this introduction to computing, but I need to be clear: computers really do operate on symbolic representations of the world. They really store and retrieve. They really process. They really have physical memories. They really are guided in everything they do, without exception, by algorithms. Humans, on the other hand, do not – never did, never will. Given this reality, why do so many scientists talk about our mental life as if we were computers? [...] |
fwo hat folgendes geschrieben: |
Dieses Zitat wäre nur dann sinnvoll, wenn man unter Computer nur ein Gerät mit einer Von-Neumann-Architektur verstünde. Aber welcher Mensch, der Lebewesen als Computer beschreibt, tut das? |
output generated using printer-friendly topic mod. Alle Zeiten sind GMT + 1 Stunde