zelig hat folgendes geschrieben: | ||||
...
@fwo Wärst du auch dazu bereit? |
step hat folgendes geschrieben: | ||||||
...
Ja, aber Du hattest extra ein Beispiel gewählt (Sexpuppe), bei dem unklar blieb, ob das der Fall ist
Dem habe ich ja auch zugestimmt. Ich würde sogar sagen, daß funktionale Identität nicht einmal eine notwendige Bedingung ist. Meine Kritik bezog sich darauf, daß die Konsequenzen weit weniger absurd sind, als Dein Beispiel mit der Sexpuppe suggeriert.
Daher mein Einwand, daß Deine Kritik nur gegen einen sehr oberflächlichen Funktionalismus (Stöhnen) greift. Ob fwo's Linie darunter fällt, mögt Ihr selbst austragen. .... |
fwo hat folgendes geschrieben: |
... selbstbewusster Roboter ... |
Despiteful hat folgendes geschrieben: |
Nenn mir einfach ein einziges nicht vorher von Menschenhand definiertes Ziel, das eine Maschine je erreicht hat. Ein einziges Beispiel genügt, dann sehe ich mich sofort als widerlegt. |
Despiteful hat folgendes geschrieben: |
Wie gesagt, nenn mir einfach ein einziges Ziel, das sich eine Maschine jemals selbst gesetzt hat oder eine Handlung, die intrinsisch motiviert war (Danke smallie für den Ausdruck ) oder eine künstliche Intelligenz, die etwas anderes tut, als wofür sie entwickelt wurde, dann können wir gerne weiterreden. |
Despiteful hat folgendes geschrieben: |
Naja, ich versteh vom Programmieren immerhin soviel, dass ich weiß, dass man zunächst mal ein Ziel definieren muss. Das ist meines Erachtens der springende Punkt. Die Maschinen mögen superintelligent sein, aber sie führen letztlich immer nur diesen einen oder mehrere Befehle aus, für den sie konstruiert worden sind. (Spiele und gewinne Go, tu dies, tu jenes)
... (Edit: natürlich nicht programmierte Befehle im Sinne von 'mach jetzt genau das und dann mach genau das' aber das tut ein Mensch ja auch nicht, wenn bei der Bundeswehr jemand den Befehl kriegt 'Lauf 200 Meter', dann sagt man ihm ja auch nicht 'Rechtes Bein hoch - einatmen - rechtes Bein vor - runter - ausatmen' - Der Befehl lautet aber dennoch 'Lauf 200 Meter' und in diesem Sinne ist es ein Befehl. Natürlich wird es KIs geben die man für mehrere Bereiche einsetzt, ich denke, das wird ja auch schon gemacht, als blödes Beispiel ich nehme eine KI die für Musik entworfen wurde für Photobearbeitung her, das wird natürlich möglich sein. Aber erst, wenn die KI für Musik von sich aus anfängt Photos zu machen, dann sähe ich mich widerlegt.) |
Despiteful hat folgendes geschrieben: | ||
Eigentlich schon, schau mal auf den Threadtitel. |
Kramer hat folgendes geschrieben: | ||
Die Frage ist doch nicht, ob eine künstliche Inelligenz leidensfähig ist oder sein könnte, sondern ob sie es sein sollte. Dagegen sprechen technische Gründe (Wie macht man das?) und ethische (Erschafft man damit nicht neues Leid?). Dafür spricht, dass eine künstliche Intelligenz, die der menschlichen eventuell überlegen ist, aber nicht zu menschlichen Emotionen fähig ist, eine potentielle Gefahr darstellt. Die Frage ist, wie man eine intelligente Maschine zu ethischem Handeln bewegt, ohne ihre eigentliche Funktion, ein selbstlernendes und eigene Entscheidungen treffendes System zu sein, zu beeinträchtigen. Eine Implementierung von ethischen Anweisung a la Asimov halte ich nicht für zielführend, denn damit würde man die Maschine dazu verdammen, einer Regel zu folgen, ohne sie hinterfragen zu dürfen. Man müsste also einen Weg finden, dass die Maschine aus eigenen Überlegungen zu prosozialen Entscheidungen kommt. Aus Erfahrungen mit unserer eigenen Spezies wissen wir, dass Menschen, die ein eingeschränktes Empfindungs- und Empathievermögen haben, zu egoistischem und antisozialen Verhalten neigen. Es kann nicht in unserem Interesse sein, eine Intelligenz zu erschaffen, deren "Sozialverhalten" nicht berechenbar ist. |
cortano hat folgendes geschrieben: | ||||
Aber fwo hat das "ich habe keine Argumente" sehr elegant formuliert |
fwo hat folgendes geschrieben: |
Ich sehe nicht, dass irgendetwas dagegen spricht, dieser Schöpfung die Empathie für Menschen, die zwangsläufig sein muss, als festes Regelwerk einzugeben. |
Despiteful hat folgendes geschrieben: |
... und nutzt die Zeit dann um über Sci-Fi zu schwurbeln. |
cortano hat folgendes geschrieben: | ||
eventuell könnte auch eine Überprüfung deiner Vorstellungen über KI sinnvoll sein - eine gewisse Hollywood-Lastigkeit könnte gegeben sein |
step hat folgendes geschrieben: |
....
Auch ich halte es übrigens für Unsinn, echten KIs so etwas wie die Asimov-Regeln mitzugeben. Sobald sie wirklich intelligent werden, finden sie einen Weg, sich darüber hinwegzusetzen. .... |
fwo hat folgendes geschrieben: | ||
|
fwo hat folgendes geschrieben: |
... Das müsstest Du also schon genauso explizit mitgeben, wie es Asimov mit seinen Regeln tut. Warum willst Du das? |
Marcellinus hat folgendes geschrieben: | ||||
|
step hat folgendes geschrieben: | ||||
Nein, sie würden ganz andere Ziele ausbilden, als Replikatoren für Gene zu sein. Diese könnten sie aber durchaus effizienter verfolgen, u.a. wegen der von mir genannten kürzeren Lernzyklen. |
fwo hat folgendes geschrieben: |
Wie kommst Du überhaupt darauf, dass sie eigene Ziele entwickeln würden, ohne, dass wir sie ihnen eingeben? Schon das Beginnen des Lernens setzt ein Ziel voraus. |
step hat folgendes geschrieben: |
Ich denke, die fundamentalen ethischen Muster sind unabhängig davon, ob es ein biologisches oder kybernetisches Wesen ist. Wenn hinreichend Vernetzung und Intelligenz da ist, erwarte ich mindestens die folgenden Muster:
- kooperativ: weil es effizienter ist - kompetitiv: weil die Ressourcen begrenzt sind |
step hat folgendes geschrieben: |
Aufgrund von Effekten wie der indirekten Reziprozität würde ich auch für gut möglich halten, daß die KIs Wesen anderer Arten als ethische Subjekte oder zumindest ethische Objekte behandeln. Zumindest wenn sie eher verteilt und nicht völlig transparent funktionieren. |
step hat folgendes geschrieben: | ||
Naja also. Etwas so allgemeines wie Lernfähigkeit, Vernetzung, etwas Zufall usw. darf ich noch voraussetzen, oder? Ich habe ja nicht behauptet, daß man gar nichts vorgeben muß. |
fwo hat folgendes geschrieben: |
... Wir können mit sehr hoher Sicherheit von uns auf den anderen Menschen schließen, weil wir der selben Baureihe entstammen. Und diese Baureihe hat die Besonderheit, aus einer Evolution zu stammen. Das bedeutet in der Praxis, sonst hätte die Evolution nicht funktioniert, dass jedes Individuum als Verhaltensdentenz, bei Arten mit Bewusstsein kann man auch vom Willen sprechen, hat, in den Zustand der Fortpflanzungsfähigkeit zu kommen und sich fortzupflanzen. ... |
Zumsel hat folgendes geschrieben: | ||
|
Zumsel hat folgendes geschrieben: | ||
|
fwo hat folgendes geschrieben: |
Aber praktisches Lernen ... bedarf bereits einer Zielsetzung. |
fwo hat folgendes geschrieben: |
Wir machen das durch Nachahmung, durch dazugehören wollen, durch ein Kontaktbedürfnis usw. Das sind aber alles Eigenschaften des biologischen Apparates ... |
fwo hat folgendes geschrieben: |
... Das bedeutet in der Praxis, sonst hätte die Evolution nicht funktioniert, dass jedes Individuum als Verhaltensdentenz ... hat, in den Zustand der Fortpflanzungsfähigkeit zu kommen und sich fortzupflanzen. ... Dein Wille hängt außer von der Sozialisierung (das sehe ich auch als eine Art Programmierung) u.a. auch von Deinem Hormonsystem ab .... |
step hat folgendes geschrieben: |
Ich denke, die fundamentalen ethischen Muster sind unabhängig davon, ob es ein biologisches oder kybernetisches Wesen ist. Wenn hinreichend Vernetzung und Intelligenz da ist, erwarte ich mindestens die folgenden Muster:
- kooperativ: weil es effizienter ist - kompetitiv: weil die Ressourcen begrenzt sind Wie genau das aussieht und welche individuellen oder kollektiven Ziele angestrebt werden, ist mE schwierig vorauszusagen, es hängt von zu vielen Details ab. Wegen der schwächeren Substratbindung im Vergleich zum Menschen werden mE Gefühle keinen großen Nutzen haben und daher auch keine so beherrschende Rolle spielen, ebenso sind die Lernzyklen schneller und das Primat der Gene fehlt (was beim heutigen Menschen teiweise auch schon der Fall ist). Aufgrund von Effekten wie der indirekten Reziprozität würde ich auch für gut möglich halten, daß die KIs Wesen anderer Arten als ethische Subjekte oder zumindest ethische Objekte behandeln. Zumindest wenn sie eher verteilt und nicht völlig transparent funktionieren. Auch ich halte es übrigens für Unsinn, echten KIs so etwas wie die Asimov-Regeln mitzugeben. Sobald sie wirklich intelligent werden, finden sie einen Weg, sich darüber hinwegzusetzen. Außerdem sehe ich die Legitimität solcher Regeln nicht ein. Entweder man stößt die Entwicklung von etwas Besserem an, oder man läßt es bleiben. |
zelig hat folgendes geschrieben: |
"Fundamentale ethische Muster" existieren nicht im luftleeren Raum. |
zelig hat folgendes geschrieben: |
... Oder die Geschichte zeitigt eine dauerhaft stabile Sklavengesellschaft, in der eine kleine Elite auf Kooperation überhaupt nicht angewiesen ist. |
zelig hat folgendes geschrieben: |
Kann es sein, daß Du gerade Deine Ideale, die ich durchaus befürworte, auf KIs projizierst? |
zelig hat folgendes geschrieben: |
Nur daß du ein biologisch-soziales Fundament wie das (Mit)gefühl über Bord wirfst? |
zelig hat folgendes geschrieben: |
Vor allem aber hielte ich es für wirklich gefährlich, biologische Wesen zu ethischen Objekten von KIs zu machen. Was eine logische Folge deiner Überlegung wäre. |
zelig hat folgendes geschrieben: |
Die Menschheit beginnt ja gerade damit, Entscheidungen an KIs zu delegieren, die nicht mehr verstanden werden können. |
Despiteful hat folgendes geschrieben: |
Die Frage nach dem ethischen 'Wie, wenn?' mag ja ganz interessant für euch sein, aber sie hat in diesem Thread eigentlich nichts verloren. Hier wären erstmal obige Fragen zu beantworten. |
cortano hat folgendes geschrieben: | ||
Wie du merkst wird die Diskussion über eine Sci-Fi-Ethik bevorzugt Und wenn ich mir die Vorstellungen so durchlese, hat das zumindest mit der im Threadtitel erwähnten "Praxis" von KI bzw. neuro-computing/learning erstaunlich wenig zu tun. Da scheinen mir nicht mal die Grundlagen verstanden zu sein ... Wie schon erwähnt: autonome "Killermaschinen" sind heute durchaus möglich, die ethischen "Probleme" die hier gewälzt werden, sind hingegen völlig fiktional. |
fwo hat folgendes geschrieben: |
Da hätten die Leute mit dem eingeschränkten Empathievermügen, doch auch Veranlassung, bei Dir von "zu bestimmtem Verhalten verdammt" zu sprechen, der Du wegen dieser blöden Empathie offensichtlich weniger Freiheitsgrade hast als sie. |
Zitat: |
Ich sehe nicht, dass irgendetwas dagegen spricht, dieser Schöpfung die Empathie für Menschen, die zwangsläufig sein muss, als festes Regelwerk einzugeben. |
cortano hat folgendes geschrieben: | ||
Wie du merkst wird die Diskussion über eine Sci-Fi-Ethik bevorzugt ;) |
step hat folgendes geschrieben: | ||||
Ausgangspunkt (ich glaube von Kramer?) war ja die Frage, wie man "eine Maschine zu ethischem Handeln bewegt". Du kannst natürlich argumentieren, daß es für Kooperation und Wettbewerb gar keine Ethik brauche, z.B. gebe es das ja auch im Tierreich. Da würde ich zustimmen - Ethik ist etwas Reflektierteres,... |
step hat folgendes geschrieben: |
ethisches Subjekt = selbstbewußtes Wesen mit Interessen und ethischer Diskursfähigkeit ("Person") |
step hat folgendes geschrieben: |
ethisches Objekt = empfindungsfähiges Wesen
Ethische Objekte ohne Subjekteigenschaft (z.B. viele Tiere) bestimmen die Ethik nicht mit, ihnen können auch nicht sinnvoll aktive Rechte zugewiesen werden, aber sie sind dennoch wichtige Objekte der Ethik (daher meine Bezeichnung), d.h. die ethischen Subjekte müssen sie im ethischen Diskurs berücksichtigen. Z.B. kann ihnen Schutz vor Leid zugewiesen werden. |
zelig hat folgendes geschrieben: | ||||
Da irrst du Dich. Das ist keine Science-Fiction. Entscheidungen werden für den menschlichen Akteur zunehmend undurchschaubarer. Und sie greifen zunehmend auf Bereiche über, die für Menschen relevant sind. Auch im persönlichen Bereich. Ich glaube da sollte man sich keiner Illusion hingeben. |
Zitat: |
Künstliche neuronale Netze sind noch nicht geeignet, größere Transferleistungen zu erbringen, also mit ihrem erlernten Wissen beliebige Situationen zu meistern oder selbst kreativ zu werden, etwa spielerisch mit Sprache umzugehen. Oder, bezogen auf sich selbst: Sie können noch nicht mal ihre eigenen Unzulänglichkeiten erkennen.
Zur Analyse und Optimierung der Netze benötigt man nach wie vor menschlichen Erfindergeist oder so etwas wie ein Gespür für erfolgversprechende Ansätze. Und letztlich sind die Netze noch weit von einem Generalisten entfernt, der sich zu einem Individuum mit eigenen Interessen entwickelt. |
Kramer hat folgendes geschrieben: | ||
...
Ich halte es für einen Widerspruch, einerseits so etwas wie Intelligenz erschaffen zu wollen und andererseits diese Intelligenz durch strikte Vorgaben behindern zu wollen. Es gibt ja auch Regeln, die einmal von Menschen in guter Absicht aufgestellt wurden, die später von anderen Menschen geändert oder verworfen wurden. Es gibt Regeln, die Kinder von ihren Eltern oder Grosseltern gelernt haben, die sie lange beherzigen, um sich als Erwachsene dann doch anders zu entscheiden. Selbst die Regeln, die von den meisten Menschen als nützlich und richtig anerkannt werden, stehen zumindest gedanklich immer wieder auf dem Prüfstand. Es ist ja nicht so, dass Mord etwas ist, über das wir nicht nachdenken dürfen, über das wir keine Geschichten erfinden dürfen, uns keinen Gedankenspielen a la "Was wäre wenn...?" hingeben dürfen. Wir Menschen (jedenfalls der Grossteil von uns) haben die Fähigkeit, ganz dicht an den Abgrund heran zu treten und doch nicht zu springen. |
cortano hat folgendes geschrieben: |
Keine Ahnung wovon du sprichst. |
Zitat: |
KI in der Medizin
Im Sommer 2017 stellten Forscher der Universität Bari in Italien eine KI vor, die mit einer Wahrscheinlichkeit von 86 Prozent die Krankheit Alzheimer anhand von Gehirnscans - durchgeführt mit Magnetresonaztomographen - diagnostizieren kann, zehn Jahre bevor die ersten Symptome auftauchen.[63] Im August 2016 konnte am Medical Institute der Tokyo Universität die KI Watson eine Fehldiagnose der Ärzte korrigieren. Die Ärzte diagnostizierten bei der Patientin eine akute myeloische Leukämie. Die Therapie blieb erfolglos, weswegen man die KI Watson zu Rate zog. Die KI benötigte 10 Minuten, um die DNA der Frau mit 20 Millionen Krebsstudien abzugleichen. Die KI Watson erkannte eine sehr seltene Form der Leukämie, die bislang nur 41 Patienten betraf und welche heilbar ist.[64] Grundsätzlich ist der Krebs so individuell wie die Patienten selbst. Das ist der Grund, weshalb eine Therapie bei einem Patienten hilft und bei einem anderen nicht. Hier können KIs die Genanalyse von Patienten innerhalb von Minuten mit Millionen Daten anderer Patientenakten, Behandlungsformen, Forschungsaufsätzen abgleichen und so zu einer sehr präzisen Diagnose kommen, was man Präzisionsmedizin nennt und ohne den Einsatz von Computern nicht möglich ist. Dies ist nicht nur auf die Krebsdiagnose beschränkt, sondern kann auch bei Herzinfarkten, Diabetes usw. eingesetzt werden. Wichtig dafür ist, dass die Daten in digitaler Form (anonymisiert) vorliegen. Google, IBM, Microsoft, Amazon usw. bieten dafür Plattformen, um derartige Daten hochzuladen und bereitzustellen.[65] In einem wissenschaftlichen Wettbewerb wurden Forscher im Jahr 2016 weltweit eingeladen, eine Software zur Erkennung von Brustkrebszellen (Diagnose von Metastasen in Sentinel-Node-Biopsien) einzureichen. 32 Programme wurden von 23 Teams eingereicht. In einem Wettbewerb traten diese Programme dann gegen ein Team aus 11 Pathologen an, welche jeweils 2 Stunden zur Analyse von 129 Präparaten hatten. Eine Vergleichsgruppe bestand aus einem versierten Pathologen, der sich so viel Zeit nehmen durfte, wie er wollte, was allerdings nicht dem klinischen Alltag entspricht. Die Programme nutzten meist convolutional neural networks. Sieben der Programme lieferten bessere Ergebnisse als die Gruppe der Pathologen. Insbesondere die Programme der Harvard Medical School und des Massachusetts Institute of Technology stellten die Pathologen in den Schatten. Die menschlichen Pathologen übersahen häufig Mikrometastasen, was den besseren Programmen nur selten passierte. Fünf der Programme waren sogar besser als der versierte Pathologe, der sich 30 Stunden Zeit für die Analyse nahm. Selbst dieser versierte Pathologe übersah ein Viertel der Mikrometastasen. |
cortano hat folgendes geschrieben: |
... |
output generated using printer-friendly topic mod. Alle Zeiten sind GMT + 1 Stunde