Freigeisterhaus Foren-Übersicht
 FAQFAQ   SuchenSuchen   MitgliederlisteMitgliederliste   NutzungsbedingungenNutzungsbedingungen   BenutzergruppenBenutzergruppen   LinksLinks   RegistrierenRegistrieren 
 ProfilProfil   Einloggen, um private Nachrichten zu lesenEinloggen, um private Nachrichten zu lesen   LoginLogin 

Das Induktionsproblem

 
Neues Thema eröffnen   Neue Antwort erstellen   Drucker freundliche Ansicht    Freigeisterhaus Foren-Übersicht -> Wissenschaft und Technik
Vorheriges Thema anzeigen :: Nächstes Thema anzeigen  
Autor Nachricht
DemonDeLuxe
Frisch gestählt



Anmeldungsdatum: 17.08.2005
Beiträge: 672
Wohnort: Wiesbaden

Beitrag(#396478) Verfasst am: 06.01.2006, 06:10    Titel: Das Induktionsproblem Antworten mit Zitat

Thema von hier abgeteilt / babyface


Leony hat folgendes geschrieben:
Aber wieso kann man - in bestimmten Fällen jedenfalls - von einer kleinen Menge von Daten
auf eine sehr viel größere Menge schließen?
Logisch ist das nicht:
Nach der Logik ist es zwar zulässig,
aus dem, was für alle gilt, auf das zu schließen, was für einen Teil von allen gilt,
aber nicht,
aus dem, was für einen (echten) Teil von allen gilt, auf das, was für alle gilt.

Dies "Induktionsproblem" hat David Hume (1711-1776) einiges Kopfzerbrechen bereitet.
Soweit ich sehe, hat erst Karl Popper (1902-1994) eine einigermaßen befriedigende Lösung vorgeschlagen.
Bis dahin hatten die Naturwissenschaftler schon jahrhundertelang mit großem Erfolg
das Induktionsprinzip angewandt,
dazu brauchten sie offenbar keine zufriedenstellende erkenntnistheoretische Begründung.


Interessanter Punkt - wobei ich jetzt 'mal meine große philosophische Unbelecktheit einräume und dass ich weder den einen noch den anderen (Hume und Popper) mehr als nur namentlich kenne :O)

Trotzdem versuche ich mich 'mal mit einem eigenen Gedankengang - kannst mir dann ja sagen, wo ich falsch liege oder sogar mit Popper übereinstimme, wer weiß? Smilie

Ich untersuche also einen Teil T und möchte Rückschlüsse auf das Ganze G ziehen. Unter der Maßgabe, dass der beobachtete Teil tatsächlich Teil dieses ganzen ist (und nicht von etwas anderem), habe ich mit der Beobachtung eines Teils immerhin ein Verhältnis von 1 Beobachtung des Zustandes X (eben der beobachtete) zu 0 Zuständen Nicht-X. Damit ist zunächst einmal ein Beweis für die Möglichkeit von X erbracht, während Nicht-X aussteht. Mindestens diese Aussage ist also schon einmal abgesichert:

"Das Ganze G umfasst mindestens einen Zustand X, WEIL X im Teil T beobachtbar ist".

Soweit trivial. Aber immerhin: Wir haben empirisch eine nicht zu widerlegende Eigenschaft von G aus T ableiten können.

Nun ist man meist aber an quantitativen Aussagen interessiert. Es leuchtet ein, dass quantitativ nur dann eine vernünftige Aussage über G aus T abzuleiten ist, wenn T repräsentativ ist (oder wenn es das nicht ist, wir aber die Abweichung Ts vom Durchschnitt kennen). Dummerweise ist das selbstbezüglich, da wir ja oft T gerade untersuchen, UM typische Werte von G zu ermitteln.

Es gilt also, zu erfahren, inwieweit T repräsentativ ist. Wenn wir sicher sein könnten, dass T perfekt repräsentativ, also eine in jeder Hinsicht mengenmäßig verkleinerte Kopie von G ist, wäre die Anforderung erfüllt und jede Beobachtung von T wäre auf G übertragbar.

Einen tatsächlichen Beweis der Repräsentanz von T bezüglich G müssen wr in vielen Fällen ausschließen, nämlich in denen, in denen G unendlich groß (z.B. natürliche Zahlen) oder doch von seiner schieren Menge her uns nicht erfassbar ist (z.B. Weltall). Wir können daher in diesen Fällen niemals eine Aussage mit Exaktheit, sondern allenfalls mit einer gewissen Wahrscheinlichkeit treffen. Genau diese Problematik vereinfacht aber die Aufgabe, denn wenn etwas nicht MÖGLICH ist, kann es nicht ERFORDERLICH sein. Es wäre auch sinnlos, Anforderungen zu stellen, die über das von uns irgendwie Erfahrbare hinausreichen (well, ja, die Kirchen kennen so etwas...), zumal es komplett irrelevant ist, welche Wahrheiten sich jenseits unseres Ereignishorizontes abspielen mögen.

Anders ausgedrückt: Da wir nur innerhalb unseres Erkenntnishorizontes verifizieren oder falsifizieren können, braucht unsere Aussage über G auch nur für den von uns erfahrbaren Teil zu gelten. Mit dieser Annahme werden unendlich große G trotz Unmöglichkeit ihrer vollkommenen Erforschung beschreibbar.

Je repräsentativer, desto wahrscheinlicher liegt unser ermittelter Wert / unsere beobachtete Eigenschaft bei G ähnlich oder sogar exakt so vor wie bei T. Mit jeder weiteren Beobachtung vergrößern wir die Menge an Indizien, die uns darüber informiert, inwieweit T repräsentativ für G ist. Gleichzeitig vergrößern wir mit jeder Beobachtung eines T den erforschten Teil von G, verkleinern also den Bereich von G, auf den wir Rückschlüsse ziehen wollen. Das Verhältnis von Beobachtetem zu zu Erschließendem verbessert sich damit mit jeder Beobachtung.

Der Rest ist Wahrscheinlichkeitsrechnung :O)

(puh, hirnverrenkend, sowas. Aber interessant.)
_________________
HONI SOIT QUI MAL Y PENSE
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden Website dieses Benutzers besuchen
Leony
gottlos



Anmeldungsdatum: 16.07.2003
Beiträge: 3674
Wohnort: Aufklärung und Kritischer Rationalismus

Beitrag(#398431) Verfasst am: 09.01.2006, 00:44    Titel: Antworten mit Zitat

DemonDeLuxe hat folgendes geschrieben:
Leony hat folgendes geschrieben:
Aber wieso kann man - in bestimmten Fällen jedenfalls - von einer kleinen Menge von Daten
auf eine sehr viel größere Menge schließen?
Logisch ist das nicht:
Nach der Logik ist es zwar zulässig,
aus dem, was für alle gilt, auf das zu schließen, was für einen Teil von allen gilt,
aber nicht,
aus dem, was für einen (echten) Teil von allen gilt, auf das, was für alle gilt.

Dies "Induktionsproblem" hat David Hume (1711-1776) einiges Kopfzerbrechen bereitet.
Soweit ich sehe, hat erst Karl Popper (1902-1994) eine einigermaßen befriedigende Lösung vorgeschlagen.
Bis dahin hatten die Naturwissenschaftler schon jahrhundertelang mit großem Erfolg
das Induktionsprinzip angewandt,
dazu brauchten sie offenbar keine zufriedenstellende erkenntnistheoretische Begründung.


Interessanter Punkt - wobei ich jetzt 'mal meine große philosophische Unbelecktheit einräume und dass ich weder den einen noch den anderen (Hume und Popper) mehr als nur namentlich kenne :O)

Dass David Hume über das Induktionsproblem geschrieben hat, das weiß ich ehrlich gesagt, auch nur deshalb,
weil ich bei Wikipedia unter Induktion bzw. unter Induktionsschluss nachgelesen habe.

DemonDeLuxe hat folgendes geschrieben:
Trotzdem versuche ich mich 'mal mit einem eigenen Gedankengang - kannst mir dann ja sagen, wo ich falsch liege oder sogar mit Popper übereinstimme, wer weiß? Smilie

Ich untersuche also einen Teil T und möchte Rückschlüsse auf das Ganze G ziehen. Unter der Maßgabe, dass der beobachtete Teil tatsächlich Teil dieses ganzen ist (und nicht von etwas anderem), habe ich mit der Beobachtung eines Teils immerhin ein Verhältnis von 1 Beobachtung des Zustandes X (eben der beobachtete) zu 0 Zuständen Nicht-X. Damit ist zunächst einmal ein Beweis für die Möglichkeit von X erbracht, während Nicht-X aussteht. Mindestens diese Aussage ist also schon einmal abgesichert:

"Das Ganze G umfasst mindestens einen Zustand X, WEIL X im Teil T beobachtbar ist".

Soweit trivial. Aber immerhin: Wir haben empirisch eine nicht zu widerlegende Eigenschaft von G aus T ableiten können.

Das ist unbestreitbar richtig. Hat aber noch nichts mit dem Induktions-Problem zu tun.

DemonDeLuxe hat folgendes geschrieben:
Nun ist man meist aber an quantitativen Aussagen interessiert.

Naturwissenschaftler sind oft anspruchsvoller.
Sie stellen Theorien auf, in denen behauptet wird, dass bestimmte Gesetzmäßigkeiten
nicht nur meistens, sondern immer gelten würden.
Beispiele sind der Satz von der Erhaltung der Energie und der Satz von der Erhaltung des Impulses.
Rein von der Logik her wäre es möglich, dass wir irgendwann ein Gegenbeispiel finden.
Genau genommen, ist die Behauptung, dass die beiden Sätze immer gelten würden,
nur eine Theorie,
nur eine Hypothese, die sich irgendwann als falsch erweisen könnte.
Trotzdem haben wir ein bemerkenswertes Vertrauen in diese Theorie.
Wenn wir Berichte von Ereignissen hören, die dieser Theorie widersprechen,
dann sind wir in aller Regel überzeugt, dass der Fehler in den Berichten liegt, nicht etwa in der Theorie.

DemonDeLuxe hat folgendes geschrieben:
Es leuchtet ein, dass quantitativ nur dann eine vernünftige Aussage über G aus T abzuleiten ist, wenn T repräsentativ ist (oder wenn es das nicht ist, wir aber die Abweichung Ts vom Durchschnitt kennen). Dummerweise ist das selbstbezüglich, da wir ja oft T gerade untersuchen, UM typische Werte von G zu ermitteln.

Es gilt also, zu erfahren, inwieweit T repräsentativ ist. Wenn wir sicher sein könnten, dass T perfekt repräsentativ, also eine in jeder Hinsicht mengenmäßig verkleinerte Kopie von G ist, wäre die Anforderung erfüllt und jede Beobachtung von T wäre auf G übertragbar.

Einen tatsächlichen Beweis der Repräsentanz von T bezüglich G müssen wr in vielen Fällen ausschließen, nämlich in denen, in denen G unendlich groß (z.B. natürliche Zahlen) oder doch von seiner schieren Menge her uns nicht erfassbar ist (z.B. Weltall). Wir können daher in diesen Fällen niemals eine Aussage mit Exaktheit, sondern allenfalls mit einer gewissen Wahrscheinlichkeit treffen. Genau diese Problematik vereinfacht aber die Aufgabe, denn wenn etwas nicht MÖGLICH ist, kann es nicht ERFORDERLICH sein. Es wäre auch sinnlos, Anforderungen zu stellen, die über das von uns irgendwie Erfahrbare hinausreichen (well, ja, die Kirchen kennen so etwas...), zumal es komplett irrelevant ist, welche Wahrheiten sich jenseits unseres Ereignishorizontes abspielen mögen.


Anders ausgedrückt: Da wir nur innerhalb unseres Erkenntnishorizontes verifizieren oder falsifizieren können, braucht unsere Aussage über G auch nur für den von uns erfahrbaren Teil zu gelten. Mit dieser Annahme werden unendlich große G trotz Unmöglichkeit ihrer vollkommenen Erforschung beschreibbar.

Je repräsentativer, desto wahrscheinlicher liegt unser ermittelter Wert / unsere beobachtete Eigenschaft bei G ähnlich oder sogar exakt so vor wie bei T. Mit jeder weiteren Beobachtung vergrößern wir die Menge an Indizien, die uns darüber informiert, inwieweit T repräsentativ für G ist. Gleichzeitig vergrößern wir mit jeder Beobachtung eines T den erforschten Teil von G, verkleinern also den Bereich von G, auf den wir Rückschlüsse ziehen wollen. Das Verhältnis von Beobachtetem zu zu Erschließendem verbessert sich damit mit jeder Beobachtung.

Selbst wenn du als G nur unsere Erde mitsamt den von dort zu beobachtenden Phänomenen am Himmel nimmst
(obwohl Menschen auch schon mal auf dem Mond waren, dies Detail lenkt nur ab),
wird T, die Menge der beobachteten Phänomene, stets nur ein winziger Bruchteil sein
von G, der Menge der zu erschließenden Phänomene.
Ein winziger Bruchteil reicht uns oft aus, um Vertrauen zu fassen, dass wir die Erfahrungen dort verallgemeinern können.
Beispiel:
Eine Autofirma hat in Deutschland ein neues Auto entwickelt
und bislang nur auf einer werkseigenen Teststrecke getestet.
Entwicklungsbüros, Windkanäle, Teststrecke und was man sonst so braucht
nehmen nur einen winzigen Bruchteil der Fläche Deutschlands ein,
und die Teststrecke nimmt nur einen winzigen Bruchteil der für den Autotyp befahrbaren Straßen Deutschlands ein.
Trotzdem wird der Testfahrer kaum ernsthafte Zweifel haben,
dass das Auto sich auf allen für den Autotyp befahrbaren Straßen Deutschlands
innerhalb gewisser Grenzen so verhalten wird, wie nach den Beobachtungen zu erwarten ist,
die auf einem Bruchteil der Fläche gemacht wurden.

Meine Schlussfolgerung:
Wenn wir T vergrößern und/oder G verkleinern,
können wir sicherlich die Wahrscheinlichkeit erhöhen, dass T repräsentativ für G ist -
aber damit allein haben wir noch keinen Anhaltspunkt dafür,
ob die Wahrscheinlichkeit nicht vielleicht immer noch winzig klein ist.

DemonDeLuxe hat folgendes geschrieben:
Der Rest ist Wahrscheinlichkeitsrechnung :O)

Der Rest ist dann jedenfalls ein Gebiet voller Tücken, Fußangeln und Stolpersteine.
Weißt du ja selbst, du warst es ja, der das Wahrscheinlichkeitsproblem mit den 3 Türen und den Ziegen gepostet hat Cool

Außerdem ist die Frage, ob T repräsentativ für G ist,
ist nicht nur eine Frage der Größen von G und T:

Wenn wir aus einer Gesamtheit G eine Zufallsstichprobe T nehmen,
dann können wir in vielen Fällen mathematisch bestimmen,
wie groß die Wahrscheinlichkeit ist, dass bestimmte Werte in T
über bestimmte Schwankungsbreiten hinaus von den entsprechenden Werten in G abweichen.
Beispiel:
Wenn wir in einer Urne G sehr viele schwarze Kügelchen haben und ebenso viele weiße
und ziehen zufällig 6 Kügelchen und legen sie in die Schale T,
dann ist die Wahrscheinlichkeit, dass die Anzahl der schwarzen Kügelchen
vom Erwartungswert 3 (= 6 * 1/2)
um mehr als 34 Prozent abweicht (also praktisch um mehr als 1),
ziemlich genau gleich 1/64 + 6/64 + 6/64 + 1/64 = 14/64,
also nicht ganz 22 Prozent.
("ziemlich genau", weil es in G nur "sehr viele" Kügelchen gibt, nicht unendlich viele).

Bei zufällig gezogenen Stichproben T können wir davon ausgehen,
dass die Wahrscheinlichkeiten von größeren (prozentualen) Abweichungen von den Werten in G
bei Vergrößerung von T
nach bestimmten mathematischen Gesetzen immer kleiner werden.
Sodass T mit immer größerer Wahrscheinlichkeit repräsentativ für G wird.

Manchmal haben wir jedoch allen Anlass zu der Annahme,
dass die von uns beobachteten Phänomene
eben nicht repräsentativ sind für ein größeres Ganzes.

Es könnte sehr gut sein, dass unsere Erde
sich ganz erheblich von der großen Mehrheit der Planeten unserer Galaxie unterscheidet,
selbst von der großen Mehrheit derjenigen Planeten,
die der Erde in vielerlei Hinsicht ähneln,
z. B. hinsichtlich Größe, Vorhandensein chemischer Stoffe, Intensität und Gleichmäßigkeit der Sonneneinstrahlung etc.

Es kann sehr gut sein, dass "ausgerechnet" der erste Planet, den wir kennen lernen, eine Ausnahme ist,
weil nur ein Ausnahme-Planet die Voraussetzungen bieten konnte, unter denen wir entstehen konnten,
sodass wir also gar keinen anderen Planeten als ersten kennen lernen konnten.
Diese Überlegung nennt man das schwache anthropische Prinzip.

Ob eine beobachtete Menge T repräsentativ ist für eine Gesamtmenge G,
diese Frage ist mit Wahrscheinlichkeitsrechnung allein nicht zu beantworten.

Uff,
Talsohle erreicht,
ab hier geht's bergauf.

Zunächst kann festgestellt werden, dass es gar nicht notwendig ist,
dass eine beobachtete Menge T in jeder Hinsicht repräsentativ sein müsste für eine Gesamtmenge G.
Die Suche nach Naturgesetzen
ist etwas völlig anderes als etwa die Kartographierung eines bestimmten Gebiets.
Der Kartograph will über das Gebiet alles wissen einschließlich der Details,
der Naturwissenschaftler hingegen will die allgemeinen Prinzipien herausfinden.
Er kann Erfolg haben,
wenn die beobachtete Menge T hinsichtlich der zu findenden allgemeinen Prinzipien repräsentativ ist für G.

Dies kann man nun zu der Fragestellung wenden:
Welche der Gesetzmäßigkeiten, die der Naturwissenschaftler in T beobachtet hat, könnten allgemeingültige Prinzipien sein?

Da sehe ich in deinem Text, DemonDeLuxe, schon einen guten Ansatz:
DemonDeLuxe hat folgendes geschrieben:
Mit jeder weiteren Beobachtung vergrößern wir die Menge an Indizien, die uns darüber informiert, inwieweit T repräsentativ für G ist.

Das könnte man so verstehen,
dass jede weitere Beobachtung uns die Möglichkeit bietet,
zu prüfen,
ob die Gesetzmäßigkeiten, die in T beobachtet wurden,
auch für die vergrößerte Menge von Beobachtungen zutreffen.
Bei einigen wird das nicht der Fall sein,
da hat sich herausgestellt, dass sie keine allgemeingültigen Prinzipien sind, keine Naturgesetze.

So kann man durch immer mehr Beobachtungen immer mehr Gesetzmäßigkeiten "aussieben".
Besonders effektiv kann man das durch gezielte Beobachtungen tun, durch "Experimente".

Jetzt will ich mich der Terminologie von Karl Popper nähern.
Ich will schreiben,
dass jemand, der eine Gesetzmäßigkeit beobachtet zu haben glaubt,
dann eine "Theorie" aufstellen könnte, nach der die Gesetzmäßigkeit immer zutrifft.

Karl Popper beschäftigte sich hauptsächlich damit,
wie man bei diesen Theorien die Spreu vom Weizen trennt.
Zu diesem Zweck forderte er "strenge Überprüfungen" der Theorien,
d. h. Überprüfungen, bei denen falsche Theorien sich mit hoher Wahrscheinlichkeit als falsch herausstellen würden,
also "falsifiziert" würden, wie Popper das nannte.
Wenn eine Theorie jedoch die strenge Überprüfung überstand, ohne falsifiziert zu werden,
dann nannte Popper diese Theorie "bewährt".

"Bewährt" ist dabei keineswegs das Gleiche wie "verifiziert" oder gar "bewiesen".
Auch Theorien, die sich lange Zeit bewähren konnten, können eines Tages falsifiziert werden.
Das ist dann eine Herausforderung an die Wissenschaft,
die dem Fortschritt der Forschung und damit dem Fortschritt der Erkenntnis neue Impulse gibt.

Wenn man nun eine bewährte Theorie hat - was hat man dann davon?
Gewissheit - nein.
Eine hohe Wahrscheinlichkeit, dass sie wahr ist - auch nicht.

Was wir - nach Popper - jedoch haben,
ist ein Kriterium dafür,
welche Theorien "von einem rationalen Standpunkt aus" als geeignet anzusehen sind,
als Grundlage für Entscheidungen zwischen mehreren Möglichkeiten des Verhaltens zu dienen:
Karl Popper (in ''Karl Popper Lesebuch'', im Kapitel ''Das Problem der Induktion'', S. 99) hat folgendes geschrieben:
Wir sollten die bestgeprüfte Theorie als Grundlage für unser Handeln bevorzugen.

Poppers "einigermaßen befriedigende Lösung" des Induktionsproblems
(wie ich Verlegen, mich etwas ungenau erinnernd, schrieb)
ist also lediglich ein Lösungsvorschlag für die praktische Seite des Induktionsproblems,
für die verhaltensrelevante Seite dieses Problems.

Über die erkenntnistheoretische Seite des Problems urteilt Popper:
Karl Popper (in ''Karl Popper Lesebuch'', im Kapitel ''Das Problem der Induktion'', S. 99) hat folgendes geschrieben:
(1) Auf welche Theorie sollten wir uns von einem rationalen Standpunkt aus für das praktische Handeln verlassen?
...
Meine Antwort auf (1) ist: Von einem rationalen Standpunkt aus sollten wir uns auf keine Theorie >verlassen<, denn keine Theorie hat sich als wahr erwiesen, oder kann sich als wahr erweisen (oder als >zuverlässig<).

Karl Popper (in ''Karl Popper Lesebuch'', im Kapitel ''Das Problem der Induktion'', S. 100 f) hat folgendes geschrieben:
... trotz der >Vernünftigkeit<, die bestgeprüfte Theorie als Grundlage für unser Handeln zu wählen, diese Wahl nicht >rational< ist in dem Sinne, dass sie sich auf gute Gründe zugunsten der Erwartung stützt, dass sie in der Praxis erfolgreich sein wird: In einem solchen Sinne kann es keine guten Gründe geben, und das genau ist das Ergebnis von Hume. Im Gegenteil, selbst wenn unsere physikalischen Theorien wahr sein sollten, ist es durchaus möglich, dass die Welt, wie wir sie kennen, mit all ihren für das praktische Handeln relevanten Regelmäßigkeiten, sich in der nächsten Sekunde vollkommen auflöst.
...
... warum wir uns davor hüten müssen, dass unsere Erkenntnistheorie nicht zu viel beweist. Genauer: keine Erkenntnistheorie sollte versuchen zu erklären, warum wir in unseren Bemühungen, die Dinge zu erklären, erfolgreich sind.

Das empfinde ich nun als ein wenig unbefriedigend.
Popper hat hier die einzige mir rational erscheinende Begründung dafür,
die bestgeprüfte Theorie als Grundlage für unser Handeln zu bevorzugen,
zurückgewiesen,
und ich habe in dem Text keine andere mir rational erscheinende Begründung dafür gefunden.

Ich neige daher mehr zu einer Betrachtungsweise, die Popper stets scharf zurückgewiesen hat.
Popper hielt es für sinnlos, davon zu sprechen, eine Theorie sei mit einer bestimmten Wahrscheinlichkeit wahr.

Richtig daran ist sicher, dass es - in vielen Fällen jedenfalls - keine Methode gibt,
einen begründeten Schätzwert für die Wahrscheinlichkeit anzugeben, dass eine Theorie wahr ist;
sodass jeder Schätzwert für die Wahrscheinlichkeit ziemlich willkürlich wäre.

Das ändert m. E. jedoch nichts daran,
dass, welcher Schätzwert für die Wahrscheinlichkeit p(T ist wahr) auch immer gewählt wird,
nach dem Satz von Bayes gilt:
    (I) p((T ist wahr) wenn (T bewährt sich)) = p (T ist wahr) * p((T bewährt sich) wenn (T ist wahr)) / p(T bewährt sich)
Da bei jeder vernünftigen Überprüfung gilt,
dass die Wahrscheinlichkeit einer Bewährung größer ist, wenn T wahr ist, als wenn T falsch ist,
gilt:
    (II) Falls p(T ist falsch) ungleich 0 ist, gilt p((T bewährt sich) wenn (T ist wahr)) > p(T bewährt sich)
Aus (I) und (II) folgt:
    Falls p(T ist falsch) ungleich 0 ist, gilt p((T ist wahr) wenn (T bewährt sich)) > p(T ist wahr)
Der langen Formelakrobatik kurzer Sinn:
Wie auch immer der Schätzwert gewählt wird
für die Wahrscheinlichkeit, dass T wahr ist -
nach erfolgter strenger Überprüfung und Bewährung ist die Wahrscheinlichkeit, dass T wahr ist, größer geworden.

Allerdings, auch wenn die Wahrscheinlichkeit größer geworden sein mag, kann sie immer noch sehr klein sein.
Mein Ansatz zeigt lediglich
einen Gewinn an Wahrscheinlichkeit durch strenge Überprüfung und Bewährung.

Das scheint kein sehr starkes Argument zu sein
dafür, dass es rational sei, bei Entscheidungen zwischen verschiedenen Verhaltensmöglichkeiten
die bestüberprüfte Theorie zugrunde zu legen.
Und doch -
angesichts dessen, dass noch weniger dafür spricht, andere Theorien zugrunde zu legen,
scheint mir die bestüberprüfte Theorie
doch als eine wahrscheinlich optimale
zwischen den übrigen Theorien herauszuragen.

Was heißt:
Ich habe zwar nicht viel Anlass zu der Annahme,
dass die bestüberprüfte Theorie, die ich meiner Entscheidung zugrunde lege, (wahrscheinlich) wahr sei -
ich habe jedoch Anlass zu der Annahme,
dass ich dann, wenn ich die bestüberprüfte Theorie meiner Entscheidung zugrunde lege,
das Vernünftigste tue, was ich in meiner Situation tun kann.
_________________
Gruß, Leony (Gott losgeworden vor vielen Jahren Sehr glücklich)
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden Website dieses Benutzers besuchen
DemonDeLuxe
Frisch gestählt



Anmeldungsdatum: 17.08.2005
Beiträge: 672
Wohnort: Wiesbaden

Beitrag(#398482) Verfasst am: 09.01.2006, 04:46    Titel: Antworten mit Zitat

@Leony

Hui, jetzt hast Du mir ja zu grübeln gegeben (ich habe tatsächlich nicht gemogelt und zwischendurch Popper etc. nachgeblättert - so viel Ehrgeiz ist dann doch da *g*).

Ich möchte aber in Ruhe darauf antworten und dafür ist's heute zu spät. Daher dies erstmal nur als "Empfangsbestätigung". Dank' Dir schon'mal für die Mühe!
_________________
HONI SOIT QUI MAL Y PENSE
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden Website dieses Benutzers besuchen
Babyface
Altmeister



Anmeldungsdatum: 17.07.2003
Beiträge: 11518

Beitrag(#399166) Verfasst am: 10.01.2006, 15:01    Titel: Antworten mit Zitat

Immer wenn ich am Induktionsproblem knabbere, muss ich an Bertrand Russels induktivistischen Truthahn denken. So dumm war der nämlich gar nicht, denn woher hätte er wissen sollen, dass er an Heiligabend ausnahmsweise mal nicht gefüttert sondern gebraten würde?

Wahrscheinlich muss man sich einfach von der Vorstellung verabschieden, dass Handeln nach einer bewährten Theorie deshalb rational ist, weil die Theorie wahrscheinlich wahr ist oder wahrscheinlicher wahr ist als eine weniger gut bewährte Theorie (Leonies Ansatz). Wenn man mit Wahrscheinlichkeiten argumentiert kann man mE zeigen, dass es sogar sehr rational ist, sein Handeln nach einer Theorie auszurichten, die mit hoher Wahrscheinlichkeit unwahr ist. Rationalität kommt dort ins Spiel, wo man sich nicht mit der Wahrscheinlichkeit einer Theorie beschäftigt, die sich auf unendlich viele Beobachtungsaussagen in Vergangenheit und Zukunft bezieht, sondern mit der Wahrscheinlichkeit, mit welcher mir eine bewährte Theorie die nächste Beobachtung vorhersagen kann. Nehmen wir eine Theorie die sich bis jetzt immer bewährt hat, so kann man zwar nicht begründen, dass die Wahrscheinlichkeit, mit welcher sie sich bei der nächsten Überprüfung wieder bewährt genau 100% (die beobachtete relative Häufigkeit) beträgt. Der wahre Wert liegt sogar mit hoher Wahrscheinlichkeit darunter und sobald er das tut, ist die Theorie nach dem Multiplikationstheorem der Wahrscheinlichkeit mit sehr hoher Wahrscheinlichkeit falsch, da man es unendlich oft anwenden muss. Aber wir können mit dem Gesetz der großen Zahl ganz gut begründen, dass der wahre Wert mit hoher Wahrscheinlichkeit in der Nähe von 100% liegt. Und das reicht aus, um die Handlung rational zu begründen.
_________________
posted by Babyface
.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Leony
gottlos



Anmeldungsdatum: 16.07.2003
Beiträge: 3674
Wohnort: Aufklärung und Kritischer Rationalismus

Beitrag(#401090) Verfasst am: 14.01.2006, 03:15    Titel: Antworten mit Zitat

Babyface hat folgendes geschrieben:
Immer wenn ich am Induktionsproblem knabbere, muss ich an Bertrand Russels induktivistischen Truthahn denken. So dumm war der nämlich gar nicht, denn woher hätte er wissen sollen, dass er an Heiligabend ausnahmsweise mal nicht gefüttert sondern gebraten würde?

Der Truthahn konnte das vielleicht nicht wissen.
Wir hingegen sind zwar teilweise in derselben Lage, teilweise aber in einer ganz anderen Lage.

In derselben Lage sind wir insoweit,
als wir schon Tausende von Tagen erlebt haben, die wir überlebt haben.
Von daher hätten wir vielleicht, verglichen mit dem Truthahn, noch mehr Anlass,
die Theorie aufzustellen, dass wir auch künftig an keinem Tag sterben würden.

Wir sind jedoch insoweit in einer anderen Lage,
als wir die Theorie von unserer Unsterblichkeit überprüfen können.
Wir könnten sie als Teil einer allgemeineren Theorie auffassen,
nach der Menschen für unsterblich gehalten werden,
wenn sie schon eine bestimmte Zahl von Tagen überlebt haben, z. B. 11000 Tage, das wären gut 30 Jahre.
Diese allgemeinere Theorie können wir überprüfen,
indem wir feststellen, ob Menschen, die früh genug geboren wurden, um weitere 11000 Tage zu überleben,
tatsächlich überlebt haben -
und wenn wir genug Fälle überprüfen, werden wir sicherlich feststellen, dass eine ganze Reihe von diesen Menschen gestorben sind.
Damit wäre die allgemeinere Theorie falsifiziert.

Diese Feststellung genügt, um uns zu überzeugen,
dass wir zumindest nicht sicher sein können, unsterblich zu sein.

Allerdings könnten wir angesichts der so erhobenen Daten zu dem Schluss kommen,
wir könnten doch immerhin eine 50:50-Chance haben, unsterblich zu sein.

Aber auch die Variante der allgemeineren Theorie,
nach der unter den Menschen, die 11000 Tage überlebt haben,
50 Prozent für unsterblich gehalten werden,
wird falsifiziert,
wenn wir Fälle überprüfen, in denen Menschen früh genug geboren wurden, um weitere 44000 Tage zu überleben.
In allen uns bekannten Fällen sind diese Menschen gestorben, bevor sie 55000 Tage, d. h. gut 150 Jahre alt wurden.

Das dürfte uns überzeugen,
dass auch die Theorie, dass wir eine 50:50-Chance auf Unsterblichkeit hätten, als falsifiziert angesehen werden muss,
und ebenso noch einige weitere Theorien mit weniger hohen Chancen.

Wir können sogar finden,
dass die Theorie, dass alle Menschen sterblich sind,
als bewährte Theorie angesehen werden kann.

Babyface hat folgendes geschrieben:
Wahrscheinlich muss man sich einfach von der Vorstellung verabschieden, dass Handeln nach einer bewährten Theorie deshalb rational ist, weil die Theorie wahrscheinlich wahr ist oder wahrscheinlicher wahr ist als eine weniger gut bewährte Theorie (Leonies Ansatz). Wenn man mit Wahrscheinlichkeiten argumentiert kann man mE zeigen, dass es sogar sehr rational ist, sein Handeln nach einer Theorie auszurichten, die mit hoher Wahrscheinlichkeit unwahr ist.

Eine Theorie, die mit hoher Wahrscheinlichkeit unwahr ist,
kann trotzdem noch
mit höherer Wahrscheinlichkeit wahr sein
als alle anderen zur Auswahl stehenden Theorien.

Außerdem ist der Erwartungswert des Vorteils oder Nachteils
nicht nur davon abhängig, wie wahrscheinlich bestimmte Möglichkeiten wahr werden oder sind;
er ist auch davon abhängig,
welche Vorteile bzw. Nachteile es mit sich bringt, wenn sie wahr werden bzw. sind,
und welche Vorteile bzw. Nachteile es mit sich bringt, wenn sie sich als falsch erweisen.

Babyface hat folgendes geschrieben:
Rationalität kommt dort ins Spiel, wo man sich nicht mit der Wahrscheinlichkeit einer Theorie beschäftigt, die sich auf unendlich viele Beobachtungsaussagen in Vergangenheit und Zukunft bezieht, sondern mit der Wahrscheinlichkeit, mit welcher mir eine bewährte Theorie die nächste Beobachtung vorhersagen kann. Nehmen wir eine Theorie die sich bis jetzt immer bewährt hat, so kann man zwar nicht begründen, dass die Wahrscheinlichkeit, mit welcher sie sich bei der nächsten Überprüfung wieder bewährt genau 100% (die beobachtete relative Häufigkeit) beträgt. Der wahre Wert liegt sogar mit hoher Wahrscheinlichkeit darunter und sobald er das tut, ist die Theorie nach dem Multiplikationstheorem der Wahrscheinlichkeit mit sehr hoher Wahrscheinlichkeit falsch, da man es unendlich oft anwenden muss.

Vorsicht bei der Anwendung des Multiplikationstheorems der Wahrscheinlichkeit!
Wahrscheinlichkeit ((Ereignis 1) und (Ereignis 2))
ist nur dann gleich dem Produkt Wahrscheinlichkeit (Ereignis 1) * Wahrscheinlichkeit (Ereignis 2),
wenn Ereignis 1 und Ereignis 2 statistisch unabhängig sind.
Bei mehreren Überprüfungen derselben Theorie T
sind die Ereignisse "Bewährung bei der n-ten Überprüfung" jedoch nicht statistisch unabhängig,
weil ihre Wahrscheinlichkeiten alle von derselben Größe abhängig sind,
nämlich davon, ob die Theorie T wahr ist oder nicht.

Angenommen, du hast eine bewährte Theorie T und eine Reihe von geplanten Überprüfungen Ü1, ..., Ün,
und für i=1, ..., n sei
Bi das Ereignis "T bewährt sich bei der Überprüfung Üi".
Wenn du nun für jedes dieser i einen Schätzwert hast für die Wahrscheinlichkeit p(Bi)
und willst wissen, wie groß die Wahrscheinlichkeit ist, dass T sich bei allen Üi bewährt,
dann kannst du nicht einfach sagen: "Sie ist gleich dem Produkt der p(Bi)."
Vielmehr muss das folgendermaßen aufgedröselt werden:

Für jedes dieser i gilt:
    p(Bi)
    = p(Bi und T wahr) + p(Bi und T falsch)
    = p(Bi wenn T wahr) * p(T wahr) + p(Bi wenn T falsch) * p(T falsch)
Diese Gleichung lässt erkennen:
Wenn p(T wahr) = 0 ist,
dann ist die Wahrscheinlichkeit, dass eine bewährte Theorie sich bei einer erneuten Überprüfung erneut bewährt
nicht größer als die Wahrscheinlichkeit, dass sie sich "bewährt", wenn sie falsch ist.
Wenn p(T wahr) sehr klein ist,
dann ist die Wahrscheinlichkeit, dass eine bewährte Theorie sich bei einer erneuten Überprüfung erneut bewährt
nur sehr wenig größer als die Wahrscheinlichkeit, dass sie sich "bewährt", wenn sie falsch ist.

Das ist eigentlich nicht das, was man von einer bewährten Theorie erwartet.
Man erwartet die erneute Bewährung einer Theorie, die man für bewährt hält,
zwar sicherlich nicht mit 100 % Wahrscheinlichkeit,
aber doch mit einer deutlich höheren Wahrscheinlichkeit,
als wenn man die Theorie für falsch hält.

Eine hohe Zahl n von Überprüfungen
muss keineswegs dazu führen,
dass die Wahrscheinlichkeit, dass sie Theorie sich insgesamt bewährt,
sehr klein sein müsste oder womöglich sogar gegen 0 streben müsste.

Um das zu verdeutlichen, brauche ich eine Fallunterscheidung:

1. Fall:
Es kann ausgeschlossen werden, dass die bewährte Theorie T bei irgendeiner der Überprüfungen Üi zu Unrecht falsifiziert wird.
    Nur unter dieser Voraussetzung kann man sagen,
    dass die Falsifizierung von T in einem einzigen Fall genügt,
    um T ein für allemal zu falsifizieren.

    Unter dieser Voraussetzung wird die Theorie T, falls sie wahr ist, sich immer bewähren,
    also mit Wahrscheinlichkeit 1.
    Also gilt für i = 1, ..., n:
      p(Bi wenn T wahr) = 1

    Ebenso gilt:
      p((B1 und B2 und... und Bn) wenn T wahr) = 1

    Daraus folgt:
      p(B1 und B2 und ... und Bn)
      = p(B1 und B2 und ... und Bn und T wahr) + p(B1 und B2 und ... und Bn und T falsch)
      = p(T wahr) + p(B1 und B2 und ... und Bn und T falsch) * p(T falsch)
    Da ist zu sehen:
    Der zweite Summand mag gegen 0 streben,
    die Summe bleibt trotzdem immer größer oder gleich p(T wahr).
    Das heißt,
    dass die Wahrscheinlichkeit, dass T sich in immer mehr weiteren Überprüfungen bewährt,
    keineswegs gegen 0 strebt.
2. Fall:
Man muss damit rechnen, dass die bewährte Theorie T bei irgendeiner der Überprüfungen Üi zu Unrecht falsifiziert wird.
    So etwas kommt vor.
    Insbesondere dann, wenn eine Theorie T nicht bestimmte Werte vorhersagt,
    sondern Wahrscheinlichkeitsverteilungen über Werte, Mittelwerte, Korrelationen usw.
    Bei der Auswertung von Statistiken geht man oft davon aus, dass eine sogenannte "Nullhypothese" widerlegt sei,
    wenn das Ergebnis so weit von den erwarteten Werten abweicht,
    dass man sagen kann:
      Wenn die Nullhypothese wahr wäre,
      dann läge die Wahrscheinlichkeit eines solchen "Ausreißers" unter einem bestimmten Prozentsatz, z. B. unter 5 % oder unter 1 %.
        (Der Fachausdruck für so einen Prozentsatz lautet "Signifikanzniveau".)

    Aber auch bei Theorien, die bestimmte Werte vorhersagen, kann es vorkommen, dass sie zu Unrecht für falsifiziert gehalten werden.
    Mögliche Fehlerquellen sind
    Irrtümer bei der Planung, bei der Durchführung oder bei der Ausführung von Experimenten, Materialfehler, fehlerhafte Messinstrumente, ...

    In beiden Fällen - bei statistischen Ausreißern und bei Experimentierfehlern - ist es nun tatsächlich so,
    dass, je mehr Überprüfungen man durchführt, es um so wahrscheinlicher wird,
    dass eine Überprüfung dabei ist, die ein Ergebnis hervorbringt,
    das - für sich betrachtet - dazu führen würde, dass die Theorie zu Unrecht für falsifiziert gehalten würde.

    Aber unter diesen Voraussetzungen kann man eben nicht davon ausgehen,
    dass die Falsifizierung von T in einem einzigen Fall genügt,
    um T ein für allemal zu falsifizieren.

    Vielmehr muss man dann die Ergebnisse aller Überprüfungen in ihrer Gesamtheit bewerten.
    Wenn bei statistischen Untersuchungen
    es durch ihre große Anzahl dazu kommt, dass "Ausreißer" wahrscheinlich werden,
    dann bedeutet das, dass diese "Ausreißer" die Theorie nicht mehr falsifizieren.
    Ähnliches gilt für Experimentierfehler:
    Je wahrscheinlicher - durch die große Zahl der Experimente - Experimentierfehler werden,
    um so weniger können einzelne Experimente, deren Ergebnisse von den Prognosen der Theorie abweichen,
    als Falsifizierung der Theorie gewertet werden.

    Insgesamt gesehen, dürfte eine große Zahl von Experimenten
    die Wahrscheinlichkeit, dass eine Theorie zu Unrecht für falsifiziert gehalten wird,
    eher verringern als vergrößern.
Babyface hat folgendes geschrieben:
Aber wir können mit dem Gesetz der großen Zahl ganz gut begründen, dass der wahre Wert mit hoher Wahrscheinlichkeit in der Nähe von 100% liegt. Und das reicht aus, um die Handlung rational zu begründen.

So weit, so gut - nur hat das mit dem Induktionsproblem eigentlich nichts mehr zu tun.
Hier wird ganz einfach vorausgesetzt, dass es rational sei, auf der Grundlage von bewährten Theorien zu entscheiden.
Warum das für rational gehalten wird, wird hier nicht begründet.
Es wird einfach vorausgesetzt,
als Axiom, als Dogma oder als Arbeitshypothese.
_________________
Gruß, Leony (Gott losgeworden vor vielen Jahren Sehr glücklich)
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden Website dieses Benutzers besuchen
Babyface
Altmeister



Anmeldungsdatum: 17.07.2003
Beiträge: 11518

Beitrag(#401343) Verfasst am: 14.01.2006, 19:05    Titel: Antworten mit Zitat

Danke für Deinen Beitrag, Leony. Ich hoffe Du bist nicht böse, wenn ich zunächst nur auf einen Punkt eingehe, von dessen Klärung weitere Ausführungen abhängig sind.

Leony hat folgendes geschrieben:

Babyface hat folgendes geschrieben:
Rationalität kommt dort ins Spiel, wo man sich nicht mit der Wahrscheinlichkeit einer Theorie beschäftigt, die sich auf unendlich viele Beobachtungsaussagen in Vergangenheit und Zukunft bezieht, sondern mit der Wahrscheinlichkeit, mit welcher mir eine bewährte Theorie die nächste Beobachtung vorhersagen kann. Nehmen wir eine Theorie die sich bis jetzt immer bewährt hat, so kann man zwar nicht begründen, dass die Wahrscheinlichkeit, mit welcher sie sich bei der nächsten Überprüfung wieder bewährt genau 100% (die beobachtete relative Häufigkeit) beträgt. Der wahre Wert liegt sogar mit hoher Wahrscheinlichkeit darunter und sobald er das tut, ist die Theorie nach dem Multiplikationstheorem der Wahrscheinlichkeit mit sehr hoher Wahrscheinlichkeit falsch, da man es unendlich oft anwenden muss.

Vorsicht bei der Anwendung des Multiplikationstheorems der Wahrscheinlichkeit!
Wahrscheinlichkeit ((Ereignis 1) und (Ereignis 2))
ist nur dann gleich dem Produkt Wahrscheinlichkeit (Ereignis 1) * Wahrscheinlichkeit (Ereignis 2),
wenn Ereignis 1 und Ereignis 2 statistisch unabhängig sind.

Tatsächlich bin ich von stochastischer Unabhängigkeit ausgegangen. Und ich meine immer noch, dass ich das tun kann.
Zitat:
Bei mehreren Überprüfungen derselben Theorie T
sind die Ereignisse "Bewährung bei der n-ten Überprüfung" jedoch nicht statistisch unabhängig,
weil ihre Wahrscheinlichkeiten alle von derselben Größe abhängig sind,
nämlich davon, ob die Theorie T wahr ist oder nicht.

Das erscheint mit ein Knackpunkt. Ich würde es nämlich so interpretieren: ihre Wahrscheinlichkeiten sind abhängig von der Beschaffenheit unserer Welt, so wie die Wahrscheinlichkeit eine 6 zu würfeln abhängig von der Beschaffenheit des Würfels ist. Dennoch verändert sich die Wahrscheinlichkeit, eine weitere 6 zu würfeln nicht, wenn ich bereits eine 6 gewürfelt habe. Mit anderen Worten: die beiden Ereignisse wären stochastisch unabhängig. Ein weiteres Beispiel könnte man aus der probabilistischen Testtheorie anführen. Hier sollen Tests so konzipiert werden, dass die Lösung einer nachfolgenden Aufgabe nicht davon abhängig sein soll, ob ein Proband zuvor andere Aufgaben gelöst hat (und womöglich Lösungsstrategien übertragt), sondern einzig und allein abhängig von der stabilen Fähigkeit des Probanden. Zwar wären dann alle Aufgabenlösungen abhängig vom selben Faktor (dem Fähigkeitsparameter), aber die einzelnen Items dennoch stochastisch unabhängig. Man bezeichnet das allerdings eingeschränkt als _lokale_ stochastische Unabhängigkeit (LSU), da diese nur gilt, wenn man Aufgabenlösungen betrachtet, die auf demselben konstanten Fähigkeitsparameter basieren. Hier wird LSU realisiert, indem man nur die Lösungen einer Person betrachtet, oder eben auf unsere Fälle übetragen: indem man nur die Beobachtungen heranzieht, die uns unsere Welt liefert und auf deren Eigenschaften sie basieren.
_________________
posted by Babyface
.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Babyface
Altmeister



Anmeldungsdatum: 17.07.2003
Beiträge: 11518

Beitrag(#401416) Verfasst am: 14.01.2006, 20:24    Titel: Antworten mit Zitat

Leony hat folgendes geschrieben:

Daraus folgt:
    p(B1 und B2 und ... und Bn)
    = p(B1 und B2 und ... und Bn und T wahr) + p(B1 und B2 und ... und Bn und T falsch)
    = p(T wahr) + p(B1 und B2 und ... und Bn und T falsch) * p(T falsch)
Da ist zu sehen:
Der zweite Summand mag gegen 0 streben,
die Summe bleibt trotzdem immer größer oder gleich p(T wahr).
Das heißt,
dass die Wahrscheinlichkeit, dass T sich in immer mehr weiteren Überprüfungen bewährt,
keineswegs gegen 0 strebt.

Wenn man den zweiten Summand vernachlässigt (ich hatte natürlich von Anfang an unzulässigerweise unterstellt, dass alle Beobachtungsaussagen korrekt seinen), dann bleibt übrig:

p(B1 und B2 und ... und Bn) = p(T wahr)

Das ist zwar korrekt, aber keine Widerlegung meiner Argumentation. Denn ich behauptete ja gerade gezeigt zu haben, dass p(B1 und B2 und ... und Bn) gegen null strebt und damit natürlich auch p (T wahr).


Ich denke, dass der eigentliche Fehler meiner Argumentation wo anders liegt, und zwar hier:
Babyface hat folgendes geschrieben:
so kann man zwar nicht begründen, dass die Wahrscheinlichkeit, mit welcher sie sich bei der nächsten Überprüfung wieder bewährt genau 100% (die beobachtete relative Häufigkeit) beträgt. Der wahre Wert liegt sogar mit hoher Wahrscheinlichkeit darunter und sobald er das tut, ist die Theorie nach dem Multiplikationstheorem der Wahrscheinlichkeit mit sehr hoher Wahrscheinlichkeit falsch, da man es unendlich oft anwenden muss.

Aber tut er das wirklich? Im Prinzip habe ich hier unter der Vorraussetzung _fehlerfreier_ Beobachtungen und einer Theorie die sich bis heute immer bewährt hat, unterstellt, dass die empirische relative Häufigkeit als Schätzer der Wahrscheinlichkeit einer Bewährung eine Streuung um einen wahren Wert aufweist. Genau so eine Streuung lässt sich hier aber empirisch nicht zeigen bzw. sie wäre nur durch mindestens eine tatsächliche Falsifikation zu begründen. Ergo Zirkelschluss.
_________________
posted by Babyface
.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Leony
gottlos



Anmeldungsdatum: 16.07.2003
Beiträge: 3674
Wohnort: Aufklärung und Kritischer Rationalismus

Beitrag(#401426) Verfasst am: 14.01.2006, 20:36    Titel: Antworten mit Zitat

Babyface hat folgendes geschrieben:
...
Tatsächlich bin ich von stochastischer Unabhängigkeit ausgegangen. Und ich meine immer noch, dass ich das tun kann.
Leony hat folgendes geschrieben:
Bei mehreren Überprüfungen derselben Theorie T
sind die Ereignisse "Bewährung bei der n-ten Überprüfung" jedoch nicht statistisch unabhängig,
weil ihre Wahrscheinlichkeiten alle von derselben Größe abhängig sind,
nämlich davon, ob die Theorie T wahr ist oder nicht.

Das erscheint mit ein Knackpunkt. Ich würde es nämlich so interpretieren: ihre Wahrscheinlichkeiten sind abhängig von der Beschaffenheit unserer Welt, so wie die Wahrscheinlichkeit eine 6 zu würfeln abhängig von der Beschaffenheit des Würfels ist. Dennoch verändert sich die Wahrscheinlichkeit, eine weitere 6 zu würfeln nicht, wenn ich bereits eine 6 gewürfelt habe. Mit anderen Worten: die beiden Ereignisse wären stochastisch unabhängig.

Ja, solange du sicher bist, einen "normalen" Würfel zu haben.
Aber nimm an, du hättest drei Würfel,
zwei normale und einen mit einer zweiten 6.
Nimm nun an, jemand zieht blind und zufällig einen der 3 Würfel aus einem Gefäß, und du weißt nicht, welchen er erwischt hat.
Dann würdest du sicher vermuten,
dass die Wahrscheinlichkeit, beim 1. Wurf eine 6 zu werfen, näher bei 1/6 liegt als bei 1/3
(und das wäre völlig korrekt: Sie beträgt 2/3 * 1/6 + 1/3 * 2/6 = 4/18, das liegt näher bei 1/6 = 3/18 als bei 1/3 = 6/18 )
Nun würfelt dieser Jemand 100-mal und sagt dir jedes Mal, ob er eine 6 gewürfelt hat oder nicht.
Wenn er nun 34-mal eine 6 gewürfelt hat -
würdest du es dann nicht für sehr wahrscheinlich halten, dass er den Würfel mit den zwei Sechsen erwischt hat,
und dass die Wahrscheinlichkeit, beim 101. Mal eine 6 zu würfeln,
näher bei 1/3 liegt als bei 1/6?
Obwohl die ersten 100 Würfe die Beschaffenheit des Würfels keineswegs verändert haben?

Ein anderes hübsches Beispiel, mit dem ich mal meinen Sohn verblüfft habe, möchte ich hier zum Besten geben:
    Angenommen, man hat eine Urne mit 2 weißen und 2 schwarzen Kugeln.

    Nun wird zuerst eine Kugel gezogen und beiseite gelegt.
    Als zweites wird wieder eine Kugel gezogen, festgestellt, ob sie schwarz oder weiß ist,
    und dann wird sie zurückgelegt und die Urne durchgeschüttelt.
    Als drittes wird noch einmal eine Kugel gezogen und festgestellt ob sie schwarz oder weiß ist.

    Da liegt die Vermutung nahe, dass die Ergebnisse der zweiten und der dritten Ziehung stochastisch unabhängig wären,
    denn schließlich ändert die zweite Ziehung nichts am Inhalt der Urne.

    Diese Vermutung stimmt aber nicht.
    p(2. und 3. schwarz) ist nicht gleich p(2. schwarz) * p(3. schwarz).

    Das will ich nun vorrechnen:
      p(1. schwarz) = 1/2.
        Wenn die erste Kugel schwarz war, dann sind in der Urne noch 2 weiße und eine schwarze Kugel.
        Daraus folgt:
        p(2. schwarz wenn 1. schwarz) = 1/3, und p(3. schwarz wenn 1. schwarz) = 1/3,
        und p(2. und 3. schwarz wenn 1. schwarz) = 1/3 * 1/3 = 1/9.
        Daraus folgt:
        p(1. schwarz und 2. schwarz)
        = p(1. schwarz) * p(2. schwarz wenn 1. schwarz) = 1/2 * 1/3 = 1/6,
        und ebenso
        p(1. schwarz und 3. schwarz)
        = p(1. schwarz) * p(3. schwarz wenn 1. schwarz) = 1/2 * 1/3 = 1/6,
        und schließlich
        p(1. schwarz und 2. und 3. schwarz)
        = p(1. schwarz) * p(2. und 3. schwarz wenn 1. schwarz) = 1/2 * 1/9 = 1/18

      p(1. weiß) = 1/2.
        Wenn die erste Kugel weiß war, dann sind in der Urne noch 2 schwarze und eine weiße Kugel.
        Daraus folgt:
        p(2. schwarz wenn 1. weiß) = 2/3, und p(3. schwarz wenn 1. weiß) = 2/3,
        und p(2. und 3. schwarz wenn 1. weiß) = 2/3 * 2/3 = 4/9.
        Daraus folgt:
        p(1. weiß und 2. schwarz)
        = p(1. weiß) * p(2. schwarz wenn 1. weiß) = 1/2 * 2/3 = 1/3,
        und ebenso
        p(1. weiß und 3. schwarz)
        = p(1. weiß) * p(3. schwarz wenn 1. weiß) = 1/2 * 2/3 = 1/3,
        und schließlich
        p(1. weiß und 2. und 3. schwarz)
        = p(1. weiß) * p(2. und 3. schwarz wenn 1. weiß) = 1/2 * 4/9 = 4/18

      Daraus folgt:
        p(2. schwarz)
        = p(1. schwarz und 2. schwarz) + p(1. weiß und 2. schwarz)
        = 1/6 + 1/3 = 1/2,
        und ebenso
        p(3. schwarz)
        = p(1. schwarz und 3. schwarz) + p(1. weiß und 3. schwarz)
        = 1/6 + 1/3 = 1/2,
        folglich
        p(2. schwarz) * p(3. schwarz) = 1/2 * 1/2 = 1/4.

        Aber:

        p(2. und 3. schwarz)
        = p(1. schwarz und 2. und 3. schwarz) + p(1. weiß und 2. und 3. schwarz)
        = 1/18 + 4/18 = 5/18.

_________________
Gruß, Leony (Gott losgeworden vor vielen Jahren Sehr glücklich)
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden Website dieses Benutzers besuchen
Leony
gottlos



Anmeldungsdatum: 16.07.2003
Beiträge: 3674
Wohnort: Aufklärung und Kritischer Rationalismus

Beitrag(#401446) Verfasst am: 14.01.2006, 21:27    Titel: Antworten mit Zitat

Babyface hat folgendes geschrieben:
Leony hat folgendes geschrieben:

Daraus folgt:
    p(B1 und B2 und ... und Bn)
    = p(B1 und B2 und ... und Bn und T wahr) + p(B1 und B2 und ... und Bn und T falsch)
    = p(T wahr) + p(B1 und B2 und ... und Bn und T falsch) * p(T falsch)
Da ist zu sehen:
Der zweite Summand mag gegen 0 streben,
die Summe bleibt trotzdem immer größer oder gleich p(T wahr).
Das heißt,
dass die Wahrscheinlichkeit, dass T sich in immer mehr weiteren Überprüfungen bewährt,
keineswegs gegen 0 strebt.

Wenn man den zweiten Summand vernachlässigt (ich hatte natürlich von Anfang an unzulässigerweise unterstellt, dass alle Beobachtungsaussagen korrekt seinen),

Der zweite Summand - p(B1 und B2 und ... und Bn und T falsch) - kommt nicht durch falsche Beobachtungsaussagen zustande,
sondern dadurch,
dass es auch dann, wenn die Theorie T falsch ist,
durch Zufall zu Beobachtungsergebnissen kommen kann, die mit der Theorie kompatibel sind.

Babyface hat folgendes geschrieben:
... dann bleibt übrig:

p(B1 und B2 und ... und Bn) = p(T wahr)

Das ist zwar korrekt, aber keine Widerlegung meiner Argumentation. Denn ich behauptete ja gerade gezeigt zu haben, dass p(B1 und B2 und ... und Bn) gegen null strebt und damit natürlich auch p (T wahr).

Und ich behaupte, gezeigt zu haben, dass p(B1 und B2 und ... und Bn) eben nicht gegen 0 streben muss.

Babyface hat folgendes geschrieben:
Ich denke, dass der eigentliche Fehler meiner Argumentation wo anders liegt, und zwar hier:
Babyface hat folgendes geschrieben:
so kann man zwar nicht begründen, dass die Wahrscheinlichkeit, mit welcher sie sich bei der nächsten Überprüfung wieder bewährt genau 100% (die beobachtete relative Häufigkeit) beträgt. Der wahre Wert liegt sogar mit hoher Wahrscheinlichkeit darunter und sobald er das tut, ist die Theorie nach dem Multiplikationstheorem der Wahrscheinlichkeit mit sehr hoher Wahrscheinlichkeit falsch, da man es unendlich oft anwenden muss.

Aber tut er das wirklich? Im Prinzip habe ich hier unter der Vorraussetzung _fehlerfreier_ Beobachtungen und einer Theorie die sich bis heute immer bewährt hat, unterstellt, dass die empirische relative Häufigkeit als Schätzer der Wahrscheinlichkeit einer Bewährung eine Streuung um einen wahren Wert aufweist. Genau so eine Streuung lässt sich hier aber empirisch nicht zeigen bzw. sie wäre nur durch mindestens eine tatsächliche Falsifikation zu begründen. Ergo Zirkelschluss.

Ja, es liegt ein Problem darin,
dass die bisherigen Überprüfungen der Theorie
keine empirische Basis für einen Schätzwert für die zu erwartende Streuung liefern.
Da kann man höchstens auf Erfahrungen zurückgreifen,
die man bei erneuter Prüfung von ähnlichen und ähnlich bewährten Theorien gesammelt hat.
Allerdings ist dabei ziemlich unbestimmt,
welche Theorien denn "ähnlich und ähnlich bewährt" sind.
Ein Wert für p(B1)
kann immer nur dadurch zustande kommen,
dass jemand bereit ist, auf einer ziemlich armseligen Datenbasis eine Schätzung vorzunehmen,
so gut es ihm möglich ist.
Ich denke, dass es da durchaus möglich sein kann, bestimmte Schätzwerte als unvernünftig anzusehen.

Übrigens liefern selbst bewährte Theorien
nicht immer die Wahrscheinlichkeiten,
von denen auszugehen die vernünftigste aller Möglichkeiten ist.
Mehrere bewährte Theorien
können für den gleichen Sachverhalt - etwa "Morgen wird es regnen" - unterschiedliche Wahrscheinlichkeiten liefern.
Erläutern kann ich das evtl. später, das RL ruft.
_________________
Gruß, Leony (Gott losgeworden vor vielen Jahren Sehr glücklich)
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden Website dieses Benutzers besuchen
Leony
gottlos



Anmeldungsdatum: 16.07.2003
Beiträge: 3674
Wohnort: Aufklärung und Kritischer Rationalismus

Beitrag(#401461) Verfasst am: 14.01.2006, 22:09    Titel: Antworten mit Zitat

Leony hat folgendes geschrieben:
Mehrere bewährte Theorien
können für den gleichen Sachverhalt - etwa "Morgen wird es regnen" - unterschiedliche Wahrscheinlichkeiten liefern.

Jetzt kommt mein Beispiel:

Nehmen wir an, zwei Freunde, Alex und Bernd, haben für ein bestimmtes Jahr Informationen darüber,
an welchen Tagen es an ihrem Heimatort Regen gab.
Daraus erarbeiten sie Theorien über das Wetter an ihrem Heimatort,
und diese Theorien wollen sie anhand des Wetters im nächsten Jahr prüfen.

Alex stellt fest, dass es an einem Drittel der Tage des Jahres Regen gab, und entwickelt daraufhin die Theorie:
"Die Wahrscheinlichkeit, dass es an einem bestimmten Tag des nächsten Jahres regnet, beträgt 1/3."
Bernd hingegen stellt fest, dass auf 60 % der Regentage Regentage folgen, aber nur auf 20 % der regenfreien Tage,
und er entwickelt daraufhin die Theorie:
"Auf jeden Regentag folgt mit Wahrscheinlichkeit 0,6 ein Regentag,
auf jeden regenfreien Tag folgt mit Wahrscheinlichkeit 0,2 ein Regentag."

Beide Theorien führen zu unterschiedlichen Wahrscheinlichkeiten:
Nach einem Regentag sagt Alex mit Wahrscheinlichkeit 1/3 für den nächsten Tag Regen voraus, Bernd mit Wahrscheinlichkeit 0,6;
und nach einem regenfreien Tag Alex mit Wahrscheinlichkeit 1/3, Bernd mit Wahrscheinlichkeit 0,2.

Trotzdem vertragen sich beide Theorien hervorragend:
Für längerfristige Voraussagen konvergieren die Prognosen von Bernd recht schnell gegen die von Alex:
Liegt Bernds Wahrscheinlichkeit von Regen für den 1. Tag nach einem Regentag noch bei 0,6,
so liegt sie am 2. Tag bei 0,44, am 3. Tag bei 0,376, dann bei 0,35, bei 0,34, bei 0,336 ...

Mit Hilfe eines Zufallszahlengenerators und der Theorie von Bernd habe ich nun ein "nächstes Jahr" generiert,
an dem beide ihre Theorien überprüfen können:
Code:
.///.../......../..........//........./........./..///......
///./////./......///...//.//////////.////....//../..........
.............//.//............/////.///.........////..////..
.....//./........//........../..../...//.../...../////...///
.../..././//.///......././/.......//.../....../...////////..
....//////............/////.........//....../.......././/...
...//

Dabei steht jeder Schrägstrich für einen Tag mit Regen, jeder Punkt für einen Tag ohne Regen.

An diesem "nächsten Jahr" lassen sich beide Theorien so gut bewähren,
wie man es sich von einem Datenmaterial dieses Umfangs nur wünschen kann:

Code:
Alex' Theorie:
Regentage insgesamt:                123 von 365:    relative Häufigkeit:  0,3369863
                                                    Wahrscheinlichkeit:   0,3333333...
Bernds Theorie:
Regentage nach Regentagen:           75 von 123:    relative Häufigkeit:  0,6097561
                                                    Wahrscheinlichkeit:   0,6
Regentage nach regenfreien Tagen:    48 von 242:    relative Häufigkeit:  0,1983471
                                                    Wahrscheinlichkeit:   0,2


So ist es möglich, dass Theorien mit unterschiedlichen Wahrscheinlichkeiten
dennoch an der gleichen experimentellen Anordnung bewährt werden können.
_________________
Gruß, Leony (Gott losgeworden vor vielen Jahren Sehr glücklich)
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden Website dieses Benutzers besuchen
Babyface
Altmeister



Anmeldungsdatum: 17.07.2003
Beiträge: 11518

Beitrag(#401514) Verfasst am: 15.01.2006, 00:20    Titel: Antworten mit Zitat

Leony hat folgendes geschrieben:
Babyface hat folgendes geschrieben:
...
Tatsächlich bin ich von stochastischer Unabhängigkeit ausgegangen. Und ich meine immer noch, dass ich das tun kann.
Leony hat folgendes geschrieben:
Bei mehreren Überprüfungen derselben Theorie T
sind die Ereignisse "Bewährung bei der n-ten Überprüfung" jedoch nicht statistisch unabhängig,
weil ihre Wahrscheinlichkeiten alle von derselben Größe abhängig sind,
nämlich davon, ob die Theorie T wahr ist oder nicht.

Das erscheint mit ein Knackpunkt. Ich würde es nämlich so interpretieren: ihre Wahrscheinlichkeiten sind abhängig von der Beschaffenheit unserer Welt, so wie die Wahrscheinlichkeit eine 6 zu würfeln abhängig von der Beschaffenheit des Würfels ist. Dennoch verändert sich die Wahrscheinlichkeit, eine weitere 6 zu würfeln nicht, wenn ich bereits eine 6 gewürfelt habe. Mit anderen Worten: die beiden Ereignisse wären stochastisch unabhängig.

Ja, solange du sicher bist, einen "normalen" Würfel zu haben.
Aber nimm an, du hättest drei Würfel,
zwei normale und einen mit einer zweiten 6.
Nimm nun an, jemand zieht blind und zufällig einen der 3 Würfel aus einem Gefäß, und du weißt nicht, welchen er erwischt hat.
Dann würdest du sicher vermuten,
dass die Wahrscheinlichkeit, beim 1. Wurf eine 6 zu werfen, näher bei 1/6 liegt als bei 1/3
(und das wäre völlig korrekt: Sie beträgt 2/3 * 1/6 + 1/3 * 2/6 = 4/18, das liegt näher bei 1/6 = 3/18 als bei 1/3 = 6/18 )
Nun würfelt dieser Jemand 100-mal und sagt dir jedes Mal, ob er eine 6 gewürfelt hat oder nicht.
Wenn er nun 34-mal eine 6 gewürfelt hat -
würdest du es dann nicht für sehr wahrscheinlich halten, dass er den Würfel mit den zwei Sechsen erwischt hat,
und dass die Wahrscheinlichkeit, beim 101. Mal eine 6 zu würfeln,
näher bei 1/3 liegt als bei 1/6?
Obwohl die ersten 100 Würfe die Beschaffenheit des Würfels keineswegs verändert haben?

Ok, ich glaube verstanden zu haben worauf Du hinauswillst. Aber mE übersiehst Du etwas: ich beziehe die Auswahl des Würfels gar nicht in mein Zufallsexperiment ein. Die Wahrscheinlichkeit die ich aufmultiplizieren möchte ist nämlich bereits eine bedingte Wahrscheinlichkeit. Sie entpricht nicht der Wahrscheinlichkeit, eine 6 zu würfeln, wenn man irgend einen von den Würfeln zieht, sondern der Wahrscheinlichkeit, eine 6 zu würfeln nachdem man einen ganz bestimmten Würfel gezogen hat. Und dann gilt für alle weiteren Würfe (lokale) stochastische Unabhängigkeit.

In Bezug auf das Würfelbeispiel würde ich, nachdem man einen Würfel gezogen hat eine Serie würfeln, die relative Häufigkeit der 6 innerhalb dieser Serie als Schätzer der Wahrscheinlichkeit einer 6 bestimmen und meine weiteren Vorhersagen auf diese Zahl stützen. Und da ich nur Vorhersagen für diesen bestimmten Würfel mache, funktioniert mit dieser Zahl auch das Multiplikationstheorem, oder?

Zitat:
Ein anderes hübsches Beispiel, mit dem ich mal meinen Sohn verblüfft habe, möchte ich hier zum Besten geben:
    Angenommen, man hat eine Urne mit 2 weißen und 2 schwarzen Kugeln.

    Nun wird zuerst eine Kugel gezogen und beiseite gelegt.
    Als zweites wird wieder eine Kugel gezogen, festgestellt, ob sie schwarz oder weiß ist,
    und dann wird sie zurückgelegt und die Urne durchgeschüttelt.
    Als drittes wird noch einmal eine Kugel gezogen und festgestellt ob sie schwarz oder weiß ist.

    Da liegt die Vermutung nahe, dass die Ergebnisse der zweiten und der dritten Ziehung stochastisch unabhängig wären,
    denn schließlich ändert die zweite Ziehung nichts am Inhalt der Urne.

    Diese Vermutung stimmt aber nicht.
    p(2. und 3. schwarz) ist nicht gleich p(2. schwarz) * p(3. schwarz).

    Das will ich nun vorrechnen:
      p(1. schwarz) = 1/2.
        Wenn die erste Kugel schwarz war, dann sind in der Urne noch 2 weiße und eine schwarze Kugel.
        Daraus folgt:
        p(2. schwarz wenn 1. schwarz) = 1/3, und p(3. schwarz wenn 1. schwarz) = 1/3,
        und p(2. und 3. schwarz wenn 1. schwarz) = 1/3 * 1/3 = 1/9.
        Daraus folgt:
        p(1. schwarz und 2. schwarz)
        = p(1. schwarz) * p(2. schwarz wenn 1. schwarz) = 1/2 * 1/3 = 1/6,
        und ebenso
        p(1. schwarz und 3. schwarz)
        = p(1. schwarz) * p(3. schwarz wenn 1. schwarz) = 1/2 * 1/3 = 1/6,
        und schließlich
        p(1. schwarz und 2. und 3. schwarz)
        = p(1. schwarz) * p(2. und 3. schwarz wenn 1. schwarz) = 1/2 * 1/9 = 1/18

      p(1. weiß) = 1/2.
        Wenn die erste Kugel weiß war, dann sind in der Urne noch 2 schwarze und eine weiße Kugel.
        Daraus folgt:
        p(2. schwarz wenn 1. weiß) = 2/3, und p(3. schwarz wenn 1. weiß) = 2/3,
        und p(2. und 3. schwarz wenn 1. weiß) = 2/3 * 2/3 = 4/9.
        Daraus folgt:
        p(1. weiß und 2. schwarz)
        = p(1. weiß) * p(2. schwarz wenn 1. weiß) = 1/2 * 2/3 = 1/3,
        und ebenso
        p(1. weiß und 3. schwarz)
        = p(1. weiß) * p(3. schwarz wenn 1. weiß) = 1/2 * 2/3 = 1/3,
        und schließlich
        p(1. weiß und 2. und 3. schwarz)
        = p(1. weiß) * p(2. und 3. schwarz wenn 1. weiß) = 1/2 * 4/9 = 4/18

      Daraus folgt:
        p(2. schwarz)
        = p(1. schwarz und 2. schwarz) + p(1. weiß und 2. schwarz)
        = 1/6 + 1/3 = 1/2,
        und ebenso
        p(3. schwarz)
        = p(1. schwarz und 3. schwarz) + p(1. weiß und 3. schwarz)
        = 1/6 + 1/3 = 1/2,
        folglich
        p(2. schwarz) * p(3. schwarz) = 1/2 * 1/2 = 1/4.

        Aber:

        p(2. und 3. schwarz)
        = p(1. schwarz und 2. und 3. schwarz) + p(1. weiß und 2. und 3. schwarz)
        = 1/18 + 4/18 = 5/18.

Auf den ersten Blick musste ich auch stutzen. Es wird aber deutlicher wenn man das Zufallsexperiment mit nur zwei Kugeln (eine Schwarze und eine Weiße) startet. Wenn dann nur noch eine Kugel im Topf ist und man erfährt dass es eine Schwarze ist, dann ist die bedingte Wahrscheinlichkeit, dass es beim nächsten mal wieder die Schwarze ist genau p=1, da es ja die einzige Kugel ist, die noch in der Urne ist.
_________________
posted by Babyface
.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
GermanHeretic
Individualoptimist & Kulturpessimist



Anmeldungsdatum: 16.06.2004
Beiträge: 4932

Beitrag(#402308) Verfasst am: 16.01.2006, 14:21    Titel: Antworten mit Zitat

Babyface hat folgendes geschrieben:
Auf den ersten Blick musste ich auch stutzen. Es wird aber deutlicher wenn man das Zufallsexperiment mit nur zwei Kugeln (eine Schwarze und eine Weiße) startet. Wenn dann nur noch eine Kugel im Topf ist und man erfährt dass es eine Schwarze ist, dann ist die bedingte Wahrscheinlichkeit, dass es beim nächsten mal wieder die Schwarze ist genau p=1, da es ja die einzige Kugel ist, die noch in der Urne ist.

Nicht ganz, in dem Fall ist p(2 und 3) = p(2)*p(3) nämlich 0 oder 1.
_________________
"Nehmen Sie einem Durchschnittsmenschen die Lebenslüge, und Sie nehmen ihm zu gleicher Zeit das Glück." (Henrik Ibsen)
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Babyface
Altmeister



Anmeldungsdatum: 17.07.2003
Beiträge: 11518

Beitrag(#402340) Verfasst am: 16.01.2006, 16:21    Titel: Antworten mit Zitat

GermanHeretic hat folgendes geschrieben:
Babyface hat folgendes geschrieben:
Auf den ersten Blick musste ich auch stutzen. Es wird aber deutlicher wenn man das Zufallsexperiment mit nur zwei Kugeln (eine Schwarze und eine Weiße) startet. Wenn dann nur noch eine Kugel im Topf ist und man erfährt dass es eine Schwarze ist, dann ist die bedingte Wahrscheinlichkeit, dass es beim nächsten mal wieder die Schwarze ist genau p=1, da es ja die einzige Kugel ist, die noch in der Urne ist.

Nicht ganz, in dem Fall ist p(2 und 3) = p(2)*p(3) nämlich 0 oder 1.

Ich wollte auf folgendes hinaus. Zwei Ereignisse A und B sind ja genau dann stochastisch unabhängig wenn gilt:

(1) P(A)=P(A/B) bzw. P(B)=P(B/A)

Wenn diese Bedingung erfüllt ist, dann kann das Multiplikationstheorem hergeleitet werden:

(2) P(A und B) = P(A) * P(B)

Nehmen wir bei meinem modifizierten Zufallsexperiment die beiden Ereignissse "erste schwarz" und "zweite schwarz", dann gelten folgende apriori-Wahrscheinlichkeiten (d.h. noch bevor man eine der beiden Kugeln am Anfang des Zufallsexperiments aus der Urne entfernt):

P("erste schwarz") = P("zweite schwarz") = 1/2

Wenn das Ereignis "erste schwarz" bereits eingetreten ist, dann ist die (bedingte) Wahrscheinlichkeit, dass das Ereignis "zweite schwarz" eintreten wird:

P("zweite schwarz"/"erste schwarz") = 1

Damit gilt jedoch die stochastische Unabhängigkeit nicht, denn die apriori-Wahrscheinlichkeit für "zweite schwarz" (P = 1/2) ist ungleich der bedingten Wahrscheinlichkeit für "zweite schwarz" gegeben "erste schwarz" (P=1). Damit sind Gleichungen (1) und (2) nicht erfüllt.

Einfacher ausgedrückt: die Ereignisse sind deshalb nicht stochastisch unabhängig, da das Eintreffen des einen Ereignisses Information trägt, wie sicher das andere eintreten wird.

-------------------
edit: Nachtrag

(Lokale) stochastische Unabhängigkeit und damit das Multiplikationstheorem gilt hingegen für folgende Ereignisse:

P("erste schwarz" und "zweite schwarz"/"weiß entfernt") = P("erste schwarz"/"weiß entfernt") * P("zweite schwarz"/"weiß entfernt") = 1 * 1 = 1

oder

P("erste schwarz" und "zweite schwarz"/"schwarz entfernt") = P("erste schwarz"/"schwarz entfernt") * P("zweite schwarz"/"schwarz entfernt") = 0 * 0 = 0
_________________
posted by Babyface
.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
step
registriert



Anmeldungsdatum: 17.07.2003
Beiträge: 22767
Wohnort: Germering

Beitrag(#402494) Verfasst am: 16.01.2006, 21:09    Titel: Antworten mit Zitat

interessanter theread.

Ich möchte ergänzen, daß es für physikalische Theorien keineswegs ausgemacht ist, daß ihre Aussagefähigkeit dem Induktionsproblem unterliegt. Es könnte eine physikalische Begründung geben, warum die Welt hinreichend naturgesetzlich ist.

Das von Leony zu Beginn erwähnte schwache "relative Wahrscheinlichkeitsargument für die Praxis" kann damit auch theoretisch fundiert werden.
_________________
Was ist der Sinn des Lebens? - Keiner, aber Leere ist Fülle für den, der sie sieht.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Babyface
Altmeister



Anmeldungsdatum: 17.07.2003
Beiträge: 11518

Beitrag(#402588) Verfasst am: 16.01.2006, 22:47    Titel: Antworten mit Zitat

Ich möchte, um mal wieder auf das Ausgangsproblem zurückzukommen, an einen Punkt von weiter oben anknüpfen.

Leony hat folgendes geschrieben:
Babyface hat folgendes geschrieben:
Aber wir können mit dem Gesetz der großen Zahl ganz gut begründen, dass der wahre Wert mit hoher Wahrscheinlichkeit in der Nähe von 100% liegt. Und das reicht aus, um die Handlung rational zu begründen.

So weit, so gut - nur hat das mit dem Induktionsproblem eigentlich nichts mehr zu tun.
Hier wird ganz einfach vorausgesetzt, dass es rational sei, auf der Grundlage von bewährten Theorien zu entscheiden.

Stimmt. Dazu muss ich allerdings sagen, dass ich meinen Ausführungen ein "wenn man mit Wahrscheinlichkeiten argumentiert.." vorangestellt hatte, weil auch Du mit Wahrscheinlichkeiten argumentiert hattest.
Leony hat folgendes geschrieben:
Warum das für rational gehalten wird, wird hier nicht begründet.
Es wird einfach vorausgesetzt,
als Axiom, als Dogma oder als Arbeitshypothese.

Genau dieses Problem steckt aber auch in Deinem Ansatz, und zwar hier:
Leony hat folgendes geschrieben:
Da bei jeder vernünftigen Überprüfung gilt,
dass die Wahrscheinlichkeit einer Bewährung größer ist, wenn T wahr ist, als wenn T falsch ist,
gilt:

Diese Annahme klingt zwar plausibel, aber bei genauem Nachdenken für mich keineswegs plausibler oder begründeter als die Annahme, dass eine Theorie, die sich bis jetzt immer bewährt hat, das auch beim nächsten Mal tun wird. Für mich ergibt sich daraus folgender Schluss: wenn man Deine Annahme als (schwache) rationale Begründung akzeptiert, dann sehe ich keinen Grund mehr der dagegen spricht, gute Bewährung ebenfalls als rationale Begründung zu akzeptieren. Der Vorteil wäre, dass man dann sogar eine starke Begründung hätte.

Beide Annahmen sind aber im Prinzip auch "nur" heuristische Prinzipien die Welt zu begreifen, die sich dabei als nützlich erwiesen bzw. bewährt haben, oder mit anderen Worten: sie sind selbst wiederum nur induktiv zu begründen. Als rationale Begründungen akzeptieren wir dann solche Annahmen, die sich mit besonderer Stabilität und Zuverlässigkeit bewährt haben. Der Induktionsschluss ist jedoch auch ihnen immanent.
_________________
posted by Babyface
.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Beiträge der letzten Zeit anzeigen:   
Neues Thema eröffnen   Neue Antwort erstellen   Drucker freundliche Ansicht    Freigeisterhaus Foren-Übersicht -> Wissenschaft und Technik Alle Zeiten sind GMT + 1 Stunde
Seite 1 von 1

 
Gehe zu:  
Du kannst keine Beiträge in dieses Forum schreiben.
Du kannst auf Beiträge in diesem Forum nicht antworten.
Du kannst deine Beiträge in diesem Forum nicht bearbeiten.
Du kannst deine Beiträge in diesem Forum nicht löschen.
Du kannst an Umfragen in diesem Forum nicht mitmachen.



Impressum & Datenschutz


Powered by phpBB © 2001, 2005 phpBB Group