Frage:
Wer hat Zufallsvariablen in die Wahrscheinlichkeit eingeführt?
Conifold
2015-04-22 07:22:58 UTC
view on stackexchange narkive permalink

Früher dachte ich, die Antwort sei Kolmogorov. Die Shafer-Vovk-Rezension von Kolmogorovs berühmter Axiomatisierung der Wahrscheinlichkeit von 1933 überraschte mich ein wenig: " Heute ist nicht mehr bekannt, was Frechet und seine Zeitgenossen wussten. Wir kennen Kolmogorov und was danach kam; Wir haben größtenteils vergessen, was vorher kam ... Unsere Überprüfung wird bestätigen, was Frechet 1937 sagte und was Kolmogorov im Vorwort sagte: Es war eine Synthese und ein Handbuch, kein Bericht über neue Forschungen. Wie jedes Lehrbuch seine Mathematik war für die meisten seiner Leser neu, aber seine wahre Originalität war rhetorisch und philosophisch. "

Mit anderen Worten, Kolmogorovs Buch war Euklids Elementen sehr ähnlich, es systematisierte alles bereits Bekannte und löschte die Vorgänger aus. Ein kurzer Blick auf Wikipedia bestätigt letzteres, dass seine Wahrscheinlichkeitsgeschichte eine Lücke zwischen Laplace (1812) und Kolmogorov aufweist und es sogar schafft, die Namen von Kolmogorov selbst zu überspringen: Borel, Bernstein und von Mises. Ein weiteres Exponat ist der Name von Gerovitchs populärem Artikel: Der Mann, der die moderne Wahrscheinlichkeit erfunden hat.

Die Rezension enthält viele interessante Informationen. Zum Beispiel definierte Borel 1898 zählbar additive Maße und untersuchte 1905-1909 Zusammenhänge zwischen ihnen und der geometrischen Wahrscheinlichkeit. Frechet verallgemeinerte Borel / Lebesgue-Maße auf abstrakte Räume, Hausdorff setzte die Wahrscheinlichkeit bis 1914 mit ihnen gleich, und Bernstein gab 1917 eine Version der Wahrscheinlichkeitsaxiome. Über Zufallsvariablen sagt sie jedoch nicht viel aus. Die klassischen Autoren (Bernoulli, de Moivre, Poisson, Laplace) sprechen über zufällige Ereignisse, Versuche und Verteilungen, aber nicht über etwas so Abstraktes.

Wer und wann wurde das Konzept der Zufallsvariablen eingeführt, war es ein "Grundbegriff" vor der Maßtheorie?

Senetas Artikel ist ebenfalls interessant, schreibt jedoch alles neu, beginnend mit Bernoullis Ars Conjectandi von 1713 in moderner Notation mit Zufallsvariablen. Daher ist es schwer zu sagen, woher sie oder die Notation stammen

Wer hat die Set-Builder-Notation eingeführt, die Zufallsvariablen wie Pr $ (| \ xi | > \ varepsilon) $ enthält, und wann wurde es üblich, Ergebnisse darin auszudrücken?

Ich denke, das kann nützlich sein, um zu lesen: Jan von Plato, [Schaffung moderner Wahrscheinlichkeit: Seine Mathematik, Physik und Philosophie in historischer Perspektive] (https://books.google.it/books?id=cE0uKNiIHpkC&pg=PR5) (1994).
Meinen Sie mit der Set Builder-Notation Pr ($ | \ xi |> \ epsilon $), was normalerweise als "die Wahrscheinlichkeit, dass der absolute Wert der Zufallsvariablen $ \ xi $ größer als $ \ epsilon $ ist" gelesen wird? Kennst du die Antwort darauf in der Zwischenzeit?
@MichaelBächtold Ja zur Notation, aber leider habe ich dieses Problem irgendwie vergessen und es nie wirklich herausgefunden. Ich bin immer noch neugierig
Siehe auch https://hsm.stackexchange.com/a/9718/229 "Wer hat den Begriff * Zufallsvariable * geprägt?"
Drei antworten:
Alexandre Eremenko
2015-04-23 04:16:29 UTC
view on stackexchange narkive permalink

Diese Frage hat keine endgültige Antwort, da die Menschen lange vor einer strengen Definition mit Zufallsvariablen arbeiteten.

Die Wahrscheinlichkeitstheorie beginnt im 16. Jahrhundert, wenn nicht früher. Cardano hat zum Beispiel ein Buch darüber geschrieben. 1773 schrieb de Moivre ein wichtiges Buch, in dem er im Wesentlichen die Hauptmethode der modernen Wahrscheinlichkeit (harmonische Analyse) einführte. Dies wurde viel von Laplace entwickelt. Eine wichtige Entwicklung fand im 19. Jahrhundert statt (zum Beispiel Chebyshev). Alle diese Leute sprachen über Zufallsvariablen, ohne eine genaue Definition zu geben. Ich meine eine "genaue Definition" aus der Sicht des modernen Mathematikers, der nur Definitionen versteht, die in Bezug auf die Mengenlehre gegeben sind. Natürlich gab es noch keine Mengenlehre.

Zu Beginn des 20. Jahrhunderts war die Wahrscheinlichkeit eine hochentwickelte Theorie mit wesentlichen Anwendungen auf die Physik (z. B. Brownsche Bewegung). Alle wesentlichen Wahrscheinlichkeitsanwendungen existierten bereits zu Beginn des 20. Jahrhunderts, einschließlich statistischer Mechanik, Finanzmathematik und natürlich Statistik.

Versuche, eine strenge Rechtfertigung im Geiste der neu entwickelten Mengenlehre zu etablieren, begannen im zweiten Jahrzehnt des 20. Jahrhunderts. Ein frühes Axiomensystem war S. Bernstein zu verdanken, ein anderes J. Schauder. Ein weiteres Gründungssystem war von Mises zu verdanken.

Kolmogorovs System wurde 1933 veröffentlicht. Allmählich (nicht sofort!) Übernahm es.

Um Ihre andere Frage zu beantworten, nein, dies kann nicht mit Euklid verglichen werden. Euklid gab eine systematische und umfassende Darstellung aller zu dieser Zeit existierenden Mathematik. Kolmogorovs Buch ist eine winzige Broschüre, in der er nur ein neues Axiomensystem vorschlägt, das einige sehr allgemeine Theoreme beweist. Es ist eine kleine Forschungsmonographie, keine Darstellung der bekannten Dinge.

Bemerkung. Das moderne Bildungssystem lässt viele junge Mathematiker denken, dass es vor Kolmogorov keine Wahrscheinlichkeitstheorie und vor Grothendieck keine algebraische Geometrie gab. Wenn man dieses Prinzip einen Schritt weiter entwickelt, kann man sagen, dass es vor Cantor keine Mathematik gab :-) Weil die gesamte moderne Mathematik auf der Mengenlehre basiert.

Ich bin mir bei Chebyshev nicht sicher, aber es gibt keine Zufallsvariablen in Cardano, de Moivre oder Laplace. Sprechen Sie nicht über Zufallsvariablen, präzise oder nicht. Sie denken und schreiben in Versuchen und Verteilungen. Selbst Borel hat eine solche Einstellung anscheinend oft bevorzugt, aber es gibt eine deutliche Verschiebung zwischen Laplace und Kolmogorov, so dass es höchstwahrscheinlich eine endgültige Antwort gibt.
Elemente haben nicht alle bekannten mathematischen Darstellungen gegeben, es werden unter anderem keine konischen Abschnitte erwähnt, aber es ist expansiv. Vielleicht ist ein besserer Vergleich mit Teilen der Bücher I und V, die die Grundlagen schaffen, Kolmogorov hat den Rest in späteren Arbeiten erledigt. Die Bewertung von Grundbegriffe als Synthese und nicht als Forschungsmonographie ist sowohl Kolmogorovs als auch Frechets.
Ich bin nicht einverstanden mit "hat den Rest in späteren Arbeiten gemacht". Kolmogorov hat nie eine umfassende Umfrage zur Wahrscheinlichkeit (oder zu einem anderen Thema) verfasst. Sein Output besteht hauptsächlich aus sehr kurzen Arbeiten. Und das kleine Buch, über das wir sprechen, ist sicherlich eine Forschungsarbeit. Mit neuen Ideen.
Michael Bächtold
2019-02-03 02:25:47 UTC
view on stackexchange narkive permalink

In Bezug auf die Notation $ \ text {Pr} (| \ xi | > \ varepsilon) $ span> habe ich bisher Folgendes gefunden:

Cajoris Eine Geschichte mathematischer Notationen von 1929 sagt nichts über die Wahrscheinlichkeitstheorie aus, was darauf hindeutet, dass das Fach zu Beginn des 20. Jahrhunderts noch keine spezielle oder weit verbreitete Notation entwickelt hatte. Dies scheint von Jeff Miller unterstützt zu werden, der schreibt:

Symbole für die Wahrscheinlichkeit eines Ereignisses $ A $ im Muster von $ P (A) $ span> oder $ Pr (A) $ span> sind a relativ junge Entwicklung angesichts der Tatsache, dass die Wahrscheinlichkeit seit Jahrhunderten untersucht wurde. A. N. Kolmogorovs Grundbegriffe derWahrscheinlichkeitsrechnung (1933) verwendete das Symbol $ \ mathbf {P} (A) $ span>. Die Verwendung von Großbuchstaben für Ereignisse wurde der Mengenlehre entnommen, wo sie auf Mengen bezogen wurden. In H. Cramérs Random Variables and ProbabilityDistributions (1937), "dem ersten modernen Buch über Wahrscheinlichkeit auf Englisch", wurde $ P (A) $ span> verwendet. Im selben Jahr schrieb JV Uspensky ( Einführung in die mathematische Wahrscheinlichkeit ) einfach $ (A) $ span> nach AA Markov Wahrscheinlichkeitsrechnung (1912, S. 179). W. Fellers einflussreiche Einführung in die Wahrscheinlichkeitstheorie und ihre Anwendungen Band 1 (1950) verwendet $ Pr \ {A \} $ span> und $ \ mathbf {P} \ {A \} $ span> in späteren Ausgaben.

Wenn man jedoch etwas tiefer gräbt, findet man einige frühere Quellen.

Bevor ich einige gebe, möchte ich darauf hinweisen, dass ich Millers Behauptung, dass Großbuchstaben für Ereignisse aus der Mengenlehre stammen, ziemlich zweifelhaft finde, da Bayes bereits in Ein Essay zur Lösung eines Problems in der Doctrine of Chances ( 1763) verwendete für ein Ereignis $ M $ span> in Großbuchstaben.

Lassen Sie mich als Nächstes Markov zitieren aus seiner Wahrscheinlichkeitsrechnung (1912) p. 14-15 (meine Übersetzung):

Wir finden es nicht überflüssig, den Satz der Multiplikationen von Wahrscheinlichkeiten über die Formel $$ (AB) = (A) (B, A) = (B) (A, B), $$ span> wobei $ (AB) $ bezeichnet die Wahrscheinlichkeit des gleichzeitigen Auftretens beider Ereignisse $ A $ span> und $ B $ span>, $ (A) $ span> und $ (B) $ span> bezeichnen jeweils die Wahrscheinlichkeiten von Ereignissen $ A $ span> und $ B $ span>, $ (B, A) $ span > bezeichnet die Wahrscheinlichkeit des Ereignisses $ B $ span>, wenn $ A $ span> für eine Tatsache bekannt ist, und $ (A, B) $ span> bezeichnet die Wahrscheinlichkeit des Ereignisses $ A $ span>, wenn $ B $ span> ist bekannt

Ich habe keinen Zugang zu seiner ersten russischen Ausgabe ( Исчисление вероятностей 1900), aber Poincaré in seinem Calcul des probabilités ( 1896) p. 37 verwendete fast die gleiche Notation wie Markov.

Die Wahrscheinlichkeit, dass $ A $ span> und $ B $ span> beide auftreten, ist gleich der Wahrscheinlichkeit, dass $ B $ span> auftritt, multipliziert mit der Wahrscheinlichkeit, dass $ A $ span> auftritt, wenn wir wissen, dass $ B $ span> aufgetreten ist.

Oder umgekehrt ist es gleich der Wahrscheinlichkeit, dass $ A $ span>, multipliziert mit der Wahrscheinlichkeit, dass $ B $ span> auftritt, vorausgesetzt $ A $ span> sollte auftreten. $$ (A \ text {und} B) = (B) (A \ text {si} B) = (A) (B \ text {si} A). $$ span>

Es ist interessant, dass Poincaré im Gegensatz zu Markov keine explizite Definition der Notationsklasse $ (A) $ span>. Stattdessen entwickelt er es von Beschriftungen zu Gleichungen auf einigen Seiten zuvor zu mathematischen Objekten, die in Gleichungen vorkommen können.

Für eine Notation, die näher an $ \ text liegt {Pr} (A) $ span>, es scheint, als hätten Hausdorff und sein Arztvater Bruns eine Rolle gespielt. Bruns schreibt in seiner Wahrscheinlichkeitsrechnung und Kollektivmaßlehre ( 1906) $ \ mathfrak {W} (E) $ span> für die Wahrscheinlichkeit eines Ereignisses $ E $ span> ( $ \ mathfrak {W} $ span> Abkürzung Wahrscheinlichkeit ). Das Buch basiert auf Vorlesungen, die Bruns seit Anfang der 1880er Jahre alle zwei Jahre an der Universität Leipzig hielt. Hausdorff besuchte diese Vorlesungen 1890 und schrieb sie stenografiert (aber ich habe keinen Zugang zu Hausdorffs Notizen).

In 1900/01 Hausdorff himself lectured on probability theory and introduced the notation $p_F(E)$ for conditional probability in his Beiträge zur Wahrscheinlichkeitsrechnung (1901):

Wenn bei dem Versuche, der über das Eintreffen oder Ausbleiben des Ereignisses $E$ entscheidet, die Zahl der überhaupt günstigen gleichberechtigten Fälle durch die Zahl der überhaupt möglichen gleichberechtigten Fälle dividiert wird, so entsteht die Wahrscheinlichkeit von $E$ schlechthin, die absolute Wahrscheinlichkeit $p(E)$. Werden hingegen unter den günstigen und möglichen Fällen nur diejenigen gezählt, die ein bestimmtes anderesEreignis $F$ herbeiführen, so entsteht die relative Wahrscheinlichkeit von $E$ unter der Voraussetzung, dass $F$ verwirklicht sei, einBegriff, für den sich die Schreibung $p_F(E)$ und etwa dieAusdrucksweise relative Wahrscheinlichkeit von $E$, posito $F$ empfehlen dürfte.

My translation:

Wenn bei dem Versuch, das Auftreten oder Fehlen eines Ereignisses zu bestimmen, $ E $ span>, wird die Anzahl der günstigen und gleich wahrscheinlichen Fälle durch die Anzahl aller möglichen Fälle geteilt und ebenso wahrscheinlich ergibt sich die Wahrscheinlichkeit, dass $ E $ span> richtig ist, die absolute Wahrscheinlichkeit $ p (E) $ span>. Wenn andererseits unter den günstigen und möglichen Fällen nur diejenigen gezählt werden, die ein anderes bestimmtes Ereignis $ F $ span> auslösen, dann ist die relative Wahrscheinlichkeit von $ E $ span> unter der Bedingung, dass $ F $ span> realisiert wird entsteht, ein Konzept, für das die Notation gilt $ p_F (E) $ span> und der Ausdruck relative Wahrscheinlichkeit von $ E $ span>, posito $ F $ span> wird möglicherweise empfohlen.

In Felix Hausdorff, Gesammelte Werke, Band V ( 2005). Dort erklärt Purkert, dass Hausdorff damit mehrere Autoren beeinflusst hat.

Zum Beispiel schreibt Bruns in einer Fußnote seines Buches von 1906, dass der Satz von Bayes eine einfache Folgerung aus rein arithmetischen Theoremen ist, wenn man den Begriff von einführt , bedingte Wahrscheinlichkeit wie Hausdorff. (Aber ich weiß nicht, ob Bruns ' $ \ mathfrak {W} (E) $ span> von Hausdorffs $ p inspiriert wurde (E) $ span> oder wenn Bruns es bereits vor 1900 verwendet hat.)

Czuber, der den Artikel zur Wahrscheinlichkeitstheorie in Kleins Encyclopedia of Mathematics ( 1900) und das Buch Wahrscheinlichkeitsrechnung und ihre Anwendung auf Fehlerausgleichung, Statistik und Lehensversicherung verfasst hat ( 1903) übernahm Hausdorffs Notation in der zweiten überarbeiteten Ausgabe seines Buches ( 1908) und schrieb $ \ mathfrak {W} $ span> wie Bruns anstelle von Hausdroffs $ p $ span>. Czuber bestätigt Hausdorff in einer Fußnote auf S. 45, um dem Thema mit dieser Notation Klarheit zu verleihen. Auch Broggi übernahm Hausdorffs Notation in Versicherungsmathematik (1911) ( Matematica attuariale ).

In Hausdorffs späteren Vorlesungen Wahrscheinlichkeitsrechnung ( 1923, 1931, Gesammelte Werke Band V S. 595) findet man auch eine Definition einer Zufallsvariablen mit endlich vielen Werten und eine (erste?) Verwendung einer Ungleichung, um für ein Ereignis zu stehen.

Dort verwendet er die Notation $ w (A) $ span> anstelle von $ p (A) $ span> und schreibt (S. 608) Gesammelete Werke Band V, meine Übersetzung)

Sei $ A_1, A_2, \ ldots, A_m $ span> eine vollständige Disjunktion, $ w (A_i) = p_i, \ sum p_1 = 1 $ span>. Stellen Sie sich vor, dass jedem Fall $ A_i $ span> eine reelle Zahl $ x_i $ span> (zum Beispiel die Zahl $ i $ span>). Wenn die $ p_i $ span> $ > 0 $ span> und die sind $ x_i $ span> sind paarweise unterschiedlich und $ x $ span> bezeichnet einen von ihnen, dann nennen wir $ x $ span> eine Variable , die die Werte $ x_1, \ ldots, x_m $ span> annehmen kann; nur dass hier im Vergleich zum üblichen Sprachgebrauch die Variable präziser gemacht wird, indem sie jeden Wert $ x_i $ span> mit einer bestimmten Wahrscheinlichkeit $ p_i $ span>. Wir nennen die Ausführungsform [Innbegriff] des $ p_i, x_i $ span> eine Verteilung der Variablen $ x $ span>

Solche Verteilungen spielen die Hauptrolle bei der Anwendung der Wahrscheinlichkeitsrechnung.

Unmittelbar danach definiert er den Erwartungswert und die $ k $ span> - Moment $ \ mu_k $ span> einer Variablen $ x $ span > und schreibt auf der nächsten Seite

Wenn $ t $ span> eine positive Zahl ist und die Summe $ \ overset {*} {\ sum} $ span> läuft nur über die $ i $ span> mit $ | x_i | \ geq t $ span>, dann für $ k = 2,4 \ ldots $ span> $$ \ mu_k = \ sum p_i x ^ k_i \ geq \ overset {*} {\ sum} p_i x ^ k_i \ geq t ^ k \ cdot \ overset {*} {\ sum} p_i, $$ span> $$ \ overset {*} {\ sum} p_i \ leq \ dfrac {\ mu_k} {t ^ k} $$ span> oder mit der offensichtlichen Notation $ $ w (| x | \ geq t) \ leq \ dfrac {\ mu_k} {t ^ k}, \ quad w (| x | < t) \ geq 1 - \ dfrac {\ mu_k} {t ^ k} \; (\ text {Tschebyscheff}) $$ span>

Ich habe in Todhunters Eine Geschichte der mathematischen Wahrscheinlichkeitstheorie ( 1865) und in Czubers Enzyklopädie-Artikel ( 1900) nach geraden gesucht frühere Verwendungen von Notationen wie $ p (A), P (A), Pr (A) $ span>, konnten jedoch keine finden. Natürlich ist die Verwendung von $ P $ span> in Groß- / Kleinbuchstaben, um für die Wahrscheinlichkeit zu stehen, viel älter als 1900. Laplace verwendet sie beispielsweise häufig. Aus heutiger Sicht sollte der $ p $ span> von Laplace und früheren Mathematikern als Zahl zwischen 0 und 1 verstanden werden, während der $ p $ span>, eingeführt von Hausdorff, oder die von Poincare und Markov verwendete Klammer können als Operatoren angesehen werden, die Ereignisse als Eingaben akzeptieren und Zahlen zwischen 0 und 1 als Ausgaben ergeben.

Was ich habe Nicht gesucht ist die erste Verwendung der Notation $ P (A | B) $ span> für bedingte Wahrscheinlichkeiten. Eine verwandte Frage lautet https://mathoverflow.net/q/163582/745.

Danke, das ist viel mehr als ich finden konnte. Ich vermute, dies bedeutet, dass Zufallsvariablen noch jünger sind. Mein Eindruck war, dass die frühen Quellen zumindest mit Verteilungsfunktionen als Basis arbeiten.
@Conifold: Es wäre immer noch sehr interessant, den Verlauf von Zufallsvariablen und ihre Entwicklung zu $ ​​X \ Doppelpunkt \ Omega \ zu \ mathbb {R} $ zu verfolgen. Die moderne Interpretation erfolgte sicherlich nach der Erfindung von Mengen und Karten (~ 1900), aber wie Eremenko sagt, wurden Zufallsvariablen viel früher verwendet. Es ist mir immer noch ein Rätsel, dass Mathematiker das Bedürfnis verspürten, Zufallsvariablen als Karten zu interpretieren, aber sie hatten nie großen Drang, dasselbe für die variablen Mengen von Leibniz zu tun. Siehe zum Beispiel die Diskussion [hier] (https://mathoverflow.net/questions/307947).
Michael Bächtold
2020-08-01 04:13:45 UTC
view on stackexchange narkive permalink

Sie sagen "Es gibt keine Zufallsvariablen in Cardano, de Moivre oder Laplace", aber zumindest in Laplace. Nicht im Sinne von Karten von einem Probenraum zu einem messbaren Raum, sondern im intuitiven Sinne von variablen Größen, die unterschiedliche Werte mit unterschiedlichen Wahrscheinlichkeiten annehmen können .

Im folgenden Laplace $ \ alpha $ span> wird in diesem intuitiven Sinne eindeutig als Zufallsvariable behandelt. Aus Mémoire sur les probabilités , 1778 ( Französisch, Englisch):

II.

Wir nehmen an, dass zwei Spieler $ A $ span> und $ B $ span> sind, von denen die jeweiligen Fähigkeiten sind unbekannt, spielen Sie bei einem beliebigen Spiel, und wir schlagen vor, die Wahrscheinlichkeit zu bestimmen, mit der $ A $ span> den ersten $ n $ Spiele.

Wenn es sich nur um ein einzelnes Spiel handelte, ist klar, dass $ A $ span> oder $ B $ span> muss es unbedingt gewinnen, diese beiden Ereignisse sind gleich wahrscheinlich, so dass die Wahrscheinlichkeit des ersten $ \ frac {1} {2} $ span> ist; Daraus schließen wir, indem wir der gewöhnlichen Regel der Chancenanalyse folgen, dass die Wahrscheinlichkeit, dass $ A $ span> den ersten $ gewinnt n $ span> -Spiele sind $ \ frac {1} {2 ^ n} $ span>. Diese Konsequenz ist genau, wenn die Wahrscheinlichkeit $ \ frac {1} {2} $ span> auf einer absoluten Gleichheit zwischen den Möglichkeiten der beiden Ereignisse beruht, von denen die Rede ist ;; Aber es gibt Gleichheit nur relativ zu der Unwissenheit, die wir über die Fähigkeiten zweier Spieler haben, und diese Gleichheit verhindert nicht, dass der eine viel stärker sein kann als der andere. Wir nehmen folglich an, dass $ \ frac {1+ \ alpha} {2} $ span> die Wahrscheinlichkeit darstellt, dass der stärkste Spieler ein Spiel gewinnt, und $ \ frac {1- \ alpha} {2} $ span> der der Schwächsten; durch Benennen von $ P $ span> die Wahrscheinlichkeit, dass $ A $ span> die erste $ n $ span> Spiele, wir haben $$ P = \ frac {1} {2 ^ n} (1+ \ alpha) ^ n \ quad \ Text {oder} \ quad P = \ frac {1} {2 ^ n} (1- \ alpha) ^ n, $$ span> gemäß $ A $ span> wird das stärkste oder das schwächste sein: Jetzt, da wir keinen Grund haben, das eine und nicht das andere anzunehmen, ist es klar, dass, um einen wahren Wert von $ P zu haben $ span> müssen wir den Mittelwert aus der Summe der beiden vorhergehenden Werte nehmen, was $$ P = \ frac {1} {2 ^ {n + 1}} ergibt [(1+ \ alpha) ^ n + (1- \ alpha) ^ n]. $$ span>

[...]

Wenn wir nun die Grenze und das Gesetz der Möglichkeit der Werte von $ \ alpha $ span> [die Wahrscheinlichkeitsverteilung von $ \ alpha $ span>], nichts wäre einfacher, als dieses Problem genau zu lösen; denn wenn wir $ q $ span> diese Grenze nennen und wenn wir durch $ \ psi (\ alpha) $ span darstellen > Bei der Wahrscheinlichkeit [Dichte] von $ \ alpha $ span> sehen wir zuerst, dass $ \ alpha $ span> notwendigerweise vorhanden ist Um zwischen $ 0 $ span> und $ q $ span> zu liegen, muss die Funktion verwendet werden $ \ psi (\ alpha) $ span> muss so sein, dass wir $$ \ int d \ alpha \ psi (\ alpha) = 1, $$ span> haben Das Integral wird von $ \ alpha = 0 $ span> nach $ \ alpha = q $ span> übernommen. Wir werden daher die Wahrscheinlichkeiten, die durch die vorhergehenden bestimmt werden, mit $ d \ alpha \ psi (\ alpha) $ span> multiplizieren und diese Produkte aus $ \ alpha = 0 $ span> bis $ \ alpha = q $ span> haben wir die gesuchten Wahrscheinlichkeiten; Auf diese Weise finden wir für den Wert von $ P $ span> in Artikel II $$ P = \ int d \ alpha \ psi (\ alpha) \ frac {1} {2 ^ {n + 1}} [(1+ \ alpha) ^ n + (1- \ alpha) ^ n]. $$ span>

Weitere Beispiele für solche Zufallsvariablen finden Sie im selben Artikel. Auch Chebyshev hat Zufallsvariablen dieses Typs.



Diese Fragen und Antworten wurden automatisch aus der englischen Sprache übersetzt.Der ursprüngliche Inhalt ist auf stackexchange verfügbar. Wir danken ihm für die cc by-sa 3.0-Lizenz, unter der er vertrieben wird.
Loading...