fb18.de
/ Bachelorstudieng
/ PM Mathematik
STO Blatt 7 - Aufgabe 2
Hat jemand ne Idee das vernünftig aufzuschreiben? Wir sind der Meinung dass Folge nicht dem schwachen Gesetz der großen Zahlen genügt eine ordentliche formale Begründung fehlt aber leider…
Hat jemand ne Idee das vernünftig aufzuschreiben?
Hier ein Ansatz:
Man nehme einen Stift und ein Blatt Papier…
Wir sind der Meinung dass Folge nicht dem schwachen Gesetz der großen Zahlen genügt
Viel Glück beim Beweisen einer falschen Vermutung.
Wie ist denn die Aufgabenstellung?
Hat jemand ne Idee das vernünftig aufzuschreiben?
Hier ein Ansatz:
Man nehme einen Stift und ein Blatt Papier…
Wir sind der Meinung dass Folge nicht dem schwachen Gesetz der großen Zahlen genügt
Viel Glück beim Beweisen einer falschen Vermutung.
Solche Kommentare kannste dir echt sparen du Pfosten…
Solche auch. Rück mal lieber mit der Aufgabe raus.
Hier ist die Quelle:
https://docs.google.com/document/d/1DSu36dA98u0dvga_XOkL8JhgbWDAElcX10z3AfimyvY/edit?hl=deIch verstehe die notation gar nicht, wenn k in P(X_k = 3^k) = 3^(-2k+1) ist ein index der Zufallsvariable oder der Abbildung, wie kann es zugleich ein Parameter dieser Abbildung sein? Oder ist es so zu verstehen dass zB X_1 hat 3 mögliche Werte: 3, -3 und 0?
[latex]$X_1,X_2,\ldots$[/latex] sei eine Folge paarweise unabhängiger Zufallsvariable mit
[latex]P(X_k = 3^k) = P(X_k = -3^k) = 3^{-2k + 1}[/latex] und
[latex]P(X_k = 0) = 1 - P(X_k = 3^k) - P(X_k = -3^k)[/latex] für alle [latex]k \in \mathbb{N}[/latex].
Untersuchen Sie, ob diese Folge dem schwachen Gesetz der großen Zahlen genügt, d.h. ob
[latex]\lim_{n \to \infty} P\left(\left|\frac{1}{n} \sum_{i=1}^n(X_i - E[X_i])\right|>\epsilon\right)=0[/latex]
für alle [latex]\epsilon>0[/latex] gilt.
Wenn die Folge dem Gesetz nicht nicht genügt, muss es folglich einen Wert für [latex]\epsilon[/latex] geben, für den der Grenzwert [latex]\not=0[/latex] ist. In dem Fall genügt es, dieses [latex]\epsilon[/latex] und den anderen Grenzwert aufzuschreiben, und zu begründen, warum der Grenzwert nicht 0 ist.
Ich verstehe die notation gar nicht, wenn k in P(X_k = 3^k) = 3^(-2k+1) ist ein index der Zufallsvariable oder der Abbildung, wie kann es zugleich ein Parameter dieser Abbildung sein? Oder ist es so zu verstehen dass zB X_1 hat 3 mögliche Werte: 3, -3 und 0?
[latex]X_k[/latex] ist eine Folge von Zufallsvariablen. Wenn ich es richtig sehe, gibt es für jede dieser Zufallsvariablen genau drei Werte, die eintreffen können; alle anderen haben die Wahrscheinlichkeit 0.
Also ja, [latex]X_1[/latex] hat 3,-3,0.
Ich denke man sollte zuerst die Voraussetzungen prüfen unter denen der Satz greift.
Dazu zählt einmal, dass E[X_j] = E[X_1] für alle j = 1 … n
und dass Var(X_j) endlich ist (außerdem sollen die ZV paarweise unkorreliert sein).
Wenn die gegebene Folge diese Voraussetzungen nicht erfüllen sollte, würde der Satz schonmal nicht anwendbar sein.
Ich glaube die haben alle unterschiedliche Erwartungswerte und daswegen gilt das Schwache Gesetz nicht(so wie ich das im Satz 8.5 steht)
E[X] = 3^k * 3^(-2k+1) + 3^k * (-3)^(-2k+1) + 0 * (…) = 3^(-1+1) (1 + (-1)^k)
Allerdings waehre es zu einfach und daswegen glaube ich, dass irgend etwas an dieser Argumentation falsch ist.
Ich glaube die haben alle unterschiedliche Erwartungswerte und daswegen gilt das Schwache Gesetz nicht(so wie ich das im Satz 8.5 steht)
E[X] = 3^k * 3^(-2k+1) + 3^k * (-3)^(-2k+1) + 0 * (…) = 3^(-1+1) (1 + (-1)^k)
Allerdings waehre es zu einfach und daswegen glaube ich, dass irgend etwas an dieser Argumentation falsch ist.
Einer von uns beiden benutzt ne falsche Formel. Stimmt meine TeX-Version (paar Posts weiter oben) mit dem Aufgabenblatt überein?
Und deine Rechnung kann ich auch nicht nachvollziehen.
Ich denke, dass der EW immer 0 ist.
bei uns im Skript steht E[X1] statt E[X_i] in der Formel und davor E[X_j] = E[X_1] für alle j element N. Vielleicht ist das falsch , beim E[X] habe ich immer summe von x * p(x), also x: z.B. 3^k mal p(x): 3^(-2k+1) u.s.w.
Das Gesetz stand doch auch auf dem Aufgabenblatt drauf, dass du verlinkt hattest. Leider nicht mehr abrufbar. Auch
wikipedia stützt meine Version.
die erwartungswerte sind alle 0, da hat wulf schon recht.
dass da e[x1] statt xj steht liegt daran, dass die erwartungswerte eh alle gleich sein müssen, macht also keinen unterschied, denn e[x1]=e[xj]…
Hat jemand ne ähnliche Aufgabe irgendwo? In Büchern findet sich keine Rechnung dergleichen, im Netz ebenfalls nicht.
Ich vermute, dass die Aufgabenstellung äquivalent ist zu der Frage, ob [latex]\lim_{n \to \infty} E\left(\left|\frac{1}{n} \sum_{i=1}^n X_i\right|\right) = 0[/latex] gilt. Vielleicht kann man damit leichter weiterrechnen.
Update: Irgendwie macht das keinen Sinn, denn der Erwartungswert dürfte auch hier 0 sein.
Wie habt ihr den Erwartungswert berechnet, denn bei mir ist sie nicht 0
sondern 3^(-k+1) (1 + (-1)^k)
@Wulf: kannst du schreiben, wie du dahin gekommen bist?
Es gibt drei mögliche Ereignisse:
* [latex]P(X_k = 3^k) = 3^{-2k+1}[/latex]
* [latex]P(X_k = -3^k) = 3^{-2k+1}[/latex]
* [latex]P(X_k = 0) = 1 - \ldots[/latex]
[latex]E(X_k) = 3^k \cdot 3^{-2k+1} -3^k \cdot 3^{-2k+1} + 0 \cdot (1 - \ldots) = [/latex] [latex](3^k - 3^k) \cdot 3^{-2k+1} + 0 = 0[/latex]
Ich habe angenommen (-3)^k statt -(3^k) daswegen hatte ich keine 0
@Wulf: Ich meinte nicht den Erwartungswert, sondern wie du von
lim P((1/n)(summe …)>e)=0
auf
lim E(…)
kommst.
Das war ein falscher Gedankengang. In etwa so: Wenn die Grenze vom Erwartungswert von |…| größer 0 ist, dann ist die Zufallsvariable |…| sehr sicher größer als irgendein [latex]\epsilon[/latex], womit das sGdgZ nicht erfüllt wäre. Aber da der Erwartungswert 0 ist, ist diese Folgerung nicht interessant.
Achso, schade. Ich weiß in Moment nun mit dem Summenzeichen nicht weiter. Seis drum.
So, das dürfte die Lösung sein:
Die kleinen Summanden werden immer kleiner, wenn man n größer macht, soweit, dass sie in der Summe auf keinen Fall größer sein können als [latex]\epsilon[/latex]. Die fallen dann quasi raus.
Von den Summanden, die größer als [latex]\epsilon[/latex] sind, ist nur der kleinste interessant, weil die Wahrscheinlichkeit, dass ein anderer vorhanden (bzw. != 0) ist, exponentiell abnimmt. Wird n größer, wird diese Wahrscheinlichkeit auch schnell kleiner.
Womit wir wieder beim 1. Post wären.