[tex]E[\min\{n : X_1+\ldots+ X_n>1\}][/tex] quando le [tex]X _n[/tex] sono [tex]U([0,1])[/tex]

Moderatore: Moderatori

[tex]E[\min\{n : X_1+\ldots+ X_n>1\}][/tex] quando le [tex]X _n[/tex] sono [tex]U([0,1])[/tex]

Messaggioda pic il dom 7 ott 2012, 17:03

Prendiamo una successione di variabili aleatorie indipendenti, tutte uniformi su [0,1]. Quante ne servono, in media, perche' la loro somma superi 1?
Avatar utente
pic
 
Messaggi: 694
Iscritto il: gio 12 giu 2008, 14:32
Località: London, UK

Messaggioda fry il dom 7 ott 2012, 18:55

pic ha scritto:Prendiamo una successione di variabili aleatorie indipendenti, tutte uniformi su [0,1]. Quante ne servono, in media, perche' la loro somma superi 1?

Penso che il problema non sia ben posto, perchè \min\{n : X_1 + \cdots + X_n > 1\} potrebbe non esistere, anche se magari esiste quasi certamente. Comunque basta poco a sistemare le cose definendo la variabile aleatoria N := \sup \{n \in \mathbb{N}^+ : X_1 + \cdots X_{n-1} \leq 1\} e chiedendosi quanto vale \mathbb{E}[N].
"Hey. They laughed at Louis Armstrong when he said he was gonna go to the moon. Now he's up there, laughing at them."
Avatar utente
fry
 
Messaggi: 1122
Iscritto il: ven 20 giu 2008, 19:06

Messaggioda pic il lun 8 ott 2012, 10:07

Bene bene, tra l'altro penso sia meglio aggiungere lo step intermedio:

1. dimostrare che quel minimo esiste quasi certamente,
2. risolvere il problema (per come lo ha scritto fry).

ovviamente 2 implica 1 (viene \mathbb E[N]<\infty).
Avatar utente
pic
 
Messaggi: 694
Iscritto il: gio 12 giu 2008, 14:32
Località: London, UK

Messaggioda matematto il sab 9 mar 2013, 13:44

Rivitalizzo questo vecchio post, un po' perché mi spiace che la sezione di Probabilità sia dormiente, un po' perché vorrei vedere una dimostrazione più probabilistica della mia.

Vogliamo calcolare \mathbb{E}[N] come \sum_{n\geq 0} \mathbb{P}(N>n). Per comodità, useremo il simbolo P_n per indicare \mathbb{P}(N>n).

LEMMA. \displaystyle P_n = P_{n-1} - \frac{1}{2!} P_{n-2} + \frac{1}{3!} P_{n-3} - \dots + (-1)^{n+1}\frac{1}{n!}P_0.

DIMOSTRAZIONE.
\displaystyle P_n = \int_{\substack{x_i\in[0,1]\\ \sum x_i <1}} dx_1\dots dx_n.
Con il cambio di variabile s_k = \sum_{i=1}^k x_i, l'integrale diventa
\displaystyle = \int_0^1 ds_1 \int_{s_1}^1 ds_2 \cdots \int_{s_{n-1}}^1 ds_n = \int_0^1 ds_1 \int_{s_1}^1 ds_2 \cdots \int_{s_{n-2}}^1 (1-s_{n-1})ds_{n-1}.

Integriamo separatamente i due addendi in parentesi.
L'integrale della costante 1 è l'espressione iniziale con n-1 al posto di n, cioè P_{n-1}.
Invece
\displaystyle \int_0^1 ds_1 \int_{s_1}^1 ds_2 \cdots \int_{s_{n-2}}^1 (-s_{n-1}) ds_{n-1} = - \int_0^1 ds_1 \int_{s_1}^1 ds_2 \cdots \int_{s_{n-3}}^1 \frac{1-s_{n-2}^2}{2} ds_{n-2}.

A questo punto vi sarà chiaro che per induzione su k, 0 < k < n, si può dimostrare che vale:
\displaystyle P_n = \sum_{i=1}^{k} \frac{1}{i!} (-1)^{i+1} P_{n-i} + (-1)^{k} \int_0^1 ds_1 \int_{s_1}^1 ds_2 \cdots \int_{s_{n-k-1}}^1 \frac{s_{n-k}^k}{k!} ds_{n-k}.

Per k=n-1, ciò diventa
\displaystyle P_n = \sum_{i=1}^{n-1} \frac{1}{i!} (-1)^{i+1} P_{n-i} + (-1)^{n-1} \int_0^1 ds_1 \frac{s_{1}^{n-1}}{(n-1)!} ds_{1}.
dove l'integrale a secondo membro vale \displaystyle \frac{1}{n!}= \frac{1}{n!}P_0, da cui la tesi.

COROLLARIO. \displaystyle P_n = \frac{1}{n!}.

DIMOSTRAZIONE.
Per induzione su n: per n=0 è ovvio, dopodiché per induzione se è vero fino ad n-1 allora grazie al Lemma
\displaystyle P_n = - \sum_{i=1}^n \frac{(-1)^i}{i! \ (n-i)!} = \frac{1}{n!} - \frac{1}{n!}\sum_{i=0}^n \binom{n}{i} (-1)^i
dove la sommatoria è lo sviluppo di (1-1)^n e pertanto vale 0.

Conclusione.
Il valore atteso richiesto vale e:
\displaystyle \mathbb{E}[N] = \sum_{n\geq 0} \mathbb{P}(N>n) = \sum_{n\geq 0} \frac{1}{n!} = e.

Ciao a tutti!
matematto
 
Messaggi: 6
Iscritto il: sab 9 mag 2009, 9:49

Messaggioda ma_go il sab 9 mar 2013, 22:16

purtroppo non ho una soluzione più "da probabilista", però volevo farti notare che il lemma si può limare un po'.
c'è la via pigra di limarlo, dicendo che è noto che il volume dell'n-simplesso \Delta^n := \{\sum x_i \le 1, x_i \ge 0\}\subset \mathbb{R}^n è 1/n!.
ma ammetto che questo è un po' barare.
c'è la via leggermente meno contosa: chiamo \lambda^m la misura di lebesgue su \mathbb{R}^m; dati A\subset  \mathbb{R}^m e s reale positivo, chiamo sA = \{sa \mid a\in A\}; infine, chiamo V_m il volume di \Delta^m
V_n = \int_{\Delta^n} 1 d\lambda^n = \int\int_{(1-x_n)\Delta^{n-1}}1 d\lambda^{n-1}dx_n = \int (1-x_n)^{n-1}V_{n-1} dx_n = V_{n-1}/n,
dove ho usato il fatto che \int_{sA} 1 d\lambda^n = s^n\int_A 1 \lambda^n.
ma_go
 
Messaggi: 271
Iscritto il: gio 19 mag 2011, 13:24

Re: [tex]E[\min\{n : X_1+\ldots+ X_n>1\}][/tex] quando le [tex]X _n[/tex] sono [tex]U([0,1])[/tex]

Messaggioda Remedios Buendìa il gio 13 giu 2013, 11:25

Buongiorno a tutti, sono Remedios, neoiscritta al Forum. Scusate se mi sono intromessa in questa discussione senza avere nulla di pertinente da dire, ma sto cercando di aprire un argomento per fare una domanda di Statistica e non trovo nessuna indicazione in merito. L'unico modo che ho trovato per scrivere è stato rispondere a questo argomento. Per favore, qualcuno mi dica come fare per aprire un nuovo argomento di Statistica! Grazie!

Remedios
Remedios Buendìa
 
Messaggi: 1
Iscritto il: gio 13 giu 2013, 11:18

Re: [tex]E[\min\{n : X_1+\ldots+ X_n>1\}][/tex] quando le [tex]X _n[/tex] sono [tex]U([0,1])[/tex]

Messaggioda fry il gio 13 giu 2013, 11:44

Remedios Buendìa ha scritto:Buongiorno a tutti, sono Remedios, neoiscritta al Forum. Scusate se mi sono intromessa in questa discussione senza avere nulla di pertinente da dire, ma sto cercando di aprire un argomento per fare una domanda di Statistica e non trovo nessuna indicazione in merito.

http://www.scienzematematiche.it/forum/viewtopic.php?f=35&t=2922
"Hey. They laughed at Louis Armstrong when he said he was gonna go to the moon. Now he's up there, laughing at them."
Avatar utente
fry
 
Messaggi: 1122
Iscritto il: ven 20 giu 2008, 19:06


Torna a Calcolo delle Probabilità e Statistica

Chi c’è in linea

Visitano il forum: Nessuno e 1 ospite

cron