Pagina 1 di 1

Serie di reciproci casuali

MessaggioInviato: mer 14 mag 2014, 12:11
da Heine_Cantor
sia \mathbb{N}_0 l'insieme degli interi positivi ed estraiamo un numero casuale da questo dove l'intero n ha probabilità \frac{1}{n}-\frac{1}{n+1}. Chiamiamo questo numero a_1. Ora per ogni intero k>1 consideriamo l'insieme degli interi maggiori di a_{k-1} e da questi estriamo casualmente un ulteriore numero dove a_{k-1}+t ha probabilità \frac{1}{t}-\frac{1}{t+1}, e sia a_k il numero estratto. Qual è la probabilità che la serie \sum_{k=1}^{+\infty}\frac{1}{a_k} sia convergente? E qual è il valore medio della somma di queste serie?

Re: Serie di reciproci casuali

MessaggioInviato: ven 8 mag 2015, 13:51
da dario2994
Rispondo solo alla seconda domanda, visto che non so rispondere alla prima (ma se dovessi scommettere direi che la probabilità di divergere è $0$).

Parlando di funzioni generatrici, i conti hanno senso sia dal punto di vista algebrico sia dal punto di vista analitico per valori di modulo minore di $1$.

Le variabili $(a_i)$ sono ovviamente non indipendenti, mentre invece $X_i = a_i-a_{i-1}$ sono indipendenti ed equidistribuite. In particolare sia $\varphi(t)=E[t^{X}]$ dove $X$ è una variabile distribuita come $X_i$.

Calcolo il valore atteso della somma dei reciproci:
$\displaystyle E\left[\sum_{i=1}^\infty \frac 1{a_i}\right] = \sum_{i=1}^\infty E\left[\frac 1{X_1+\cdots+X_i}\right] =
\sum_{i=1}^\infty\sum_{n=1}^\infty \frac1n P(X_1+\cdots+X_i=n)=\sum_{n=1}^\infty \frac 1n\sum_{i=1}^\infty P(X_1+\cdots+X_i=n)$.
Ricordando ora che la funzione generatrice della distribuzione di una somma di variabili aleatorie indipendenti è il prodotto delle funzioni generatrici, otteniamo
$\displaystyle =\sum_{n=1}^\infty \frac 1n\sum_{i=1}^\infty \left[t^n\right]\varphi(t)^i = \sum_{n=1}^\infty \frac 1n [t^n] \frac{\varphi(t)}{1-\varphi(t)}$.
A questo punto, chiamando $\psi$ la serie formale tale che $t\cdot\psi'(t)=\frac{\varphi(t)}{1-\varphi(t)}$ e $\psi(0)=0$, è facile verificare che $\frac 1n [t^n] \frac{\varphi(t)}{1-\varphi(t)}=\left[t^n\right]\psi$ e che perciò la catena di uguaglianze si continua con
$\displaystyle =\sum_{n=1}^\infty \left[t^n\right]\psi(t)$
e ricordando che i conti hanno senso anche analiticamente arriviamo a
$\displaystyle = \lim_{t\to 1^-} \psi(t) = \lim_{t\to 1^-} \int_0^t \frac{\varphi(x)}{x(1-\varphi(x))}dx = \int_0^1 \frac{\varphi(t)}{t(1-\varphi(t))}dt$.

Riassumendo abbiamo $\displaystyle E\left[\sum_{i=1}^\infty \frac 1{a_i}\right] = \int_0^1 \frac{\varphi(t)}{t(1-\varphi(t))}dt$. Per la particolare distribuzione di $X$, la funzione $\varphi$ risulta essere $1+\log(1-t)\frac{1-t}t$.
Ma è facile constatare che allora l'integrale diverge in $1$ e perciò il valore atteso è infinito. L'esercizio mi è piaciuto e mi è dispiaciuto proprio che non sia venuto un numero finito!

Re: Serie di reciproci casuali

MessaggioInviato: mer 15 lug 2015, 20:42
da Heine_Cantor
dario2994 ha scritto:Rispondo solo alla seconda domanda, visto che non so rispondere alla prima (ma se dovessi scommettere direi che la probabilità di divergere è $0$).


Ma se la risposta alla seconda domanda è infinito, non vuol dire che la probabilità di divergere è maggiore o uguale a 1/2?

Re: Serie di reciproci casuali

MessaggioInviato: lun 20 lug 2015, 21:12
da dario2994
Non mi sembra scontato. Una variabile aleatoria può assumere valori finiti quasi ovunque, ma avere valore atteso infinito.
In particolare la Legge 01 di Kolmogorov (che più o meno facilmente si applica nel nostro caso) ci assicura che la probabilità che andiamo cercando o fa $0$ o fa $1$ e se mostriamo che la probabilità è $\ge \frac12$ il problema è finito.
Quindi se riesci a mostrare che è $\ge \frac 12$ spiega come fai che sono curioso!

Re: Serie di reciproci casuali

MessaggioInviato: sab 24 ott 2015, 17:35
da joe
Up! Da dove viene questo problema? Tu conosci la risposta?

Re: Serie di reciproci casuali

MessaggioInviato: mar 29 mar 2016, 14:13
da Heine_Cantor
Da nessuna parte. Mi era semplicemente venuto in mente un modo per usare la serie di Mengoli come distribuzione di probabilità.

Re: Serie di reciproci casuali

MessaggioInviato: mer 30 mar 2016, 1:16
da dario2994
Ebbene, piccola storia e poi la soluzione.

Questo problema mi ha piacevolmente perseguitato per quasi un anno. Ci pensavo ogni tanto, diciamo che una volta ogni tre mesi mi riprendeva e ci stavo qualche minuto, qualche ora o qualche giorno. Tutto questo mi aveva dato molta conoscenza del problema e poche idee. Avevo anche cercato su internet un teorema che facesse al caso mio ma, non sapendo cosa cercare, era stato vano.
Due sere fa non riesco a dormire, mi alzo e mi viene in mente questo problema. Ci sto due minuti e, senza sapere che è quello giusto, trovo un modo di azzannarlo. Porto avanti l'idea e in effetti porta a concludere. Sono le 5 del mattino e contento vado a dormire. Ovviamente, come tutti i conti che si possono fare a quell'ora, la mattina scopro che un punto chiave è clamorosamente cannato ed è pure falso (il fatto era che $\frac{X_1+\cdots + X_n}{n\log n}\to 1$ quasi certamente). Però rimane vero un fatto interessante (cioè che tale convergenza vale in probabilità) e questo fatto sembra essere di interesse generale e quindi ne ricavo un enunciato generale. Quest'enunciato è fondamentalmente una generalizzazione della legge debole dei grandi numeri al caso in cui non esista il momento primo. Pondero che sia una cosa pubblicabile (pur non avendo io veramente il polso di cosa sia pubblicabile e cosa no). Cerco un po' su internet e non trovo. Cerco un altro po' e trovo. E sono un po' triste e un po' contento: è già stato pubblicato ma almeno era pubblicabile.
Ringrazio Heine_Cantor per aver proposto un problema così interessante.


Il problema è un capolavoro perché, pur avendo un enunciato naturalissimo, è esattamente il caso limite e questo lo rende difficile.
Ebbene mostro che tale serie diverge quasi certamente. Uso la stessa notazione che ho usato in un precedente post per calcolare il valore atteso della serie.

Il risultato chiave, facile applicazione del Teorema 1.3 di questo articolo (l'enunciato, è brutto, ma utilissimo!) è che
$$ \frac{X_1+\cdots+X_n}{n\log n}\to 1$$
dove la convergenza è intesa in probabilità e il logaritmo è quello naturale. Giustifico velocemente come mai spunta fuori il logaritmo: il motivo è che $\mathbb{E}[X_n\cdot 1_{X_n\le n}]=\log n+O(1)$. Ritengo che sia in realtà questa la parte interessante e difficile del problema, da qui in poi è tutto in discesa.

A questo punto allora vorremmo che $\sum \frac{1}{n\log n}\cdot \frac{n\log n}{X_1+\cdots+X_n}$ diverga quasi certamente e questo è implicato dal seguente lemma:

Lemma Pasqualo: Sia $(a_n)_{n\in\mathbb N}$ una successione positiva con serie $\sum a_n$ divergente. Sia $(Y_n)_{n\in\mathbb N}$ una successione di variabili aleatorie positive (senza ipotesi di indipendenza) convergenti in probabilità a $1$.
Allora la serie $\sum a_nY_n$ diverge quasi certamente.

Dimostrazione: Assumiamo per assurdo che la tesi sia falsa, allora esiste un $S>0$ sufficientemente grande tale che l'insieme $B = \{\sum a_nY_n < S\}$ non è trascurabile.
Sappiamo però, per definizione di convergenza in probabilità e ricordando che le $Y_n$ sono positive, che $\liminf \mathbb E[Y_n\cdot 1_B] \ge P(B)$. Questo implica che, per $n\ge N$, $\mathbb E[Y_n\cdot 1_B]\ge \epsilon$ per un qualche $\epsilon>0$ fissato (ad esempio $\frac{P(B)}2$).
Troviamo infine l'assurdo integrando la serie su $B$:
$$S\cdot P(B)\ge \mathbb E\left[\left(\sum_{n\in\mathbb N} a_n Y_n\right)\cdot 1_B\right] \ge \sum_{n\in\mathbb N} a_n \mathbb E\left[Y_n\cdot 1_B\right]
\ge \sum_{n\ge n_0} a_n \mathbb E\left[Y_n\cdot 1_B\right] \ge \epsilon \sum_{n\ge n_0} a_n = \infty \ .
$$

p.s. Anche questo messaggio è stato scritto ad un orario poco consono e quindi si può riapplicare il già citato lemma del "più è tardi e più ci sono errori".

Re: Serie di reciproci casuali

MessaggioInviato: mer 30 mar 2016, 11:07
da Heine_Cantor
dario2994 ha scritto:

Ringrazio Heine_Cantor per aver proposto un problema così interessante.




Di nulla.
(PS. ma quindi hai perso la scommessa?)