Eu realmente nunca percebi a diferença entre essas duas medidas de convergência. (Ou, de fato, qualquer um dos diferentes tipos de convergência, mas menciono esses dois em particular por causa das Leis Fracas e Fortes de Grandes Números.)
Claro, posso citar a definição de cada um e dar um exemplo em que eles diferem, mas ainda não entendi direito.
Qual é uma boa maneira de entender a diferença? Por que a diferença é importante? Existe um exemplo particularmente memorável em que eles diferem?
probability
random-variable
raegtin
fonte
fonte
Respostas:
Do meu ponto de vista, a diferença é importante, mas em grande parte por razões filosóficas. Suponha que você tenha algum dispositivo que melhore com o tempo. Portanto, toda vez que você usa o dispositivo, a probabilidade de falha é menor do que antes.
A convergência em probabilidade diz que a chance de falha chega a zero à medida que o número de usos chega ao infinito. Portanto, depois de usar o dispositivo várias vezes, você pode ter certeza de que ele está funcionando corretamente, ainda pode falhar, é muito improvável.
A convergência quase certamente é um pouco mais forte. Diz que o número total de falhas é finito . Ou seja, se você contar o número de falhas à medida que o número de usos for infinito, obterá um número finito. O impacto disso é o seguinte: Conforme você usa o dispositivo cada vez mais, após um número finito de usos, você esgotará todas as falhas. A partir de então, o dispositivo funcionará perfeitamente .
Como Srikant aponta, você realmente não sabe quando esgotou todas as falhas; portanto, de um ponto de vista puramente prático, não há muita diferença entre os dois modos de convergência.
No entanto, pessoalmente, estou muito feliz que, por exemplo, exista a lei forte de grandes números, em oposição à lei fraca. Porque agora, um experimento científico para obter, digamos, a velocidade da luz, se justifica em tomar médias. Pelo menos em teoria, depois de obter dados suficientes, você pode se aproximar arbitrariamente da verdadeira velocidade da luz. Não haverá falhas (ainda que improváveis) no processo de média.
fonte
Sei que essa pergunta já foi respondida (e muito bem, na minha opinião), mas havia uma pergunta diferente aqui que tinha um comentário @NRH que mencionava a explicação gráfica e, em vez de colocar as fotos lá , seria mais adequado coloque-os aqui.
Então, aqui vai. Não é tão legal quanto um pacote R. Mas é independente e não requer uma assinatura do JSTOR.
O SLLN (convergência quase certamente) diz que podemos ter 100% de certeza de que essa curva que se estende para a direita acabará, em algum momento finito, inteiramente dentro das bandas para sempre (à direita).
O código R usado para gerar esse gráfico está abaixo (rótulos de plotagem omitidos por questões de brevidade).
O código R para o gráfico a seguir (novamente, pulando rótulos).
fonte
Eu entendo da seguinte forma,
Convergência em probabilidade
A probabilidade de que a sequência de variáveis aleatórias seja igual ao valor alvo diminui assintoticamente e se aproxima de 0, mas na verdade nunca atinge 0.
Convergência quase certa
A sequência de variáveis aleatórias será igual ao valor alvo assintoticamente, mas você não pode prever em que ponto isso acontecerá.
O wiki tem alguns exemplos de ambos os quais devem ajudar a esclarecer o que foi dito acima (em particular, veja o exemplo do arqueiro no contexto de convergência em prob e o exemplo da caridade no contexto de convergência quase certa).
Do ponto de vista prático, basta convergência em probabilidade, pois não nos preocupamos particularmente com eventos muito improváveis. Como exemplo, a consistência de um estimador é essencialmente convergência em probabilidade. Assim, ao usar uma estimativa consistente, reconhecemos implicitamente o fato de que em amostras grandes há uma probabilidade muito pequena de que nossa estimativa esteja longe do valor real. Vivemos com esse "defeito" de convergência em probabilidade, pois sabemos que assintoticamente a probabilidade de o estimador estar longe da verdade é muito pequena.
fonte
Se você gosta de explicações visuais, havia um bom artigo sobre o assunto no American Statistician (citação abaixo). Como bônus, os autores incluíram um pacote R para facilitar o aprendizado.
fonte
Esse último cara explica muito bem. Se você tomar uma sequência de variáveis aleatórias Xn = 1 com probabilidade 1 / n e zero, caso contrário. É fácil ver limites que convergem para zero em probabilidade, mas falham em convergir quase com certeza. Como ele disse, a probabilidade não se importa que possamos encontrar alguém no caminho. Quase certamente faz.
Quase certamente implica convergência em probabilidade, mas não o contrário.
fonte
Uma coisa que me ajudou a entender a diferença é a seguinte equivalência
∀ ε > 0P(limn→∞|Xn−X|=0)=1⇐⇒limn→∞(supm>=n|Xm−X|>ϵ)=0 ∀ϵ>0
Em comparação, a convergência estocástica:
∀ ε > 0limn→∞P(|Xn−X|>ϵ)=0 ∀ϵ>0
Ao comparar o lado direito da equivalência superior com a convergência estocástica, acho que a diferença fica mais clara.
fonte