Amostragem em Hipercubo Latino Assintóticos

11

Estou tentando construir uma prova para um problema em que estou trabalhando e uma das suposições que estou fazendo é que o conjunto de pontos dos quais estou amostrando é denso em todo o espaço. Na prática, estou usando a amostragem de hipercubo latino para obter meus pontos em todo o espaço amostral. O que eu gostaria de saber é se as amostras de hipercubo latino são densas em todo o espaço, se você deixar o tamanho da amostra tender a ? Nesse caso, uma citação para esse fato seria muito apreciada.

kjetil b halvorsen
fonte
4
Sim, assumindo uma distribuição contínua, porque para qualquer você pode definir o número de divisões para que todos os intervalos por variável tenham largura . Assim, pelo menos um hiperintervalo (ou seja, volume de amostra) é estritamente contido por um hipercubo de largura torno de qualquer ponto que você escolher. (Comentário, não resposta, como tudo o que sei sobre LHS vem da Wikipedia a partir de dez minutos atrás ...)ϵ>0<ϵ/2ϵ
Creosote
Isso é verdade, mas não acho que possa ser facilmente usado para mostrar a densidade de grandes amostras do Latin Hypercube. A razão para isso é que os pontos amostrados no LHS não são independentes: a existência de um ponto de amostra dentro de um hiperintervalo específico impede que outros pontos de amostra apareçam na mesma linha / coluna (ou seja qual for o termo multidimensional para isso) .
S. Catterall Restabelece Monica
@Creosote, você acha que poderia formalizar mais sua resposta?
@RustyStatistician, expanda seu post de abertura para explicar, de maneira formal, conforme exigido por sua prova, o que você quer dizer com "o conjunto de pontos dos quais estou amostrando é denso em todo o espaço". Obrigado.
22415 Creosote
Se eu pegar uma amostra inicial do Latin Hypercube, em que é tão grande, consideramos inifinty, essa amostra é densa? n

Respostas:

6

Resposta curta: Sim, de maneira probabilística. É possível mostrar que, dada qualquer distância , qualquer subconjunto finito do espaço da amostra e qualquer 'tolerância' prescrita , para tamanhos de amostra adequadamente grandes, podemos ser certifique-se de que a probabilidade de que haja um ponto de amostra a uma distância de seja para todos os .{ x 1 , , x m } δ > 0 ϵ x i > 1 - δ i = 1 , , mϵ>0{x1,,xm}δ>0ϵxi>1δi=1,,m

Resposta longa: Não conheço nenhuma citação diretamente relevante (mas veja abaixo). A maior parte da literatura sobre a amostragem de hipercubo latino (LHS) está relacionada às suas propriedades de redução de variância. A outra questão é: o que significa dizer que o tamanho da amostra tende a ? Para amostragem aleatória simples de IID, uma amostra do tamanho pode ser obtida de uma amostra do tamanho anexando uma amostra independente adicional. Para o LHS, acho que você não pode fazer isso, pois o número de amostras é especificado antecipadamente como parte do procedimento. Assim, parece que você tem que tomar uma série de independentes amostras LHS de tamanho .n N - 1 1 , 2 , 3 , . . .nn11,2,3,...

Também precisa haver alguma maneira de interpretar 'denso' no limite, pois o tamanho da amostra tende a . A densidade não parece ser determinante para o LHS, por exemplo, em duas dimensões, você pode escolher uma sequência de amostras de tamanho do LHS modo que todas fiquem na diagonal de . Portanto, algum tipo de definição probabilística parece necessária. Seja, para todo , uma amostra do tamanho gerado de acordo com algum mecanismo estocástico. Assume-se que, para diferentes , estas amostras são independentes. Então, para definir a densidade assintótica, podemos exigir que, para cada , e para cada1,2,3,...[0,1)2nXn=(Xn1,Xn2,...,Xnn)nnϵ>0x no espaço de amostra (assumido como ), temos ( como ).[0,1)dP(min1knXnkxϵ)0n

Se a amostra for obtida colhendo amostras independentes da distribuição ('amostragem aleatória IID'), então que é o volume da esfera dimensional do raio . Portanto, certamente, a amostragem aleatória do DII é assintoticamente densa.XnnU([0,1)d)

P(min1knXnkxϵ)=k=1nP(Xnkxϵ)(1vϵ2d)n0
vϵdϵ

Agora considere o caso em que as amostras são obtidas pelo LHS. O teorema 10.1 nestas notas afirma que os membros da amostra estão todos distribuídos como . No entanto, as permutações usadas na definição de LHS (embora independentes para diferentes dimensões) induzem alguma dependência entre os membros da amostra ( ), portanto é menos óbvio que a propriedade de densidade assintótica se mantém.XnXnU([0,1)d)Xnk,kn

Corrija e . Defina . Queremos mostrar que . Para fazer isso, podemos usar a Proposição 10.3 nessas notas , que é uma espécie de Teorema do Limite Central para Amostragem de Hipercubo Latino. Defina por se estiver na esfera do raio torno de , caso contrário. A proposição 10.3 nos diz que que eϵ>0x[0,1)dPn=P(min1knXnkxϵ)Pn0f:[0,1]dRf(z)=1zϵxf(z)=0Yn:=n(μ^LHSμ)dN(0,Σ)μ=[0,1]df(z)dzμ^LHS=1ni=1nf(Xni) .

Tome . Eventualmente, para grande o suficiente , teremos . Então, eventualmente, teremos . Portanto, , em que é o cdf normal padrão. Como era arbitrário, segue-se que conforme necessário.L>0nnμ<LPn=P(Yn=nμ)P(Yn<L)lim supPnlim supP(Yn<L)=Φ(LΣ)ΦLPn0

Isso prova a densidade assintótica (conforme definido acima) para a amostragem aleatória iid e o LHS. Informalmente, isso significa que, dado qualquer e no espaço de amostragem, a probabilidade de a amostra chegar a de pode ser tão próxima de 1 quanto você desejar, escolhendo o tamanho da amostra suficientemente grande. É fácil estender o conceito de densidade assintótica para aplicar a subconjuntos finitos do espaço amostral - aplicando o que já sabemos a cada ponto do subconjunto finito. Mais formalmente, isso significa que podemos mostrar: para qualquer e qualquer subconjunto finito do espaço da amostra,ϵxϵxϵ>0{x1,...,xm}min1jmP(min1knXnkxj<ϵ)1 (como ).n

S. Catterall Restabelece Monica
fonte
Eu tenho duas perguntas: 1) Se você tem apenas uma amostra do tamanho onde é grande, isso muda o argumento? E 2) as amostras de hipercubos latinos podem estar em qualquer faixa de valores (não necessariamente apenas (0,1)). Isso também muda a resposta? nn
Além disso, você gostaria de explicar por que, para grandes o suficiente , teremos ? Eu suponho que isso significa que, para grandes , vai para zero, porque na distribuição é um ? nnμnμ^LHSN(0,Σ)
@RustyStatistician Tudo é definido em termos de amostras finitas, isto é, mas grande. Adicionei algumas explicações adicionais no final para explicar o que está acontecendo. Outras faixas de valores podem ser facilmente acomodadas ((0,1) não é especial), desde que o volume do espaço da amostra seja finito. n<
S. Catterall Restabelece Monica
Você pode elaborar sua resposta curta?
@RustyStatistician A resposta curta é um resumo informal da minha resposta longa que, acho que você concorda, já é bastante elaborada! Portanto, como sugerido acima, seria bom se você pudesse reescrever sua pergunta em termos mais formais, para que eu saiba se minha tentativa de resposta está no caminho certo (em termos de resposta à pergunta pretendida) ou não.
S. Catterall Restabelece Monica
3

Não tenho certeza se é isso que você quer, mas aqui vai.

Você está amostrando LHS pontos de , digamos. Argumentaremos de maneira muito informal que, para qualquer , o número esperado de (hiper) cuboides de tamanho em cada dimensão chega a zero como .n[0,1)dϵ>0ϵn

Seja modo que, se dividirmos uniformemente em cubos minúsculos - microcubóides , digamos - de largura então cada largura - cubóide contém pelo menos um microcubóide. Portanto, se pudermos mostrar que o número esperado de microcubóides não amostrados é zero, no limite de , então terminamos. (Observe que nossos microcubóides são organizados em uma grade regular, mas os -cuboids podem estar em qualquer posição.)m=2/ϵ[0,1)dmd1/mϵnϵ

A chance de perder completamente um determinado microcubóide com o primeiro ponto de amostra é , independente de , pois o primeiro conjunto de coordenadas de amostra (primeiro ponto de amostra) pode ser escolhido livremente. Dado que todos os primeiros pontos de amostra perderam esse microcubóide, os pontos de amostra subsequentes terão mais dificuldade em errar (em média); portanto, a chance de todos os pontos em falta é menor que .1mdndn(1md)n

Existem microcubóides em , portanto o número esperado que está faltando é delimitado acima por - porque as expectativas adicionam - o que é zero no limite como .md[0,1)dmd(1md)nn


Atualizações ...

(1) Aqui está uma figura mostrando como, por dado , você pode escolher grande o suficiente para que uma grade de "microcuboids" (quadrados nesta ilustração bidimensional) garanta a presença de pelo menos um microcubóide qualquer região de tamanho . Eu mostrei duas regiões "aleatoriamente" - escolhidas e pintei de roxo os dois microcubóides que eles contêm.ϵmm×m ϵ×ϵϵ×ϵ

insira a descrição da imagem aqui

(2) Considere qualquer microcubóide em particular. Possui volume , uma fração de todo o espaço. Portanto, a primeira amostra do LHS - que é a única escolhida completamente livremente - perderá a amostra com probabilidade . O único fato importante é que esse é um valor fixo (deixaremos , mas manteremos constante) menor que .(1/m)dmd1mdnm1

(3) Agora pense no número de pontos de amostra . Eu ilustrei na imagem. O LHS funciona em uma malha fina desses minúsculos "nanocuboids" (se você preferir), e não nos maiores "microcuboids", mas isso não é importante na prova. A prova precisa apenas da afirmação levemente ondulada de que fica gradualmente mais difícil, em média, continuar perdendo um determinado microcubóide à medida que você perde mais pontos. Portanto, havia uma probabilidade de para o primeiro ponto do LHS ausente, mas menor que para todos os deles faltando: isso é zero no limite comon>mn=6mn1×n1m1×m11md(1md)n nn .

(4) Todos esses epsilons são bons para uma prova, mas não são ótimos para sua intuição. Assim, são aqui um par de imagens que ilustra a e amostras pontos, com a maior área vazia rectangular em destaque. (A grade é a grade de amostragem do LHS - os "nanocubóides" mencionados anteriormente.) Deveria ser "óbvio" (em algum sentido intuitivo) que a maior área vazia encolherá para um tamanho arbitrariamente pequeno conforme o número de pontos de amostra .n=10n=50n

insira a descrição da imagem aqui

Creosote
fonte
Esse argumento vale para qualquer intervalo geral? Em vez de ? [0,1)
Sim, para quaisquer dimensões finitas. Deveria ficar mais claro agora que consertei a prova.
Creosote
é possível fornecer uma imagem 1-ou 2-d dessa prova? Estou muito perdido nisso.
Feito. É um prazer responder a outras perguntas, se necessário.
Creosote
Awesome thanks! Isso definitivamente ajuda agora com a intuição.