Por que a distribuição de Poisson é escolhida para modelar os processos de chegada nos problemas da teoria das filas?
15
Quando consideramos os cenários da teoria de enfileiramento em que os indivíduos chegam a um nó de serviço e fazem fila, geralmente um processo de Poisson é usado para modelar os horários de chegada. Esses cenários surgem em problemas de roteamento de rede. Eu apreciaria uma explicação intuitiva sobre por que um processo de Poisson é mais adequado para modelar as chegadas.
O processo de Poisson envolve um tempo de espera "sem memória" até a chegada do próximo cliente. Suponha que o tempo médio de um cliente para o próximo seja . Uma distribuição de probabilidade contínua sem memória até a próxima chegada é aquela em que a probabilidade de esperar mais um minuto, segundo ou hora, etc., até a próxima chegada, não depende de quanto tempo você está esperando desde a última . O fato de você já ter esperado cinco minutos desde a última chegada não torna mais provável que um cliente chegue no próximo minuto do que seria se você esperasse apenas 10 segundos desde a última chegada.θ
Isso implica automaticamente que o tempo de espera até a próxima chegada satisfaz , ou seja, é uma distribuição exponencial.Pr ( T > t ) = e - t / θTPr ( T> t ) = e- t / θ
E isso, por sua vez, pode mostrar que o número X de clientes que chegam durante qualquer intervalo de tempo t satisfaz Pr ( X= x ) = e- t / θ( t / θ )xx ! , ou seja, possui uma distribuição Poisson com o valor esperado t / θ . Além disso, implica que o número de clientes que chegam em intervalos de tempo sem sobreposição é probabilisticamente independente.
Portanto, a falta de memória dos tempos de espera leva ao processo de Poisson.
O que quer que os teoremas digam, é um fato experimental que - em situações normais - as chegadas não têm memória. Você não pode provar que o número de clientes que chegam em algum período nada seja realmente.
A intenção da pergunta não era pedir uma prova formal. Muitas vezes, são feitas observações que levam a um teorema e, em seguida, a intuição é 'desenvolvida' para se ajustar às observações e, assim, ajudar a cimentar o teorema na compreensão popular. Eu estava procurando por algo semelhante. Editou minha pergunta para incluir a mesma.
precisa
obrigado pela resposta. Não segui exatamente como a memória menos chegadas leva a . Você poderia elaborar ou citar uma referência que fale sobre isso em detalhes. Obrigado. Pr ( T> t ) = e- t / θ
precisa
4
A falta de memória indica . É o mesmo que . O evento é o mesmo que o evento . Portanto, a probabilidade condicional é . A falta de memória diz que isso é o mesmo que . Portanto, temos . Uma função monótona que satisfaz é uma função exponencial. E a monotocidade decorre do fato de que deve ser menor que porque o evento anterior implica,Pr ( T > t + s e T > t ) = Pr ( T > s ) [ T > t + s e T > t ] T > t + s Pr ( T > t +Pr ( T> t + s ∣ T> t ) = Pr ( T> s )Pr ( T> T + s e T> t ) = Pr ( T> s )[ T> T + s e T> t ]T> t + sPr ( T > s ) Pr ( T > t + s ) = Pr ( T > t ) Pr ( T > s ) g g ( t + s ) = g ( t ) g ( s ) Pr ( T > t + s )Pr ( T>t+s)/Pr(T>t)Pr(T>s)Pr(T>t+s)=Pr(T>t)Pr(T>s)gg(t+s)=g(t)g(s)Pr(T>t+s)Pr(T>t)
Michael Hardy
Não deveria ser ? Pr(T>t)=1/θ∗e−t/θ
vonjd
4
Praticamente qualquer introdução à teoria das filas ou ao livro de processos estocásticos abordará isso, por exemplo, Ross, Stochastic Processes ou Kleinrock, Queuing Theory.
Para um esboço de uma prova de que as chegadas sem memória levam a uma distância exponencial:
Seja G (x) = P (X> x) = 1 - F (x). Agora, se a distribuição estiver sem memória,
G (s + t) = G (s) G (t)
isto é, a probabilidade de que x> s + t = a probabilidade de ser maior que s e que, agora que é maior que s, é maior que (s + t). A propriedade sem memória significa que a segunda probabilidade (condicional) é igual à probabilidade de um rv diferente com a mesma distribuição> t.
Para citar Ross:
"As únicas soluções da equação acima que satisfazem qualquer tipo de condições razoáveis (como monotonicidade, continuidade direita ou esquerda ou até mensurabilidade) são da forma:"
O PROJETO DE PROCESSOS ESTOCÁSTICOS DE Robert Gallager: TEORIA PARA APLICATIVOS ( rle.mit.edu/rgallager/notes.htm ) é uma boa alternativa gratuita para uma introdução aos processos estocásticos, incluindo uma discussão sobre o processo de Poisson
Martin Van der Linden
JANGADA de Robert Gallager DE Processos Estocásticos: TEORIA PARA APLICAÇÕES
Praticamente qualquer introdução à teoria das filas ou ao livro de processos estocásticos abordará isso, por exemplo, Ross, Stochastic Processes ou Kleinrock, Queuing Theory.
Para um esboço de uma prova de que as chegadas sem memória levam a uma distância exponencial:
Seja G (x) = P (X> x) = 1 - F (x). Agora, se a distribuição estiver sem memória,
G (s + t) = G (s) G (t)
isto é, a probabilidade de que x> s + t = a probabilidade de ser maior que s e que, agora que é maior que s, é maior que (s + t). A propriedade sem memória significa que a segunda probabilidade (condicional) é igual à probabilidade de um rv diferente com a mesma distribuição> t.
Para citar Ross:
"As únicas soluções da equação acima que satisfazem qualquer tipo de condições razoáveis (como monotonicidade, continuidade direita ou esquerda ou até mensurabilidade) são da forma:"
G (x) = exp (-ax) para algum valor adequado de a.
e estamos na distribuição exponencial.
fonte