Suponha que tenhamos uma variável aleatória que aceite valores não numéricos a, b, ce queira quantificar como a distribuição empírica de amostras dessa variável se desvia da distribuição verdadeira. A seguinte desigualdade (da Cover & Thomas ) se aplica neste caso.
Teorema 12.4.1 (Teorema de Sanov): Seja iid ∼ Q ( x ) . Seja E ⊆ P um conjunto de distribuições de probabilidade. Então Q n ( E ) = Q n ( E ∩ P n ) ≤ ( n + 1 ) | X | 2 - n D ( P ∗ |
ondeP∗=arg min P ∈ E D(P||Q), é a distribuição emEmais próxima deQna entropia relativa.
Essa desigualdade é bastante frouxa para pequenos . Para resultados binários, | X | = 2 , e o limite de Chernoff-Hoeffding é muito mais restrito.
Existe um limite igualmente rígido para ?
pr.probability
chernoff-bound
Yaroslav Bulatov
fonte
fonte
Respostas:
You can get fairly good bounds by considering the random variableYeu j which is 1 if XEu= j and zero otherwise (for 1 ≤ i ≤ n ranging over trials and 1 ≤ j ≤ 3 ranging over categories). For any fixed j the Yeu j are independent and therefore ∑EuYeu j can be analyzed using Chernoff bounds. Then do a union bound over j .
If the above isn't enough I suggest that you look at the balls and bins model e.g. in Upfal and Mitzenmacher's textbook. That model is the same as yours except that some of your bins may be more likely than others to have balls land in them, right? There are some more sophisticated techniques involving Poisson approximations in that model that would likely be extendable to your setting with non-uniform bin probabilities.
fonte
There is nothing about Chernoff Hoeffding bounds that is specific to boolean variables. IfX1 1, … , Xn are i.i.d. real valued random variables with 0 ≤ XEu≤ 1 you can apply a Chernoff bound. A good reference is "Concentration of Measure for the Analysis of Randomized Algorithms" (http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.120.2561&rep=rep1&type=pdf)
fonte