Se é uma função convexa, a desigualdade de Jensen indica que e mutatis mutandis quando é côncavo. Claramente, na pior das hipóteses, você não pode limitar em termos de para um convexo , mas existe um limite que segue nessa direção se é convexo, mas "não muito convexo"? Existe algum limite padrão que fornece condições para uma função convexa (e possivelmente também a distribuição, se necessário) que permita concluir que , ondef ( E [ x ] ) ≤ E [ f ( x ) ] f E [ f ( x ) ] f ( E [ x ] ) f f f E [ f ( x ) ] ≤ φ ( f ) f ( E [ x ] ) φ ( f )alguma função da curvatura / grau de convexidade de ? Algo semelhante a uma condição Lipschitz, talvez?
21
Respostas:
EDIT: versão original perdeu um valor absoluto. Desculpe!!
Oi Ian. Descreverei brevemente duas desigualdades de amostra, uma usando um limite de Lipschitz, a outra usando um limite na segunda derivada e discutirei algumas dificuldades nesse problema. Embora eu esteja sendo redundante, uma vez que uma abordagem usando um derivado explica o que acontece com mais derivados (via Taylor), verifica-se que a segunda versão do derivado é bastante agradável.
Primeiro, com um limite de Lipschitz: simplesmente refaça a desigualdade padrão de Jensen. O mesmo truque se aplica: calcule a expansão de Taylor no valor esperado.
Especificamente, Seja medida correspondente e defina . Se tem Lipschitz constante , então pelo teorema de Taylorμ m : = E ( x ) f LX μ m:=E(x) f L
em que (Note-se que e são possíveis). Usando isso e refazendo a prova de Jensen (eu sou paranóico e verifiquei se a norma está realmente na wikipedia),x ≤ m x > mz∈[m,x] x≤m x>m
Agora, suponha . Nesse caso,|f′′(x)|≤λ
e entao
Eu gostaria de mencionar brevemente algumas coisas. Desculpe se eles são óbvios.
Uma é que você não pode simplesmente dizer "wlog " alterando a distribuição, porque você está alterando o relacionamento entre e .f μE(X)=0 f μ
Em seguida, o limite deve depender da distribuição de alguma maneira. Para ver isso, imaginar que e . Qualquer que seja o valor de , você ainda recebe . Por outro lado, . Assim, alterando , você pode tornar arbitrariamente a diferença entre as duas quantidades! Intuitivamente, mais massa é afastada da média e, portanto, para qualquer função estritamente convexa, aumentará.f (X∼Gaussian(0,σ2) σ f ( E ( X ) ) = f ( 0 ) = 0 E ( f ( X ) ) = E ( X 2 ) = σ 2 σ E ( f ( X ) )f(x)=x2 σ f(E(X))=f(0)=0 E(f(X))=E(X2)=σ2 σ E(f(X))
Por fim, não vejo como obter um limite multiplicativo como você sugere. Tudo o que usei neste post é padrão: o teorema de Taylor e os limites de derivativos são pão e manteiga nos limites das estatísticas e automaticamente dão erros aditivos, e não multiplicativos.
Vou pensar sobre isso, e postar alguma coisa. A intuição vaga é que ela precisará de condições muito árduas, tanto na função quanto na distribuição, e que o limite aditivo esteja realmente no centro dela.
fonte
Para insight, considere uma distribuição concentrada em dois valores; digamos, com probabilidades iguais de 1/2 que sejam iguais a 1 ou 3, de onde . Tome e . Considere funções para os quais e . Fazendo suficientemente pequeno e conectando continuamente entre esses três pontos, podemos tornar a curvatura de tão pequena quanto desejado. EntãoE[x]=2 N>>0 ϵ>0 f f(1)=f(3)=Nϵ f(E[x])=f(2)=ϵ ϵ f f
Isso mostra que deve ser arbitrariamente grande.φ(f)
fonte