Competindo contra uma maioria ponderada ideal no algoritmo de especialistas

8

No problema dos especialistas, especialistas fornecem previsões binárias diariamente e você precisa prever se choverá amanhã.n

Ou seja, no dia , você conhece as previsões passadas dos especialistas, o tempo real para os dias 1 , 2 , te as previsões para amanhã, e precisa prever se choverá no dia seguinte.t1,2,t

No algoritmo clássico de Maioria Ponderada , o algoritmo comete erros de , onde m é o número de erros do melhor especialista.O(logn+m)m

Para mim, isso parece uma promessa extremamente fraca, pois não permite nenhum benefício da combinação de previsões de vários especialistas.

Assume-se que cada resultado é , a previsão de especialistas i no dia t é p i , t , e o resultado de dias t é o t . Podemos definir uma maioria ponderada óptimo '' adversário `` como uma função do peso ideal w ô ( [ n ] ) , de tal modo que a decisão tomada pelo adversário no dia t é definido como s i g n ( w p t ){±1}itpi,ttotwΔ([n])tsign(wpt), ou seja, a maioria ponderada das previsões, com relação ao vetor . Usando essa notação, o adversário anterior (melhor especialista) só podia escolher vetores unitários.w

1,2,T

E=12minwΔ([n])t=1T|sign(wpt)ot|

Como você minimizaria o arrependimento, comparado a ?E


Para ver que esse é um adversário muito mais poderoso, considere o caso de especialistas e dias em que o resultado sempre foi . Se , cada especialista cometeu um erro, mas um vetor majoritário ponderado de não possuía.331p1=(1,1,1),p2=(1,1,1),p3=(1,1,1)(1/3,1/3,1/3)

RB
fonte
1
Eu acho que você está procurando o método exponenciadas Gradiente: users.soe.ucsc.edu/~manfred/pubs/J36.pdf
Lev Reyzin
Os pesos multiplicativos apresentam o erro relação ao melhor especialista único (fora de ) nas rodadasPoderíamos criar "meta especialistas" correspondentes a todas as maiorias possíveis ponderadas e, em seguida, executar MW para obter o erro . Não tenho certeza de quão grande precisa ser - talvez suficiente. O(Tlogn)nTNO(TlogN)NN=nO(n)
Thomas
@ Thomas - pensei sobre isso há um tempo. Você precisaria definir , que é bastante grande: oeis.org/A000609 . N=nΘ(n2)
RB
O(nTlogn) erros é um bom começo. O que você está buscando?
Thomas
@ Thomas - é realmente um começo. Eu estava esperando por um algoritmo e acredito que deveria ser viável. o(nT)
RB

Respostas:

1

Se você não se importa com a randomização, os algoritmos padrão de aprendizado on-line na "estrutura de otimização convexa on-line" fornecem essencialmente o que você pede, na expectativa. A razão é que esses algoritmos são necessários para gerar uma distribuição para especialistas a cada passo, sofrendo uma perda esperada igual à expectativa de escolher um especialista nessa distribuição. E eles têm um baixo arrependimento esperado em comparação com a melhor distribuição para especialistas, ou seja, .wΔ([n])O(lnn/T)

Por exemplo, você pode usar o algoritmo clássico de pesos multiplicativos, que é apenas a maioria ponderada, mas escolhe um especialista para seguir com probabilidade proporcional ao seu "peso". Isso é mencionado na pesquisa de Arora (Teorema 6): https://www.cs.princeton.edu/~arora/pubs/MWsurvey.pdf

usul
fonte
2
Usul, quando você diz "arrependimento comparado à melhor distribuição por especialistas", é isso que a RB está pedindo? Não é a maneira padrão de usar uma distribuição em especialistas para simplesmente fazer previsões fracionárias a cada vez que ? Ou (mais ou menos equivalente) para prever 1 com probabilidade e -1 caso contrário. Então, há sempre uma ótima usando um único perito, certo? Mas como eu entendo a sugestão de RB, é um pouco diferente: faça a previsão inteira: sign a cada vez que . Está claro que isso não pode dar previsões substancialmente melhores? wwptt(wpt+1)/2w(wpt)t
Neal Young
@NealYoung, bom ponto, eu não pensei nisso tão profundamente. I assumiu implicitamente você pode convexify esta função objetivo e obter um bom arrependimento para ele, mas que poderia ser errado ...
usul