Nassim Taleb está certo sobre a IA não ser capaz de prever com precisão certos tipos de distribuição?

8

Portanto, o Taleb tem duas heurísticas para descrever geralmente as distribuições de dados. Um deles é o mediocristão, que basicamente significa coisas que estão em uma distribuição gaussiana, como altura e / ou peso das pessoas.

O outro é chamado de Extremistão, que descreve uma distribuição mais parecida ou com cauda de gordura. Um exemplo é a distribuição de riqueza, 1% das pessoas possui 50% da riqueza ou algo próximo disso e, portanto, a previsibilidade de conjuntos de dados limitados é muito mais difícil ou até impossível. Isso ocorre porque você pode adicionar uma única amostra ao seu conjunto de dados e as consequências são tão grandes que quebram o modelo ou têm um efeito tão grande que cancela qualquer um dos benefícios de previsões precisas anteriores. De fato, é assim que ele afirma ter ganhado dinheiro no mercado de ações, porque todo mundo estava usando modelos de distribuição gaussianos ruins para prever o mercado, o que realmente funcionaria por um curto período de tempo, mas quando as coisas deram errado, elas deram errado errado, o que causaria perdas líquidas no mercado.

Eu encontrei este vídeo de Taleb sendo perguntado sobre IA. Ele afirma que a IA não funciona (também) para coisas que caem no extremistão.

Ele está certo? Algumas coisas serão inerentemente imprevisíveis, mesmo com a IA?

Aqui está o vídeo ao qual estou me referindo https://youtu.be/B2-QCv-hChY?t=43m08s

Josiah Swaim
fonte

Respostas:

6

Sim e não!

Não há razão inerente para que os sistemas de aprendizado de máquina não possam lidar com eventos extremos. Como uma versão simples, você pode aprender os parâmetros de uma distribuição Weibull , ou outro modelo de valor extremo, a partir dos dados.

O maior problema é com incógnitas conhecidas x incógnitas desconhecidas. Se você souber que eventos raros são possíveis (como, por exemplo, a previsão de terremotos), poderá incorporar esse conhecimento nos modelos que você desenvolver e obterá algo que funcione tão bem ou melhor que os seres humanos nesse domínio. Se você não sabe que eventos raros são possíveis (como, por exemplo, uma quebra no mercado de ações produzida por padrões de imóveis correlacionados), seu modelo também refletirá isso.

Costumo pensar que o Taleb está sendo um pouco injusto aqui: a IA não pode lidar com esses tipos de eventos precisamente porque seus criadores (nós) não conseguem lidar com eles! Se soubéssemos que eles eram possíveis, poderíamos lidar com eles muito bem e a IA também.

John Doucette
fonte
11
A incapacidade desses modelos (incluindo os humanos no cérebro) não são capazes de lidar com incógnitas incógnitas? Como sempre há um limite para a quantidade de dados precisos que podemos coletar em nossas amostras e em casos de distribuições de cauda gorda, o efeito de um outlier pode ser enorme, enquanto que em uma distribuição normal o efeito ou dano de um outlier extremo geralmente seja bem pequeno. Portanto, é como se ele estivesse dizendo que essa é uma característica fundamental do conhecimento e dos sistemas preditivos, biológicos ou baseados em máquinas, por isso a IA será limitada em determinados domínios.
Josiah Swaim
2
Hmm. Eu acho que há duas questões. Uma é a alegação de que não podemos lidar com distribuições de cauda gorda com IA. Isto é falso. A outra é que, se você não souber quais distribuições são adequadas para o problema que está estudando (ou seja, se você realmente não entende o seu problema), ficará surpreso com eventos inesperados. Isso é verdade. Acho que Taleb está confundindo as duas questões, quando na verdade elas são separadas.
John Doucette