Existe uma razão para o excesso de confiança inicial de cientistas e engenheiros que trabalham com inteligência artificial na década de 1960?

21

Acabei de iniciar uma aula de IA e mineração de dados e o livro. AI Application Programming, começa com uma visão geral do histórico da AI. O primeiro capítulo trata da história da IA ​​desde a década de 1940 até o presente. Uma declaração em particular apareceu em mim:

[Nos anos 60] os engenheiros da IA ​​se comprometeram e subforneceram ...

Qual foi o motivo do excesso de confiança? Foi por causa de modelos matemáticos de previsão que mostraram que havia um avanço ao virar da esquina ou devido à capacidade cada vez maior de hardware de aproveitar?

Jason
fonte
4
O problema da arrogância é universal. Leia 'Enganado pela aleatoriedade' para mais detalhes. pt.wikipedia.org/wiki/Fooled_by_Randomness
Job
1
Se sua biblioteca possui uma cópia, o artigo de Doug Lenat, "Por que a AM e o EURISKO parecem funcionar". Inteligência Artificial 23 (3): pp. 269–294. pode valer a pena ler. (AM e EURISKO eram os próprios programas de Doug Lenat). Isso, no entanto, é bem depois dos anos 60. Pessoalmente, acho que foi porque alguns projetos iniciais tiveram muito sucesso, então parecia que muitos problemas seriam solúveis usando algumas técnicas simples. Infelizmente, isso não provou ser o caso.
MZB
7
O problema foi mais difícil do que o esperado. Muito mais dificil.
8
@ Thorbjørn Não sei por que, mas posso imaginar isso sendo rabiscado nas margens de um caderno de um cientista de engenharia pouco antes de ele sair do escritório e chegar ao ponto de inflexão, perdendo toda a sanidade.
Thomas Owens
3
Não vale a pena dar uma resposta, mas você também deve considerar o contexto social da época. O mundo ocidental, especialmente os EUA, passou pela Segunda Guerra Mundial e desenvolveu muita tecnologia que resolveu muitos problemas difíceis. Havia um senso geral de que poderíamos superar qualquer problema que resolvemos resolver. Chamar isso de arrogância ou arrogância é provavelmente um pouco exagerado; Eu apostaria mais em algo como otimismo desenfreado.
Blrfl

Respostas:

30

Minha opinião pessoal é que foi devido à arrogância . Havia alguns grandes egos andando pelos corredores do MIT, Stanford etc. nos anos 60 e 70 e eles sabiam que tinham resolvido esse problema. Direita.

Embora eu não fizesse parte desse universo naquela época, no meio dos anos 80, eu estava trabalhando com busca por similaridade. Nosso trabalho foi inicialmente baseado em pesquisas realizadas por Gerard Salton em Cornell nos anos 60, que usavam vetores de atributos ponderados para representar documentos e consultas. Na verdade, era uma abordagem utilizável, mas quando as redes neurais caíram em chamas (pelo menos até descobrirem a propagação por trás ), o trabalho de Salton foi incluído por causa de semelhanças (trocadilhos) com as redes neurais. Ele estava tentando fazer algo diferente, mas houve vários anos em que ele se juntou ao resto.

Toda vez que alguém cria uma solução para o Current Brick Wall ™, fica muito empolgado e declara que a IA é um problema resolvido. Só que não é. Porque atrás daquela parede de tijolos existe outra. Esse ciclo se repetiu várias vezes, e não apenas na IA. Acredito firmemente que todos os cientistas da computação e engenheiros potenciais devem ser obrigados a tomar uma classe semestre longo da História da Computação, com ênfase especial sobre o número de próximas atrações ™, que subiram como foguetes ... e, em seguida, fez uma muito grande cratera no fundo do vale.

Adendo: Passei o fim de semana do Dia do Trabalho com um velho amigo e conversamos um pouco sobre isso. O contexto - descobrir o que isso significa, como representá-lo e depois usá-lo - emergiu como possivelmente o maior obstáculo a ser resolvido. E quanto mais você olha para ele, maior é o obstáculo. Os seres humanos são capazes de uma combinação surpreendente e quase instantânea de padrões parciais do "que está acontecendo" com uma vasta reserva do "que aconteceu antes" e depois combinar esse conhecimento do passado com a situação atual para criar um contexto no qual a compreensão pode levar à ação. Por exemplo, podemos usá-lo como um poderoso filtro de "coisas que podemos / não podemos ignorar" enquanto analisamos o Waldo Grade a 60 MPH com tráfego 4 faixas lado a lado e separadas por apenas 3 ou 4 pés (ou menos!).

No espectro de stuff > data > information > knowledge > understanding > judgementque ainda estamos nos esforçando para chegar às etapas de informação / conhecimento, e mesmo isso é limitado a domínios do discurso altamente restritos .

Peter Rowell
fonte
1
A IA é como uma cadeia de montanhas. Estamos em algum lugar no sopé e podemos ver o pico que queremos escalar, mas não temos idéia do que há além da próxima colina ou de quantas outras colinas ainda restam para escalar para alcançar nosso objetivo.
CdMnky
1
Na IMO, isso não pode acontecer sem o reconhecimento de padrões realmente sofisticado e altamente generalizado. Apenas ler sobre muitas das coisas que eles tentaram me pareceu meio ingênuo ou talvez exagerado, que eu tenho o senso de programação dominada em geral pelo menos quando me dei conta disso nos anos 80.
usar o seguinte
17

Simplesmente, eles subestimaram massivamente a escala do problema em questão, especialmente no que diz respeito à explosão combinatória. Muitas soluções de IA funcionam bem para amostras de "brinquedos", mas falham bastante quando se adaptam a problemas no nível humano.

Indiscutivelmente, eles também eram simplesmente inexperientes. A IA como um campo (apenas) havia sido apenas inventada em termos de aplicações práticas; portanto, ninguém tinha experiência significativa em aplicar teoria a nada.

DeadMG
fonte
Não sei muito disso, mas sempre achei que muitos dos recursos do Google são baseados na IA. Ou é meu mau entendimento sobre isso?
user10326
@ user10326: Eles são. Mas não vejo o que isso tem a ver com o assunto em questão - o Google não existia há 30 anos após o período em questão.
DeadMG
Ok, mas o que estou dizendo é que eles (Google) usaram a IA de maneira prática, certo? Quero dizer, pode não ser o que eles "imaginavam" naquela época, mas ainda assim os recursos do Google podem ser oferecidos usando um Linguagem AI?
user10326
4
@ user10326, pelo que entendi, o Google está usando um sistema de adivinhação muito avançada. Basicamente, ele analisa montanhas de atividade do usuário e tenta extrapolar padrões. A visão original da IA ​​era criar uma verdadeira mente digital que funcionasse exatamente como um cérebro humano. De fato, o fracasso em concordar com o que constitui a IA é uma das falhas do campo.
Jggy #
@ user10326: Ainda não entendemos a relevância.
DeadMG
15

Eu posso pensar em algumas razões.

A IA experimentou um sucesso tão rápido com alguns dos problemas de brinquedos enfrentados no final dos anos 50 e início dos anos 60, que superestimaram o que haviam realizado. ELIZA e SHRDLU surpreenderam as pessoas, apesar de serem programas relativamente simples. Infelizmente, grande parte do que tornou esses programas impressionantes era realmente apenas novidade. Ninguém está muito impressionado com uma conversa com ELIZA hoje, mas na época as pessoas pensavam que era quase milagroso.

Além disso, como os problemas são "resolvidos" ou, pelo menos, se tornam tratáveis, as pessoas já não pensam neles como IA. A otimização de código costumava ser um problema de IA. O aprendizado estatístico surgiu da IA ​​em sua própria especialidade e levou o reconhecimento de fala. À medida que a mineração de dados se torna popular, ela perde sua associação com a IA. Com o tempo, a IA esquece seus sucessos e fica presa a problemas intratáveis ​​e insolúveis, e acaba parecendo um fracasso.

Charles E. Grant
fonte
5
Bom argumento sobre "se não é mais mágica (3), não é mais IA".
Piskvor 5/09/11
Mas o aprendizado estatístico e a IA de mineração de dados não são, em princípio?
user10326
@ user10326, certamente a maioria das referências ainda classifica o Machine Learning como um ramo da IA, mas tenho a impressão de que muitas pessoas que trabalham no ML fariam uma careta para você se você dissesse que elas trabalhavam no AI. Eu acho que eles diriam que, pragmaticamente, o ML é um ramo da estatística e não fornece nenhum insight específico sobre inteligência, artificial ou não.
Charles E. Grant
12

Acho que as pessoas nos anos 60 usaram sua própria experiência humana para dividir problemas em "problemas difíceis" e "problemas fáceis": coisas como ganhar xadrez, resolver enigmas lógicos, resolver equações matemáticas parecem difíceis para nós, seres humanos. Coisas como entender linguagens naturais ou encontrar os contornos de objetos em uma imagem parecem fáceis, porque nosso cérebro faz todo o trabalho sem esforço consciente. Quando tentamos explicar como fazemos essas coisas, criamos explicações simples como "As sentenças em inglês sempre têm a estrutura sujeito-predicado-objeto, em que sujeito pode ser um termo simples ou uma frase ..." ou "Estou procurando arestas e conectando-as a limites de objetos ". Hoje sabemos que as coisas não são tão simples, mas apenas porque todas as soluções simples (e muitas não tão simples) foram tentadas e não foram '

Além disso, essa falácia não começou nos anos 60: existem séculos de pesquisas sobre como resolver esses "problemas difíceis" (heurística, teoria dos jogos, teoria da decisão, matemática, lógica etc.), mas não tenho certeza de que alguém jamais se preocupou em pesquisar como as línguas naturais poderiam ser analisadas antes dos anos 50.

E ainda hoje, você pode encontrar regularmente perguntas no stackoverflow, onde as pessoas perguntam como podem analisar sentenças em inglês, estimar a idade de uma pessoa em uma imagem, julgar se uma imagem é "segura para o trabalho" ou se duas imagens mostram a mesma coisa . Eu não acho que as pessoas que fazem essas perguntas sofrem de muita arrogância ou prepotência: Estes problemas parecem tão simples, é inacreditável que não é nenhum algoritmo simples para resolvê-los.

nikie
fonte
3
Acredito que esta é a resposta correta, e não a teoria da arrogância, que parece fortemente apoiada neste site. As coisas que pensamos serem incrivelmente difíceis para os seres humanos acabaram sendo relativamente fáceis para as máquinas; por outro lado, coisas incrivelmente simples para os seres humanos são muito difíceis para as máquinas.
AlexC
11

A IA tem um longo histórico de decepções, mas acho que muitos críticos simplificam demais o que aconteceu, como em sua citação "os engenheiros da década de 1960 se comprometeram demais e subforneceram".

Nos anos 60, a IA era o domínio de um punhado de pesquisadores (o campo ainda não estava suficientemente desenvolvido para chamar de engenharia), principalmente nas universidades, e muito poucos deles eram programadores talentosos.

A súbita disponibilidade de máquinas de computação nos anos 50 levou a grandes expectativas de automação, particularmente na tradução automática de linguagem natural, jogando xadrez e problemas semelhantes. Você pode encontrar algumas previsões reais de sucesso a partir desses dias, mas as promessas inevitavelmente vieram antes que alguém resolvesse um desses problemas em profundidade. (Ou eles assumiram erroneamente que um sucesso garantia outro, como esperar ser capaz de implementar um bom jogo de xadrez depois que Samuel teve tanto sucesso com damas).

Além disso, desconfie de qualquer reivindicação de "eles disseram", "eles sentiram", "eles pensaram", etc .; opiniões retrospectivas (como essa!) são fáceis de se contornar, enquanto evidências documentadas de previsões reais feitas por "especialistas" (aqueles que realmente tentaram resolver um determinado problema) podem ser muito mais difíceis de encontrar.

Prometer demais e não entregar sempre foi um sintoma do desenvolvimento de software, independentemente do campo específico em que a programação é aplicada. Uma grande dificuldade com a IA é que problemas não triviais estão além das capacidades da maioria dos engenheiros. Por exemplo, embora , e habilidades semelhantes a SHRDLU ainda sejam difíceis de encontrar hoje em dia, mais de 40 anos depois. a resposta de Charles E. Grant categorize ELIZA e SHRDLU como "relativamente simples", eu diria que isso é verdade apenas para ELIZA (que a maioria dos estudantes de programação do primeiro ano provavelmente poderia implementar sem muita dificuldade). Por outro lado, o SHRDLU é um programa grande e extremamente sofisticado que a maioria dos programadores dificilmente poderia inventar e deixar de implementar. De fato, duas equipes de estudantes universitários não conseguiram nem o código fonte funcionando novamente.

Como a IA é provavelmente um dos problemas menos compreendidos e intratáveis ​​em que os computadores podem ser aplicados, no geral, eu diria que o progresso na IA geralmente tem estado a par do curso. Ainda existem grandes expectativas , e nossa velocidade e capacidade de hardware aumentaram tremendamente desde os anos 60, mas eu diria que as habilidades dos engenheiros e a compreensão da IA ​​não estão melhorando muito, então um santo graal como passar no teste de Turing ainda está provavelmente muito longe, e promessas excessivas e subfornecimento provavelmente continuarão por algum tempo.

Proteção de Testemunha ID 44583292
fonte
Re: Teste de Turing: Eu li sobre um programa de assistente de ensino da Georgia Tech que a maioria dos estudantes não sabe dizer é um "AI". Eles talvez não estivessem procurando por isso, mas certamente não saltaram para eles. Penso que a conversa geral será um problema resolvido muito em breve. Vi alguém jogar com uma nova coisa do Google Echo (como é chamada) recentemente. Lamentável, mas quanto tempo vai ficar assim, com milhões de macacos alimentando amostras de conversas?
5

Eu acho que o motivo foi arrogância. Se eu fosse um engenheiro nos anos 60 trabalhando em IA, teria sido muito arrogante.

Penso que, para realizar grandes coisas, você precisa alcançar grandes coisas. Portanto, prometer demais não é necessariamente uma coisa ruim, desde que você não ultrapasse o limite. Hoje, os cientistas prometem coisas que não acredito que sejam possíveis, mas, se não alcançarem isso, perderemos o que será alcançado como resultado.

AJC
fonte
4

Pode ser muito difícil chegar a algum lugar quando você não sabe para onde está indo.

Se tivéssemos algum tipo de explicação razoável sobre o que é inteligência e como ela funciona, talvez tivéssemos a chance de imitá-la efetivamente. O teste de Turing é fascinante e útil, mas provavelmente não é suficiente para nos ajudar a modelar a verdadeira inteligência. Pelo que sabemos, um "modelo" de inteligência também pode não ser suficiente para a verdadeira inteligência.

Caleb
fonte
3
+1 para a primeira frase.
Mason Wheeler
Talvez não sejamos inteligentes o suficiente para entender a inteligência, ou mesmo um modelo dela. Mas poderíamos construir um modelo ruim, então tem que trabalhar em si ...
2

Bem, eu diria que é mais ou menos a mesma coisa que está acontecendo com a OWL agora. Olhe em volta e tente desenhar paralelos.

Parece bom no papel, parece funcionar bem em problemas de brinquedo, fica incrivelmente complicado na maioria dos dados reais.

Codificador
fonte
O que é OWL? Ostwestfalen-Lippe?
sleske
2

Além das boas respostas dadas, duas observações:

Algumas citações do dia parecem sugerir que muitos dos pesquisadores pensavam que as soluções triviais poderiam ser ampliadas quando os computadores mais rápidos fossem projetados. Para algum tipo de sistema de aprendizado, isso era muito verdade, mas para o tipo de coisa que eu acho que o OP está se referindo a ele realmente não melhorou em escala.

Os pesquisadores da época tinham uma estimativa muito baixa da complexidade da mente humana (concentre-se em idéias como o teste de Turing, a ideia de que as pessoas usam apenas uma pequena porcentagem de seu cérebro, etc.). A IA no nível de um animal simples foi alcançada por algumas medidas à medida que as coisas aumentaram, mas o salto para uma IA no nível humano foi muito maior do que o esperado. Isso levou alguns pesquisadores a tentar aprender sistemas de bebês e outras simulações baseadas em crescimento / evolução como uma tentativa de preencher essa lacuna.

Conta
fonte
Um cérebro simples (inseto, peixe, réptil) pode lidar bem com o comportamento , mas lidar com o raciocínio é um problema diferente. Então, acho que a IA em breve poderá conversar sobre um domínio do problema, mas não terá nada significativo para contribuir ou ser capaz de resolver problemas novos. A área interessante é onde pequenos cérebros (pássaros) podem fazer coisas complexas, como responder a conversas e inventar coisas divertidas para fazer (papagaio que imitava o som da campainha para ver as pessoas irem atender a porta e depois fazer um som de risada).
1

Um dos motivos foi o sucesso que estávamos tendo em outros lugares na década de 1960. Tínhamos acabado de nos lançar ao espaço e em breve pousaríamos um homem na lua. Tínhamos acabado de descobrir curas para a poliomielite e outras doenças importantes.

Mas a "inteligência artificial" era um animal diferente dos problemas de "engenharia" que enfrentávamos na época. Era um problema de "raciocínio", e não "mecânico".

Em suma, a IA (na década de 1960) era uma idéia "cuja hora ainda não havia chegado". Demorou mais desenvolvimento, nas décadas seguintes, antes de se tornar tão acessível quanto os outros problemas.

Tom Au
fonte
0

Outro motivo pode ser que dominar um computador / escrever programas de computador nos dá pouco controle sobre a sensação de onipotência - de fato, cria-se universos pequenos, embora fechados.

Isso, mais a falta de educação filosófica / epistemológica e a confiança ingênua em explicações simples como "A inteligência não é senão ..." podem levar à arrogância.

Ingo
fonte