Acabei de iniciar uma aula de IA e mineração de dados e o livro. AI Application Programming, começa com uma visão geral do histórico da AI. O primeiro capítulo trata da história da IA desde a década de 1940 até o presente. Uma declaração em particular apareceu em mim:
[Nos anos 60] os engenheiros da IA se comprometeram e subforneceram ...
Qual foi o motivo do excesso de confiança? Foi por causa de modelos matemáticos de previsão que mostraram que havia um avanço ao virar da esquina ou devido à capacidade cada vez maior de hardware de aproveitar?
Respostas:
Minha opinião pessoal é que foi devido à arrogância . Havia alguns grandes egos andando pelos corredores do MIT, Stanford etc. nos anos 60 e 70 e eles sabiam que tinham resolvido esse problema. Direita.
Embora eu não fizesse parte desse universo naquela época, no meio dos anos 80, eu estava trabalhando com busca por similaridade. Nosso trabalho foi inicialmente baseado em pesquisas realizadas por Gerard Salton em Cornell nos anos 60, que usavam vetores de atributos ponderados para representar documentos e consultas. Na verdade, era uma abordagem utilizável, mas quando as redes neurais caíram em chamas (pelo menos até descobrirem a propagação por trás ), o trabalho de Salton foi incluído por causa de semelhanças (trocadilhos) com as redes neurais. Ele estava tentando fazer algo diferente, mas houve vários anos em que ele se juntou ao resto.
Toda vez que alguém cria uma solução para o Current Brick Wall ™, fica muito empolgado e declara que a IA é um problema resolvido. Só que não é. Porque atrás daquela parede de tijolos existe outra. Esse ciclo se repetiu várias vezes, e não apenas na IA. Acredito firmemente que todos os cientistas da computação e engenheiros potenciais devem ser obrigados a tomar uma classe semestre longo da História da Computação, com ênfase especial sobre o número de próximas atrações ™, que subiram como foguetes ... e, em seguida, fez uma muito grande cratera no fundo do vale.
Adendo: Passei o fim de semana do Dia do Trabalho com um velho amigo e conversamos um pouco sobre isso. O contexto - descobrir o que isso significa, como representá-lo e depois usá-lo - emergiu como possivelmente o maior obstáculo a ser resolvido. E quanto mais você olha para ele, maior é o obstáculo. Os seres humanos são capazes de uma combinação surpreendente e quase instantânea de padrões parciais do "que está acontecendo" com uma vasta reserva do "que aconteceu antes" e depois combinar esse conhecimento do passado com a situação atual para criar um contexto no qual a compreensão pode levar à ação. Por exemplo, podemos usá-lo como um poderoso filtro de "coisas que podemos / não podemos ignorar" enquanto analisamos o Waldo Grade a 60 MPH com tráfego 4 faixas lado a lado e separadas por apenas 3 ou 4 pés (ou menos!).
No espectro de
stuff > data > information > knowledge > understanding > judgement
que ainda estamos nos esforçando para chegar às etapas de informação / conhecimento, e mesmo isso é limitado a domínios do discurso altamente restritos .fonte
Simplesmente, eles subestimaram massivamente a escala do problema em questão, especialmente no que diz respeito à explosão combinatória. Muitas soluções de IA funcionam bem para amostras de "brinquedos", mas falham bastante quando se adaptam a problemas no nível humano.
Indiscutivelmente, eles também eram simplesmente inexperientes. A IA como um campo (apenas) havia sido apenas inventada em termos de aplicações práticas; portanto, ninguém tinha experiência significativa em aplicar teoria a nada.
fonte
Eu posso pensar em algumas razões.
A IA experimentou um sucesso tão rápido com alguns dos problemas de brinquedos enfrentados no final dos anos 50 e início dos anos 60, que superestimaram o que haviam realizado. ELIZA e SHRDLU surpreenderam as pessoas, apesar de serem programas relativamente simples. Infelizmente, grande parte do que tornou esses programas impressionantes era realmente apenas novidade. Ninguém está muito impressionado com uma conversa com ELIZA hoje, mas na época as pessoas pensavam que era quase milagroso.
Além disso, como os problemas são "resolvidos" ou, pelo menos, se tornam tratáveis, as pessoas já não pensam neles como IA. A otimização de código costumava ser um problema de IA. O aprendizado estatístico surgiu da IA em sua própria especialidade e levou o reconhecimento de fala. À medida que a mineração de dados se torna popular, ela perde sua associação com a IA. Com o tempo, a IA esquece seus sucessos e fica presa a problemas intratáveis e insolúveis, e acaba parecendo um fracasso.
fonte
Acho que as pessoas nos anos 60 usaram sua própria experiência humana para dividir problemas em "problemas difíceis" e "problemas fáceis": coisas como ganhar xadrez, resolver enigmas lógicos, resolver equações matemáticas parecem difíceis para nós, seres humanos. Coisas como entender linguagens naturais ou encontrar os contornos de objetos em uma imagem parecem fáceis, porque nosso cérebro faz todo o trabalho sem esforço consciente. Quando tentamos explicar como fazemos essas coisas, criamos explicações simples como "As sentenças em inglês sempre têm a estrutura sujeito-predicado-objeto, em que sujeito pode ser um termo simples ou uma frase ..." ou "Estou procurando arestas e conectando-as a limites de objetos ". Hoje sabemos que as coisas não são tão simples, mas apenas porque todas as soluções simples (e muitas não tão simples) foram tentadas e não foram '
Além disso, essa falácia não começou nos anos 60: existem séculos de pesquisas sobre como resolver esses "problemas difíceis" (heurística, teoria dos jogos, teoria da decisão, matemática, lógica etc.), mas não tenho certeza de que alguém jamais se preocupou em pesquisar como as línguas naturais poderiam ser analisadas antes dos anos 50.
E ainda hoje, você pode encontrar regularmente perguntas no stackoverflow, onde as pessoas perguntam como podem analisar sentenças em inglês, estimar a idade de uma pessoa em uma imagem, julgar se uma imagem é "segura para o trabalho" ou se duas imagens mostram a mesma coisa . Eu não acho que as pessoas que fazem essas perguntas sofrem de muita arrogância ou prepotência: Estes problemas parecem tão simples, é inacreditável que não é nenhum algoritmo simples para resolvê-los.
fonte
A IA tem um longo histórico de decepções, mas acho que muitos críticos simplificam demais o que aconteceu, como em sua citação "os engenheiros da década de 1960 se comprometeram demais e subforneceram".
Nos anos 60, a IA era o domínio de um punhado de pesquisadores (o campo ainda não estava suficientemente desenvolvido para chamar de engenharia), principalmente nas universidades, e muito poucos deles eram programadores talentosos.
A súbita disponibilidade de máquinas de computação nos anos 50 levou a grandes expectativas de automação, particularmente na tradução automática de linguagem natural, jogando xadrez e problemas semelhantes. Você pode encontrar algumas previsões reais de sucesso a partir desses dias, mas as promessas inevitavelmente vieram antes que alguém resolvesse um desses problemas em profundidade. (Ou eles assumiram erroneamente que um sucesso garantia outro, como esperar ser capaz de implementar um bom jogo de xadrez depois que Samuel teve tanto sucesso com damas).
Além disso, desconfie de qualquer reivindicação de "eles disseram", "eles sentiram", "eles pensaram", etc .; opiniões retrospectivas (como essa!) são fáceis de se contornar, enquanto evidências documentadas de previsões reais feitas por "especialistas" (aqueles que realmente tentaram resolver um determinado problema) podem ser muito mais difíceis de encontrar.
Prometer demais e não entregar sempre foi um sintoma do desenvolvimento de software, independentemente do campo específico em que a programação é aplicada. Uma grande dificuldade com a IA é que problemas não triviais estão além das capacidades da maioria dos engenheiros. Por exemplo, embora , e habilidades semelhantes a SHRDLU ainda sejam difíceis de encontrar hoje em dia, mais de 40 anos depois. a resposta de Charles E. Grant categorize ELIZA e SHRDLU como "relativamente simples", eu diria que isso é verdade apenas para ELIZA (que a maioria dos estudantes de programação do primeiro ano provavelmente poderia implementar sem muita dificuldade). Por outro lado, o SHRDLU é um programa grande e extremamente sofisticado que a maioria dos programadores dificilmente poderia inventar e deixar de implementar. De fato, duas equipes de estudantes universitários não conseguiram nem o código fonte funcionando novamente.
Como a IA é provavelmente um dos problemas menos compreendidos e intratáveis em que os computadores podem ser aplicados, no geral, eu diria que o progresso na IA geralmente tem estado a par do curso. Ainda existem grandes expectativas , e nossa velocidade e capacidade de hardware aumentaram tremendamente desde os anos 60, mas eu diria que as habilidades dos engenheiros e a compreensão da IA não estão melhorando muito, então um santo graal como passar no teste de Turing ainda está provavelmente muito longe, e promessas excessivas e subfornecimento provavelmente continuarão por algum tempo.
fonte
Eu acho que o motivo foi arrogância. Se eu fosse um engenheiro nos anos 60 trabalhando em IA, teria sido muito arrogante.
Penso que, para realizar grandes coisas, você precisa alcançar grandes coisas. Portanto, prometer demais não é necessariamente uma coisa ruim, desde que você não ultrapasse o limite. Hoje, os cientistas prometem coisas que não acredito que sejam possíveis, mas, se não alcançarem isso, perderemos o que será alcançado como resultado.
fonte
Pode ser muito difícil chegar a algum lugar quando você não sabe para onde está indo.
Se tivéssemos algum tipo de explicação razoável sobre o que é inteligência e como ela funciona, talvez tivéssemos a chance de imitá-la efetivamente. O teste de Turing é fascinante e útil, mas provavelmente não é suficiente para nos ajudar a modelar a verdadeira inteligência. Pelo que sabemos, um "modelo" de inteligência também pode não ser suficiente para a verdadeira inteligência.
fonte
Bem, eu diria que é mais ou menos a mesma coisa que está acontecendo com a OWL agora. Olhe em volta e tente desenhar paralelos.
Parece bom no papel, parece funcionar bem em problemas de brinquedo, fica incrivelmente complicado na maioria dos dados reais.
fonte
Além das boas respostas dadas, duas observações:
Algumas citações do dia parecem sugerir que muitos dos pesquisadores pensavam que as soluções triviais poderiam ser ampliadas quando os computadores mais rápidos fossem projetados. Para algum tipo de sistema de aprendizado, isso era muito verdade, mas para o tipo de coisa que eu acho que o OP está se referindo a ele realmente não melhorou em escala.
Os pesquisadores da época tinham uma estimativa muito baixa da complexidade da mente humana (concentre-se em idéias como o teste de Turing, a ideia de que as pessoas usam apenas uma pequena porcentagem de seu cérebro, etc.). A IA no nível de um animal simples foi alcançada por algumas medidas à medida que as coisas aumentaram, mas o salto para uma IA no nível humano foi muito maior do que o esperado. Isso levou alguns pesquisadores a tentar aprender sistemas de bebês e outras simulações baseadas em crescimento / evolução como uma tentativa de preencher essa lacuna.
fonte
Um dos motivos foi o sucesso que estávamos tendo em outros lugares na década de 1960. Tínhamos acabado de nos lançar ao espaço e em breve pousaríamos um homem na lua. Tínhamos acabado de descobrir curas para a poliomielite e outras doenças importantes.
Mas a "inteligência artificial" era um animal diferente dos problemas de "engenharia" que enfrentávamos na época. Era um problema de "raciocínio", e não "mecânico".
Em suma, a IA (na década de 1960) era uma idéia "cuja hora ainda não havia chegado". Demorou mais desenvolvimento, nas décadas seguintes, antes de se tornar tão acessível quanto os outros problemas.
fonte
Outro motivo pode ser que dominar um computador / escrever programas de computador nos dá pouco controle sobre a sensação de onipotência - de fato, cria-se universos pequenos, embora fechados.
Isso, mais a falta de educação filosófica / epistemológica e a confiança ingênua em explicações simples como "A inteligência não é senão ..." podem levar à arrogância.
fonte