Atualmente, a inteligência artificial parece quase igual ao aprendizado de máquina, especialmente ao aprendizado profundo. Alguns disseram que a aprendizagem profunda substituirá os especialistas humanos, tradicionalmente muito importantes para a engenharia de recursos, neste campo. Dizem que dois avanços sustentaram o surgimento do aprendizado profundo: por um lado, a neurociência e a neuroplasticidadeem particular, diz-nos que, como o cérebro humano, que é altamente plástico, redes artificiais podem ser utilizadas para modelar quase todas as funções; por outro lado, o aumento da potência computacional, em particular a introdução de GPU e FPGA, aumentou a inteligência algorítmica de uma maneira magnífica e tornou os modelos criados décadas atrás imensamente poderosos e versáteis. Acrescentarei que o big data (principalmente dados rotulados) acumulados nos últimos anos também é relevante.
Tais desenvolvimentos trazem a visão computacional (e o reconhecimento de voz) para uma nova era, mas no processamento de linguagem natural e nos sistemas especializados, a situação não parece ter mudado muito.
Alcançar o bom senso para as redes neurais parece uma tarefa difícil, mas a maioria das frases, conversas e textos curtos contêm inferências que devem ser extraídas do conhecimento mundial de segundo plano. Assim, a representação gráfica do conhecimento é de grande importância para a inteligência artificial. As redes neurais podem ser aproveitadas na construção de bases de conhecimento, mas parece que os modelos de redes neurais têm dificuldade em utilizar essas bases de conhecimento construídas.
Minhas perguntas são:
1) Uma base de conhecimento (por exemplo, um "gráfico de conhecimento" cunhado pelo Google) é um ramo promissor da IA? Em caso afirmativo, de que maneiras a KB pode capacitar o aprendizado de máquina? E como isso pode ajudar na geração de linguagem natural?
2) Para a sobrevivência em uma era dominada pelo DL, onde está a direção da base de conhecimento (ou o termo abrangente)? O conhecimento dinâmico z do tipo Wolfram baseia a nova direção? Ou alguma nova direção?
Espero que eu esteja fazendo uma pergunta apropriada aqui, pois não consegui marcar minha pergunta como "base de conhecimento" nem "gráfico de conhecimento".
Estou sentindo falta de algo fundamental ou de alguma idéia que resolva esses problemas?
fonte
Respostas:
Antes de mais, gostaria de destacar as principais diferenças entre a base de conhecimento e o aprendizado de máquina (profundo), especialmente quando o foco principal está em "IA" e não em "Ciência de Dados":
NNs são como uma caixa preta; Mesmo que eles aprendam um conjunto de dados e obtenham o poder de generalização sobre o domínio do problema, você nunca saberá como eles estão funcionando. se você examinar os detalhes do modelo desenvolvido, tudo o que verá são dígitos, pesos, conexões ruins e fortes e funções de transformação. a etapa "extração de recursos" antes da fase de treinamento diz literalmente: "ei, humano, chega de seu mundo complicado, vamos começar zeros e uns". No caso da DL, é pior! nem vemos quais são os recursos selecionados e eficazes. Eu não sou um especialista em DL, mas, tanto quanto eu sei, a caixa preta de DL é mais escura! Mas as bases de conhecimento são escritas em uma linguagem amigável ao ser humano. após uma fase de acumulação de conhecimento, você pode ver todas as conexões entre as entidades e, mais importante, você pode interpretar essas conexões. se você cortar um fio em uma base de conhecimento, seu modelo perderá um pouco de seu poder e você saberá exatamente o que ele perderá; por exemplo, desconectar o nó "Plutão" do nó "sistema solar", dirá ao seu modelo o que deGrasse Tyson nos disse. mas em um modelo de ML, isso pode transformá-lo em um puro inútil: o que acontece se você manipular a conexão entre o número de neurônios 14 e 47 em um modelo NN usado para prever quais planetas pertencem ao sistema solar ?!
Os modelos de ML são apenas uma inscrição dos dados. Eles não têm o poder da inferência e não lhe dão um. por outro lado, a base de conhecimento é capaz de inferência do conhecimento anterior, como você indicou na sua pergunta. É mostrado que os modelos DL que foram treinados com dados de classificação de imagem, também podem ser aplicados ao problema de detecção de voz. Mas isso não significa que os modelos de DL possam aplicar seu conhecimento prévio no domínio das imagens ao domínio das vozes.
Você precisa de quilos de dados para algoritmos tradicionais de ML e toneladas de dados para algoritmos de DL. mas uma única instância de um conjunto de dados criará uma base de conhecimento significativa para você.
Existem dois tópicos principais de pesquisa em PNL: tradução automática e resposta a perguntas. Na prática, foi demonstrado que o DL trabalha significativamente com problemas de tradução automática, mas age meio estúpido no desafio de responder perguntas, especialmente quando o domínio dos tópicos abordados na conversa homem-máquina é amplo. As bases de conhecimento não são uma boa opção para tradução automática, mas provavelmente são a chave para uma secretária eletrônica de perguntas nobres. Como o que importa na tradução automática é apenas a versão traduzida de um texto (e eu não me importo como a máquina fez isso, na medida do possível), mas na questão de responder ao problema, não preciso de um papagaio que repete a mesma informação que eu dei a ele, mas uma criatura inteligente que me dá "maçã é comestível" depois que eu digo a ele "maçã é uma fruta" e "
fonte