Como uma IA aprenderia o idioma?

11

Eu pensava sobre IAs e como elas funcionariam, quando percebi que não conseguia pensar em uma maneira de ensinar uma IA. Uma criança tende a aprender a linguagem por meio de associações de linguagem e figuras a um objeto (por exemplo, pessoas dizendo a palavra "cachorro" ao redor de um cachorro e depois percebendo que as pessoas dizem "um cachorro" e "um carro" e aprendem o que "um "significa etc.). No entanto, uma IA baseada em texto não pode usar esse método para aprender, pois não teria acesso a nenhum tipo de dispositivo de entrada.

A única maneira que eu pude criar é programar em todas as palavras e regras, no idioma inglês (ou em qualquer idioma em que se pretenda 'falar'), no entanto, isso levaria anos para ser potencialmente necessário.

Alguém tem alguma idéia de como isso pode ser feito? Ou se já foi feito, se sim, como?

A propósito, neste contexto, estou usando AI para significar um sistema de Inteligência Artificial com inteligência quase humana e sem conhecimento prévio da linguagem.

sonrad10
fonte

Respostas:

12

A área de pesquisa geral é conhecida como indução gramatical .

Geralmente é enquadrado como um problema de aprendizado supervisionado, com a entrada apresentada como texto bruto e a saída desejada a árvore de análise correspondente . O conjunto de treinamento geralmente consiste em exemplos positivos e negativos.

Não existe o melhor método para conseguir isso, mas algumas das técnicas usadas até o momento incluem:

NietzscheanAI
fonte
6

O termo abrangente para o seu problema é chamado de processamento de linguagem natural (PNL) - um tópico sob inteligência artificial.

Existem muitos subtópicos nesse campo, incluindo semântica de idiomas, análise gramatical, partes de marcação de fala, análise de contexto específica de domínio, etc.

Ébe Isaac
fonte
5

Por uma questão de completude, mostrarei que as Redes Neurais Recorrentes (ou seja, redes neurais com conexões reversas) são frequentemente usadas para o Processamento de Linguagem Natural (PNL). Isso inclui variantes como Bidirecional, Jordan e Elman Networks. A Memória de Longo Prazo (LSTM) é um algoritmo de rede neural mais sofisticado que pode realizar as mesmas tarefas baseadas em tempo e sequência, mas que pode alavancar métodos de aprendizado padrão como o backprop, pois não sofre do "problema de gradiente de fuga". Isso ocorre porque os LSTMs foram brilhantemente projetados como "integradores perfeitos", o que facilita muito o cálculo dos gradientes de erro etc. durante longos períodos de tempo. Em contraste, o aprendizado com RNNs ainda não é teoricamente bem fundamentado e é difícil de calcular através de métodos existentes, como Backpropagation Through Time (BPTT). Nas Redes Neurais com Retardo de Tempo (TDNNs), a idéia é adicionar novos neurônios e conexões com cada novo exemplo de treinamento ao longo de um período de tempo ou sequência de treinamento; infelizmente, isso coloca uma limitação prática de quantos exemplos você pode alimentar na rede antes que o tamanho da rede fique fora de controle ou comece a esquecer, assim como as RNNs. Os LSTMs têm memórias muito mais longas (especialmente quando aumentadas com as Máquinas Neurais de Turing), de modo que essa seria minha primeira escolha, desde que eu quisesse usar redes neurais para fins de PNL. Embora meu conhecimento do assunto seja limitado (ainda estou tentando aprender as cordas), pode haver outros algoritmos importantes da rede neural que estou ignorando ...

SQLServerSteve
fonte