Existe uma troca entre flexibilidade e eficiência?

8

Uma "inteligência geral" pode ser capaz de aprender muitas coisas diferentes, mas possuir capacidade não é igual a tê-la. O "AGI" deve aprender ... e esse processo de aprendizagem pode levar tempo. Se você deseja que um AGI conduza um carro ou jogue Go, você precisa encontrar uma maneira de "ensiná-lo". Lembre-se de que nunca criamos AGIs; portanto, não sabemos quanto tempo o processo de treinamento pode demorar, mas seria seguro assumir estimativas pessimistas.

Compare isso com uma "inteligência estreita". A IA estreita já sabe como dirigir um carro ou jogar Go. Foi programado para ser muito excelente em uma tarefa específica. Você não precisa se preocupar em treinar a máquina, porque ela já foi pré-treinada.

Uma "inteligência geral" parece ser mais flexível que uma "inteligência restrita". Você pode comprar um AGI e fazê-lo dirigir um carro e jogar Go. E se você estiver disposto a fazer mais treinamento, pode até ensinar um novo truque: como assar um bolo . Não preciso me preocupar com tarefas inesperadas, pois a AGI acabará descobrindo como fazê-lo, com tempo de treinamento suficiente. Eu teria que esperar muito tempo .

Uma "inteligência restrita" parece ser mais eficiente na tarefa atribuída, devido ao fato de ter sido programada especificamente para essa tarefa. Ele sabe exatamente o que fazer e não precisa perder tempo "aprendendo" (ao contrário do nosso amigo da AGI aqui). Em vez de comprar um AGI para lidar mal com um monte de tarefas diferentes, prefiro comprar um monte de IAs estreitas especializadas. O AI estreito nº 1 dirige carros, o AI estreito nº 2 joga Go, o AI estreito nº 3 assa bolos, etc. Dito isto, essa é uma abordagem muito frágil, pois se alguma tarefa inesperada surgir, nenhuma das minhas IA estreitas poderá para lidar com isso. Estou disposto a aceitar esse risco.

Meu "pensamento" está correto? Existe uma troca entre flexibilidade (AGI) e eficiência (IA restrita), como o que acabei de descrever acima? Ou é teoricamente possível que um AGI seja flexível e eficiente?

SE esquerdo em 10_6_19
fonte
11
Não se restringe apenas a "AGI" vs. "forte estreito". Existe uma estratégia conhecida como " satisfatória ", na qual "bom o suficiente" é o melhor que você pode alcançar, porque objetivamente não é possível alcançar decisões ótimas. Onde o tempo de decisão é limitado, em modelos que podem ser resolvidos ou parcialmente resolvidos, heurísticas simples podem superar o aprendizado profundo.
DukeZhou

Respostas:

5

O resultado mais limpo que temos sobre esse assunto é o teorema "sem almoço grátis" . Basicamente, para melhorar o desempenho de um sistema em uma tarefa específica, você deve degradar seu desempenho em outras tarefas, para que haja uma troca de eficiência e flexibilidade.

Mas, para a questão mais ampla, ou se o seu pensamento está correto, acho que vale a pena olhar mais de perto o que você quer dizer com "inteligência restrita". Os sistemas de IA que temos que jogam Go e dirigem carros não surgiram, capazes de fazer essas coisas; eles aprenderam lentamente como através de muitos exemplos de treinamento e uma arquitetura bem escolhida que espelha o domínio do problema.

Ou seja, "redes neurais" como uma metodologia parece "geral" de uma maneira significativa; pode-se imaginar que uma inteligência geral possa ser formada resolvendo o problema de meta-aprendizado (ou seja, aprendendo a arquitetura que melhor se adapta a um problema específico e aprendendo os pesos para esse problema a partir de dados de treinamento).

Mesmo nesse caso, ainda haverá uma troca entre flexibilidade e eficiência; a inteligência geral que pode variar sua arquitetura poderá resolver muitos problemas diferentes, mas levará algum tempo para descobrir qual o problema que está enfrentando. Uma inteligência bloqueada em uma arquitetura específica terá um bom desempenho em problemas para os quais a arquitetura é mais adequada (melhor que a geral, pois não precisa descobrir), mas menos bem em outros problemas para os quais não é tão adequada.

Matthew Graves
fonte
11
Os teoremas de 'No Free Lunch' (NFL) geralmente são enquadrados em termos de sistemas de caixa preta. Usando descrições de caixa branca do problema a ser resolvido e / ou metacognição sobre o processo de solução, pode ser possível contornar a NFL. Veja também minha resposta a esta pergunta ai.stackexchange.com/questions/1751/what-are-hyper-heuristics
NietzscheanAI
5

Como Matthew Graves explicou em outra resposta, o teorema do almoço grátis não confirma a flexibilidade - troca de eficiência. No entanto, esse teorema está descrevendo uma situação em que você tem um conjunto de tarefas completamente independentes. Isso geralmente não se aplica, pois muitos problemas diferentes são equivalentes em seu núcleo ou, pelo menos, têm alguma sobreposição. Depois, você pode fazer algo chamado "transferência de aprendizado", o que significa que, treinando para resolver uma tarefa, você também aprende algo sobre como resolver outra (ou possivelmente várias tarefas diferentes).

Por exemplo, em Policy Distillation, de Rusu et al. eles conseguiram "destilar" o conhecimento de diferentes redes de especialistas em uma rede geral que, no final, superou cada um dos especialistas. Os especialistas foram treinados para tarefas específicas, enquanto o generalista aprendeu a política final com esses "professores".

Peter Hroššo
fonte
1

Parece que sim. Um exemplo, embora não especificamente relacionado à IA, é visto na diferença entre computadores digitais e computadores analógicos . Quase tudo o que consideramos um "computador" hoje é um computador digital com uma arquitetura von Neumann. E isso ocorre porque as coisas são tão gerais que podem ser facilmente programadas para fazer, essencialmente, qualquer coisa. Mas os computadores analógicos podem (ou poderiam, nos anos 60 ou próximos) resolver alguns tipos de problemas mais rapidamente do que um computador digital. Mas eles caíram em desuso exatamente devido à falta de flexibilidade. Ninguém quer conectar manualmente circuitos com amplificadores operacionais e comparadores para resolver y .

mindcrime
fonte