Ouvi uma palestra do painel composta por dois cientistas chineses influentes: Wang Gang e Yu Kai e outros.
Ao ser questionado sobre o maior gargalo do desenvolvimento da inteligência artificial em um futuro próximo (3 a 5 anos), Yu Kai, que tem experiência na indústria de hardware, disse que o hardware seria o problema essencial e que devemos pagar a maior parte do tempo. nossa atenção a isso. Ele nos deu dois exemplos:
- No desenvolvimento inicial do computador, comparamos nossas máquinas por seus chips;
- A inteligência artificial que é muito popular nos últimos anos seria quase impossível se não fosse capacitada pela GPU da Nvidia.
Os algoritmos fundamentais já existiam nas décadas de 1980 e 1990, mas a inteligência artificial passou por três invernos de IA e não foi empírica até que possamos treinar modelos com mega servidores com GPU.
O Dr. Wang comentou suas opiniões de que também deveríamos desenvolver sistemas de software porque não podemos construir um carro automático, mesmo que combinemos todas as GPUs e computação do mundo.
Então, como sempre, minha mente se desviou e comecei a pensar que e se aqueles que podem operar supercomputadores nas décadas de 1980 e 1990 utilizassem os algoritmos de rede neural então existentes e os treinassem com toneladas de dados científicos? Algumas pessoas na época podem obviamente tentar criar sistemas de IA que estamos construindo agora. Mas por que a IA se tornou um tópico importante e se tornou empírica até décadas depois? É apenas uma questão de hardware, software e dados?
fonte
Respostas:
Existem muitos fatores para o boom da indústria de IA. O que muitas pessoas sentem falta, no entanto, é que o boom ocorreu principalmente na parte Machine Learning da IA. Isso pode ser atribuído a vários motivos simples, juntamente com suas comparações em épocas anteriores:
Outro aspecto importante é que hoje em dia todo mundo tem acesso a computadores poderosos. Assim, qualquer pessoa pode criar novos modelos de ML, re-treinar modelos pré-existentes, modificar modelos etc. Isso não era possível em épocas anteriores,
Todos esses fatores levaram a um grande aumento no interesse no ML e causaram o boom que estamos vendo hoje. Verifique também esta questão sobre como estamos indo além dos processadores digitais.
fonte
As GPUs eram ideais para o boom da IA
A IA é pesquisada há muito tempo. Quase meio século. No entanto, isso foi tudo exploração de como os algoritmos funcionariam e pareceriam. Quando a NV viu que a IA estava prestes a se tornar popular, eles examinaram suas GPUs e perceberam que o enorme poder de processamento de paralelos, com relativa facilidade de programação, é ideal para a era que está por vir. Muitas outras pessoas também perceberam isso.
GPGPU é um conceito de uso do processamento paralelo da GPU para tarefas gerais. Você pode acelerar os gráficos ou fazer com que seu algoritmo use milhares de núcleos disponíveis na GPU. Isso torna a GPU um alvo incrível para todos os tipos de casos de uso, incluindo IA. Dado que eles já estão disponíveis e não são muito difíceis de programar, sua escolha ideal para acelerar os algoritmos de IA.
fonte