Perguntas com a marcação «gpu»

33
Multi GPU em keras

Como você pode programar na biblioteca keras (ou tensorflow) para particionar o treinamento em várias GPUs? Digamos que você esteja em uma instância do Amazon ec2 com 8 GPUs e que gostaria de usá-los para treinar mais rapidamente, mas seu código é apenas para uma única CPU ou...

20
Usando o TensorFlow com a GPU Intel

Eu sou um novato em aprendizado profundo. Existe alguma maneira agora de usar o TensorFlow com GPUs Intel? Se sim, por favor, aponte-me na direção certa. Caso contrário, informe-me sobre qual estrutura (se houver) (Keras, Theano etc.) posso usar para o meu controlador gráfico integrado ao...

15
R: aprendizado de máquina na GPU

Existem pacotes de aprendizado de máquina para o R que podem usar a GPU para melhorar a velocidade do treinamento (algo como o theano do mundo python)? Vejo que existe um pacote chamado gputools que permite a execução de código na gpu, mas estou procurando uma biblioteca mais completa para...

11
Processamento de dados acelerado por GPU para R no Windows

Atualmente, estou escrevendo um artigo sobre Big Data, que utiliza R fortemente para análise de dados. Por acaso tenho um GTX1070 no meu pc por motivos de jogos. Assim, achei que seria muito legal se eu pudesse usar isso para acelerar parte do processamento de algumas das coisas que meus...

11
Devo usar GPU ou CPU para inferência?

Estou executando uma rede neural de aprendizado profundo que foi treinada por uma GPU. Agora eu quero implantar isso em vários hosts para inferência. A questão é: quais são as condições para decidir se devo usar GPUs ou CPUs como inferência? Adicionando mais detalhes dos comentários abaixo. Eu...

8
Alternando o Keras com o Tensorflow para GPU

Eu uso o combo Keras-Tensorflow instalado com a opção de CPU (foi dito ser mais robusto), mas agora eu gostaria de experimentá-lo com a versão GPU. Existe uma maneira conveniente de mudar? Ou devo reinstalar totalmente o Tensorflow? A versão da GPU é

8
Por que os RNNs de treinamento não usam 100% da GPU?

Eu me pergunto por que o treinamento de RNNs normalmente não usa 100% da GPU. Por exemplo, se eu executar esse benchmark RNN em um Maxwell Titan X no Ubuntu 14.04.4 LTS x64, a utilização da GPU será inferior a 90%: O benchmark foi lançado usando o comando: python rnn.py -n 'fastlstm' -l 1024...