Eu me pergunto por que o treinamento de RNNs normalmente não usa 100% da GPU.
Por exemplo, se eu executar esse benchmark RNN em um Maxwell Titan X no Ubuntu 14.04.4 LTS x64, a utilização da GPU será inferior a 90%:
O benchmark foi lançado usando o comando:
python rnn.py -n 'fastlstm' -l 1024 -s 30 -b 128
Como posso diagnosticar qual é o gargalo?
fonte