Nvidia libera nova versão do TensorRT para acelerar aprendizado de máquina

IDG News Service
28/06/2017 - 11h50
Segundo fabricante, sistema baseado em GPU é mais rápido e eficiente em termos de energia, além de oferecer resultados com menor latência

A Nvidia lançou uma nova versão do TensorRT, um sistema de tempo de execução que usa modelos de aprendizado profundo através das próprias GPUs da Nvidia. 

O sistema é usado para servir inferências ou previsões feitas a partir de um modelo treinado, e podem ser atendidos a partir de CPUs ou GPUs. 

Servir inferências a partir de GPUs faz parte da estratégia da Nvidia para obter uma maior adoção de seus processadores, contrariando o que a AMD está fazendo para quebrar o domínio da Nvidia no mercado de GPU de aprendizado de máquinas.

A Nvidia afirma que o TensorRT baseado em GPU é melhor para a inferência do que as abordagens somente para CPU. Um dos padrões de referência oferecidos pela fabricante, o teste de classificação de imagem AlexNet sob a estrutura da Caffe, afirma que o TensorRT é 42 vezes mais rápido do que a versão somente do CPU do mesmo teste - 16.041 imagens por segundo contra 374 - quando executado no processador Tesla P40 da Nvidia.

As previsões de uma GPU também são mais eficientes em termos de energia e oferecem resultados com menor latência, diz a Nvidia.

Entretanto, o TensorRT não funciona com qualquer outra coisa que não seja a própria linha de GPUs da Nvidia, e é uma oferta proprietária e de fonte fechada. 

A AMD, ao contrário, prometeu uma abordagem mais aberta de como suas GPUs podem ser usadas para aplicações de aprendizado de máquinas, por meio da biblioteca de hardware independente open source ROCm.