QNAP Mustang-V100 y Mustang-F100, acelerando el Aprendizaje Profundo

QNAP anunció el lanzamiento de dos tarjetas aceleradoras de cálculo diseñadas para el Aprendizaje Profundo / Deep Learing, hablamos de la Mustang-V100 y la Mustang-F100.

La diferencia entre ambas es que la primera tarjeta aceleradora está basada en una VPU y la segunda en un FPGA. Ambas llegan para convertirse en una solución económica de aceleración para la inferencia de la Inteligencia Artificial además de funcionar con el conjunto de herramientas OpenVINO para las tareas de clasificación de imágenes y visión por ordenador de alto rendimiento. Se incluye también el Optimizador de Modelos y el Motor de Inferencia para optimizar los modelos de aprendizaje profundo preconfigurados como el popular TensorFlow o Caffe.

Mustang-V100

La QNAP Mustang-V100-MX8-R10 integra en su interior una VPU Intel Movidius Myriad X MA2485 de 8 núcleos. Emplea una interfaz PCI-Express 2.0 x4 y consume menos de 30W. Tiene un diseño de perfil bajo, requiere de un conector PCI-Express de 6 pines, y se refrigera mediante un gran disipador de aluminio con un pequeño ventilador.

Mustang-F100

La QNAP Mustang-F100-A10-R10 crece en dimensiones, ya que en su interior nos encontramos con un FPGA Intel Arria 10 GX1150 junto a 8 GB de memoria DDR4 que ya depende de una interfaz PCI-Express 3.0 x8 con un consumo de hasta 60W. Mantiene el conector PCI-Express de 6 pines pero emplea un sistema de refrigeración de doble ventilador.

La entrada QNAP Mustang-V100 y Mustang-F100, acelerando el Aprendizaje Profundo aparece primero en El Chapuzas Informático.

via Hardware – El Chapuzas Informático

No hay comentarios