#NVIDIA y Arm acaba de anunciar que se están asociando para llevar la tecnología de inferencia de aprendizaje profundo [VIDEO]a dispositivos móviles, dispositivos electrónicos de consumo e Internet of Things. Como resultado de la asociación, #NVIDIA y Arm integrarán la arquitectura NVIDIA (Acelerador de Aprendizaje Abierto) de fuente abierta de NVIDIA en la plataforma Trillium Project de Arm para el aprendizaje automático

"La aceleración de la inteligencia artificial en el límite es fundamental para permitir la visión de Arm de conectar un billón de dispositivos IoT", dijo Rene Haas, vicepresidente ejecutivo y presidente de IP Group en Arm.

"Hoy estamos un paso más cerca de esa visión al incorporar #NVDLA en la plataforma Trillium de Arm Project, ya que todo nuestro ecosistema se beneficiará de inmediato de la experiencia y capacidades que aportan nuestras dos compañías en #IA e IoT".

Parte integral de la plataforma

La colaboración está destinada a simplificar la integración de AI en las empresas de dispositivos y chip de IoT. Arm's Project Trillium es parte integral de la plataforma de cómputo Heterogenous ML, y aprovecha los procesadores Arm ML, el procesador de detección de objetos Arm (OD) y el software de fuente abierta Arm NN. NVDLA de NVIDIA es una arquitectura libre y abierta destinada a promover un método estándar para diseñar aceleradores de inferencia de aprendizaje profundo. Se basa en la arquitectura de la #plataforma Xavier de NVIDIA y es escalable, configurable y está diseñado para simplificar la integración y la portabilidad.

Es compatible con muchas de las herramientas de desarrollo de NVIDIA

Las inferencias se convertirán en una capacidad central de cada dispositivo IoT en el futuro", dijo Deepu Talla, vicepresidente y gerente general de Autonomous Machines en NVIDIA. "Nuestra asociación con Arm ayudará a impulsar esta ola de adopción facilitando [VIDEO] que cientos de empresas de chips incorporen tecnología de aprendizaje profundo".

NVDLA es compatible con muchas de las herramientas de desarrollo de NVIDIA , incluidas las próximas versiones de TensorRT, que es un optimizador de inferencia de aprendizaje profundo de alto rendimiento y tiempo de ejecución. La naturaleza de código abierto de NVDLNA y otros proyectos de código abierto permite que las funciones se agreguen regularmente, incluidas las aportadas por otros en la comunidad de investigación.