La GPU Technology Conference (GTC) de Nvidia [VIDEO]en San José, Estados Unidos, esta semana ofreció el escaparate habitual de las últimas innovaciones de #NVIDIA en aprendizaje automático (AI), vehículos autónomos, super computación científica e industrial, gráficos de estaciones de trabajo y robótica.

Acentuado por la habitual y apasionada entrega en el escenario, el CEO de Nvidia, Jensen Huang, ofreció un par de grandes conclusiones del show, más allá de la destreza de los procesadores de inteligencia artificial Volta y las estaciones de trabajo GPU profesionales. En resumen, la compañía está a punto de pisar el acelerador y alcanzar otra velocidad en la carrera de la IA, desde el punto de vista de la plataforma de silicio, y aquí hay solo un par de razones por las cuales Nvidia se deshizo de su próxima generación de motor de #procesamiento Volta V100 AI y en la superficie puede haber parecido una especie de descubrimiento sin sentido.

El nuevo módulo Volta basado en GPU ahora admite un total de 32 GB de HBM2 (memoria de ancho de banda alto), duplicando la huella de memoria del módulo multichip, que es fundamental para acomodar conjuntos de datos de AI cada vez mayores, permitiendo que el procesador permanezca en chip para el cálculo, versus salir a una memoria del sistema de latencia mucho más alta.

Ahora admite hasta el doble del número de módulos GPU

Sin embargo, más impresionante fue la presentación del nuevo supercomputador DGX-2 Machine Learning de la compañía, que ahora admite hasta el doble del número de módulos GPU Nvidia Volta, ahora a 16, por encima del máximo de 8 de la generación anterior. De nuevo, esto parece trivial pero en realidad no lo es.

Nvidia tuvo que diseñar un nuevo tipo de tejido de conmutación de súper baja latencia, que llama NVSwitch, que se basa en la tecnología NVLink anterior de la compañía, pero permite una conexión de barras cruzadas, sin bloqueo entre todos los complejos de procesadores.

Efectivamente, esto permite que la potencia de procesamiento total se duplique; matemáticas simples con el doble del conteo del procesador, por supuesto. Sin embargo, también permite un aumento de 4X en el espacio de memoria contigua, con los #módulos Volta duplicando su memoria a 32GB, y la cantidad de módulos en el sistema también se duplica con la capacidad de abordar y acceder a la memoria de los demás.

En conversación con algunos ejecutivos de Inteligencia Artificial de muy alto [VIDEO] rango en #Intel, señaló que también está trabajando de forma ferozmente competitiva en este espacio, con múltiples soluciones de FPGA a sus procesadores de red neuronal Nervana, este obstáculo de escalabilidad es #primordial. Se comentó que la arquitectura y el rendimiento del sistema son casi tan importantes como la arquitectura del procesador, porque si no puedes entrar y salir de la memoria local muy rápido, es como tener un Ferrari en la ciudad en las horas pico, puede que te veas bien, pero no vas a ninguna parte rápido.