Estoy en la Cumbre OpenStack en Vancouver, BC, Canadá. Hay muchas cosas interesantes sucediendo. Sin embargo, la mayoría son muy, muy, técnicos. Me interesa lo que OpenStack Foundation (OSF), sus miembros y los usuarios están haciendo para proporcionar soluciones para las aplicaciones. Como uno de mis enfoques es el aprendizaje automático (ML), una presentación el lunes por la tarde fue de particular interés

El código incluye llamadas para conocer los recursos disponibles en una GPU

Sylvain Bauza (@sylvainbauza), Ingeniero Senior de Software enRed Hat RHT + 1.22%, habló sobre un proyecto en OpenStack Nova.

El objetivo es permitir a Nova, el proyecto proporcionar, por ejemplo, aprovisionamiento, la capacidad de asignar el procesamiento en subconjuntos de nodos de una GPU. La idea es compartir una GPU entre varias instancias, lo que permite un procesamiento de peso más ligero para que se ejecute de manera más eficiente y más rentable y para aprovechar mejor los recursos en las GPU modernas con miles de nodos.

El código incluye llamadas para conocer los recursos disponibles en una GPU o un clúster y luego asignar el subconjunto a los procesos de OpenStack sin que el desarrollador tenga que conocer los detalles de la GPU individual o la codificación específica de la GPU (p. Ej .: CUDA). Lo que notará es que la última oración del párrafo anterior es la primera que insinúa NVIDIA .

La razón es que la firma líder en la arquitectura líder para ML no se encuentra en este proyecto.NVIDIA NVDA + 1.04% no es una compañía que es miembro de OSF.

Chasis de servidor NVIDIA HGX

ML y High Performance Computing (HPC) son excelentes aplicaciones para la nube, aprovechando la escalabilidad disponible en los clústeres de servidores.

Como las GPU son el procesador líder para ML, NVIDIA ha enfatizado fuertemente su capacidad para dirigirse a esa comunidad. En la NVIDIA GPU Technology Conference (GTC) 2018, NVIDIA presentó su marco PLASTER para abordar el desarrollo de ML (Nota: soy coautor del artículo vinculado).

Google y NVIDIA, también anunciados durante GTC, ahora brindan acceso directamente desde TensorFlow a TensorRT.

Se están realizando movimientos adicionales para respaldar un mejor aprovechamiento de las GPU en la nube para ML, HPC y otros segmentos de solución en crecimiento.

Tiene mucho sentido que NVIDIA trabaje con OpenStack para mejorar más rápidamente la capacidad de Nova de virtualizar CPU y, por lo tanto, ayudar a aprovechar esos potentes procesadores en más aplicaciones. El proyecto OpenStack Nova para vGPU es un intrigante paso adelante en la vinculación de piezas clave del entorno informático moderno.

¡No te pierdas nuestra pagina de Facebook!!