#Microsoft no escatima esfuerzos para democratizar la inteligencia artificial. El último movimiento de Redmond tiene como objetivo permitir que casi todos los desarrolladores de #Windows creen aplicaciones con AI.

Microsoft ha anunciado que la próxima actualización importante de #Windows incluirá la posibilidad de ejecutar modelos de aprendizaje automático de forma nativa con aceleración de hardware. Esta característica convierte instantáneamente los #Dispositivos existentes de Windows, que van desde dispositivos IoT edge a HoloLens a dispositivos 2 en 1 y PC de escritorio, en dispositivos habilitados para AI. Los científicos de datos y los desarrolladores que crean modelos de inteligencia artificial se aprovecharán de esto para implementar aplicaciones inteligentes dirigidas a una gran base de usuarios.

Los modelos de aprendizaje automático tienen dos etapas esenciales

Capacitación e inferencia. La primera fase incluye la capacitación de un modelo para aprender de los patrones encontrados en los conjuntos de datos existentes. Normalmente, la capacitación se realiza en clústeres de servidores en la nube de alta gama impulsados ​​por GPU. Una vez que el modelo es probado y evaluado, puede predecir a partir de datos desconocidos y no vistos, lo que se denomina inferencia. Si bien el entrenamiento a menudo se limita a la nube,

Un modelo de inferencia se puede ejecutar en una amplia gama de dispositivos

Con la potencia suficiente. Los desarrolladores pueden usar Windows ML, un tiempo de ejecución que Microsoft integrará en Windows, para su inferencia en el tiempo de ejecución. La inferencia funciona fuera de línea sin dependencias en la nube, lo que la hace ideal para integrarse en dispositivos IoT y PC portátiles.

Los modelos de aprendizaje automático generalmente se desarrollan utilizando marcos populares como Apache MXNet, TensorFlow, Microsoft [VIDEO]CNTK, Caffe y Torch. Se espera que estos marcos estén presentes en el tiempo de ejecución para inferencias. La combinación de múltiples marcos de ML no es un escenario ideal para los proveedores de plataformas. Para abordar el tema de la interoperabilidad de los marcos de ML, Microsoft, #Facebook y Amazon anunciaron un ecosistema llamado Intercambio de redes neuronales abiertas (ONNX) . Posteriormente, otras empresas como AMD, ARM, Huawei, IBM, Intel y Qualcomm anunciaron su apoyo a ONNX.