La industria de los semiconductores está actualmente atrapada en medio de lo que llamo la tercera gran ola de desarrollo de silicio para el procesamiento de datos. Esta vez, el aumento de la inversión está impulsado por la creciente exageración y el prometedor futuro de la Inteligencia Artificial, que se basa en las técnicas de aprendizaje automático conocidas como Aprendizaje profundo.

La primera ola de procesadores de silicio comenzó con la invención del microprocesador

Como veterano con más de 30 años en el negocio de los chips, he visto este tipo de ciclo jugar dos veces antes, pero la cantidad de dinero invertida en el profundo espacio de aprendizaje de hoy es mucho más que la cantidad invertida durante los otros dos ciclos combinados.

La primera gran ola de procesadores de silicio comenzó con la invención del microprocesador a principios de los 70. Hay varios demandantes del título del primer microprocesador , pero a principios de la década de 1980, estaba claro que los microprocesadores iban a ser un gran negocio, y casi todas las principales compañías de semiconductores (Intel, TI, Motorola, IBM, National Semiconductor) tenían saltó a la carrera, junto con una serie de nuevas empresas.

Estas nuevas empresas (Zilog, MIPS, Sun Microsystems, SPARC, Inmos Transputer) llevaron la nueva invención en nuevas direcciones. Y aunque Intel claramente dominó el mercado con sus volúmenes controlados por computadora, muchos jugadores continuaron invirtiendo fuertemente en los 90.

Gráficos tridimensionales

A medida que las guerras de microprocesadores se asentaron en una distensión dominada por Intel (con brotes periódicos de compañías como IBM, AMD, Motorola, HP y DEC), un nuevo enfoque para la energía de muchos de los diseñadores de procesadores experimentados que buscan un nuevo desafío surgió: gráficos tridimensionales.

El éxito altamente visible de Silicon Graphics, Inc. mostró que había un mercado para imágenes bellamente renderizadas en las computadoras. El estándar de PC evolucionó para permitir la adición de tarjetas aceleradoras de gráficos a principios de los 90, y cuando SGI lanzó el estándar OpenGL en 1992, se habilitó un mercado para unidades de procesamiento de gráficos (GPU) diseñadas de forma independiente .

Startups como Nvidia, Rendition, Raycer Graphics, ArtX y 3dfx tuvieron su oportunidad en el negocio. Al final de la década, ATI compró ArtX y se establecieron los sobrevivientes de esta segunda ola de desarrollo de procesadores de silicio. Si bien las arquitecturas basadas en RISC como ARM, MIPS, PowerPC y SPARC persistieron (y en el caso de ARM, floreció), la acción en los microprocesadores nunca volvió a la de finales de los 80 y principios de los 90.

La competencia entre Nvidia y ATI (finalmente adquirida por AMD) impulsó rápidos avances en GPU, pero la barrera de entrada para los competidores fue lo suficientemente alta como para asustar a la mayoría de los nuevos participantes.

Elementos necesarios para acelerar el desarrollo de sistemas de aprendizaje profundo

En 2006, Geoffrey Hinton publicó un documento que describía cómo se podría mejorar una Tecnología conocida como redes neuronales añadiendo más capas a las redes. Este descubrimiento cambió el aprendizaje automático al aprendizaje profundo. En 2009, Andrew Ng, un investigador de la Universidad de Stanford, publicó un documento que muestra cómo el poder de computación de las GPU podría usarse para acelerar de manera dramática los cálculos matemáticos requeridos por las redes neuronales convolucionales (CNN).

Estos descubrimientos, junto con el trabajo de personas como Yann LeCun y Yoshua Bengio, entre muchos otros, establecen los elementos necesarios para acelerar el desarrollo de sistemas de aprendizaje profundo: grandes conjuntos de datos etiquetados, informática de alto rendimiento, nuevos algoritmos de aprendizaje profundo y la infraestructura de Internet para permitir el trabajo a gran escala y el intercambio de resultados en todo el mundo.

El ingrediente final requerido para lanzar mil (o al menos varios cientos) negocios fue dinero, que pronto comenzó a fluir en abundancia con fondos de capital de riesgopara las empresas de inteligencia artificial casi se duplica cada año a partir de 2012. En paralelo, las grandes empresas (grandes empresas semiconductoras establecidas como Intel y Qualcomm y empresas informáticas como Google, Microsoft, Amazon y Baidu) comenzaron a invertir mucho, tanto internamente como a través de adquisiciones.

En los últimos años, hemos visto la rápida creación de la tercera ola de desarrollo de procesadores de silicio, que se ha centrado principalmente en el aprendizaje profundo. Una diferencia significativa entre esta ola de desarrollo de procesadores de silicio y las dos primeras ondas es que los nuevos procesadores de inteligencia artificial o de aprendizaje profundo rara vez se comunican directamente con el software del usuario o las interfaces humanas; en cambio, estos procesadores operan con datos.

Dado este aislamiento relativo, los procesadores de inteligencia artificial son capaces de explorar alternativas de implementación radicalmente diferentes y nuevas que son más difíciles de aprovechar para los procesadores que están limitados por la compatibilidad del software o GUI.

Hay procesadores AI que se están construyendo de casi todas las formas imaginables, desde los circuitos digitales tradicionales hasta los circuitos analógicos (míticos, sintetizados) hasta los derivados de diseños de procesamiento de señales digitales existentes (Cadence, CEVA) y circuitos optimizados para aplicaciones especiales. computaciones (Intel Nervana, Google TPU, Graphcore).

Y una arquitectura de chip popular ha sido revivida por una tecnología de Inmos Transputer de 30 años: procesamiento sistólico (Wave Computing, TPU), demostrando que todo vuelve a ponerse de moda algún día.

Piense en el procesamiento sistólico como el fondo del negocio de procesadores de silicio. Incluso hay empresas como Lightmatter que buscan utilizar la luz en sí misma, un concepto conocido como procesamiento fotónico, para implementar chips AI.

El aprendizaje profundo es una tecnología nueva

Las posibilidades de mejoras fantásticas en el rendimiento y el consumo de energía son alucinantes, si podemos lograr que el procesamiento basado en la luz funcione. Esta inversión masiva en chips de aprendizaje profundo está persiguiendo lo que parece ser un gran mercado nuevo.

El aprendizaje profundo probablemente sea una tecnología nueva, generalizada y "horizontal", que se utiliza en casi todos los negocios y en casi todos los productos tecnológicos.

Existen procesadores de aprendizaje profundo en algunos de nuestros teléfonos inteligentes de hoy en día, y pronto estarán en wearables incluso de menor potencia, como dispositivos médicos y auriculares.

Los chips de aprendizaje profundo coexistirán con servidores estándar de la industria en casi todos los centros de datos, acelerando nuevos algoritmos de IA todos los días. El aprendizaje profundo será el núcleo de los nuevos superchips que permitirán vehículos de conducción verdaderamente autónomos en un futuro no muy lejano. Y, además de todo este silicio, innumerables ofertas de software competirán para establecerse como las nuevas Microsoft, Google o Baidu del futuro de aprendizaje profundo.

¡No te pierdas nuestra pagina de Facebook!!