Recientemente, Foreign Media Future of Life entrevistó a Percy Liang, un conocido #investigador en el campo de la #inteligencia artificial, e introdujo algunos de sus puntos de vista sobre el aprendizaje automático [VIDEO] y sus objetivos de investigación. Lei Feng Net AI Technology Comments La traducción completa es la siguiente.

A fines de 2017:

La Cámara de Representantes de EE. UU. Aprobó el proyecto de ley de piloto automático [VIDEO], estableciendo el marco inicial para la regulación de vehículos autónomos. De hecho, los autos sin conductor han sido probados en la vía pública durante los últimos #20 años, y con la aprobación de esta ley y la mejora continua en la #seguridad de la tecnología de conducción autónoma, los autos con conducción autónoma también ocupan más lugar en nuestra vida diaria.

También se popularizará gradualmente una variedad de tecnologías no tripuladas en otros campos médicos, legales, de seguridad y de otro tipo.

Para que el futuro de la #humanidad coexista con las máquinas automáticas, los investigadores académicos, los desarrolladores empresariales y los usuarios por igual deben tener suficiente #confianza en estas tecnologías dependientes de la inteligencia artificial. Más que solo el caso obvio de vehículos autónomos que requieren la confianza de las personas, los guardias de seguridad y los asistentes personales virtuales en los teléfonos celulares usan inteligencia artificial, todo lo cual requiere la confianza de las personas.

Previsibilidad del aprendizaje automático

Percy Liang, #profesor asistente de informática en la Universidad de Stanford, explica que las interacciones diarias #humanas siempre requieren cierta predictibilidad, ya sea para otros humanos o para sistemas automatizados como los automóviles.

Una forma de crear esta previsibilidad es a través del aprendizaje automático.

En el campo del aprendizaje automático, las personas crean algoritmos de #inteligencia artificial basados ​​en datos recopilados en el pasado. Los desarrolladores no necesitan escribir código explícitamente para que la IA le diga qué hacer y cómo pensar, sino que el #sistema se observa a sí mismo a partir de los datos, aprende el esquema de datos y luego hace que los datos se ajusten al esquema de datos. Todo el proceso es un poco como "aprendizaje de prueba y error".

Una de las preguntas clave que la gente suele considerar en los sistemas de aprendizaje automático para las pruebas de #investigación y desarrollo es: "¿Por qué el sistema hizo esta #predicción?". Para los desarrolladores de investigación y desarrollo, esto se denomina "aprendizaje automático". Explicativo”.

En cuanto a por qué este es un tema de investigación importante:

Percy Liang cita un ejemplo: "Supón que estás cruzando la calle y un automóvil se dirige hacia ti, y para el conductor humano promedio, probablemente puedas adivinar qué haría.

Pero si #AI maneja este #automóvil, ¿cómo pueden los humanos saber cómo lo hará? "

Sin duda es importante que el sistema realice la tarea para obtener buenos resultados, pero quizás lo más importante es #explicar por qué lo hizo en términos simples y bien entendidos. Incluso si el sistema no es muy preciso, debe ser capaz de #interpretarse y predecirse. Para poder implementar la IA a gran escala de forma segura y #segura, estos sistemas de automatización deben basarse en suposiciones y principios de prueba básicos, realistas y bien entendidos.

La orientación teórica actual para el desarrollo de la IA es permitir que la IA se ajuste a la salida observable de los datos de entrenamiento. Sin embargo, según Percy Liang, esto puede llevar a que "los sistemas de piloto automático puedan funcionar bien en las pruebas de verificación, pero no entienden el juicio de valor #humano detrás de las necesidades humanas de salida".

Por supuesto, es importante hacer muchas pruebas. Según Percy Liang, este tipo de prueba de simulación es "una buena #técnica de depuración que podemos usar para #facilitar el control de las pruebas de variables y ayudarnos a iterar los sistemas más rápido".

Sin embargo, para saber realmente si una #tecnología funciona, "tiene que probarse en situaciones del mundo real sin una forma fácil", dijo Percy Liang. "Se trata de lenguaje, visión y robótica". Es probable que un #automóvil que se conduce solo funcione bien en todos los entornos de prueba, pero no tenemos manera de predecir con precisión lo que hace ante desastres naturales impredecibles.