En muchas áreas, los Sistemas con mejores resultados se basan en redes neuronales profundas, como el reconocimiento de imágenes y la #generación de #redes neuronales profundas en el habla, todas las cuales ya se llaman métodos #predeterminados, que por supuesto son #complicadas. Al mismo tiempo, también se les llama "sistemas de caja negra" porque incluso explicar el comportamiento del sistema tiene cierto rendimiento, la interpretación real es muy difícil.

Percy Liang y su equipo:

También están estudiando cómo interpretar estos modelos, y están tratando de descubrir cómo un escenario de entrenamiento particular afecta las predicciones del modelo.

Observar el modelo desde esta perspectiva se ha vuelto cada vez más importante a medida que las tareas que realiza la IA se vuelven cada vez más complejas.

Por ejemplo, la forma de interpretar el #diagnóstico dado por AI Medical es realmente "de vida o muerte". "Si hay datos no conformes o antagónicos en los datos de capacitación, esto afectará el modelo (el modelo de daño) y el resultado es que el #próximo pronóstico para nuevas entradas puede ser incorrecto". El impacto que estamos estudiando las #funciones de #influencia nos permiten rastrear con precisión cómo un solo punto en los datos de entrenamiento afecta la predicción de una nueva entrada dada ", dijo Percy Liang.

Para decirlo:

Simplemente, al entender cómo un modelo toma sus propias decisiones, Percy Liang y su #equipo esperan mejorar el funcionamiento del modelo, encontrar nueva ciencia y tecnología y dar explicaciones a los usuarios #finales para que comprendan ¿Cómo se hará eso que los afecta?

Otro objetivo de la #investigación de Percy Liang es garantizar que la inteligencia artificial comprenda sus limitaciones y pueda comunicar sus limitaciones a los seres #humanos. Tradicionalmente, una de las métricas clave para probar los sistemas de IA era la precisión promedio, pero Percy Liang dijo que "esta no es una buena discusión de los problemas de seguridad para AI, después de todo, para un sistema con un 80% de confiabilidad ¿Qué deberían hacer los humanos?.

Según Percy Liang:

En realidad no tenía la intención de buscar un sistema que pudiera dar una respuesta #100% correcta en cualquier momento. Por el contrario, lo que espera aún más es que pueda expresarse claramente cuando la respuesta del sistema a la propia incertidumbre es incierta. Si el usuario le pregunta al sistema, "¿Cuántos analgésicos necesito para comer?", Puede ser mejor para el #sistema responder directamente a "No sé" que dar un pronóstico impreciso que podría ser peligroso.

Percy Liang y su equipo han propuesto una solución a este problema tratando de rastrear las predicciones del modelo a lo largo del #algoritmo de aprendizaje del modelo y #retrocediéndolo a la fuente de los parámetros del modelo. Esperan que este enfoque, al considerar los modelos desde una perspectiva de datos de capacitación, pueda ser parte de la forma estándar de desarrollar, comprender y diagnosticar el aprendizaje automático. Él explica que este enfoque puede vincularse a muchas aplicaciones diferentes, medicina, informática, sistemas de comprensión del lenguaje natural y una amplia variedad de #aplicaciones #comerciales de análisis de datos.

"Creo", concluyó Percy Liang, "Todo el mundo tiene cierta confusión sobre el papel de las pruebas de #simulación, algunas de ellas evaden por completo las pruebas de simulación, mientras que a otras les gusta hacer todo en las pruebas de simulación.

Para cambiar toda la cultura de investigación, los dos enfoques en realidad necesitan coexistir”.

Como se revela en la entrevista, Percy Liang y su equipo esperan establecer un nuevo marco para una nueva generación de algoritmos de #aprendizaje automático que les permita funcionar de manera más confiable y elegante, con menos riesgo, por supuesto.

¡No te pierdas nuestra pagina de Facebook!!