En "La aventura del resplandor plateado", Sherlock Holmes resolvió un caso famoso no al descubrir una pista, sino al notar su ausencia. En ese caso, era un perro que no ladraba, y esa falta de ladridos ayudó a identificar al culpable. El hecho de que los humanos puedan hacer deducciones y aprender de algo que falta no es algo que se haya aplicado ampliamente al Aprendizaje automático, pero eso es algo que un equipo de investigadores que IBM quiere cambiar.

En un documento publicado a principios de este año , el equipo delineó un medio de utilizar los resultados que faltan para obtener una mejor comprensión de cómo funcionan los modelos de aprendizaje automático.

"Uno de los peligros del aprendizaje profundo es que se trata de una caja más o menos negra", explicó Amit Dhurandhar, uno de los miembros del equipo de investigación. "Así que es difícil determinar por qué se llegó a una determinada decisión. La respuesta puede ser precisa, pero en muchas aplicaciones críticas para el ser humano, como la medicina, eso es insuficiente".

IBM creó un sistema para "explicaciones contrastadas"

Para ayudar a comprender mejor cómo los algoritmos de aprendizaje automático llegan a sus decisiones, el equipo de IBM creó un sistema para "explicaciones contrastadas", buscando información que faltaba para comprender mejor cómo llegó a su conclusión un modelo de aprendizaje automático.

Lo que esto significa en la práctica, es que, por ejemplo, si un modelo de aprendizaje automático identifica fotos de un perro, este método puede usarse para mostrar no solo lo que el modelo de máquina está usando para identificar a un perro (como pelo y ojos) sino también qué cosas deben estar ausentes para que el modelo identifique a un perro (como que no tiene alas).

" Es una idea simple, pero es importante, y creo que otros se han perdido", dijo Pradeep Ravikumar, profesor asociado en el Departamento de Aprendizaje Automático de la Universidad Carnegie Mellon, que no está afiliado al equipo de IBM.

Ravikumar señala que el enfoque de IBM es ideal para hacer determinaciones en áreas donde un modelo de aprendizaje automático está haciendo distinciones binarias -algo está ahí o no lo está- lo que significa que, por ejemplo, si alguien se negó un préstamo, eso podría explicarse no solo por lo que está presente en un informe de crédito (como un valor predeterminado) sino por lo que no (como una persona que no tiene un título universitario).

Los humanos pueden trabajar con esos modelos para lograr mejores resultados

En el documento, el equipo de IBM pudo utilizar con éxito este enfoque con tres tipos diferentes de conjuntos de datos: imágenes fMRI de cerebros, números escritos a mano y un conjunto de datos de fraude de adquisiciones. En todos estos conjuntos de datos, los investigadores pudieron obtener una mejor comprensión de cómo los modelos de aprendizaje automático tomaron decisiones.

"Es interesante que los negativos pertinentes desempeñan un papel esencial en muchos dominios, donde las explicaciones son importantes", escribieron los investigadores. "Como tal, parece que son más útiles cuando las entradas en diferentes clases están 'cerca' entre sí. Por ejemplo, son más importantes cuando se distingue un diagnóstico de gripe o neumonía, en lugar de decir un microondas de un avión. "

La conclusión clave con este método, dice Dhurandhar, es que al ser más capaces de comprender la inteligencia artificial, los humanos pueden trabajar con esos modelos para lograr mejores resultados de los que el modelo de aprendizaje humano o automático podría hacer por sí mismo.

Además, entender por qué una computadora tomó la decisión hizo que las personas sean más propensas a seguir las recomendaciones de la modelo. "La gente quiere saber por qué fueron recomendadas", dijo. "Y luego, una vez que lo saben, mejora su disposición a comprarlo"

¡No te pierdas nuestra pagina de Facebook!!