Dile a alguien que no haga algo y, a veces, solo quieren hacerlo más. Eso es lo que sucedió cuando Facebook decidió poner banderas rojas en noticias [VIDEO]falsas desacreditadas. Los usuarios que querían creer en las historias falsas tenían sus fiebres encendidas y en realidad compartían los engaños. Eso llevó a Facebook a deshacerse de las banderas rojas incendiarias a favor de mostrar artículos relacionados con perspectivas más equilibradas de fuentes de noticias de confianza.

Ahora tiene dos tácticas más para reducir la propagación de desinformación

Facebook detalló en su evento Fighting Abuse @Scale en San Francisco.

El director de integridad de News Feed de Facebook, Michael McNally, y la científica de datos Lauren Bose, hablaron sobre todas las formas en que interviene. La compañía está tratando de caminar una delgada línea entre la censura y la sensibilidad.

En primer lugar

En lugar de llamar más la atención a las noticias falsas, Facebook quiere que sea más fácil perder estas historias mientras se desplaza. Cuando los terceros verificadores de Facebook verifiquen que un artículo sea inexacto, Facebook reducirá el tamaño de la publicación de enlace en el News Feed. "Reducimos la prominencia visual de las historias de alimentación que son verificadas por hechos falsos", me confirmó un vocero de Facebook.

Las noticias que se confirman como falsas en el móvil se muestran con el título y la imagen en una sola fila de espacio más pequeña.

A continuación, un cuadro de Artículos relacionados muestra historias etiquetadas como "Fact-Checker" que desacreditan el enlace original. Mientras tanto, a la derecha, la imagen de un artículo de noticias real aparece unas 10 veces más grande, y su título tiene su propio espacio.

En segundo lugar

Facebook ahora está utilizando el aprendizaje automático para mirar artículos recientemente publicados y escanearlos en busca de signos de falsedad. Combinado con otras señales como los informes de los usuarios, Facebook puede usar puntajes de predicción de alta falsedad de los sistemas de aprendizaje automático para priorizar los artículos en su lista de comprobadores de hechos. De esta manera, los verificadores de datos pueden pasar su tiempo revisando artículos que ya están calificados para probablemente estar equivocados.

"Usamos el aprendizaje automático para ayudar a predecir cosas que podrían ser más bien noticias falsas, para ayudar a priorizar el material que enviamos a los inspectores de datos (dado el gran volumen de material potencial)", confirmó un vocero de Facebook. La red social ahora trabaja con 20 verificadores de datos en varios países del mundo, pero todavía está tratando de encontrar más con quien asociarse. Mientras tanto, el aprendizaje automático asegurará que su tiempo se use de manera eficiente.