Facebook eliminó casi 600 millones de cuentas falsas este año

Ajustar Comentario Impresión

En medio de su campaña contra el contenido no deseado, Facebook reveló hoy por primera vez su "informe de cumplimiento de normas comunitarias", documento donde se detallan las medidas tomadas por la red social contra posteos que muestren violencia gráfica, desnudez y actividad sexual, propaganda terrorista, discursos de odio y spam, entre otros.

"En el informe, verás que en los primeros tres meses de este año eliminamos 837 millones de mensajes no deseados e inhabilitamos 583 millones de cuentas falsas", escribió Mark Zuckerberg en un post en su red social.

Los mecanismos regulatorios de la red social lograron también deshacerse de 21 millones de publicaciones de desnudos de adultos o material pornográfico durante el primer trimestre de 2018.

837 millones de mensajes spam fueron eliminados, casi todos detectados antes de que fueran reportados por los usuarios.

"Puede ser que un contenido cuente con muchas visualizaciones pero tenga un nivel de severidad bajo, mientras que hay otros que son vistos pocas veces pero tienen una severidad alta", ejemplificó sobre la dinámica de trabajo Alex Schultz, vicepresidente de Analítica de Datos de Facebook.

La mayor parte del trabajo que hacen para eliminar contenido inapropiado involucra cuentas falsas y el spam que estas generan.

De acuerdo con el reporte, alrededor de 6.5 millones de cuentas falsas se crearon en el periodo de enero al 31 de marzo, pero la red social asegura que la mayoría fueron deshabilitadas minutos después del registro. Este dato se suma a las tareas de prevención que evitan que millones de cuentas falsas sean creadas diariamente.

"En general, estimamos que de cada 10,000 piezas de contenido en Facebook, de 7 a 9 tenían contenido que violaba nuestros estándares", indicó la red social en un comunicado.

En este punto, Rosen agregó que mejoraron las técnicas vinculadas a revisar "contenidos de odio", pero admitió que todavía queda un "largo camino por delante". De los 2,5 millones de mensajes de odio moderados en el periodo mencionado, solo el 38 % fueron identificados por sus algoritmos. En ese último ámbito, la compañía de Mark Zuckerberg ha incorporado herramientas de Inteligencia Artificial, que son capaces de encontrar y moderar contenido sin la necesidad de que los usuarios lo reporten como sospechoso.

Por ejemplo, afirmó, la IA todavía no es buena para determinar si alguien está promoviendo discursos de odio o está describiendo algo que le pasó para difundir el problema.