Facebook revela por primera vez qué tipo de contenido remueve y cómo lo hace

26 May Facebook revela por primera vez qué tipo de contenido remueve y cómo lo hace

Un informe detalla los esfuerzos de la red social para eliminar todo tipo de material ofensivo de la plataforma. Los detalles.

Facebook publicó por primera vez este martes un balance cifrado de sus esfuerzos para suprimir de su plataforma los contenidos que infringen las reglas de uso, ya sean imágenes de carácter sexual, comentarios de odio o propaganda terrorista.

Según este informe inédito, que se inscribe dentro de los esfuerzos de transparencia del grupo confrontado al escándalo de Cambrige Analytica, 3,4 millones de imágenes violentas fueron suprimidas o acompañadas de una advertencia durante el primer trimestre de 2018, casi el triple que en el trimestre anterior.

Los 10 países más afectados por el escándalo de los datos de Facebook, compartidos con la empresa británica Cambridge Analytica. (Foto: AFP)

Los 10 países más afectados por el escándalo de los datos de Facebook, compartidos con la empresa británica Cambridge Analytica. (Foto: AFP)

Sin embargo, la revisión de contenido no tiene nada que ver con protección a la privacidad y busca mantener una atmósfera apropiada a todo público para usuarios, como así también sus anunciantes.

Datos esclarecedores

La red social de Mark Zuckerberg tomó en cuenta un periodo relativamente corto, de octubre de 2017 a marzo de 2018, y lo clasificó en seis áreas: violencia gráfica, desnudez en adultos y actividad sexual, propaganda terrorista, discurso de odio, spam y cuentas falsas.

Cada 10.000 publicaciones visualizadas en la plataforma, entre siete y nueve incluían material que violaba los estándares de la plataforma.

Facebook eliminó 2,5 millones de piezas de contenido consideradas como discurso de odio durante los primeros tres meses de este año. Agregó que 62% del contenido ofensivo fue etiquetado por los mismos usuarios, mientras que los editores humanos y algoritmos de la empresa detectaron el restante 38%.

Mirá también

Dos rebeliones de empleados terminan con cambios en Amazon y renuncias en Google

Los mecanismos regulatorios de la red social lograron también deshacerse de 21 millones de publicaciones de desnudos de adultos o material pornográfico durante el primer trimestre de 2018.

Mark Zuckerberg durante la conferencia de desarrolladores F8, reconoció los abusos que se realizar a través de la plataforma de Facebook. (AP Photo/Marcio Jose Sanchez, File)

Mark Zuckerberg durante la conferencia de desarrolladores F8, reconoció los abusos que se realizar a través de la plataforma de Facebook. (AP Photo/Marcio Jose Sanchez, File)

Un 96% de este material fue detectado y marcado incluso antes de que fuera reportado gracias al aprendizaje automático (machine learning), la visión por computadora y la inteligencia artificial. Estas nuevas tecnologías resultan claves para encontrar una mayor cantidad de contenido inapropiado, de forma más rápida, y a una escala muy superior a la humana.

Las herramientas automatizadas de la empresa detectaron de 86 a 99,5% de las violaciones en las categorías de violencia gráfica, desnudez, actividad sexual y propaganda terrorista.

Pero no todo es tan eficiente como parece, ya que Facebook asegura que en los casos más graves, como violencia gráfica o discursos de odio, la tecnología aún requiere de la participación de equipos de revisión, aclaró Alex Schultz, Vicepresidente de Análisis de Datos.

El informe de transparencia de Facebook señala que fueron desactivadas de 583 millones de cuentas falsas, la mayoría apenas unos minutos después de que fueran registradas. (Foto: AFP)

El informe de transparencia de Facebook señala que fueron desactivadas de 583 millones de cuentas falsas, la mayoría apenas unos minutos después de que fueran registradas. (Foto: AFP)

Por otra parte, se eliminaron 837 millones de mensajes no deseados, casi todos detectados antes de que fueran reportados por los usuarios. Y desactivaron alrededor de 583 millones de cuentas falsas, la mayoría apenas unos minutos después de que fueran registradas, según remarcan en el documento.

Mirá también

Las 5 novedades de WhatsApp que llegarán en los próximos meses

“No podemos cambiar el hecho de que la gente siempre intentará publicar contenido inapropiado en Facebook, ya sea que se trate de discursos de odio, propaganda terrorista o imágenes de explotación infantil. Pero podemos tratar de controlar cuántas veces es visto el contenido que infringe nuestras Normas Comunitarias”, remarcó Schultz.

Sin comentarios

Post A Comment