Facebook Inc. anunció el miércoles que eliminó en el último trimestre 8.7 millones de imágenes de usuarios con desnudos infantiles gracias a la ayuda de un software que detecta automáticamente este tipo de fotos.

La herramienta de aprendizaje automático implementada el año pasado identifica imágenes que contienen desnudos y un niño, lo que permite un mayor cumplimiento de la prohibición de Facebook de exhibir fotos que muestren a menores en un contexto sexualizado.

Un sistema similar también reveló el miércoles la detección de usuarios involucrados en intentar hacerse amigos de menores para la explotación sexual, una práctica conocida como «grooming» o ciberacoso.

La jefe de seguridad global de Facebook, Antigone Davis, dijo en una entrevista que la «máquina nos ayuda a priorizar» y «organizar de manera más eficiente» el contenido problemático para el equipo de supervisores de la compañía, que está analizando la utilización de la misma tecnología a su aplicación Instagram.

Presionado por reguladores y legisladores, Facebook ha prometido acelerar la eliminación del material considerado radical e ilícito. Los programas de aprendizaje automático que analizan las miles de millones de publicaciones diarias de los usuarios son esenciales para el éxito de su plan.

El aprendizaje automático es imperfecto y las agencias de noticias y los patrocinadores se encuentran entre los que se han quejado este año de los sistemas automatizados de Facebook que bloquean erróneamente sus publicaciones.

Davis dijo que los sistemas de seguridad infantil cometen errores, pero los usuarios pueden apelar.

«Preferimos errar por el lado de la precaución con los niños», sostuvo.

Durante años, las reglas de Facebook han prohibido incluso fotos familiares de niños con poca ropa subidas con «buenas intenciones», preocupado por cómo otros podrían abusar de esas imágenes.