La empresa, que lleva desde principios de la década de los 2000 invirtiendo en "tecnología y equipos, trabajando con organizaciones como la Internet Watch Foundation (IWF)" para "luchar contra la propagación de material de abuso sexual infantil (CSAM)", ha anunciado una nueva Inteligencia Artificial avanzada que permitirá a proveedores de servicios, ONG y compañías tecnológicas revisar el CSAM a gran escala.
Redes neuronales contra el contenido abusivo
Según la Gran G, "mediante el uso de redes neuronales profundas de procesado de imágenes, ahora podemos ayudar a los revisores a filtrar a través de muchas imágenes, priorizando el contenido más parecido al CSAM para su revisión". Además, esta IA funcionará incluso con imágenes que todavía no hayan sido catalogadas y marcadas como CSAM.
Básicamente, usando el contenido marcado como abusivo, analizará el resto de archivos buscando coincidencias. Al encontrar una, esta le será notificada al encargado de la moderación para que lo priorice sobre el resto de imágenes o vídeos.
Las primeras pruebas apuntan a que este sistema puede detectar un 700% más de contenido CSAM en el mismo periodo de tiempo que los sistemas tradicionales
De hecho, desde Google afirman que sus primeras pruebas apuntan a que este sistema puede detectar un 700% más de contenido CSAM en el mismo periodo de tiempo que los sistemas tradicionales. De esa forma, los jóvenes que estén sufriendo esta situación podrán ser identificados con mayor rapidez, previniendo y protegiendo de futuros abusos. Además, gracias a la IA, serán menos los trabajadores que tendrán que exponerse a este contenido.
Google ha liberado estas herramientas en la API de Content Safety, que estará disponible, al menos en primera instancia, para la IWF. Aun así, desde Google reconocen que "la tecnología por sí sola no es una panacea para este desafío social", aunque estos avances "representan un paso adelante para ayudar a [...] realizar este trabajo a gran escala".
Según recogen en BBC y de acuerdo a la Internet Watch Foundation, solo en el Reino Unido se encontraron alrededor de 80.000 sitios que alojaban contenido de abusos infantiles en 2017. Girando la mirada a España, hace un par de meses se desmanteló una de las principales redes de distribución de pornografía infantil, compuesta por 24 personas que operaban desde 14 provincias distintas.