Tecnología | Noticias | 04 SEP 2018

Google lanza una herramienta basada en IA para detectar material 'online' de abusos infantiles

De acuerdo con las primeras pruebas de Google, su software ha ayudado a tomar medidas en un 700% más de este tipo de contenido durante el mismo período de tiempo.
Inteligencia Artificial
Claudia Ortiz-Tallo

Es una realidad. La pornografía infantil, uno de los peores abusos imaginables, navega cada vez más por internet, aunque no esté al alcance de todo el mundo aparentemente. Por ello, muchas organizaciones están profundamente comprometidas con el fin de identificar y retirar este tipo de material al que denominan CSAM (Child Sexual Abuse Material).

Es el caso de Google, compañía que desde la década de los 2000 ha estado invirtiendo en tecnología, equipos y trabajando estrechamente con otras compañías expertas como Internet Watch Foundation (IWF), una de las organizaciones más grandes dedicadas a detener la propagación de CSAM online. Es más, la tecnológica ha presentado hoy una herramienta de software gratuito basado en inteligencia artificial avanzada para mejorar la forma en que las empresas interesadas puedan encontrar este tipo de contenido a gran escala.

Mediante el uso de redes neuronales para el procesamiento de imágenes, ahora Google puede ayudar a ordenar y revisar de forma mucho más rápida; además de encontrar contenidos que aún no se han clasificado como CSAM. De acuerdo con las primeras pruebas, su herramienta de inteligencia artificial ayudó a un moderador a "tomar medidas en un 700% más de contenido de CSAM durante el mismo período de tiempo".

IWF será una de las primeras compañías en probar el nuevo software de Google. "Nosotros, y en particular nuestros analistas expertos, estamos entusiasmados con el desarrollo de una herramienta de inteligencia artificial que podría ayudar a nuestros expertos humanos a revisar el material a una escala aún mayor y mantenerse al día con los delincuentes al orientar las imágenes que no se hayan marcado previamente como material ilegal. Al compartir esta nueva tecnología, la identificación de las imágenes podría acelerarse, lo que a su vez podría hacer que internet sea un lugar más seguro tanto para los sobrevivientes como para los usuarios",  ha explicado Susie Hargreaves OBE, CEO de Internet Watch Foundation.

Así pues, la  nueva identificación rápida de imágenes significa que los niños que sufren abusos sexuales hoy tienen muchas más probabilidades de ser identificados y protegidos de otros delitos.

Comentar
Para comentar, es necesario iniciar sesión
Se muestran 0 comentarios