Inteligencia artificial

"Google no debería entrar en el negocio de la guerra"

3.000 empleados han lanzado un comunicado en el que piden al gigante de Internet que abandone el proyecto Mavern en el que, según los firmantes, la compañía investiga el uso de la inteligencia artificial para mejorar la precisión de los ataques con drones militares del ejército de los Estados Unidos.

Google edificio

 

Una importante facción de la fuerza trabajadora de Google ha pedido, a través de una carta abierta dirigida a Sundar Pichai, director ejecutivo de la multinacional, que deje de trabajar en el proyecto Mavern. Se trata de un plan por el cual la compañía investiga el uso de inteligencia artificial para mejorar la precisión de los ataques con drones militares del ejército de los Estados Unidos.

La misiva, firmada por más de 3.000 de los 88.000 empleados de Google en todo el mundo, advierte de los posibles daños “irreparables” que dichas actividades pueden causar a la reputación de la marca. “Creemos que no deberíamos entrar en el negocio de la guerra”, aseguran los empleados. “Por lo tanto, pedimos que se cancele el proyecto Mavern y que la empresa redacte, publique y aplique una política clara que establezca que ni Google ni sus contratistas desarrollarán nunca tecnología de guerra”.

Del escrito participan, según ha publicado New York Times, decena de ingenieros superiores que ya han trasladado sus preocupaciones a la dirección de forma interna. La primera en hablar claro al respecto ha sido Diane Green, directora del negocio en la nube de la corporación, quien ha dicho a sus empleados que esta tecnología no se usará para lanzar armas o para operar en drones.

Asimismo, la compañía ha confirmado que el Pentágono está utilizando algunas de sus tecnologías de reconocimiento de imágenes como parte de un proyecto militar. Un portavoz de Google ha declarado a la BBC que Mavern es un proyecto del Departamento de Defensa y que Google está trabajando en una sección específica con fines “no ofensivos” y utilizando un software de código abierto. “Tenemos la intención de salvar vidas y evitar que la gente tenga que hacer un trabajo sumamente tedioso. Lógicamente, cualquier uso militar del aprendizaje automático plantea preocupaciones válidas. Pero estamos comprometidos a hacer un debate exhaustivo y con expertos mientras que continuamos desarrollando nuestras políticas en torno a estas cuestiones”.

Sin embargo, los empleados que han protagonizado la carta miran con recelo estas actividades y creen que el gigante de la Red está poniendo la confianza de los usuarios, además de ignorar su responsabilidad moral y ética. “No podemos subcontratar la responsabilidad moral de nuestras tecnologías a terceros”, reza el comunicado.



Contenido Patrocinado

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital