Inteligencia artificial

El sector de la inteligencia artificial se moviliza contra las armas autónomas

La organización Future of Life Institute (FLI) ha conseguido el compromiso de investigadores, expertos y empresas para no construir armas autónomas de guerra. Entre ellos se encuentran firmas como Google DeepMind o personalidades como Elon Musk.

inteligencia artificial

 

Desde que la inteligencia artificial empezó a tomar forma como ciencia –hace aproximadamente 60 años– las implicaciones éticas e incluso legales han sido siempre una constante. Eso sí, más auspiciadas por visiones y relatos futuristas que por lo que en realidad podía mostrar de cara a la sociedad. Pero ahora, que vivimos ya en una fase de implementación –aunque sea bastante inicial comparado con lo que puede llegar a realizar– en sociedades y empresas, los grupos de expertos y de trabajo se han puesto manos a la obra para fomentar un buen uso y moral de la inteligencia artificial.

Claro ejemplo de ello es la organización Future of Life Institute (FLI) que ha conseguido el compromiso de investigadores, expertos y empresas para no construir armas autónomas de guerra. De las 160 compañías y organizaciones firmantes de 36 países distintos y los 2.400 expertos de 90 geografías se encuentran gigantes como Google DeepMind, la Asociación Europea de AI (EurAI) o personalidades como Elon Musk.

Este acuerdo ha sido anunciado por Max Tegmark, presidente de la (FLI) en el marco de la Conferencia Anual Internacional Conjunta sobre Inteligencia Artificial (IJCAI) que ha llevado a más de 5.000 personas a Estocolmo (Suecia) durante esta semana. Durante su discurso, advirtió de los peligros que encierran los sistemas de armas autónomas que pueden identificar, apuntar y matar a cualquiera sin necesidad de que haya una supervisión humana. “Lo cierto es que la inteligencia artificial ya está lista para desempeñar un papel cada vez más importante en los ejércitos y sistemas militares”, expuso. “Y en paralelo ha surgido la necesidad y la oportunidad para que ciudadanos, legisladores y líderes de todo el mundo distingan entre los usos aceptables e intolerables de esta tecnología”.

Otra de las preocupaciones que se mostraron durante el evento fue la de la posibilidad de que estas máquinas sean hackeadas o terminen en el mercado negro y acaben en manos de bandas de delincuentes. “No podemos otorgar la decisión sobre quién vive o quién muere a las máquinas. No tienen la ética para hacerlo”, aseveró Toby Walhs, profesor de inteligencia artificial de la Universidad de Nueva Gales del Sur, en Sidney (Australia).

 

Claire, la iniciativa europea

En paralelo a esta conferencia ha surgido en los últimos meses el proyecto Claire, por el cual más de 1.000 expertos europeos reclaman un proyecto común para esta ciencia que sea “responsable” y que apueste por una tecnología que “complemente y no sustituya al ser humano”.

Una de las voces protagonistas de esta estrategia es la del director del Instituto de Investigación de Inteligencia Artificial del Centro Superior de Investigaciones Científicas, Ramón López de Mántaras, quien, en declaraciones a ComputerWorld, aseguraba que el objetivo es exportar un modelo europeo a todo el mundo frente a las intenciones de otras grandes potencias como China y Estados Unidos que, además de llevar bastante ventaja competitiva con respecto al Viejo Continente, muestran mucho entusiasmo por estas armas autónomas y no se preocupan tanto por la privacidad. “Tenemos que preservar nuestros valores, ampliarlos y exportarlos”, aseguraba.



Contenido Patrocinado

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital