Inteligencia artificial
Google

Sundar Pichai sobre la IA: “No tengo ninguna duda de que debe ser regulada”

Este asunto, insiste el director ejecutivo de Alphabet y Google en una tribuna que publica en el diario 'Financial Times', “es demasiado importante como para no hacerlo". La única cuestión, asevera, es cómo abordar esta regulación.

Sundar Pichai, Google
Sundar Pichai, CEO de Google, durante su intervención en Google I/O 2018.

“Hay preocupaciones reales sobre las posibles consecuencias negativas de la inteligencia artificial, desde falsificaciones profundas hasta usos nefastos del reconocimiento facial”, reconoce Sundar Pichai, director ejecutivo de Alphabet y Google, en una tribuna que publica en Financial Times donde subraya la necesidad de regular esta tecnología.

El directivo recuerda que la UE y los Estados Unidos ya están empezando a desarrollar propuestas de regulación aunque insta a que se produzca un alineamiento internacional en esta materia: “Será fundamental para que las normas mundiales funcionen”, expone, añadiendo que “para lograrlo, necesitamos un acuerdo sobre los valores fundamentales”.

Pichai apunta que empresas como la suya “no pueden limitarse a construir nuevas tecnologías prometedoras y dejar que las fuerzas del mercado decidan cómo se utilizarán. También nos incumbe a nosotros asegurarnos de que la tecnología se aproveche para el bien y esté disponible para todos”.

Por eso, indica, Google publicó en 2018 unos principios para ayudar a guiar el desarrollo ético y el uso de la inteligencia artificial. Unas directrices que, relata, les ayudan a evitar los prejuicios, a probar de forma rigurosa la seguridad, a diseñar teniendo en cuenta la privacidad y a hacer que la tecnología sea responsable ante las personas. “También especifican las áreas en las que no diseñaremos o implementaremos la IA, como por ejemplo para apoyar la vigilancia masiva o la violación de los derechos humanos”. Además, añade, la compañía ha creado herramientas para ponerlos en práctica. “Cualquier empresa que desarrolle nuevas herramientas de IA debe adoptar también principios rectores y procesos de revisión rigurosos”, señala.

 

“No tenemos que empezar de cero”

En lo que respecta a la regulación gubernamental, apunta el directivo: “No tenemos que empezar de cero”, refiriéndose a normas existentes, como GDPR (el Reglamento General de Protección de Datos de Europa) como una base para regular estas tecnologías.

Según éste, tener en cuenta la seguridad, la explicabilidad, la justicia y la responsabilidad para garantizar que se crean las herramientas adecuadas de la manera correcta son aspectos fundamentales en cualquier regulación de este tipo. Sin olvidar “adoptar un enfoque proporcionado, equilibrando los daños potenciales, especialmente en áreas de alto riesgo, con las oportunidades sociales”.

La inteligencia artificial tiene el potencial de mejorar miles de millones de vidas, y el mayor riesgo puede ser no hacerlo”, concluye.



Contenido Patrocinado

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital