Opinión
Inteligencia artificial
IA
IA generativa
Especial IA ComputerWorld 2023

IA, la herramienta definitiva que 'acabará con la humanidad', a debate

Del pasado hemos aprendido que, en la mayoría de los casos, las desventajas de una tecnología no residen en ella misma, sino en el uso en que las personas hacemos de ella. La IA no es la excepción.

inteligencia artificial
Foto de Cottonbro Studio (Pexels).

La inteligencia artificial es, sin duda, una tecnología disruptiva. Ya, en los inicios de su implementación real, está causando cierta conmoción en la sociedad motivada por las peculiaridades asociadas a ella. Pero la gran pregunta es por qué el desconcierto actual no ocurrió con otras innovaciones similares precedentes, tal es el caso de Internet o, en su momento, la máquina de vapor. En este último caso, durante la revolución industrial, cabe destacar que sí hubo un movimiento contrario: el ludismo, encabezado por artesanos ingleses que, en el siglo XIX, protestaron contra las máquinas que destruían y despersonalizaban el empleo. Sin embargo, esta resistencia al progreso motivada por los sinsabores que, sin duda, también pueden traer las innovaciones, fue superada por las ventajas que, también indudablemente, trajeron las máquinas a nuestras vidas.

Del pasado hemos aprendido que, en la mayoría de los casos, las desventajas de una tecnología no residen en ella misma, sino en el uso en que las personas hacemos de ella. Un martillo podemos usarlo para clavar un clavo o para acabar con la vida de alguien. Los automóviles podemos  utilizarlos para trasladarnos con mayor eficiencia pero también se producen atropellos (la mayoría de las veces por causas derivadas de la mala conducción de la persona). No por ello dejamos de usar estos ‘inventos’ tecnológicos, debido a una cuestión básica. Nos parecen útiles.

En el momento actual en el que nos encontramos, la utilidad de esta herramienta de gestión masiva de datos que es la IA es innegable. Vivimos rodeados de un mundo de datos cuyo crecimiento es exponencial. Nosotros, como humanos, no somos capaces de procesar -con la eficiencia y rapidez de las máquinas- este gran volumen de datos, necesitamos de los algoritmos para ‘aumentar’ nuestra capacidad física de análisis y aprovechar así las grandes ventajas derivadas del manejo apropiado de estos datos: tratamientos médicos personalizados, previsiones basadas en patrones extraídos de los datos, entre otras muchas.

Las ventajas de la utilización y desarrollo de la IA son indudables, pero también los riesgos asociados a su mal uso, ya sea deliberadamente o por inconsciencia de las medidas a aplicar para conseguir su uso/desarrollo correcto.

La IA es una herramienta muy potente que, por su peculiaridad de ‘toma de decisiones’ o ‘conclusiones’ de manera autónoma (entre otras cuestiones), requiere de una serie de ‘cuidados’ importantes. A nivel internacional se han estereotipado una serie de principios éticos asociados a los posibles ‘sesgos’ (por la posibilidad de discriminación), explicabilidad (de la ‘decisión’), ‘transparencia’ en los datos utilizados, la seguridad y robustez del sistema de IA, o la ‘supervisión humana’. De todos ellos, este último es uno de los más destacables. Es muy necesario que la persona siga manteniendo el control en la toma de decisiones que supone una repercusión para los derechos fundamentales de la persona, su seguridad, o un peligro para el medioambiente.

Sin embargo, más allá de la ética, y teniendo en cuenta el potencial (en el bien y el mal) de esta tecnología, la comunidad internacional cada vez ve más necesaria una regulación específica que ‘limite’ no la tecnología en sí misma, sino sus posibles riesgos. Y en esto la UE está siendo pionera con su AI act, que previsiblemente acabará de aprobarse a finales de este año. El enfoque es, en mi opinión, correcto y oportuno: basado en el riesgo, establece una especie de semáforo:

  • Rojo: El "Riesgo Inaceptable" prohíbe aplicaciones que amenacen la seguridad, vida o derechos fundamentales, como los sistemas que inciten al odio.
  • Naranja: ‘Alto Riesgo’ incluye salud, educación, servicios públicos y privados, y justicia. Estos deben tener evaluación de riesgos, datos de alta calidad, registros de actividad, información clara para usuarios y tecnología precisa. Por ejemplo: el uso de sistemas de IA para aceptar o rechazar empleados en una empresa.
  • Amarillo: El "Riesgo Limitado" cubre, por ejemplo, los chatbots, con énfasis en la transparencia.
  • Verde: Finalmente, el "Riesgo Mínimo" no requiere medidas reguladoras, ya que se considera que las herramientas en este nivel no representan un riesgo. Ejemplo: filtros de spam.

En definitiva, el uso de la Inteligencia Artificial hoy día es un DEBER si queremos seguir avanzando como humanidad. Sin embargo, debemos de tener, NOSOTROS LOS HUMANOS, más cuidado que nunca para intentar prever y evitar los posibles perjuicios derivados del mal uso o de la inconsciencia en su uso y desarrollo. Y es que estamos en un momento en la Historia, respecto a la evolución de la tecnología, en la que la pregunta no es si podemos hacer una determinada cosa, sino, más bien, si debemos llevarla a cabo. La cuestión no es si llegará un momento en que los algoritmos de IA sean capaces de tomar decisiones autónomas en cuestiones relevantes para el ser humano, si no si debemos dejar que esto pase. Está en nuestras manos, las de los humanos, en este momento crucial de la Historia. De nuestras decisiones ahora dependerá nuestro futuro apocalíptico o integrador.

 

La autora de este artículo es Idoia Salazar cofundadora y presidenta del Observatorio del Impacto Social y Ético de la Inteligencia Artificial, OdiseIA y experta del Observatorio de IA del Parlamento Europeo (EPAIO).



Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital