Entrevista
Especial CW Inteligencia Artificial 2024

"Por mucho que avance, si la IA no está alineada con los objetivos humanos de progreso no nos sirve"

Carmen Torrijos derriba, en esta conversación, algunos mitos muy instalados de la IA para poner el foco en debates importantes como la formación o la eliminación de sesgos.

Carmen Torrijos

Carmen Torrijos es una de las principales voces actuales para conocer un poco más a fondo la inteligencia artificial (IA) tanto desde el punto de vista técnico como de sus implicaciones sociales. Esta lingüista computacional, actualmente responsable de IA en Prodigioso Volcán y profesora en centros como la Universidad Carlos III de Madrid y el Barcelona Technology School, intenta, con su discurso, desterrar ciertos mitos muy instalados en el imaginario colectivo, como que esta tecnología nos va a sustituir en nuestros trabajos de manera general o que va a ‘gobernar’ al ser humano, superando sus capacidades cognitivas. “Este debate hace que se pierda mucha energía para dedicarnos a la conversación que se debería tener”. Y, ¿cuál es, entonces, el foco? Alfabetización y formación, que todo el mundo la pruebe, tratar de eliminar sesgos y preocupaciones como el licenciamiento de datos, y la privacidad. “Intento sacar a la IA de la clandestinidad y que sea utilizada cuando sea provechosa”, dice la también autora del libro La primavera de la inteligencia artificial: Imaginación, creatividad y lenguaje en una nueva era tecnológica junto a José Carlos Sánchez.

 

¿Qué es la primavera de la inteligencia artificial?

Decidimos titular el libro así porque se habla mucho de los inviernos y de los veranos de la IA. En los veranos crece mucha la inversión, se dedican perfiles, tiempo, investigación… Y, en los inviernos la gente pierde la confianza en la tecnología y se avanza menos en cuanto a dinero y estudio. Nosotros creíamos que este momento que estamos viviendo es diferente porque está suponiendo un despertar. De ahí la primavera. Hay muchísima gente que no trabajaba con la IA o que no la utilizaba y ni se acercaba a y la ha descubierto en estos últimos años. Principalmente, desde la salida de ChatGPT. Nos parecía un concepto bonito.

 

Muchos expertos dicen que la IA nunca va a poder asemejarse a un humano en términos de conciencia, al menos. También que es difícil que una máquina sea multimodal y pueda ser experta en más de una tarea a la vez. ¿La IA generativa ha roto esta última barrera?

Sí que ha podido cambiar la afirmación. Hemos visto que en lo referente a generar texto e ideas sí que es multitarea. Aunque, en realidad lo que hace es utilizar muchos modelos diferentes. Cuando tú tienes un ChatGPT que genera imágenes es porque es capaz de llamar a otra IA que genera imagen. No es que un solo sistema lo haga todo. Hay que entender esta multitarea. Para nosotros es diferente escribir un poema y un correo electrónico, pero para la IA es lo mismo; predecir texto, qué palabra viene después. Entonces, ¿esto es multitarea? Para el ser humano sí, en términos de IA, no tanto. Por ejemplo, los modelos de generación de imagen son buenos en eso pero ya está. Luego tienes los modelos que cogen esa imagen y la animan, o los que clonan voces. Son específicos. Lo que pasa es que si los aglutinas te sale una IA muy multimodal y que parece que cruza ciertas líneas. Pero lo único que estamos haciendo es utilizar diferentes modelos que se llaman unos a otros para resolver tareas y hacernos la vida más fácil. Nuestra vida es multimodal. ¿Esto significa que estamos cerca de una IA general? Siempre digo que estamos más cerca que nunca, pero eso no quiere decir que en realidad lo estemos, o que se parezca. Para empezar, no sabemos ni siquiera muy bien qué es la conciencia, cómo estamos hechos nosotros mismos. Hay una carrera por llegar a replicarla, pero ahora mismo lo que tenemos son sistemas estadísticos y de algoritmia muy avanzados. Si desenchufas el ordenador no tienen ningún tipo de autonomía. Además, me parece que esta discusión hace que se pierda mucha energía en la conversación que se debería tener.

 

¿Cuál debe ser el foco de esa conversación?

Primero, hay que poner energía en la cantidad de gente que todavía no sabe nada de lo que es la IA y que lo que tiene en su cabeza está más cerca de la ciencia ficción que de la realidad tecnológica. En toda la alfabetización que hay que hacer y en los deberes que no hicimos con la digitalización, como la inclusión de las personas mayores en este mundo. En llevar una correcta formación desde la escuela para que la gente aprenda a utilizarla de una manera sensata y serena.

Por otra parte, hay que hablar de todo el tema del licenciamiento de datos, que no se robe a los artistas sin permiso para entrenar modelos. De cómo podemos continuar usando este prodigio de la ingeniería que son los grandes modelos de lenguaje (LLM, de sus siglas inglesas) sin que sea necesario coger el trabajo de nadie y utilizarlo sin permiso; equilibrar esto para llegar a la máxima tecnología posible sin que los derechos de nadie sufran en el proceso.

Luego están todos los temas de privacidad y confidencialidad. La mayoría de la gente no está formada y un día podemos tener un disgusto con la mayoría de los ficheros que se están subiendo a ChatGPT. Hay muchos focos.

 

¿Todo esto es necesario porque la primavera que ha llegado es eterna?

Esto no es un hype, al menos. Lo fue el metaverso o blockchain, pero esto es diferente. La IA va en progreso. Se lanzó ChatGPT y desde entonces no ha dejado de mejorar. Ahora tenemos un producto mejor que el de hace dos años. Son pasitos lentos que indican una progresión muy estable. Sí es cierto que esta tecnología basada en redes neuronales y en entrenamiento de modelos de lenguaje puede alcanzar un techo. No tiene por qué seguir evolucionando hasta el infinito. O puede que no, que sigamos encontrando productos cada vez mejores. El primer ChatGPT era muy deficiente, muy básico. No hacía prácticamente nada, ni se conectaba a Internet. Era un generador de lenguaje, sin más. Y aun así fue un pelotazo. Ahora, tiene mucho margen de mejora, trabaja en audio y vídeo, contesta rápido… El progreso es muy estable, y eso quiere decir que ha venido para quedarse y que vamos a tener un cambio en todos los perfiles profesionales que van a tener que saber usar estos sistemas.

 

¿Todos los empleados vamos a tener un copiloto?

Es como si me dijeras, ¿no hay una forma de que un oficinista no use Word o que no se comunique por correo electrónico? Es empeñarte en hacer más complicado algo que ya está resuelto. La IA nos hace la vida más fácil en muchos sentidos. Además, es fascinante ver cómo una máquina genera lenguaje de una manera tan natural. Pero hay un montón de prejuicios: que si usarla es de vagos, algo clandestino… Una cosa que yo intento es sacar a la IA de la clandestinidad y que la usemos cuando sea provechosa.

 

¿Los legisladores han ayudado a generar una percepción de miedo a la IA? Por ejemplo, Italia prohibió temporalmente ChatGPT meses después de salir alegando problemas en la privacidad y la protección de datos.

La cuestión es que es una tecnología tan compleja que no todo es bueno ni malo. Si es difícil de entender incluso desde el punto de vista del usuario, ya no te digo del desarrollador. Hay que comprender las implicaciones. Nadie nos explicó anteriormente que los sistemas que tenemos de correo y de compartición de archivos pueden sufrir un ciberataque. Nos dijeron solo las bondades y todos nos lanzamos a usarlos sin más. En este caso no podemos hacer lo mismo porque la IA es más compleja en términos de entrenamiento, sesgos y otras implicaciones. No podemos simplificarlo todo tanto, hay que acostumbrar a la gente a un cierto nivel de complejidad. Las personas podemos soportar más incertidumbre de la que estamos acostumbrados. Hay que intentar no aplanar el discurso. Es lo que intento hacer. La Unión Europea (UE) como institución va por detrás. Cuando ha llegado la IA generativa estaba todavía intentando legislar la IA analítica anterior.

 

 

"La IA es una tecnología muy compleja [...] No podemos acostumbrar a la gente a un discurso simplificado"

 

 

Europa regula y lo hace de una manera muy distinta a otros bloques geopolíticos. ¿Esto puede generar un sesgo entre culturas?

Los sesgos ya existen. La cuestión es si los perpetúan. Hay sesgos universales, como los de género. Hay que intentar mitigarlos. En cuanto a lo cultural, ahora mismo estamos usando modelos anglosajones que están pensados en inglés y luego traducidos a los distintos idiomas con mayor o menor éxito. Ahí ya tenemos un sesgo de base. Lo ideal sería que hubiera cuantos menos modelos de lenguaje mejor, porque crearlos contamina muchísimo y ocupa muchísima energía. Un modelo de lenguaje funciona mucho mejor cuando está pensado y hecho desde el inicio para un idioma en concreto. Los modelos multilingües están pensados en inglés y traducen las cosas. De hecho, en España se está creando un modelo en castellano. Tiene sentido. Ahora, como empecemos a crear muchos modelos de lenguaje diferentes habrá un exceso energético muy fuerte y significará que no somos capaces de coordinarnos para utilizar un solo modelo de lenguaje por idioma.

 

¿Otro riesgo podría ser que esos modelos estén gobernados por pocas empresas?

Modelos hay muchísimos, incluso en código abierto. Pero, lo que estas empresas están haciendo es darles productividad. OpenAI lo ha hecho muy bien lanzando un chat limpísimo con solo una ventana blanca y un chatbot. Fue una jugada magistral. Todo el mundo sentía que podía usarlo y nadie tenía presunción de complejidad. Los monopolios ya estaban instalados y ahora solo están aprovechando la IA. Pero ¿dónde está escrito que los únicos modelos de lenguaje que podemos usar vienen de ahí?. Se ha lanzado la innovación, pero, ¿por qué no podemos cocrear unos modelos en Europa que sean cumplidores con la legislación de propiedad intelectual? No obstante, es difícil llegar a conseguir la calidad de GPT-4 porque está hecho con una capacidad de computación brutal que viene de una inversión de miles de millones. Y viene también de utilizar una cantidad enorme de datos, muchos de ellos sin licencia. Ahora ya no sería tan fácil conseguirlos. Está por ver que se alcance un modelo de la misma calidad. Yo soy optimista.

 

¿Se ha convertido en una imposición trabajar con estas tecnologías?

Lo mismo pasó con Internet. Hay problemas que no son de la IA, sino mucho más grandes. Se centralizan en la IA porque es la novedad. La digitalización nos vino impuesta. Es cuestión de un avance. Y si todo el mundo usa ChatGPT y tú no, vas a estar en desventaja. Conviene por lo menos conocerlo. Estar fuera de la conversación no es bueno. Me parece que podemos perder voces muy válidas y muy interesantes. Hay gente que debería estar opinando y, a lo mejor no se mete en esto por pereza, porque no se siente legitimada o porque simplemente no lo ha probado. Elegir es complicado. Lo puedes hacer, pero tienes que ver las consecuencias. Por ejemplo, un diseñador no puede llegar a una entrevista de trabajo sin saber utilizar ciertas herramientas. Por lo menos, tienes que decir: “He usado la IA y no me vale”. Pero esto va a más, la adopción va a ser muy rápida y dentro de unos años todas estas cuestiones van a estar disueltas en agua. Para la gente joven, la IA e Internet será lo mismo, estará todo embebido.

 

Muchas veces ha interpelado a gente del mundo de la cultura, creativos, periodistas… ¿Son esas voces las que se deben sumar al debate? ¿Puede ser el sector más reactivo a utilizar este tipo de herramientas?

Sí, por ejemplo. Creo que estas personas deben utilizar la IA porque un modelo de lenguaje es un vehículo muy potente para navegar por las ideas y la cultura. Para indagar en cómo sentimos ciertas cosas. Al final, estos sistemas beben de datos que hemos volcado una parte de la sociedad en Internet durante muchos años. Es muy interesante saber qué hay ahí. Sus errores y limitaciones. Creo también que dignifica la experiencia de usuario en muchos aspectos. Nos hemos acostumbrado a tocar botones y a poner filtros y, pedir lo que quieres con un prompt en lenguaje natural es mucho más digno y humano para el usuario. También es más elevado. Entonces sí, me parece que hay gente que se está quedando fuera de la conversación por una cuestión de escrúpulos. Sobre todo, muchas mujeres y personas del mundo de las humanidades que serían importantísimas para que la ingeniería no se quede solo en eso, en ingeniería. Deberían hablar, opinar, probar y estar en este mundo igual que la gente más propensa, que es la que está siempre, la que también se metió en el metaverso y en blockchain, los early adopters.

 

¿Cómo es posible eliminar sesgos como los machistas y hacer que la IA sea inclusiva?

Solamente hay dos maneras. Una es alterando los datos. Y aquí hay mucho debate, porque hay una corriente que se opone porque dice que la IA tiene que reflejar el mundo real y, si no, estos datos no son válidos. Y a lo mejor no es ese lugar al que queremos ir, y aquí entra la alineación. Si la IA, por mucho que avance, no está alineada con los objetivos humanos de progreso no nos sirve.

 

¿Cuál es el papel de una lingüista computacional en este escenario?

Intento llevar un discurso muy integrador con la tecnología. No tenemos que estar peleados con ella. Me parece muy interesante, por ejemplo, tener un copiloto para mis ideas y que me pueda resumir cómo ha sido mi día. Me parece muy útil. Yo he estado muchos años trabajando en equipos técnicos, pero ahora me dedico más a la consultoría. Y aquí me he encontrado que si no damos formación, esto no cuajaba. Hay gente de todo tipo que necesita que le expliques qué está pasando con la tecnología, por qué es importante.

 



Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital