Entrevista
MWC
Nube
Inteligencia artificial
Accenture
Edge computing
MWC 2024

"La brecha [entre innovación y empresa] se ha reducido mucho, porque toda la industria se está reinventando al mismo tiempo"

Como Cloud First Chief Technologist e inventora más prolífica en Accenture, Teresa Tung dedica su tiempo al desarrollo de tecnologías en la nube. En entrevista con ComputerWorld, reflexiona sobre cómo el edge y la IA están impulsando la innovación en las empresas a nivel mundial.

Teresa Tung, Cloud First Chief Technologist en Accenture
Teresa Tung, Cloud First Chief Technologist en Accenture.

Con más de 220 patentes y solicitudes de patentes, Teresa Tung se corona como la inventora más prolífica de Accenture a nivel global. La Cloud First Chief Technologist de la consultora y doctora de la Universidad de Berkeley lidera el desarrollo de tecnologías innovadoras en la nube, trabajando mano a mano con startups y con la academia para aterrizarlas en casos de uso empresarial. En el marco del Mobile World Congress (MWC) Barcelona 2024, ComputerWorld habló con Tung sobre los cambios que ha experimentado el entorno digital de las empresas, impulsados por el enorme avance del cloud, y el nuevo rol del edge y la inteligencia artificial (IA) como motores de la innovación en las organizaciones.  

 

"La nube sigue siendo el motor de la innovación y lo que hace posible la IA"

 

¿Cómo está cambiando el edge el panorama de la nube?  

Realmente pensamos en el edge como un continuo de la nube. Cuando nuestros clientes piensan en la nube hoy en día, muchos lo hacen de forma centralizada, pero el edge ya existía antes de la nube y éste quiere ser capaz de acceder a las capacidades de computación de la misma manera que lo hacemos con la nube. La nube simplifica, no hay que tener un centro de datos, no hay que entender demasiado sobre la infraestructura. Y lo que es más importante, la nube es un motor de innovación. De la misma manera, quiero poder acceder a la computación en mis fábricas, en mis laboratorios y en mis tiendas. Para estos otros escenarios, la computación tiene que estar a la mano de alguien que conozca las operaciones de la planta o que sepa cómo manejar a los clientes, ya no es sólo alguien con conocimientos de TI el que puede acceder a este cálculo. Entonces, el nuevo continuo de la nube va a ampliar dos cosas: una es la capacidad de simplificar e innovar en computación en lugares y productos cotidianos, y dos, vamos a seguir democratizando y facilitando el acceso, más allá incluso de la gente de TI, los ingenieros de software y los científicos de datos.   

El año pasado en el MWC tuve una sesión con Mars, el fabricante de caramelos, y hablamos de un ejemplo en su producción de Skittles. En las bolsas de Skittles y M&M había unas que tenían más dulces y otras que tenían menos. Para asegurarse de que todo el mundo recibía lo que se pagaba, estaban regalando demasiados Skittles por bolsa. Al añadir la analítica del edge a la línea de producción, pudimos reducir esa cantidad en un 80%. Lo realmente importante de todo esto es que necesitábamos que el operario de la planta fuera capaz de desplegar estos dispositivos de forma segura, que ayudara a ajustar y etiquetar los datos cuando no estaban formados para ello, ahora forma parte de su trabajo. Así que ahora, si compras M&M y Skittles, cada bolsa será más uniforme en el número de caramelos que recibas.  

  

¿Cómo está impulsando el edge la innovación dentro de las empresas?     

Realmente lo vemos como una extensión de la IA. Hemos publicado una investigación que muestra que el 83% de los ejecutivos de nivel C cree que la computación edge es esencial para seguir siendo competitivos en el futuro. Los datos siguen siendo el combustible para tomar decisiones e impulsar la IA. Luego, la segunda parte es empujar la IA al edge, por lo que hay que pensar en esto de una manera muy integrada. No es sólo el edge por sí mismo, hemos tenido IoT y dispositivos durante mucho tiempo y no han cumplido la promesa. Creo que es con esta generación actual de IA que, como con Mars, tendremos miles de ejemplos en todo el mundo. Si capacitamos directamente a los usuarios finales, que piensan en el edge como algo integrado con la IA, los datos y la nube, eso es realmente importante. El mismo estudio concluye que sólo el 65% de las empresas utiliza el edge en cierta medida, probablemente con algo más como IoT o contenedores en el edge, y sólo la mitad de ellas ha integrado el edge con su núcleo digital, con la nube y la IA, y creo que sin esta última pieza sólo se ve un valor moderado. El IoT está probablemente ligado a una solución muy específica, como por ejemplo la predicción de mantenimiento, que sin duda es importante, pero no está alimentando tu programa general de IA, no puedes usar esos datos fácilmente para otras cosas.  

 

"Muchos de los modelos fundacionales son preconstruidos y los proveedores cloud hacen que sea muy fácil de aplicarlos"

 

Ya has mencionado algunas de ellas, pero ¿de qué otras formas está influyendo la IA en los servicios y plataformas en la nube, y viceversa?  

Definitivamente vemos la IA como el impulsor en este momento. La nube sigue siendo el motor de la innovación y lo que hace posible la IA. Muchos de los modelos fundacionales son preconstruidos y con los que se puede empezar, los proveedores cloud hacen que sea muy fácil de aplicar. Ni tú ni yo necesitamos saber cómo funciona un modelo fundacional y aun así podemos obtener beneficios de él. Lo que sí necesitamos es conocer los riesgos y saber cómo aplicarlo. La nube, el edge y los datos, incluso los datos sintéticos, se convierten en activos digitales realmente clave que, como empresas, tenemos que ser capaces de entender cómo transformarlos en un producto que podamos ofrecer en este nuevo ecosistema.   

 

El año pasado, en el MWC, dijiste que la IA iba a restar poder a las grandes tecnológicas. Pero estamos viendo cómo están invirtiendo fuertemente en esta tecnología (Microsoft, Oracle, Amazon, Apple, Meta, etc). ¿Sigues pensando que será así?  

Creo que está más democratizado, sólo que oímos hablar mucho más de las grandes tecnológicas. Sólo en el último año se han lanzado más de 700 nuevos modelos fundacionales, algunos de ellos de código abierto, y vamos a ver muchas más empresas creando sus propios modelos o utilizando estos modelos preentrenados de código abierto. No digo que vayan a competir con las grandes tecnológicas, éstas seguirán creando modelos de propósito general. En el caso de los grandes modelos lingüísticos (LLM) más pequeños, los que tienen menos de 10.000 millones de parámetros, las empresas necesitarán crear los suyos propios a medida que dejen atrás las pruebas de concepto. Han probado la experiencia y ahora la pregunta es cómo escalar. Parte de la escala es el coste y si despliegas un modelo preentrenado, es sólo el coste de alguna GPU. Puedo controlarlo, sé exactamente cuándo podría actualizar el modelo, qué datos se utilizan en él, también tengo la oportunidad de optimizar, por lo que puedo afinar mi modelo con mi caso de uso específico, lo que lo hace más sensible y más preciso para mis necesidades. Todo esto lo veremos a medida que las empresas pasen de la fase de pruebas a la de producción, seguirán trabajando con los proveedores de la nube para obtener los modelos.  

 

Tu biografía dice que eres la inventora más prolífica de Accenture. ¿Qué proyectos o patentes actuales te tienen más entusiasmada?  

Puedes apostar a que hemos estado trabajando mucho con la IA generativa. Es una de ellas, pero permíteme hablar de cuatro cosas para dar un vistazo al futuro. Ya he mencionado los datos sintéticos, los gemelos digitales son una fuente muy rica de datos sintéticos. Así es como se entrenan los coches autónomos hoy en día, no es como si pusieras al coche en todos estos escenarios del mundo real que son peligrosos y luego tuvieras un coche autónomo. Están utilizando una gran cantidad de datos sintéticos para poder entrenar y conseguir un coche que se adapte. Poder aplicar esta capacidad en otras partes, incluso en el retail, y usar el gemelo digital como fuente de datos sintéticos para la IA, no creo que se esté aprovechando ampliamente.

En segundo lugar, OpenAI anunció los agentes autónomos que sirven, por ejemplo, para programar un viaje a Barcelona considerando preferencias personales, costes y otros elementos. Se podrían utilizar los agentes de IA en el trabajo. Si yo estuviera en la planta de fabricación o en una cadena de suministro, un agente se ocuparía de la calendarización, otro de minimizar el número de excavaciones, otro gestionaría las necesidades particulares de un cliente, otro de suministrar la oferta.

 

"No se está aprovechando el usar el gemelo digital como fuente de datos sintéticos para la IA"

 

En tercer lugar, está la privacidad. No estoy segura de que hemos estado dirigiéndonos hacia la computación preservadora de la privacidad. De la misma manera que sabemos que los datos y la IA juntos son tan importantes para las empresas en este momento, es difícil compartir los datos, la gente todavía está indecisa, incluso si somos socios de confianza y tenemos acuerdos legales. La computación preservadora de la privacidad permite ejecutar computación en datos completamente encriptados, de forma que nadie, ni siquiera el algoritmo, ve claramente los datos. También permite el aprendizaje federado, donde los datos se quedan en mi teléfono, en mi máquina o en mi producto. Esta clase de computación será necesaria para competir con la IA.

Y por último, tenemos la computación heterogénea. La forma más eficiente, y yo diría que la única manera escalable de hacer tecnología de preservación de la privacidad, es a través de hardware, algo llamado enclave de ejecución de confianza. Es un tipo especial de chip y está disponible en todos los proveedores de la nube. Este hardware especializado en IA es algo en lo que no hemos pensado tanto en la última década. Todo ha estado más centrado en la CPU, así que poder pensar ahora en esa compensación entre rendimiento, coste y potencia, todo eso va a ser nuevo.  

 

También trabajas como puente entre la innovación de las startups y el mundo académico y la empresa. ¿Cuáles son los retos de esta brecha empresarial y qué están haciendo para resolver este problema?   

La brecha se ha reducido. Nos fijamos constantemente en las startups, trabajamos con nuestros grandes socios y sus laboratorios de investigación e I+D de productos, y también nos fijamos en la academia. Gracias a ello, hemos sido capaces de cronometrar cuándo las cosas se convertirían en algo mainstream. Hacemos un seguimiento y empezaremos a poner más gente en ello cuando falten entre tres y cinco años para que eso ocurra, y eso se predice por la inversión en startups y la inversión de los grandes socios como Microsoft y Google. Creo que lo que ha sucedido en el último año con la IA generativa y los modelos fundacionales es que esa brecha [entre la innovación y la empresa] se ha reducido mucho, porque toda la industria se está reinventando al mismo tiempo. Así que este año estamos trabajando mucho más estrechamente con las universidades directamente, patrocinamos al MIT, Berkeley y Stanford. El MIT está ayudando a nuestros ejecutivos a ser capaces de entender cómo dirigir las empresas a través de esta nueva era. Necesitan tener una base tecnológica para poder liderar. El programa de Stanford, en el que trabajamos con su grupo de investigación de IA humana, ayuda a nuestros profesionales a ser capaces de pensar en cómo la IA generativa y todas las cosas a su alrededor afectan a su trabajo y a los consumidores. Y luego con Berkeley trabajamos con el mismo equipo que creó Apache Spark y Databricks para que nuestros profesionales sepan cómo construir, mantener y operar un modelo fundacional. Es, literalmente, enviar a Accenture de vuelta al colegio.



Contenido Patrocinado

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital