IA generativa

Los expertos opinan: "Detener el avance de la inteligencia artificial no es posible ni deseable"

Opinión de Geoff Schaefer, jefe de IA en Booz Allen Hamilton y Susannah Shattuck, jefa de producto en Credo AI, opinan sobre las últimas polémicas en torno a esta tecnología.

inteligencia artificial

A medida que las herramientas generativas de inteligencia artificial como ChatGPT, de OpenAI, y Bard de Google continúan evolucionando a un ritmo vertiginoso, lo que genera dudas sobre la confiabilidad e incluso los derechos humanos, los expertos están sopesando si la tecnología puede ralentizarse y hacerse más segura, y cómo hacerlo.

En marzo, el Future of Life Institute, una organización sin fines de lucro, publicó una carta abierta en la que pedía una pausa de seis meses en el desarrollo de ChatGPT. La carta, ahora firmada por más de 31.000 personas, enfatizó que los sistemas poderosos de inteligencia artificial (IA) solo deben desarrollarse una vez que se puedan administrar sus riesgos.“¿Deberíamos desarrollar mentes no humanas que eventualmente puedan superarnos en número, ser más inteligentes, obsoletas y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?", se preguntaba en la misiva.

El cofundador de Apple, Steve Wozniak, y el CEO de SpaceX y Tesla, Elon Musk, se unieron a miles de otros signatarios para acordar que la IA plantea "profundos riesgos para la sociedad y la humanidad, como lo demuestra una extensa investigación y lo reconocen los principales laboratorios de IA".

En mayo, el Centro para la Seguridad de la IA, una organización sin fines de lucro, publicó una carta abierta similar en la que declaraba que la IA representa un riesgo de extinción global a la par de las pandemias y la guerra nuclear. Los firmantes de esa declaración incluyeron a muchos de los mismos científicos y ejecutivos de IA que llevaron la IA generativa a las masas.

También se espera que los trabajos sean reemplazados por IA generativa: muchos trabajos. En marzo, Goldman Sachs publicó un informe en el que estimaba que la IA generativa y su capacidad para automatizar tareas podrían afectar hasta 300 millones de puestos de trabajo en todo el mundo. Y a principios de mayo, IBM dijo que detendría los planes para cubrir alrededor de 7.800 puestos y estimó que casi tres de cada 10 puestos administrativos podrían ser reemplazados por IA durante un período de cinco años, según un informe de Bloomberg.

 

Opinión de Geoff Schaefer, jefe de IA en Booz Allen Hamilton y Susannah Shattuck, jefa de producto en Credo AI

Geoff Schaefer es jefe de AI responsable en Booz Allen Hamilton, un contratista militar y del gobierno de EE. UU., que se especializa en inteligencia. Susannah Shattuck es jefa de producto en Credo AI, un proveedor de SaaS de gobernanza de IA.

 

¿Qué riesgos plantea la IA generativa?

Shattuck: El sesgo algorítmico. Estos son sistemas que hacen predicciones basadas en patrones en los datos en los que han sido entrenados. Y como todos sabemos, vivimos en un mundo sesgado. Los datos con los que estamos entrenando estos sistemas a menudo están sesgados, y si no somos cuidadosos y reflexivos acerca de las formas en que enseñamos o entrenamos estos sistemas para reconocer patrones en los datos, podemos enseñarles o entrenarlos involuntariamente para hacer predicciones sesgadas.

También la explicabilidad. Muchos de los modelos más complejos que podemos construir en estos días son bastante opacos para nosotros. No entendemos completamente exactamente cómo hacen una predicción. Y así, cuando opera en un entorno de toma de decisiones de alta confianza o muy sensible, puede ser un desafío confiar en un sistema de IA cuyo proceso de toma de decisiones no comprende por completo. Y es por eso que estamos viendo una regulación cada vez mayor que se centra en la transparencia de los sistemas de IA. Un ejemplo muy concreto: si voy a implementar un sistema de inteligencia artificial en un escenario de atención médica en el que voy a hacer que ese sistema haga ciertas recomendaciones a un médico en función de los datos del paciente, entonces la explicabilidad es va a ser realmente crítico que ese médico esté dispuesto a confiar en el sistema.

Lo último que diré es que los riesgos de la IA evolucionan continuamente a medida que evoluciona la tecnología. Y hay un conjunto emergente de riesgos de IA con los que no hemos tenido que lidiar antes: el riesgo de alucinaciones, por ejemplo. Estos sistemas generativos de IA pueden hacer un trabajo muy convincente al generar información que parece real, pero que no se basa en ningún hecho”.

 

Si bien no podemos predecir todos los riesgos futuros, ¿cuál cree que es más probable que ocurra? 

Schaefer:

A estos sistemas no se les atribuye la capacidad de hacer todas las cosas que ahora pueden hacer. No programamos GPT-4 para escribir programas de computadora, pero puede hacerlo, especialmente cuando se combina con otras capacidades. como el intérprete de código y otros programas y complementos. Eso es emocionante y un poco desalentador. Estamos tratando de entender los perfiles de riesgo de estos sistemas. Los perfiles de riesgo, que están evolucionando literalmente a diario. Eso no significa que todo sea riesgo neto. También hay beneficios netos, incluso en el espacio de seguridad. Creo que [la compañía de investigación de seguridad de IA] Anthropic es un ejemplo realmente interesante de eso, donde están haciendo un trabajo de prueba de seguridad realmente interesante en el que le piden a un modelo que sea menos sesgado y, en un cierto tamaño, descubrieron que literalmente producirá resultados que es menos sesgado simplemente preguntándolo. Por lo tanto, creo que debemos ver cómo podemos aprovechar algunas de esas capacidades emergentes para administrar el riesgo de estos sistemas en sí, así como el riesgo de las novedades netas de estas capacidades emergentes.

 

¿Así que solo le estamos pidiendo que sea más agradable? 

Schaefer: Sí, literalmente.

 

Estos sistemas se están volviendo exponencialmente más inteligentes en períodos cortos de tiempo y van a evolucionar a un ritmo más rápido. ¿Podemos incluso controlarlos en este punto? 

Schaefer: Soy un optimista de la IA. Creo que controlarlo no es posible ni deseable. Desde el punto de vista de la ética de la IA, pienso mucho en esto. ¿Qué es la ética? ¿Qué es el ancla? ¿Cuál es nuestra brújula moral en este campo de estudio? Estaban principalmente preocupados por lo que significaba vivir una buena vida... Aristóteles llamó a esto Eudaimonia, que significa felicidad humana, florecimiento humano, una especie de combinación única de esas dos cosas. Y creo que si aplicamos esa lente a los sistemas de IA ahora, lo que consideraríamos ético y responsable se vería bastante diferente. Entonces, los sistemas de IA que producen la mayor cantidad de prosperidad y felicidad humana, creo que debemos considerarlos responsables y éticos. Y creo que un ejemplo principal de eso es el sistema AlphaFold de DeepMind [de Google].  Probablemente esté familiarizado con este modelo, superó el principal desafío en biología de descifrar los pliegues de proteínas, lo que transformará la medicina moderna, aquí y en el futuro. Si eso tiene resultados importantes para los pacientes, eso equivale al florecimiento humano.

Entonces, creo que deberíamos centrarnos tanto en cómo se pueden usar estos poderosos sistemas de IA para hacer avanzar la ciencia de maneras que literalmente no podíamos antes. Desde mejorar los servicios que los ciudadanos experimentan a diario, todo, desde cosas tan aburridas como el servicio postal servicio tan emocionante como lo que está haciendo la NOAA en el espacio del cambio climático.

Shattuck: Yo también soy optimista. Pero creo que el elemento humano es siempre una gran fuente de riesgo para tecnologías increíblemente poderosas. Cuando pienso realmente en lo que es transformador de la IA generativa, creo que una de las cosas más transformadoras es que la interfaz para que un sistema de IA haga algo por ti ahora es una interfaz humana universal de texto. Mientras que antes, los sistemas de IA eran cosas que necesitaba saber cómo codificar para construir correctamente y guiar para que hicieran las cosas por usted. Ahora, literalmente, cualquier persona que pueda escribir, enviar mensajes de texto [o] hablar mensajes de texto y pueda interactuar con un sistema de IA muy poderoso y hacer que haga algo por ellos, y creo que eso tiene un potencial increíble.

También soy optimista en muchos sentidos, pero [esa interfaz simple] también significa que la barrera de entrada para los malos actores es increíblemente baja. Significa que la barrera de entrada para el mal uso erróneo de estos sistemas es muy baja. Por lo tanto, creo que eso hace que sea aún más importante definir barandas que prevengan el uso indebido o el abuso, tanto intencional como no intencional, de estos sistemas para definir.

 

¿Cómo impactará la IA generativa en los trabajos? ¿Será esto como las revoluciones industriales anteriores que eliminaron muchos trabajos a través de la automatización pero dieron como resultado nuevas ocupaciones a través de puestos calificados? Schaefer: “Me tomo muy en serio el análisis de personas como Goldman Sachs: [IA] impacta en más de 300 millones de empleos de alguna manera, hasta cierto punto. Creo que es correcto. Es solo una cuestión de cómo se ve realmente ese impacto y cómo podemos hacer la transición y mejorar. Creo que el jurado todavía está deliberando sobre eso. Es algo que debemos planificar ahora mismo en lugar de asumir que esto será como cualquier transición tecnológica anterior en el sentido de que creará nuevos puestos de trabajo. No sé si eso está garantizado.

 

 

¿Cómo impactará la IA generativa en los trabajos? ¿Será esto como las revoluciones industriales anteriores que eliminaron muchos trabajos a través de la automatización pero dieron como resultado nuevas ocupaciones a través de puestos calificados? 

Schaefer: Me tomo muy en serio el análisis de equipos como el de Goldman Sachs: [IA] impacta en más de 300 millones de empleos de alguna manera, hasta cierto punto. Creo que es correcto. Es solo una cuestión de cómo se ve realmente ese impacto y cómo podemos hacer la transición y mejorar. Creo que el jurado todavía está deliberando sobre eso. Es algo que debemos planificar ahora mismo en lugar de asumir que esto será como cualquier transición tecnológica anterior en el sentido de que creará nuevos puestos de trabajo. No sé eso está garantizado. Esto es nuevo en el sentido de que los trabajos que va a impactar son de un tipo socioeconómico diferente, de base más amplia y tienen un mayor impacto en el PIB, por así decirlo. Y, francamente, esto moverá los mercados, moverá las industrias y moverá las verticales educativas enteras de maneras que la revolución industrial no hizo anteriormente. Y entonces, creo que este es un tipo de cambio fundamentalmente diferente.

Shattuck: Mi antiguo empleador [IBM] dice que no van a contratar ingenieros de software que originalmente planeaba. Han hecho... afirmaciones de que estos sistemas de IA básicamente les permiten obtener el mismo tipo de salida [con menos ingenieros de software]. Y si ha usado alguna de estas herramientas para la generación de código, creo que es probablemente el ejemplo perfecto de las formas en que estos sistemas pueden mejorar a los humanos [y pueden] realmente cambiar drásticamente la cantidad de personas que necesita para crear software.

Entonces, el otro ejemplo que se está desarrollando actualmente es que hay una huelga de escritores en Hollywood. Y sé que uno de los temas sobre la mesa en este momento, una de las razones por las que los escritores están en huelga, es que les preocupa que ChatGPT [y otros sistemas generativos de IA] se utilicen cada vez más para reemplazar a los escritores. Entonces, uno de los temas laborales sobre la mesa en este momento es un número mínimo de escritores, ya sabes, escritores humanos que deben ser asignados para trabajar en un programa o en una película. Entonces, creo que estos son problemas laborales muy reales que se están desarrollando actualmente. ¿Qué regulación termina siendo aprobada para proteger a los trabajadores humanos? Creo que vamos a ver cada vez más que existe una tensión entre los trabajadores humanos y sus derechos y realmente las increíbles ganancias de productividad que obtenemos de estas herramientas.

 

Hablemos de procedencia. Los sistemas de IA generativa pueden simplemente robar propiedad intelectual y obras con derechos de autor porque actualmente no existe un método automatizado y estandarizado para detectar qué es generado por IA y qué es creado por humanos. ¿Cómo protegemos las obras originales de autoría?

Shatuck: Hemos pensado mucho en esto en Credo porque es un riesgo muy importante para nuestros clientes y saben que están buscando soluciones para resolverlo. Creo que hay un par de cosas que podemos hacer. Hay un par de lugares para intervenir directamente en el flujo de trabajo de IA, por así decirlo. Un lugar para intervenir es justo en el punto donde el sistema de IA produce una salida. Si puede verificar las salidas de los sistemas de IA de manera efectiva contra el mundo del material con derechos de autor, si hay una coincidencia, entonces puede bloquear efectivamente las salidas de IA generativas que estarían infringiendo los derechos de autor de otra persona. Entonces, un ejemplo sería, si está utilizando un sistema de inteligencia artificial generativa para generar imágenes, y ese sistema genera una imagen que contiene probablemente la imagen más disputada por derechos de autor en el mundo, las orejas de Mickey Mouse, desea automáticamente bloquee esa salida porque no quiere que Disney venga a buscarlo si accidentalmente lo usa en algún lugar de su sitio web o en sus materiales de marketing. Por lo tanto, poder bloquear las salidas en función de la detección de que ya están infringiendo los derechos de autor existentes es una medida de protección que podría implementar, y esto es probablemente lo más fácil de hacer para el código.

Luego hay otro nivel de intervención, que creo que está relacionado con la marca de agua, que es cómo ayudamos a los humanos a tomar decisiones sobre qué contenido generado usar o no. Entonces, ser capaz de entender que un sistema de IA generó un contenido de manera confiable, a través de la marca de agua, es sin duda una forma de hacerlo. Creo que, en general, proporcionar a los humanos herramientas para evaluar mejor los resultados de la IA generativa frente a una amplia variedad de riesgos diferentes será realmente fundamental para empoderar a los humanos para que puedan usar la IA generativa con confianza en un montón de escenarios diferentes.

Schaefer: Creo que hay una pregunta filosófica más grande con la que la sociedad tendrá que lidiar aquí, que es básicamente ¿qué significa IP en la era de la IA? Entonces, por ejemplo, el caso que usé fue básicamente este: yo mismo soy un artista. Sabes, algunas de mis pinturas se parecen a las de [Jean-Michel] Basquiat. Creo que no hay una diferencia funcional entre mirar todas las pinturas de Basquiat y que eso informe, inspire o influya en mi estilo, y luego la IA vea todas sus obras en imágenes y genere sus propias imágenes. Ya sabes, el arte que se ve similar. Y eso significa inmediatamente que tenemos una gran pregunta en toda la sociedad sobre lo que realmente protegemos y cómo lo protegemos. ¿Y si eso no desencadena una infracción de propiedad intelectual? Eso significa que tenemos una nueva forma de generar arte que se puede ampliar....

 

 

 



Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital