Inteligencia artificial
IA
Chatbots
IA generativa

10 razones para preocuparse por la inteligencia artificial generativa

Ahora que sabemos lo que pueden hacer los modelos de IA como ChatGPT y DALL-E, ¿deberíamos preocuparnos?

inteligencia artificial

Los modelos de inteligencia artificial (IA) generativa como ChatGPT son tan sorprendentemente buenos que algunos han llegado a afirmar que son más inteligentes que los humanos. Muestran hermosas obras de arte en una vertiginosa variedad de estilos; producen textos llenos de ricos detalles e ideas; y, en definitiva, generan herramientas tan variadas y aparentemente únicas que es difícil creer que proceden de una máquina. Y, eso que apenas estamos comenzando a descubrir todo lo que pueden hacer.

A algunos observadores les gusta pensar que estas nuevas IA han cruzado el umbral de la prueba de Turing. Pero una vez que la sensación de asombro se desvanece también lo hace el poder estelar de la IA generativa. Algunos han intentado hacer preguntas de la manera correcta para que las máquinas digan algo incierto. Otros despliegan acertijos, como pedir una imagen del sol por la noche, y algunos otros han hecho solicitudes extrañas que muestran los límites del conocimiento del contexto, también conocido como sentido común. Aquí hay 10 desventajas y defectos de la IA generativa.

 

Plagio

Cuando se crean modelos como DALL-E y ChatGPT, en realidad solo se está creando nuevos patrones a partir de los millones de ejemplos en su conjunto de entrenamiento. Los resultados son una síntesis de cortar y pegar extraída de varias fuentes, lo que los humanos conocemos como plagio. Nosotros también aprendemos por imitación pero, en algunos casos, el préstamos es tan obvio que alertaría a cualquier profesor de escuela de primaria. Dicho contenido generado por la IA consiste en grandes bloques de texto que se presentan palabra por palabra. Sin embargo, a veces hay tal mezcla de fuentes que sería difícil constatar el plagio. De cualquier manera, lo que falta es singularidad. A pesar de todo su brillo, estas máquinas no son capaces de producir nada realmente nuevo.

 

Derechos de autor

Si bien el plagio es en gran medida un problema para los centros de enseñanza, la ley de derechos de autor se aplica al mercado. Cuando alguien arrebata el trabajo de otro corre el riesgo de ser denunciado. Pero, ¿qué pasa con la IA? ¿Se aplican las mismas reglas? La ley de derechos de autor es un tema complicado, y el estado legal de la IA generativa tardará años en establecerse.

 

Mano de obra no remunerada

El plagio y los derechos de autor no son los únicos problemas legales que plantea la IA generativa. Los abogados ya piensan en nuevas cuestiones éticas para sus litigios. Por ejemplo, ¿una empresa que fabrica un programa de dibujo debería poder recopilar datos sobre el comportamiento de dibujo del usuario y luego utilizarlos para capacitar a las IA? ¿Deberían ser los humanos recompensados por tal trabajo creativo? Gran parte del éxito de la IA actual se deriva del acceso a los datos. Entonces, ¿qué sucede cuando las personas que los generan quieren un parte de la remuneración?

 

La información no es conocimiento

Las IA son particularmente buenas a la hora de imitar el tipo de inteligencia que lleva años desarrollar en las personas. Cuando un erudito hace gala de una gran obra, tenemos buenas razones para quedar impresionados. Sabemos que le llevó años de estudio llegar a ese estado. Cuando una IA hace estas mismas cosas con solo unos meses de entrenamiento, los resultados pueden ser deslumbrantemente precisos y correctos, pero falta algo. Si una máquina bien capacitada puede encontrar el recibo correcto en una caja de zapatos digital llena de miles de millones de registros, también puede aprenderlo todo sobre los grandes poetas. Incluso se podría creer que las máquinas fueron hechas para descifrar el significado de los jeroglíficos mayas. uede parecer que las IA imitan el lado lúdico e impredecible de la creatividad humana, pero en realidad no pueden lograrlo. Mientras tanto, la imprevisibilidad es lo que impulsa la innovación creativa. Industrias como la moda no solo son adictas al cambio, sino que se definen por él. En verdad, la inteligencia artificial tiene su lugar, al igual que la buena inteligencia humana ganada con tanto esfuerzo.

 

Estancamiento intelectual

Hablando de inteligencia, las IA son inherentemente mecánicas y basadas en reglas. Una vez que una IA analiza un conjunto de datos de entrenamiento, crea un modelo, y ese modelo realmente no cambia. Algunos ingenieros y científicos de datos imaginan volver a entrenar gradualmente los modelos de IA con el tiempo, para que las máquinas puedan aprender a adaptarse. Pero, en su mayor parte, la idea es crear un conjunto complejo de neuronas que codifiquen cierto conocimiento en una forma fija. La constancia tiene su lugar y puede funcionar para ciertas industrias. El peligro con la IA es que quedará atrapada para siempre en el espíritu de la época de sus datos de entrenamiento. ¿Qué sucede cuando los humanos nos volvemos tan dependientes de la IA generativa que ya no podemos producir material nuevo para los modelos de entrenamiento? 

 

Privacidad y seguridad

Los datos de entrenamiento para las IA deben provenir de alguna parte y no siempre estamos tan seguros de qué se atasca dentro de las redes neuronales. ¿Qué pasa si las IA filtran información personal de sus datos de entrenamiento? Para empeorar las cosas, bloquear las IA es mucho más difícil porque están diseñadas para ser muy flexibles. Una base de datos relacional puede limitar el acceso a una tabla en particular con información personal. Sin embargo, se puede consultar una IA de docenas de formas diferentes. Los atacantes aprenderán rápidamente cómo hacer las preguntas correctas, de la manera correcta, para obtener los datos confidenciales que desean. Como ejemplo, supongamos que la latitud y la longitud de un activo en particular están bloqueadas. Un atacante inteligente podría preguntar el momento exacto en que sale el sol durante varias semanas en ese lugar. Una IA obediente intentará responder. Enseñar a una IA a proteger datos privados es algo que aún no entendemos.

 

Sesgo no detectado

Incluso los primeros programadores de mainframe entendieron el núcleo del problema con las computadoras cuando acuñaron el acrónimo GIGO o "basura que entra, basura que sale". Muchos de los problemas con las IA provienen de datos de entrenamiento deficientes. Si el conjunto de datos es inexacto o sesgado, los resultados lo reflejarán.

El hardware en el centro de la IA generativa puede estar tan impulsado por la lógica como Spock, pero los humanos que construyen y entrenan las máquinas no lo están. Se ha demostrado que las opiniones prejuiciosas y el partidismo encuentran su camino en los modelos de IA. Quizás alguien usó datos sesgados para crear el modelo. Tal vez agregaron anulaciones para evitar que el modelo responda preguntas candentes particulares. Tal vez ponen respuestas cableadas, que luego se vuelven difíciles de detectar. Los humanos han encontrado muchas formas de garantizar que las IA sean vehículos excelentes para nuestras creencias nocivas.

 

Estupidez de la máquina

Es fácil perdonar a los modelos de IA por cometer errores porque hacen muchas otras cosas bien. Es solo que muchos de los errores son difíciles de anticipar porque las IA piensan de manera diferente a los humanos. Por ejemplo, muchos usuarios de funciones de texto a imagen han descubierto que las IA se equivocan en cosas bastante simples, como contar. Los seres humanos aprenden aritmética básica al principio de la escuela primaria y luego usamos esta habilidad en una amplia variedad de formas. Pídele a un niño de 10 años que dibuje un pulpo y seguramente se asegurará de que tenga ocho patas. Las versiones actuales de IA tienden a fallar cuando se trata de los usos abstractos y contextuales de las matemáticas. Esto podría cambiar fácilmente si los constructores de modelos dedican algo de atención al lapso, pero habrá otros. La inteligencia de las máquinas es diferente de la inteligencia humana y eso significa que la estupidez de las máquinas también será diferente.

 

Credulidad humana

A veces, sin darnos cuenta, los humanos tendemos a llenar los vacíos en la inteligencia de la IA. Completamos la información que falta o interpolamos las respuestas. Si la IA nos dice que Enrique VIII fue el rey que mató a sus esposas, no lo cuestionamos porque nosotros mismos no conocemos esa historia. Simplemente asumimos que la IA es correcta, de la misma manera que lo hacemos cuando un presentador carismático agita la mano. Si se hace una afirmación con confianza, la mente humana tiende a aceptarla como verdadera y correcta.

El problema más complicado para los usuarios de IA generativa es saber cuándo la IA está equivocada. Las máquinas no pueden mentir como los humanos, pero eso las hace aún más peligrosas. Pueden producir párrafos de datos perfectamente precisos, luego desviarse hacia la especulación, o incluso calumniar abiertamente, sin que nadie sepa que sucedió. Los concesionarios de autos usados ??o los jugadores de póquer tienden a saber cuándo están engañando, y la mayoría tiene un indicio que expone su calumnia; las IA no.

 

Abundancia infinita

El contenido digital es infinitamente reproducible, lo que ya ha puesto a prueba muchos de los modelos económicos construidos en torno a la escasez. Las IA generativas van a romper esos modelos aún más. La IA generativa dejará sin trabajo a algunos escritores y artistas; también pone patas arriba muchas de las reglas económicas por las que todos vivimos. ¿Funcionará el contenido con publicidad cuando tanto los anuncios como el contenido se puedan recombinar y regenerar sin fin? ¿Descenderá la parte gratuita de Internet a un mundo de bots que hacen clic en los anuncios de las páginas web, todos creados e infinitamente reproducibles por IA generativa?

Tal abundancia fácil podría socavar todos los rincones de la economía. ¿La gente seguirá pagando por tokens no fungibles si se pueden copiar para siempre? Si hacer arte es tan fácil, ¿se seguirá respetando? ¿Seguirá siendo especial? ¿A alguien le importará si no es especial? ¿Podría todo perder valor cuando todo se da por sentado? ¿Era esto lo que quiso decir Shakespeare cuando habló de las hondas y las flechas de la fortuna escandalosa? No tratemos de responderla nosotros mismos. Solo pidamos a una IA generativa una respuesta que sea divertida, extraña y, en última instancia, misteriosamente atrapada en algún inframundo entre el bien y el mal.

 

 



Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital