Un informe revela el gran problema con la IA: la gente no confía en ella

Si las empresas quieren que sus empleados aprovechen el potencial de la IA generativa, tendrán que asegurarse de que esos trabajadores realmente confíen en que no les costará sus puestos de trabajo.

confianza

A medida que pasa el tiempo, la gente confía cada vez menos en la inteligencia artificial (IA), según los resultados de un estudio reciente de Pew Research . El estudio, en el que participaron 11.000 encuestados, reveló que las percepciones hacia la tecnología habían cambiado drásticamente sólo en los últimos dos años.

En 2021, el 37% de los encuestados dijo que estaba más preocupado que entusiasmado con la IA. Esa cifra se mantuvo prácticamente igual el año pasado (38%), pero ahora ha aumentado al 52%. (El porcentaje de quienes están entusiasmados con la IA disminuyó del 18% en 2021 a sólo el 10% este año).

Esto es un problema porque, para que sean efectivas, las herramientas de IA generativa deben entrenarse, y durante el entrenamiento hay varias formas en que los datos pueden verse comprometidos y corrompidos. Si las personas no confían en algo, no sólo es poco probable que lo apoyen, sino que también es más probable que actúen en su contra. ¿Por qué apoyaría alguien algo en lo que no confía?

Esta falta de confianza bien podría ralentizar la evolución de la IA generativa, lo que posiblemente lleve a que más herramientas y plataformas estén corruptas y sean incapaces de realizar las tareas que se les asignan. Algunos de los problemas parecen deberse a que los usuarios intentaron intencionalmente socavar la tecnología, lo que sólo subraya el comportamiento preocupante.

 

¿Qué hace que la IA generativa sea única?

La IA generativa aprende de los usuarios. Es posible que inicialmente se entrene con modelos de lenguaje grandes (LLM), pero a medida que más personas lo usan, las herramientas aprenden de cómo las usan las personas. Esto tiene como objetivo crear una mejor interfaz humana que pueda optimizar la comunicación con cada usuario. Luego toma este aprendizaje y lo difunde entre sus instancias, de manera similar a cómo un niño aprende de sus padres y luego comparte ese conocimiento con sus compañeros. Esto puede crear problemas en cascada si la información que se proporciona es incorrecta o está sesgada.

Los sistemas parecen ser capaces de manejar errores poco frecuentes y ajustarse para corregirlos, pero si las herramientas de inteligencia artificial son engañadas intencionalmente, su capacidad para autocorregirse ante ese tipo de ataque hasta ahora ha resultado inadecuada. Es diferente cuando un empleado se porta mal y destruye su propio producto de trabajo; Con la IA, podrían destruir el trabajo de cualquiera que utilice una herramienta de IA una vez que los datos del empleado que se porta mal se utilicen para entrenar a otras instancias.

Esto sugiere que un empleado que socava las herramientas genAI podría causar un daño significativo a su empresa más allá de las tareas que está realizando.

 

Por qué es importante la confianza

Las personas que temen perder su trabajo generalmente no hacen un buen trabajo capacitando a otro empleado porque temen ser despedidos y reemplazados por el empleado que capacitaron. Si a esas mismas personas se les pide que entrenen herramientas de IA y temen que estén siendo reemplazadas, podrían negarse a realizar el entrenamiento o dañarlo para que no pueda reemplazarlas.

Ahí es donde estamos ahora. Hay poco en los medios sobre cómo las herramientas de inteligencia artificial ayudarán a los usuarios a tener un mejor equilibrio entre vida personal y laboral, ser más productivos sin hacer más trabajo y (si reciben la capacitación adecuada) cometer menos errores. En lugar de eso, recibimos una letanía regular de cómo la IA quitará empleos, cómo arrojará todo tipo de errores y cómo será utilizada para dañar a las personas . 

No es de extrañar que la gente desconfíe de ello.

 

El cambio es difícil (y arriesgado)

Los tipos de TI saben desde hace mucho tiempo que implementar tecnología que no les gusta a los usuarios es complicado, porque los usuarios la evitarán o intentarán romperla. Esto es particularmente preocupante para una tecnología que eventualmente afectará a todos los empleos administrativos y algunos manuales de una empresa. Posicionar las herramientas de IA como ayuda para los empleados, no como reemplazos de empleados, y resaltar cómo aquellos que usan adecuadamente la tecnología tienen más probabilidades de salir adelante contribuiría en gran medida a garantizar que estén de acuerdo con la tecnología y que madure.

Imponer nuevas tecnologías a los empleados que no las quieren siempre es arriesgado, y si los trabajadores creen que les costará su trabajo, imponerlas puede ser un gran error. La implementación de genAI correctamente debería incluir un esfuerzo significativo para lograr que los empleados se entusiasmen y apoyen la tecnología. De lo contrario, el despliegue no sólo no estará a la altura de las expectativas, sino que podría terminar causando un daño sustancial a las empresas que intentan adoptarlo.



Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital