Entrevista
Legislación
Robótica
Inteligencia artificial

Sobre la roboética: “Se debe prestar mucha atención a la diversidad de personas con las que se va a tratar”

Dado que la inteligencia artificial se ha asentado en nuestras vidas de la mano de la robótica, analizamos las implicaciones éticas que conlleva a nivel social a través de la experiencia de César Córcoles, profesor en la UOC.

roboética

Pudiera parecer una cuestión de futuro, pero la robótica está, hoy día, más presente que nunca. Algoritmos, tecnología y robots no solo conviven en sociedad, sino que empiezan a reivindicar su papel como grandes vertebradores de la vida moderna. Y precisamente de su nacimiento y uso surge la necesidad de conocer las implicaciones positivas y negativas que pueden traer consigo. La ética aquí se perfila como una cuestión de Estado: es la tecnología la que debe estar a disposición del hombre y no ser éste último quien sirva a la tecnología. La capacidad de razonar, de sentir y de empatizar es la que convierte al ser humano en la figura más acertada en cuanto a la toma de decisiones se refiere. Discernir entre el bien y el mal, a menudo, puede suponer una ardua tarea que llevar a cabo, ¿imaginas dejarla en manos de una máquina?

Fue el investigador Gianmarco Veruggio quien acuñó dos décadas atrás el término roboética en alusión a la simbiosis necesaria entre ambos conceptos, robótica y ética. Sobre este campo de la ética aplicada arroja algo de luz César Córcoles Briongo, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC) y director del posgrado de Desarrollo de Aplicaciones Web. Ética, moralidad, sesgos cognitivos y regulación conforman los bullet points de un coloquio con mucho camino por recorrer.

 

César Pablo Córcoles, profesor de la UOC, descifra las claves de la roboética. 

 

Líneas maestras de conducta humano-robot

Las primeras líneas maestras de conducta entre el ser humano y los robots aparecen allá por 1942, en el tomo Círculo vicioso (Runaround) de Isaac Asimov. Fue el escritor de ciencia ficción quien acuñó las tres leyes de la robótica. La primera ley se asegura de que ningún robot haga daño a ningún ser humano ni, por inacción,  permitirá que un ser humano sufra daño; la segunda ley hace referencia a la obligación por parte del robot de cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley; por último, la tercera ley conlleva que el robot proteja su propia existencia en la medida en que esta protección no entre en conflicto con las normas anteriores. Los preceptos firmados por Asimov ponen de relieve que “plasmar nuestros criterios éticos y morales en lo que hacen los algoritmos es algo tremendamente complicado”, dice Córcoles, “pero es necesario trabajar la ética y la moral”.

 

Paliar los sesgos cognitivos con equipos diversos

Ahondando en la necesidad de trasladar la cuestión ética a la esfera tecnológica, particularmente en el ámbito de la robótica, el profesor lo tiene claro: “Muchos de los problemas de la inteligencia artificial amplifican comportamientos humanos. Cuando la IA se aplica a un algoritmo de aprendizaje automático y vemos las decisiones que ha tomado, con mucha frecuencia peca de machista, sexista o discrimina en torno a otro tipo de cosas”, explica. A este respecto añade otro factor cuestionable; y es que generalmente “son hombres blancos, en torno a los 45-50 años”, quienes entrenan a los algoritmos para decidir en base a su percepción particular. Sin embargo, en muchas ocasiones, alejados de este foco crítico en torno a la repercusión que la iniciativa tomada puede tener, “terminamos haciendo caso al algoritmo, dejando de lado nuestra responsabilidad de tomar decisiones”. Unas elecciones que, a menudo, se realizan “con suma rapidez esperando que nos produzcan beneficios” inminentes, pero, según el profesor, “todos tenemos en mente un hipotético episodio de Black Mirror en el que esto funciona muy mal”.

 

“Muchos de los problemas de la IA amplifican comportamientos humanos. Cuando esta se aplica a un algoritmo de aprendizaje automático y vemos las decisiones que ha tomado, con mucha frecuencia peca de machista, sexista o discrimina en torno a otro tipo de cosas”

 

Sobre cómo paliar los efectos negativos de los sesgos cognitivos patentes en estos algoritmos, Córcoles aboga por la diversidad. “Los equipos que los desarrollan deben ser diversos, todo lo posible”. Aunque más allá de esa pluralidad de los equipos, “se debe prestar mucha atención a la diversidad de las personas con la que se va a trabajar”. En este punto, apunta el profesor, “hablamos de diversidad de género, pero también hablamos de colores de piel, de culturas, de credos, de edades…”. Y es que, evidentemente, no en todos los sitios se actúa igual, “en el Mediterráneo tomamos decisiones de una determinada manera, en la costa este de los Estados Unidos de otra diferente y en China igual”. Sin embargo, poniendo la nota realista, asegura que “probablemente este sea un problema imposible de resolver del todo, aunque los equipos deberían ser conscientes de esta necesidad”.

“Cuando un algoritmo toma decisiones que afectan a una o varias personas los criterios éticos y morales deben estar presentes”. Esto, incide, “deberíamos trabajarlo más desde las universidades, asegurándonos que se habla más de la ética en la tecnología”. En esta misma línea destaca el papel de los gobiernos y administraciones de legislar, aunque, reconoce, “lo tienen tremendamente complicado”. “El ritmo al que se puede regular es uno, y el ritmo al que se mueve la tecnología actualmente es otro, mucho más elevado”. Por ello, insiste, “no lo podemos dejar todo en manos de la regulación y la legislación, es imposible asumirlo”.

 

Legislación europea

La Unión Europea, consciente de la necesidad de adaptar el Viejo Continente a la actual era digital, ha dado una serie de pasos al frente en materia de robótica e inteligencia artificial mediante un conjunto de reglas de referencia. Una iniciativa aplaudida por Córcoles: “Está muy bien que se trabaje en ello, ya que es prácticamente una obligación”. En esta misma línea señala como una ventaja que los principios impulsados por la UE sean “generalistas e intenten ser resistentes al cambio y al tiempo”. Esto se debe a que “sabemos que estos principios no pueden cambiar con frecuencia a pesar de que la sociedad y los usos de la tecnología sí lo hagan, por tanto hay que asegurarse de que son sólidos, pero no extremadamente rígidos para que puedan ir avanzando en el tiempo”.

No obstante, en materia de legislación, Córcoles encuentra un contrapunto. “Lo que me da miedo”, confiesa, “es que cuando regulas lo que intentas es no hacerte daño a ti mismo”, por lo que “estos principios están dando a los gobiernos algo más de libertad que a una empresa privada”. “Desconfiar de las empresas privadas me parece muy bien, prácticamente necesario”, prosigue, “pero tener una confianza ciega en quien nos gobierna…”. “Todos creemos que somos buenos, que nuestras decisiones son las correctas y las demás son problemáticas, y eso como ciudadanos nos debería preocupar”. Retomando la cuestión de los sesgos, incide, “sobre la toma de decisiones humanas hay una literatura muy amplia; no somos perfectos”.

 

¿Garantías de una IA justa?

Al ser preguntado si se puede garantizar una inteligencia artificial justa, Córcoles es tajante: “No”. “Después de unos miles de años de evolución no podemos garantizar que las decisiones humanas sean razonables”, dice, “y por lo tanto esperar que una inteligencia artificial alcance algo que nosotros no hemos sido capaces de hacer es mucho esperar”. No obstante, “sí se van dando pasos, se van haciendo cosas”. Él, que según dice tiende a ser “optimista”, cree que "es más fácil corregir los sesgos de un algoritmo que no los del humano”. Como consecuencia aboga por “incorporar la ética, la moral, la filosofía y nuestras enseñanzas” a los algoritmos “para que trascienda”, pero “recetas mágicas me temo que no las hay”.



Contenido Patrocinado

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital