Entrevista
Big Data
Inteligencia artificial
IA
Empresa

Innovación responsable, el mantra detrás de la división Data Ethics de SAS

Reggie Townsend es el nombre propio detrás del departamento que ha articulado toda una estrategia “coherente” y “coordinada” para abordar lo que la multinacional norteamericana ha bautizado como IA confiable. ¿De qué se trata?

reggie townsend
Reggie Townsend, vicepresidente de Data Ethics Practice en SAS, tras la entrevista para ComputerWorld durante el SAS Explore 2023. Créditos: ComputerWorld.

Reggie Townsend es conocido, entre otras cuestiones, por su rol al frente del Comité Asesor Nacional de Inteligencia Artificial (NAIAC), organismo encargado de orientar al presidente estadounidense y a la Oficina Nacional de Inteligencia Artificial en la materia. Sin embargo, en esta ocasión, es su papel como vicepresidente de la división Data Ethics Practice (DEP) en la multinacional tecnológica SAS el que le sitúa en el foco mediático. Así, aprovechando su presencia en la celebración del SAS Explore 2023 al otro lado del charco, ComputerWorld  vuelve a citarse con el ejecutivo para ahondar en cómo la tecnológica está trabajando a la hora de innovar de manera responsable, cómo garantizan la calidad de los datos y cómo estos cimientan lo que han denominado inteligencia artificial (IA) confiable (IA Trustworthy, en inglés).

El departamento que hoy día capitanea Townsend tomó forma allá por el 2021,  aunque, según reconoce, la compañía ya venía dando pasos al frente en lo relativo a la ética de datos mucho antes. Desde que tomara posesión del cargo, la labor del ejecutivo no ha sido otra que asegurarse que “dondequiera que apareciera nuestro software, no hiciera daño a la gente”. Sin embargo, tras 47 años de historia de historia corporativa, la tecnológica presume de haber sido responsable en sus innovaciones prácticamente desde los comienzos. Fue Dr. Goodnight, CEO y responsable de la firma, quien abogó en firme por este concepto. De hecho, relata Townsend,  la compañía ha traspasado las fronteras de la propia tecnología en este ámbito volcándose con las personas, tanto empleados como clientes, en un sinfín de áreas y sectores de impacto: “Desde la salud a los servicios financieros, sin olvidar los gobiernos y la administración”.

Un alto en el camino protagonizado por dos letras, IA, les obligó a redirigir el foco. La “creciente atención” en torno a la citada tecnología les llevó considerar su candidatura para promover su propio prisma confiable. Como consecuencia, pasaron a la acción con la idea de crear “una forma globalmente coherente y coordinada de abordar la IA desde una perspectiva ética y fidedigna”. Se apoyaron para ello en los datos como eje central de su estrategia.

 

La calidad de los datos, clave

En primer lugar, apuntaba el ejecutivo, se debe entender la IA como un “ciclo de vida”; y parte de ese ciclo de vida lo conforman los datos, “son la sangre del mismo”. Al tener datos, puedes construir modelos y desplegar conocimiento. Sin embargo, los resultados dependerán directamente de la calidad de los mismos. “Como organización habrás de tener datos de buena calidad para brindar resultados de buena calidad, de lo contrario es imposible”. No obstante, conscientes de que en ocasiones esto supone un reto para las corporaciones, desde SAS han impulsado el desarrollo de datos sintéticos para ayudar en la tarea. “Poder crear un conjunto de datos que sea estadísticamente congruente con los tipos de datos que se pueden necesitar para producir modelos que sean apropiados para un caso de uso determinado es un avance realmente importante”, explica Townsend. En este sentido confesaba sentirse “ansioso” ante el nuevo rumbo al que se dirigen.

 

“Aspiramos a seguir convirtiéndonos en una marca confiable que brinda capacidades de inteligencia artificial al mundo”

 

Reggie Townsend, vicepresidente DEP en SAS

 

Hoja de ruta

El roadmap que la compañía ha definido se sustenta sobre diferentes pilares. Así lo detalla Townsend. En primer lugar, la supervisión. “Nos aseguramos de que estamos generando resiliencia dentro de los procesos de nuestra organización para poder identificar diferentes situaciones en las que nuestra tecnología aparece y que podrían ser potencialmente peligrosas o problemáticas”. Siguiendo esta misma estela aseguraba haber jugado “un papel decisivo” en el desarrollo y distribución de su política de IA generativa y en el establecimiento de barreras de seguridad para su organización. “Estamos alentando a nuestros colegas a utilizarlo. Establecimos un conjunto de expectativas y guardarraíles de seguridad sobre lo que deberían y no deberían hacer, dónde podrían necesitar obtener aprobaciones, etc”.

De igual forma, comenta, “trabajamos en conjunto con nuestros colegas de investigación y desarrollo en toda la cadena del proceso, desde las tarjetas modelo hasta las directrices para garantizar que seamos capaces de gobernar los modelos a lo largo del tiempo con estas tarjetas y brindar una especie de lectura de salud a los usuarios”. Se aseguran también de estar alineados con las directrices europeas y americanas, como la futura Ley de Inteligencia Artificial de Bruselas o el marco de gestión de riesgos del NIST. Todo ello lo combinan con diversas acciones enmarcadas en una perspectiva cultural. Por ejemplo, comenta Townsend, en las próximas semanas pondremos en marcha un proyecto piloto mediante el cual formaremos círculos de trabajadores, los reunimos y pasaremos por un proceso de ocho semanas en el que se introducirán diferentes dilemas éticos para que los consideren. Sin embargo, incide, ninguna de estas iniciativas arrojará resultados significativos si no se conjuga con una “hoja de ruta de big data ética”.

 

Próximos pasos

Dado que el futuro se arroja incierto pero prometedor, Townsend quiere asegurarse de que “cuando hablemos de IA confiable la gente no esté buscando un nuevo objeto brillante que salga de la fábrica”. A fin de cuentas, comenta, este concepto hace referencia a una filosofía ética integrada en “cada persona, cada proceso y cada pieza que lanzamos al mercado”. Se refiere con esto a cuestiones como la detección de sesgos, la gobernanza del modelo o la explicabilidad de los datos. Aspiran con ello a “seguir convirtiéndonos en una marca confiable que brinda capacidades de inteligencia artificial al mundo”.

Al ser preguntado por los próximos pasos de su división, Townsend prefiere mantenerse al margen, aunque promete regresar a comienzos del nuevo año con noticias frescas. Lo que sí afirma con rotundidad es que “no podemos ser los únicos en este mercado hablando de IA confiable si el mundo quiere beneficiarse de ella”. Así, con un llamado a la colaboración, escribe el punto y final de esta entrevista.



Contenido Patrocinado

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital