Cerrar panel

Cerrar panel

Cerrar panel

Cerrar panel

Cómo construir una inteligencia artificial más ética y transparente

Junto con sus promesas, los algoritmos de inteligencia artificial también traen una serie de riesgos que es necesario tener en cuenta y corregir. ¿Qué medidas toman los científicos de datos para evitar que la información de la que ‘se alimentan’ las máquinas sea incompleta o esté sesgada?

A menudo se define la inteligencia artificial (IA) como un campo de la informática que crea sistemas capaces de realizar tareas normalmente atribuidas a la inteligencia humana, como pueden ser traducir documentos, conducir un coche o reconocer la cara de una persona. Pero, ¿qué pasa cuando las máquinas, al igual que los humanos, cometen errores? ¿Puede un sistema de IA estar sesgado? ¿Se pueden replicar los prejuicios humanos a la hora de tomar decisiones?

Estas preguntas cobran cada vez más relevancia en un contexto en el que la IA empieza a formar parte del día a día de empresas e individuos. Y más aún cuando una serie de llamativos casos han saltado al debate público reforzando la preocupación social sobre la transparencia de los algoritmos. Desde ‘bots’ que han aprendido de la forma de hablar inapropiada –e incluso racista– de otros usuarios de Twitter, hasta errores desafortunados en la interpretación de datos de imágenes; distintos ejemplos han extendido la idea de que este tipo de sistemas basados en ‘machine learning’ pueden tener nefastas consecuencias cuando los datos de los que aprenden las máquinas no son los apropiados.

“Los modelos basados en datos pueden reflejar los sesgos inherentes a las fuentes con las que fueron entrenados, por lo que pueden replicarlos e incluso amplificarlos”, explica Roberto Maestre, ‘senior data scientist’ en BBVA Data & Analytics. Entonces, ¿cómo asegurarse de que esto no ocurra? Para el experto de BBVA, principalmente hay dos vías: la transparencia algorítmica y la integración de medidas para controlar sesgos en los propios modelos.

Transparencia algorítmica

Uno de los problemas a los que se enfrentan estos científicos a la hora de evaluar la transparencia de los sistemas de IA es el conocido dilema de la ‘caja negra’, por el cual es a menudo virtualmente imposible entender qué camino ha seguido el modelo de IA para llegar a una determinada conclusión o decisión. Maestre explica que esto no debe servir para “escudarse” o librarse de la responsabilidad de las acciones. Frente a ello, es necesario trabajar para identificar en la medida de lo posible las variables que más pesaron en la decisión adoptada y hacer esta información disponible para el público.

“Es nuestro deber conocer los sesgos existentes en los datos de entrenamiento, controlarlos y mitigarlos”

Con el objetivo de hacer más comprensibles y accesibles los sistemas de ‘machine learning’, Maestre también destaca la importancia de “establecer un lenguaje común” que pueda ser utilizado por la comunidad científica. En este sentido, recomienda realizar una revisión del trabajo “por pares”, es decir, compartir el trabajo a través de publicaciones en un entorno en el que se anime a discutir y corregir los modelos. “Esta discusión puede ser vista como una revisión científica abierta en la cual diferentes perfiles, no solo expertos en IA, pueden medir el impacto de las elecciones a la hora de diseñar los algoritmos”, añade.

Este proceso, descrito como “auditoría algorítmica”, implica a su vez realizar una revisión sistemática del trabajo que permita documentar todos los procesos y definir mecanismos de revisión que aporten “un sello de garantía de calidad” a los modelos.

Medidas de control

Por otro lado, es necesario integrar medidas específicas que controlen los posibles sesgos que la propia IA puede originar. Para ello, en primer lugar será necesario “definir e identificar” los sesgos que se pueden producir con los datos que vayan a ser empleados para alimentar los algoritmos. “Una vez hecho esto, es necesario proponer medidas concretas para cuantificar el impacto”, añade Maestre, que explica que, al ser identificados, es posible que el propio modelo pueda integrar estos mecanismos para corregir los sesgos en su funcionamiento.

Un ejemplo de cómo se ha abordado esta cuestión en BBVA Data & Analytics con sus propios modelos es el trabajo “Reinforcement Learning for Fair Dynamic Pricing”. En este artículo, los científicos de datos de BBVA detallan cómo se realiza un proceso de asignación de precio dinámico (conocido como ‘pricing’) a través de un modelo de IA que incluye “principios de justicia basados en la equidad” para evitar la discriminación. En el trabajo, los científicos proponen una métrica destinada a analizar “cómo de justas” son las políticas de precio aplicadas en tiempo real e integrar estas medidas en el proceso de optimización. Por lo tanto, gracias al trabajo “se podría controlar y auditar la justicia del algoritmo en cada instante”, explica Maestre.

Entidades externas

Más allá del trabajo interno que realizan los científicos para asegurarse de la calidad y transparencia de sus modelos, existen una serie de entidades que están trabajando en definir unos principios básicos por los que las instituciones puedan guiarse para trabajar con algoritmos más éticos.

En Estados Unidos distintas asociaciones que aúnan el mundo universitario con el activismo civil, como AI Now, en la que colabora la Universidad de Nueva York, o la Liga de la Justicia Algorítmica, con el apoyo del MIT Media Lab, alzan la voz para alertar del poder de los algoritmos. Incluso las propias compañías tecnológicas, como Microsoft con su iniciativa Fate (‘destino’ en inglés, pero también las siglas de Justicia, Responsabilidad, Transparencia y Equidad en el mismo idioma), están analizando las posibles disfunciones sociales de la inteligencia artificial.

“La ética debe estar presente, no sólo en las respuestas, sino también en las preguntas que hacemos”

La solución, reclaman muchas de estas voces, empieza con más transparencia. Se pide luz y taquígrafos en un doble sentido: los ciudadanos tienen derecho a saber si un algoritmo decide sobre algún asunto que les incumbe, y también se pide información de la fórmula de ese algoritmo.

BBVA está involucrado en el proyecto TuringBox, una iniciativa también apoyada por el MIT Media Lab, que promueve el estudio sobre el ‘comportamiento’ de los sistemas de IA. El proyecto ofrece un entorno de pruebas que permite analizar las propiedades e implicaciones de diferentes sistemas de IA para examinar cómo se comportan. La web ofrece la opción de subir algoritmos a la plataforma, donde distintos examinadores podrán evaluar su funcionamiento basándose en distintas métricas.

El papel de la ética

Pero, ¿quién decide qué es un sesgo y qué no? Esto dependerá del tipo de sesgo que se esté analizando: “Los motivos de discriminación injusta generalmente quedan definidos al más alto nivel en el corpus legal: las constituciones de cada país prohíben la discriminación por género, raza, creencia, orientación sexual, etc.”, explica Maestre. Estas pautas sirven a los científicos para establecer los patrones con los que medir si el comportamiento de los algoritmos es “justo” o no.

No obstante, pueden existir otros sesgos adicionales que no estén comprendidos en estas directrices y por lo tanto, no se estén midiendo. “Muchas veces identificar sesgos es relativamente sencillo; pero no lo es tanto cómo medirlos de manera correcta; y, dependiendo del problema, cómo definir si un sesgo es positivo o negativo no es trivial, puesto que esto depende del punto de vista desde el que se afronte la cuestión”, explica Maestre.

Ante esto, para Maestre la clave está en la ética, que debe impregnar no sólo las respuestas, sino también las preguntas planteadas a los datos. “Es nuestro deber conocer los sesgos existentes en los datos de entrenamiento, controlarlos y mitigarlos, y no utilizar la inteligencia artificial para ampliar brechas preexistentes”, afirmaba Maestre junto con otros expertos en un reciente artículo sobre el uso responsable de datos y algoritmos.

Otras historias interesantes