Cerrar panel

Cerrar panel

Cerrar panel

Cerrar panel

Innovación Act. 19 dic 2023

¿Qué es la explicabilidad de la inteligencia artificial? Cómo quitarle misterio a la tecnología

El ‘machine learning’ tiene cada vez más aplicaciones empresariales que benefician a consumidores y ciudadanos, como ayudarles a gestionar su salud financiera, agilizar sus trámites digitales y hacer más fluida su experiencia ‘online’ en múltiples plataformas. De este auge ha surgido la directriz básica de la explicabilidad: es decir, la IA no es misteriosa ni mágica, ni debe parecerlo. Para los algoritmos más complejos, los científicos de datos desarrollan herramientas que ayudan a comprender cómo toman sus decisiones.

¿Qué es la explicabilidad de la IA? Cómo quitarle misterio a la tecnología
Vanessa Pombo Nartallo (BBVA Creative)

El concepto de explicabilidad de la IA ha ido surgiendo de manera progresiva y ha llegado hasta la propuesta para el Reglamento de Inteligencia Artificial en el que está trabajando la Unión Europea, que apunta que, entre las características que deben tener estas tecnologías para generar confianza en sus resultados, está la de ser lo suficientemente explicables. Pero, ¿a qué se refiere exactamente?

¿Qué es la explicabilidad de la inteligencia artificial?

Un algoritmo es explicable cuando se puede interpretar y entender cómo ha obtenido sus predicciones o resultados. Se trata de una característica crucial, ya que estas herramientas hacen sus cálculos en base a grandes cantidades de datos relacionados entre sí, y los cálculos pueden ser muy sencillos o extremadamente complejos.

Los más sencillos son comprensibles por su propio funcionamiento. Es el caso, por ejemplo, de las regresiones lineales, que se basan en ecuaciones matemáticas y estadísticas simples para calcular sus resultados; en ellas es fácil comprender cómo y cuánto las variables de entrada influyen en la variable de salida. Una IA puede utilizar regresiones lineales para, por ejemplo, calcular el consumo energético de una vivienda en función de su tamaño, número de habitaciones y localización geográfica.

Comprender un ‘cerebro’ artificial

En cambio, los modelos de IA que realizan cálculos más complejos son menos transparentes a la hora de comprender cómo llegan a sus resultados. Aquí entran las redes neuronales artificiales y las de aprendizaje profundo que se utilizan en métodos de reconocimiento de voz, detección de fraudes financieros, generación de imágenes y textos, clasificación de correos ‘spam’, evaluación de riesgos o análisis de sentimiento de textos en redes sociales, entre otras aplicaciones. Debido a este hermetismo, a algunos de ellos se les denomina modelos ‘de caja negra’.

Estos modelos tienen en cuenta una gran cantidad de variables y el proceso que siguen para realizar el cálculo, similar al de un cerebro humano, es tan complejo que no se puede prever. Para evitar este inconveniente, los científicos de datos han desarrollado métodos de explicabilidad, herramientas que permiten, por ejemplo, identificar las variables que más influyen en la toma de decisiones de los modelos, ya sea a nivel general o para casos específicos; es decir, por qué pueden dar resultados distintos para casos aparentemente similares. De este modo, gracias a los métodos de explicabilidad se puede evaluar si el funcionamiento del modelo es correcto y, por lo tanto, su grado de confiabilidad.

Un ejemplo de este conjunto de herramientas es el módulo de explicabilidad que contiene la librería de código Mercury, un recopilatorio de algoritmos que BBVA utiliza en el desarrollo de sus productos y que el banco ha liberado para la comunidad ‘open source’. Su módulo de explicabilidad está formado por componentes analíticos que los desarrolladores pueden aplicar para comprender los modelos utilizados en diversos productos financieros, que van desde la detección del riesgo crediticio hasta la creación de sistemas de recomendación, entre otros.

¿Qué es la explicabilidad de la IA? Cómo quitarle misterio a la tecnología

La explicación se adapta al usuario

La explicación del algoritmo deberá adaptarse a los conocimientos de los diferentes tipos de usuarios que la necesitan. Es decir, desde los propios científicos que trabajan con la inteligencia artificial hasta profesionales no expertos o el público general. Así lo afirman Andrea Falcón y Ángela Moreno, científicas de datos en BBVA AI Factory que trabajan en el diseño de algoritmos de ‘machine learning’ aplicados a productos del banco, como, por ejemplo, el detector de hechos relevantes en los movimientos bancarios de los clientes en la ‘app’ de BBVA, y los sistemas de recomendación que les sugieren líneas de acción o posibles productos que les podrían ayudar a impulsar su salud financiera.

“Cuando tenemos que explicar una predicción a otro científico de datos, debemos centrarnos en cómo estamos midiendo la forma en la que el modelo da las predicciones”, afirma Andrea Falcón. “En cambio, cuando debemos explicárselo a un compañero de un área de negocio, que conoce bien su producto o el cliente al que lo dirige pero no tiene conocimientos técnicos, la explicación se centrará en cuáles son las características específicas de los productos o de los clientes que hacen que el modelo proponga uno u otro”.

Los usuarios deben tener claro cómo la IA utiliza sus datos y que este uso está siempre supervisado por un humano.

Su compañera Ángela Moreno pone un ejemplo práctico: “Imaginemos dos clientes que tienen la misma edad e ingresos económicos, pero el modelo les propone acciones distintas ante un mismo hecho”. Por ejemplo, ante una transferencia extraordinaria que han recibido, a uno de ellos le sugiere que lo envíe a su cuenta de ahorro y al otro que lo dedique a saldar un crédito. “En este caso está claro que son otras variables las que entran en juego, más allá de su edad y sus ingresos, por lo que las técnicas de explicabilidad nos ayudarán a entender cuáles son las variables que está teniendo en cuenta el modelo para sugerir las distintas acciones”.

Aumentar la confianza en la IA

“¿Qué perdemos si no explicamos?”, se cuestiona Moreno. “En primer lugar, el propio equipo que desarrolla el modelo no sería capaz de detectar algunos errores o un mal funcionamiento, o de confirmar hipótesis sobre el modelo. Y por otro lado, es una manera de acercar la analítica avanzada a los compañeros de negocio, que no son científicos de datos y necesitan confiar en que un modelo de aprendizaje automático es más útil para los clientes que otros sistemas más básicos que se utilizaban anteriormente”.

Falcón también apunta que “la revisión de los cálculos y, más concretamente, de la influencia de las distintas variables y sus interacciones en las predicciones, que nos permite entender por qué para un determinado cliente el modelo toma una decisión y para otro similar toma otra distinta, nos podrían ayudar a identificar posibles discriminaciones que deban ser corregidas”.

Por lo tanto, comprender cómo las distintas inteligencias artificiales utilizan los datos para tomar sus decisiones ayuda a los científicos de datos a mejorar los algoritmos, si detectan que no están usando los datos correctamente, y a los responsables de los productos en las empresas, para continuar adaptándolos a las necesidades de los clientes.

Trasladar finalmente esta comprensión al público general, ayudará a los usuarios a entender cómo la inteligencia artificial utiliza sus datos y que este uso está siempre supervisado por un humano para evitar desviaciones. Todo ello contribuye a aumentar la confianza en la eficacia de la tecnología para cumplir con su objetivo de mejorar la vida de las personas.

"La inteligencia artificial tiene que ser nuestro Pepito Grillo", Ricardo Baeza-Yates

00:00 19:01