Cerrar panel

Cerrar panel

Cerrar panel

Cerrar panel

La IA responsable no solo se regula, también se diseña

La IA responsable no debe entenderse solo como un conjunto de normas o un marco de gobernanza, sino también como un reto técnico. Esta es una de las ideas que Clara Higuera, líder de IA Responsable en BBVA, ha compartido en QCon London, una conferencia internacional de referencia para ingenieros, arquitectos de software y líderes tecnológicos. Su intervención pone el foco en cómo traducir conceptos como la equidad, la transparencia o la seguridad en métodos, métricas y controles aplicables a lo largo del ciclo de desarrollo de sistemas de IA.

Hablar de ética en inteligencia artificial suele remitir a normativas o marcos de gobernanza. Sin embargo, muchas de las decisiones que determinan el grado de equidad, transparencia, seguridad o sostenibilidad de una solución técnica se toman en el momento de su diseño y durante su desarrollo. Con qué datos se entrena, qué métricas se consideran aceptables y qué salvaguardas se implantan son, en última instancia, decisiones científico-técnicas.

“Desde esta perspectiva, la ética deja de ser una capa añadida al final del proceso y pasa a convertirse en una disciplina práctica que acompaña al desarrollo tecnológico”, ha indicado Clara Higuera en su ponencia. “No se trata solo de preguntarse qué está permitido, sino qué debe construirse, cómo hacerlo y bajo qué condiciones”, apunta la experta. Como ya mencionó Langdon Winner en su ensayo ‘Do artifacts have politics?’ y reafirma Clara en su charla, todas estas decisiones se integran en la tecnología, que a su vez, tiene influencia en las personas que interactúan con ella. Es decir, la tecnología no es neutra desde el punto de vista de los valores. Los sistemas de IA son sistemas de decisión y sus consecuencias éticas se derivan en gran medida de las elecciones que hemos tomado en su desarrollo.

Actualmente, la adopción de la IA atraviesa una fase que la sociedad ya ha experimentado con otras tecnologías, como la aviación o la electricidad, que vivieron una expansión inicial acelerada antes de consolidar estándares de seguridad y marcos compartidos de actuación. De hecho, este es el proceso habitual por el que una innovación pasa de ser una tecnología experimental a convertirse en una infraestructura fiable. Tras la irrupción de la electricidad, la sociedad reaccionó frente a sus inconsistencias y fallos; pero gracias a los avances técnicos y al hecho de poner el foco en la seguridad para las personas, la red se perfeccionó, y finalmente el sistema se integró en el día a día.

De los fundamentos éticos de la IA a las decisiones durante el desarrollo técnico

Si se considera que aspectos como la ética, la transparencia o la seguridad son parte importante de la IA, la siguiente pregunta es cómo los ponemos en práctica. El primer paso es asumir la misma mentalidad que en el campo de la ingeniería de la fiabilidad, es decir, diseñar los sistemas teniendo en cuenta todo el ciclo de vida, desde el diseño hasta la implementación y la supervisión. “Los sesgos pueden aparecer en muchos puntos del proceso: en los datos históricos, en la representación de la población, en la medición de variables o en la monitorización una vez el sistema ya está en producción. Evaluar la equidad exige, por tanto, una mirada continua y transversal”, señala Clara Higuera.

En este terreno, aspectos como la explicabilidad o la evaluación de métricas adquieren una dimensión operativa. En BBVA, esto se traduce en revisiones de calidad y métodos de evaluación orientados a asegurar que las soluciones de IA cumplen con estándares de seguridad, privacidad y transparencia. Los equipos cuentan con guías prácticas sobre explicabilidad y equidad, métricas y librerías como 'mercury-explainability' o 'mercury-monitoring', que ayudan a entender las decisiones tomadas por los modelos de IA y garantizar su precisión y fiabilidad cuando operan con datos reales. A ello se suman las investigaciones aplicadas, como la generación de un test de estrés para medir los sesgos de la IA generativa, que nos permite evaluar el rendimiento de grandes modelos de lenguaje a la hora de responder a consultas de los usuarios.

Uno de los aprendizajes más relevantes fruto de nuestro trabajo con el desarrollo de IA tiene que ver con la equidad en ‘machine learning’. No existe una definición universal de lo que es justo: la equidad depende del contexto, de la aplicación concreta, de los grupos implicados y de los posibles daños. Por eso, en los modelos con gran impacto, los equipos en función del caso de uso deben decidir de forma explícita qué criterio o métrica de equidad es la más adecuada y justificar esa elección.

En definitiva, los sistemas de IA codifican nuestros valores, de forma consciente o no. Asumirlo es el primer paso para diseñarlos de manera más segura, transparente y responsable.