Cerrar panel

Cerrar panel

Cerrar panel

Cerrar panel

Opinión 27 octubre 2020

¿Qué habría que tener en cuenta si se va a regular la inteligencia artificial?

Juan Murillo,  miembro del equipo de Estrategia de Datos en BBVA, y Jesús Lozano, miembro del equipo de Regulación Digital en BBVA, abordan en este artículo las implicaciones que puede tener la regulación de la inteligencia artificial y exponen su visión sobre cuáles deberían ser las consideraciones a tener en cuenta para que los aspectos regulatorios acompañen el correcto desarrollo de este conjunto de tecnologías en el futuro.

Inteligencia artificial (IA) es un término acuñado en los años 50 del siglo pasado. Aunque tiende a identificarse con una única tecnología, en realidad engloba una gran variedad de técnicas y metodologías cuyas bases teóricas se desarrollaron hace más de 70 años. Este campo ha pasado por diversas fases: en su primera etapa fueron predominantes las aplicaciones de la IA simbólica. Esta era una aproximación ‘top-down’ que aspira a parametrizar todas las alternativas que pueda tener un problema para encontrar su solución recorriendo un árbol de reglas lógicas. Los logros iniciales de esta aproximación no alcanzaron las altas expectativas puestas en ella, la inversión se interrumpió, y se vivieron dos “inviernos” de la IA consecutivos en los años 70 y 80 del siglo XX.

Hoy en día, sin embargo, vivimos un cambio de paradigma: frente a la IA simbólica, la IA conectivista –una aproximación ‘bottom-up’ que permite aprender o descubrir patrones en los datos sin seguir reglas preestablecidas– se ha abierto camino (tras haber sido conceptualizada también hace décadas) gracias a resultados sorprendentes en campos tan diversos como el reconocimiento de imágenes, el procesamiento de lenguaje tanto hablado como escrito, o el desarrollo de sistemas de recomendación. En definitiva: la IA lleva entre nosotros mucho tiempo, pero es ahora, gracias a la explosión de datos, y al aumento de capacidad de procesamiento a costes decrecientes, cuando las soluciones que se apoyan en ella están viviendo un auge que se ha venido a señalar como la cuarta revolución industrial.

Por otro lado, toda innovación tecnológica tiene pros y contras asociados. Podemos pensar en decenas de ejemplos con perspectiva histórica: desde la dinamita, a los automóviles o la aviación, pasando por la energía nuclear o, más recientemente, la revolución verde en agronomía. Sus aplicaciones nos plantean dilemas éticos: impulsan el progreso pero también pueden acarrear riesgos inexistentes hasta ahora, o magnificar otros ya identificados.

Este tipo de controversias hace tiempo que han trascendido los foros de expertos y han alcanzado a la sociedad en general por el creciente foco que los medios de comunicación –e incluso la ficción literaria y cinematográfica– están poniendo en ello. Como resultado de esto, los legisladores han comenzado a hacerse eco de este debate, que ha llegado a los Parlamentos, donde se está evaluando si es necesario legislar para mitigar los riesgos identificados y cómo hacerlo de forma que se eviten posibles efectos secundarios como la ralentización o paralización del desarrollo de esta tecnología.

En la UE, la IA empezó a ser un tema central para los reguladores en 2017, cuando el Parlamento Europeo recomendó a la Comisión Europea el desarrollo de leyes civiles sobre robótica, que planteaba incluso el reconocimiento de una “personalidad electrónica” a los robots más avanzados en un futuro. En 2018 la Comisión publicó su primera comunicación sobre inteligencia artificial y un plan de acción coordinado con los Estados Miembros. Desde entonces, han sido múltiples los análisis realizados por diversas instituciones europeas sobre distintos aspectos de esta tecnología, destacando especialmente la publicación por parte de un grupo de expertos de la Comisión Europea de unas guías para el desarrollo de una IA confiable en abril de 2019.

No obstante, ha sido este año cuando la Comisión Europea ha comenzado a plantear acciones más concretas con su libro blanco de inteligencia artificial, que se sometió a consulta entre marzo y junio, y en el que, además de plantear un gran número de medidas para promover el desarrollo de esta tecnología en la UE y alcanzar una posición de liderazgo internacional, se incluía la posibilidad de desarrollar una regulación que aborde específicamente los casos de uso de IA que supongan un mayor riesgo para la sociedad. La expectativa es que una primera versión de este reglamento se publique en el primer trimestre de 2021, aunque no es fácil anticipar cuál será el contenido de este reglamento, pues las visiones de los distintos Estados Miembros sobre el nivel de intervención regulatoria en este campo son divergentes, como demuestra la reciente publicación de una nota por parte de 14 de los Estados Miembros solicitando a la Comisión Europea que esta regulación no sea muy estricta.

Teniendo en cuenta todo lo anterior, cabe hacer las siguientes consideraciones.

La regulación debería ser neutra respecto de la tecnología y enfocarse en las aplicaciones

Regular la inteligencia artificial implica tres dilemas:

  • Una regulación muy vinculada a la tecnología podría quedar obsoleta rápidamente, pues la tecnología evoluciona a gran velocidad. Lo ideal sería que las leyes establecieran unos principios “tecnológicamente agnósticos” cuya validez no dependiera del estado de desarrollo de una tecnología determinada.
  • Una regulación muy vinculada a la tecnología puede penalizar el avance técnico: podría llegar a favorecer los sistemas poco sofisticados frente a los más avanzados. Nuevas exigencias legales podrían fomentar el mantenimiento de sistemas simples, por ejemplo basados en reglas de diseño humano y no automatizados, frente a alternativas más evolucionadas, basadas en ‘machine learning‘ y automatizadas, a pesar de que las segundas pueden conseguir mejores resultados en términos de exactitud o velocidad de respuesta.
  • Regular una tecnología concreta requiere determinar claramente el objeto de la regulación, es decir, es necesario definir y acotar perfectamente el ámbito de la regulación para no dar lugar a interpretaciones posteriores dispares. En el caso de la IA, el grupo de expertos de la Comisión Europea propone una definición tan amplia de esta tecnología que abarcaría prácticamente cualquier sistema o proceso que recabe datos, los procese, y actúe en base a esta información, algo que cumplirían elementos tan básicos como una puerta automática o el termostato que regula la climatización de una estancia.

Por tanto, si lo que queremos es mitigar riesgos, el foco ha de ponerse en las aplicaciones y sus efectos, no en los métodos. Debe controlarse el “qué” y el “para qué”, no tanto el “cómo”.

Una herramienta tan transversal como la inteligencia artificial puede servir para propósitos muy diversos. Desde objetivos con consecuencias triviales en el ámbito del ocio, como el desarrollo de videojuegos, hasta aplicaciones con gran impacto en la vida de las personas, como algunos de los casos de uso desarrollados en el ámbito de la salud, la justicia o el transporte, y aún dentro de estos sectores deben jerarquizarse las aplicaciones concretas en función de su impacto potencial, mediante criterios coherentes y cuantitativos.

Los legisladores deberían centrar sus esfuerzos en identificar las áreas donde la regulación actual es insuficiente o no existe

El punto de partida de este ejercicio deberían ser dos preguntas: ¿cuáles son los males que queremos evitar? y ¿no están ya contemplados por la legislación vigente?

Queremos evitar que la Inteligencia Artificial se use para discriminar, pero en realidad la discriminación está ampliamente cubierta en la legislación vigente, que enumera una serie de características personales que no pueden usarse para limitar el acceso de un ciudadano a un servicio, independientemente de que este acceso lo decida un humano o un algoritmo. No obstante, es cierto que la tecnología tiene la capacidad de escalar y hacer llegar a más personas los efectos -positivos y negativos- de cualquier proceso que se digitalice. Quienes trabajamos en este ámbito somos conscientes de que, en el uso masivo de datos, debe vigilarse que ni estos ni los resultados de su uso estén sesgados, para no perpetuar o amplificar efectos indeseados.

Queremos evitar el despliegue de sistemas cuyo funcionamiento interno no sea perfectamente explicable y puedan tener un impacto significativo en la vida de las personas. Pero esto ya queda recogido en la actual reglamentación sobre protección de datos y sobre derechos de los consumidores.

Queremos que los productos y servicios sean seguros. Pero la normativa de seguridad de productos no establece normas claras sobre novedades como la adaptación automática de las características de un producto o servicio una vez puesto a disposición de sus usuarios en el mercado, algo que se puede producir con cierta frecuencia en aquellos que se apoyen en técnicas de aprendizaje reforzado. En este caso se debe actualizar la norma para que este tipo de situaciones -impliquen IA o no- queden amparadas y resueltas en la misma.

Queremos mantener un alto nivel de autonomía humana, o, dicho de otro modo, queremos mantener el control sobre los procesos automatizados. Además, debemos mitigar problemas que pudieran originarse en las interacciones entre máquinas, pero quizá la mejor forma de acometer esto sería mediante normativas sectoriales en transporte, finanzas, industria, etc. Un ejemplo de ello son los sistemas de ‘algorithmic trading’ en mercados bursátiles, en los que las máquinas  negocian entre sí y cierran operaciones de inversión. El adecuado diseño de estos sistemas, la trazabilidad de las operaciones, el establecimiento de alertas ante la inestabilidad del sistema, y la posibilidad de pasar a control manual para evitar un ‘flash crash’ están ya gobernados por la normativa MiFIDII.

Queremos que actividades como la identificación biométrica remota no limiten las libertades de los individuos. Pero ninguna regulación existente cubre completamente este caso de uso que puede experimentar un auge con la adopción de la IA. Por tanto, para esta aplicación concreta, es razonable desarrollar una regulación específica, que aborde los riesgos de esta actividad, independientemente de la tecnología que se utilice para llevarla a cabo.

Las autoridades competentes deberían clarificar sus expectativas y dar directrices para el cumplimiento de la legislación vigente

Debido a lo innovador de determinadas técnicas de IA y a la falta de experiencia aplicándolas en determinados casos de uso, un obstáculo para el desarrollo de la IA en determinados campos es la dificultad de demostrar el cumplimiento de obligaciones legales existentes como la no discriminación o la explicabilidad que no suponen un reto si se aplican técnicas más sencillas.

En estos casos sería de gran ayuda que las autoridades competentes desarrollen guías y estándares que clarifiquen cómo cumplir con los requisitos establecidos por la regulación ya existente al hacer uso de determinados desarrollos tecnológicos, o que apoyen al sector privado colaborando en el desarrollo de herramientas y estándares que simplifiquen este cumplimiento, como ya sucede en estos ejemplos.

“No sería ético que la implementación de la IA creara nuevos riesgos, pero tampoco lo sería privar a la sociedad de las oportunidades que puede aportar”

Conclusiones

Como hemos comentado, los riesgos no están en la tecnología, sino en cómo se usa. Por ello, establecer requisitos regulatorios adicionales sobre la IA -especialmente en aplicaciones sin apenas impacto en la vida de las personas- aumentaría el coste de implantación de estas nuevas tecnologías, desincentivaría su adopción en la Unión Europea y reduciría la competitividad de los países de la UE respecto a los líderes en este campo, Estados Unidos y China.

Para evitar esto, cualquier intervención normativa debería:

  • ser neutra respecto de la tecnología y enfocarse en las aplicaciones,
  • intervenir en áreas donde la regulación actual es insuficiente o no existe; y
  • dar prioridad al desarrollo de directrices y estándares – en colaboración con el sector privado, en la medida de lo posible – y a clarificar las expectativas de las autoridades que faciliten el cumplimiento de la legislación vigente.

No obstante, si las autoridades europeas apuestan por el desarrollo de una regulación de la inteligencia artificial, esta debería poner el foco en los casos de uso más críticos que no están sujetos ya a regulaciones sectoriales específicas, estableciendo criterios de clasificación según su impacto negativo potencial.

Por supuesto, no sería ético que la implementación de la IA creara nuevos riesgos, pero tampoco lo sería privar a la sociedad de las oportunidades que esta innovación puede aportar.

Este artículo ha sido publicado originalmente en Finextra.com.

Otras historias interesantes