Cerrar panel

Cerrar panel

Cerrar panel

Cerrar panel

Kay Firth-Butterfield: "Tenemos que plantearnos qué relación queremos tener con la inteligencia artificial"

Kay Firth-Butterfield, CEO de Good Tech Advisory y exjefa de Inteligencia Artificial del Foro Económico Mundial, reflexionó en el FinAI Summit de BBVA sobre los retos de la inteligencia artificial responsable y sobre el tipo de relación que la sociedad desea construir con esta tecnología. La IA no es nuestro mejor amigo ni nuestra pareja, afirmó, aunque el 20% de los hombres en Estados Unidos la hayan utilizado en algún momento "como pareja sentimental, la persona con la que hablan, la persona a la que quieren. ¿Es ese el futuro que deseamos con esta tecnología?", se preguntó la experta.

En plena era de la inteligencia artificial generativa, se hacen evidentes los sesgos de los datos con los que se entrenan estos sistemas. Kay Firth-Butterfield, CEO de Good Tech Advisory y exjefa de Inteligencia Artificial del World Economic Forum, subió al escenario del FinAI Summit de BBVA para hacer reflexionar sobre cómo la IA está integrándose en el día a día de los seres humanos, cómo convivimos con ella y la importancia de que las decisiones sobre su uso no queden en manos de unos pocos.

La ponente subrayó que, aunque la inteligencia artificial generativa ha supuesto una auténtica revolución en los últimos años, sus efectos no se reparten de forma equitativa. Una parte significativa de la población aún desconoce la existencia de estas herramientas o no entiende su funcionamiento. "El 47% de las personas en Estados Unidos y el 42% en Reino Unido no habían oído hablar de ChatGPT hasta mayo de 2024", apuntó. Por ello, insistió en la necesidad de "no perder de vista a quienes nos rodean y aún no comprenden el impacto de estos sistemas".

Los sesgos en los modelos de lenguaje

La novelista británica Jane Austen escribió 'Persuasión' en 1817. En una de sus escenas, la protagonista y un personaje masculino discuten sobre quién ama con mayor constancia, si ellos o ellas. Él sostiene que los hombres lo hacen durante más tiempo porque así lo afirman todos los libros. "¿Dónde está el error?", planteó Kay Firth-Butterfield durante su intervención. "En que todos esos libros estaban escritos por hombres". Ese es, a su juicio, una de las claves del problema actual con los grandes modelos del lenguaje: "Estamos utilizando datos con sesgos históricos que los humanos hemos introducido".

La experta advirtió de que una de las razones detrás de estos sesgos es el origen y la configuración de los grandes modelos de lenguaje, diseñados en gran medida desde una perspectiva masculina, blanca y occidental. "Aunque los usuarios de GPT alcanzan los 300 millones, el 46% son hombres que viven en Estados Unidos", apuntó. Una cifra que contrasta con los más de 3.000 millones de personas en todo el mundo que aún no tienen acceso a internet. "No podemos avanzar como humanidad si la mitad de la población sigue desconectada de la herramienta de la que dependemos todos", sentenció.

Otro de los puntos clave abordados fue el de las alucinaciones de la inteligencia artificial, un fenómeno que compromete la fiabilidad de los datos. Según la ponente, estas inconsistencias no solo generan confusión, sino que se retroalimentan, perpetuando errores que acaban integrándose en los sistemas.

En algunos casos, la IA se utiliza para manipular la información de manera deliberada. Un ejemplo son los 'deepfakes' (imágenes falsas creadas con IA), que la especialista describió como "una plaga para quienes habitamos el mundo real". Las consecuencias de los 'deepfakes' se extienden a múltiples sectores, pero el entorno empresarial es especialmente vulnerable. Kay Firth-Butterfield recordó un caso ocurrido en Hong Kong, donde una mujer transfirió 20 millones de libras (unos 23 millones de euros) tras ser engañada en una videollamada falsificada con inteligencia artificial. Un caso que pone de relieve los peligros reales de estas tecnologías cuando no existen mecanismos de control adecuados.

Avanzar, pero con responsabilidad

Uno de los argumentos más comunes a favor de la inteligencia artificial es su capacidad para impulsar la innovación. No obstante, la ponente subrayó que ese avance debe ir acompañado de responsabilidad y medidas de seguridad. Para ilustrarlo, compartió una anécdota personal: "Conduzco un Porsche. Elegí ese coche porque es rápido, pero también porque cuenta con buenos frenos y airbags. Si algo sale mal, sé que estaré protegida, y también lo estarán los demás en la carretera. Eso es lo que yo llamo innovación responsable".

Aunque algunas empresas han restringido el uso de ChatGPT, muchos empleados continúan utilizándolo por iniciativa propia. Firth-Butterfield relató una situación en la que un trabajador de una compañía de ciberseguridad cometió un error al usar esta herramienta. El problema, señaló, no fue solo el fallo humano, sino que la empresa no contaba con ningún protocolo ni directrices sobre cómo utilizar la inteligencia artificial. "Es fundamental reflexionar sobre estos procesos. Usar la IA con prudencia permite aprovecharla de forma más eficaz", concluyó.

Otro de los aspectos clave que surgen al abordar los desafíos de la inteligencia artificial es su gobernanza. En este sentido, la ponente destacó que en Estados Unidos existen numerosas leyes relacionadas con la IA a nivel estatal, aunque todavía no hay una normativa federal unificada. Esta situación contrasta con la de Europa, donde se ha optado por una única ley común para todos los países miembros, la AI Act. "Imaginad que sois una empresa y tenéis que cumplir con 150 leyes diferentes", observó.

La IA entra en el mercado laboral

La inteligencia artificial también ha irrumpido en el mercado laboral, generando preocupación entre muchas personas por la posible pérdida de empleo. Sin embargo, Firth-Butterfield invitó a replantear ese temor y a centrarse en el potencial de productividad aumentada que ya está ofreciendo esta tecnología. "Gracias a la IA, quizá los más jóvenes ya no tengáis que cargar con la responsabilidad de nuestras jubilaciones", comentó, y añadió: "En los próximos años, los robots impulsados por IA estarán disponibles. Si eso se cumple, podréis recibir apoyo y, además, delegar ciertas tareas en estas máquinas".

La irrupción de la inteligencia artificial en el mercado laboral no solo afectará a los jóvenes, sino también a quienes desempeñan trabajos físicos o tareas repetitivas, especialmente a quienes están próximos a la jubilación. Muestra de ello es lo que sucede en sectores como el de la construcción, donde, como señaló Firth-Butterfield, la edad media de los trabajadores es de 46 años y muchos necesitarán apoyo físico en los próximos años. En este sentido, ejemplos como el del perro robot Spot muestran cómo la tecnología puede contribuir, por ejemplo, transportando materiales en obra. "La inteligencia artificial no debe verse como una amenaza para el empleo, sino como una aliada que puede cubrir los huecos que dejan quienes salen del mercado laboral, justo cuando más falta hace para mantener el sistema de pensiones", subrayó.

La inteligencia artificial puede potenciar las capacidades humanas, pero incluso en este contexto, hay tareas que seguirán requiriendo la intervención de las personas. "¿Existen trabajos que deberían ser exclusivos de los seres humanos?", planteó la ponente. Y recordó la importancia de conservar la interacción humana en situaciones de gran vulnerabilidad emocional, como, por ejemplo, una conversación entre un paciente de cáncer y su oncólogo. "Eso es lo que nos define como seres humanos: la capacidad de decidir por nosotros mismos cuánta inteligencia artificial queremos en nuestras vidas y cuánta preferimos evitar, sin que nadie nos lo imponga", reflexionó.

La capacidad para decidir por nosotros mismos es el principal mensaje de la ponencia. Este derecho, que va más allá de las decisiones individuales, solo se podrá garantizar si las empresas de las que dependen la IA no están concentradas. "Actualmente, la inteligencia artificial está en manos de unos pocos", advirtió Firth-Butterfield, y añadió que, si no empezamos a hablar del tema (entre amigos y en todos los ámbitos de la sociedad), seguirá siendo así: "Una herramienta controlada por un reducido grupo de personas, la mayoría concentradas en Silicon Valley".