Cerrar panel

Cerrar panel

Cerrar panel

Cerrar panel

El futuro de la IA: ¿en qué piensan las máquinas?

Sistemas de inteligencia artificial capaces de razonar, crear arte o incluso enseñar a aprender a otras máquinas, son algunos ejemplos de lo que podrá ocurrir en el futuro con el avance del ‘deep learning’. Tres expertos en el campo de la inteligencia artificial (IA) compartieron su visión, inquietudes y esperanzas respecto al desarrollo de esta tecnología durante el evento de presentación de BBVA AI Factory.

El 24 de febrero de 1956 un programa de ordenador diseñado por Arthur Samuel, investigador de IBM, derrotó a una persona jugando a las damas. El evento fue televisado y los espectadores atendieron con una mezcla entre interés y terror a la que fue una de las primeras batallas hombre-máquina que se han convertido en iconos culturales.

Este episodio de la historia no tardaría en repetirse con otros formatos: desde el ajedrez, (al que fue derrotado el mismísimo Kasparov en 1997); hasta el ‘backgammon’ o el juego chino Go, al que algunas máquinas ya aprenden a jugar por sí solas mejor que ningún humano. ¿Y por qué esta obsesión de los investigadores de inteligencia artificial con los juegos de mesa? “Las máquinas son muy buenas resolviendo estos problemas porque para ganar, el ordenador no necesita entender las reglas del juego, tan solo necesita haber visto muchos ejemplos de cómo ganar una partida. Necesita datos”, señalaba Hod Lipson, profesor de ingeniería y ciencia de datos en la Universidad de Columbia en Nueva York, durante su presentación en la inauguración de la AI Factory, donde compartió con el nuevo equipo de BBVA su visión sobre pasado, presente y futuro de la inteligencia artificial.

Como explicó Lipson, fue en las décadas de los años 50 y 60 cuando se sentaron las bases del aprendizaje automático (o ‘machine learning’), una disciplina dentro de la inteligencia artificial que imita algunos aspectos de la biología humana para enseñar a las máquinas a resolver determinados problemas específicos basándose en la experiencia. La investigación en redes neuronales artificiales, no obstante, estuvo parada durante casi 50 años por la ausencia de dos elementos imprescindibles para su avance: potencia de cálculo y disponibilidad de datos en grandes cantidades para entrenar los modelos con suficientes ejemplos.

IBM_ordenador_arthur_samuel_damas_recurso_bbva

El 24 de febrero de 1956 un programa de ordenador diseñado por Arthur Samuel, investigador de IBM, derrotó a una persona jugando a las damas. (Fuente: IBM). - IBM

El retorno del ‘machine learning’

“A partir de los años 90, no obstante, esto cambió y con la nueva abundancia de datos que ha generado la sociedad digital, el avance del aprendizaje automático se ha disparado en los últimos años”, apuntaba Lipson. Cámaras, sensores y dispositivos de todo tipo capturan constantemente millones de datos estructurados que sirven para entrenar este tipo de sistemas, que han refinado su capacidad de aprendizaje de manera exponencial.

Gracias a la gran disponibilidad de datos en internet, por ejemplo, el ‘software’ de reconocimiento de imágenes superó en pocos años de investigación a los humanos a la hora de distinguir un rostro de otro. Esto fue posible gracias a la aparición del ‘deep learning’ o aprendizaje profundo, una subcategoría del ‘machine learning’ que permite que las máquinas no solo aprendan de los ejemplos, sino que sean capaces de entrenarse a sí mismas para hacerlo cada vez mejor usando los datos. Esta tecnología es la que está impulsando también el avance de los vehículos autónomos en los últimos años, “que por fin pueden distinguir un charco de un bache en la carretera” gracias a este refinamiento.

“Ya existen sistemas de ‘machine learning’ que pueden diseñar antenas mucho mejores que cualquier antena jamás creada por un ser humano”

Una de las pruebas de este crecimiento exponencial es el aumento de la demanda que se ha generado por la disciplina en las universidades y academias, como explicó durante el evento Darío Gil, director de IBM Research. “Hace 15 años nadie lo estudiaba y ahora no se cabe en las clases”, apuntó. A pesar de estos avances, Gil abordó durante su charla las que considera las próximas fronteras a atravesar de la inteligencia artificial. Por un lado, aún queda muy lejos el concepto de la “inteligencia artificial amplia”, capaz de resolver todo tipo de tareas, frente a la “inteligencia artificial estrecha”, como la que existe hoy en día, capaz de resolver “muy bien” tareas “muy concretas”.

La primera aún no se sabe cuándo llegará, y difícilmente se alcance exclusivamente a través de técnicas como el ‘deep learning’. Esta disciplina, según Gil, no es eficiente para enseñar a las máquinas a resolver problemas complejos donde entra en juego la necesidad de “razonar y manejar la ambigüedad” como hacemos los humanos. “Para ello será necesario unir la lógica con el razonamiento y que las máquinas sean capaces de ir más allá de las reglas”, explicó.

Para llegar a ese punto, según Gil, un posible camino está en la combinación de las técnicas de aprendizaje automático con la inteligencia artificial simbólica, una tendencia que dejó de avanzar en la década de los 80, y se basaba en dotar a los programas de un “sistema de representación simbólica del pensamiento”. Así, los próximos pasos en inteligencia artificial pasarán, según Gil, por crear sistemas capaces de leer y comprender un texto realmente –“no de procesarlo”–; sistemas capaces de escribir sus propios programas de inteligencia artificial; y “sistemas capaces de experimentar por sí solos”, explicó.

Máquinas creativas, sintientes y pensantes

En líneas similares, Hod Lipson describió los que en su opinión son los próximos retos a superar para esta tecnología. Uno de ellos es el de crear “máquinas creativas”. “Ya existen sistemas de ‘machine learning’ que pueden diseñar antenas mucho mejores que cualquier antena jamás creada por un ser humano”, explicó. También hay máquinas capaces de diseñar proteínas basándose en algoritmos de aprendizaje profundo con un gran potencial para avanzar en la investigación de enfermedades y desarrollo de vacunas.

Según Lipson, estas tecnologías también están dando lugar a un nuevo tipo de arte que nace de un nuevo tipo de percepción, el de las máquinas. “¿Qué pasará cuando las máquinas vean colores que nosotros no vemos y puedan representarlos?”, explicó. La parte artística es interesante, según Lipson, pero de menor calado que lo que realmente está detrás de esta capacidad de creación casi ilimitada: “Ahora mismo hay mucha inversión destinada a crear programas que desarrollen la próxima generación de inteligencia artificial”, aseguró.

Finalmente, Lipson planteó el desafío de crear máquinas “sintientes” que no solo perciban su entorno, sino que sean conscientes de su propio cuerpo. Para explicar los avances que está realizando en este campo en su laboratorio mostró el ejemplo de un robot “ciego” que fue diseñado para aprender gracias al ‘deep learning’ a percibir la forma y capacidades de su propio cuerpo exclusivamente gracias a los datos que obtenía de los sensores en su exterior. En un vídeo mostró los esfuerzos realizados por el robot hasta entender que tenía cuatro patas y su capacidad para aprender a andar basándose en esta información. Tras perder una de sus patas, el robot también exhibió una sorprendente capacidad de resiliencia al reformular su aprendizaje y lograr andar de nuevo tan solo con tres.

IA que se explica sola

Entender lo que ocurre dentro de la “mente” de estas máquinas con una capacidad de aprendizaje cada vez mayor es otro de los retos más complejos a los que se enfrenta esta tecnología. “El principal problema del ‘machine learning’ es la opacidad de los sistemas: no sabemos explicar por qué las máquinas toman las decisiones que toman”, explicaba durante el evento Ricardo Baeza-Yates, CTO de la empresa californiana NTENT y director del programa de ciencia de datos de la Universidad de Northeastern, en Silicon Valley. El experto explicó durante su charla en qué consiste la “inteligencia artificial explicable”: una tendencia que lucha por hacer más transparentes las “cajas negras” creadas por los algoritmos de aprendizaje automático para evitar que se perpetúen los posibles sesgos presentes en los datos utilizados.

Para ilustrar el problema, Baeza-Yates empleó el ejemplo de un ‘software’ de reconocimiento de imágenes. “Cuando procesa la imagen de un gato y decide que es un gato, ¿en qué se ha basado?”, apuntaba. Normalmente, un algoritmo de este tipo solo ofrece un resultado (“esto es un gato”), pero no una explicación. Frente a esto, según el experto, el sistema debería ser capaz de ofrecer una justificación que ayude a los investigadores a entender qué proceso ha seguido para tomar una decisión. Por ejemplo, es un gato porque tiene unas orejas, un pelo y una forma particulares que corresponden a la de “gato”.

No obstante, las explicaciones no siempre son tan sencillas, ¿qué ocurre si el gato está en una postura tal que el sistema no puede identificar ninguno de estos atributos reconocibles? “Normalmente, los algoritmos tienen miedo a decir ‘no lo sé”, apuntaba el investigador, por lo que probablemente trataría de buscar otro resultado antes de ofrecer una respuesta ambigua. Sin embargo, esta sencilla posibilidad podría ser, según el experto, un paso más para ayudar a los investigadores a entender dónde están los límites de estos algoritmos y así hacer una inteligencia artificial más transparente y humana.

Ricardo Baeza-Yates, durante su intervención en el evento de AI Factory.

Otras historias interesantes