Cerrar panel

Cerrar panel

Cerrar panel

Cerrar panel

'Machine learning': ¿qué es y cómo funciona?

Hoy en día la capacidad de las máquinas para aprender está presente en muchos aspectos de la vida cotidiana. El ‘machine learning’ está detrás de las recomendaciones de películas en plataformas digitales, la capacidad para reconocer el habla de los asistentes virtuales o la de los coches autónomos para ver la carretera. Pero su origen como rama de la inteligencia artificial se remonta a varias décadas atrás. Entonces, ¿por qué ahora es tan importante esta tecnología y qué la hace tan revolucionaria?

El ‘machine learning’ –aprendizaje automático– es una rama de la inteligencia artificial que permite que las máquinas aprendan sin ser expresamente programadas para ello. Una habilidad indispensable para hacer sistemas, no solo inteligentes, sino autónomos, y capaces de identificar patrones entre los datos para hacer predicciones. Esta tecnología está hoy presente en un sinfín de aplicaciones como las recomendaciones de Netflix o Spotify, las respuestas inteligentes de Gmail o el habla natural de Siri y Alexa.

“En definitiva, el ‘machine learning’ es un maestro del reconocimiento de patrones, y es capaz de convertir una muestra de datos en un programa informático capaz de extraer inferencias de nuevos conjuntos de datos para los que no ha sido entrenado previamente”, explica José Luis Espinoza, científico de datos de BBVA México. Esta capacidad de aprendizaje se emplea también para la mejora de motores de búsqueda, la robótica, el diagnóstico médico o incluso la detección del fraude en el uso de tarjetas de crédito.

No obstante, aunque sea ahora cuando esta disciplina llena portadas gracias a su capacidad para derrotar a jugadores del Go o resolver cubos de Rubik, su origen se remonta al siglo pasado. “La estadística es sin duda la base fundamental del aprendizaje automático, que básicamente consiste en una serie de algoritmos capaces de analizar grandes cantidades de datos para deducir cuál es el resultado más óptimo para un determinado problema”, añade Espinoza.

infografia-machine-learning

Matemáticas antiguas, nueva computación

Hay que remontarse al siglo XIX para encontrar algunos de los hitos matemáticos que sentaron las bases de esta tecnología: el teorema de Bayes (1812), por ejemplo, definió la probabilidad de que un evento ocurra basándose en el conocimiento de las condiciones previas que pudieran estar relacionadas con dicho evento. Años después, en la década de 1940, otra serie de científicos sentaron las bases de la programación informática, capaz de traducir una serie de instrucciones en acciones ejecutables por un ordenador. Estos precedentes hicieron posible que en 1950 el matemático Alan Turing plantease por primera vez la pregunta de si es posible que las máquinas puedan pensar, con la que plantó la semilla de la creación de computadoras de ‘inteligencia artificial’ capaces de replicar de forma autónoma tareas típicamente humanas, como la escritura o el reconocimiento de imágenes.

Fue un poco más adelante, entre las décadas de 1950 y 1960, cuando distintos científicos empezaron investigar cómo aplicar la biología de las redes neuronales del cerebro humano para tratar de crear las primeras máquinas inteligentes. La idea derivó en la creación de las redes neuronales artificiales, un modelo computacional inspirado en la forma en que las neuronas transmiten la información entre ellas a través de una red de nodos interconectados. Uno de los primeros experimentos en este sentido fue el realizado por Marvin Minksy y Dean Edmonds, científicos del Instituto Tecnológico de Massachussets (MIT), que lograron crear un programa informático capaz de aprender de la experiencia para salir de un laberinto.

“El ‘machine learning’ es un maestro del reconocimiento de patrones”

Esta fue la primera máquina capaz de aprender por sí misma a resolver una tarea sin haber sido programada para ello de forma explícita, sino que lo hacía tan solo aprendiendo a partir de los ejemplos proporcionados inicialmente. El logro significó un cambio de paradigma respecto al concepto más amplio de inteligencia artificial. “El gran hito del ‘machine learning’ es que permitió pasar de la programación mediante reglas a dejar que el modelo haga aflorar dichas reglas de manera desasistida gracias a los datos”, explica Juan Murillo, mánager de Estrategia de Datos en BBVA.

A pesar del éxito del experimento, el logro también ponía de manifiesto los límites que la tecnología tenía por entonces: la falta de disponibilidad de datos y la falta de potencia de cómputo de la época hacían que estos sistemas no tuvieran la capacidad suficiente para resolver problemas complejos. Esto derivó en la llegada del llamado ‘primer invierno de la inteligencia artificial’, una serie de décadas durante las cuales la falta de resultados y avances hizo que el mundo académico perdiera esperanza respecto a esta disciplina.

El renacer de la IA

El panorama empezó a cambiar a finales del siglo XX, con la llegada de internet, las cantidades masivas de información disponibles para entrenar los modelos y el aumento de la potencia de cálculo de los ordenadores. “Ahora podemos hacer lo mismo que antes, pero mil millones de veces más rápido. Los algoritmos son capaces de probar 500.000 millones de veces una misma combinación de datos hasta darnos el resultado óptimo en cuestión de horas o minutos, mientras que antes harían falta semanas o meses”, asegura Espinoza.

En 1997 un célebre hito marcó el renacer del aprendizaje automático: el sistema de IBM Deep Blue, entrenado a base de ver miles de partidas exitosas de ajedrez, logró derrotar al máximo campeón mundial de este juego, Garry Kasparov. El logro fue posible gracias al ‘deep learning’ o aprendizaje profundo, una subcategoría del ‘machine learning’ descrita por primera vez en 1960, que permite que los sistemas no solo aprendan de la experiencia, sino que sean capaces de entrenarse a sí mismas para hacerlo cada vez mejor usando los datos. Esto hito fue posible entonces –y no 30 años atrás–, gracias al aumento de la disponibilidad de datos con los que entrenar el modelo: “Lo que hacía este sistema es calcular estadísticamente qué movimiento tiene más probabilidades de hacerle ganar la partida basándose en miles de ejemplos de partidas vistas previamente”, añade Espinoza.

“La diferencia con técnicas anteriores están en su capacidad para adaptarse a los cambios en los datos a medida que van entrando en el sistema”

Esta tecnología ha avanzado de forma exponencial durante los últimos 20 años, y es también la responsable de AlphaGo, el programa capaz de derrotar al juego Go a cualquier jugador humano. Y lo que es más importante: de entrenarse a base de jugar contra sí mismo constantemente para seguir mejorando.

El sistema que emplea AlphaGo para lograr esto es, en concreto, el ‘aprendizaje por refuerzo’ (o ‘reinforcement learning’) que es una de las tres grandes corrientes que se emplean en la actualidad para entrenar a estos modelos:

  • El ‘aprendizaje por refuerzo’ se produce cuando una máquina aprende por medio de prueba y error hasta alcanzar la mejor manera de completar una tarea dada. Por ejemplo, Microsoft utiliza esta técnica en entornos de juego como Minecraft para ver cómo los ‘agentes de software’ mejoran su trabajo. A través de ella el sistema aprende a modificar su conducta a base de “recompensas” para que resuelva la tarea asignada, sin programarlo específicamente para que lo realice de una forma determinada.
  • ‘Aprendizaje supervisado’, se produce cuando se entrena a las máquinas con datos etiquetados. Por ejemplo, fotos con descripciones de los elementos que aparecen en ellas. El algoritmo que utiliza la máquina es capaz de seleccionar esas etiquetas en otras bases de datos. Así, si se ha etiquetado un grupo de imágenes en las que se muestran perros, la máquina puede identificar imágenes similares.
  • Finalmente, en el caso del ‘aprendizaje no supervisado’, las máquinas no identifican patrones en bases de datos etiquetadas, sino que buscan similitudes. En este caso, los algoritmos no están programados para detectar un tipo específico de datos, como ocurría con las imágenes de perros, sino que buscan ejemplos que se parezcan y puedan agrupar. Es lo que ocurre, por ejemplo, en el caso del reconocimiento facial, en el que el algoritmo no busca unos rasgos concretos, sino una serie de patrones comunes que le ‘dicen’ que se trata del mismo rostro.

Flexibilidad, adaptación y creatividad

Lo modelos de ‘machine learning’ y en concreto el aprendizaje por refuerzo o ‘reinforcement learning’ tienen una característica que los hace especialmente útiles para el mundo empresarial. “Es su flexibilidad y su capacidad para adaptarse a los cambios en los datos a medida que van entrando en el sistema y aprender de las propias acciones del modelo. Ahí radica el aprendizaje y el dinamismo de los que carecían las técnicas previas”, añade Juan Murillo.

En el caso de AlphaGo, esto significa que la máquina se adapta en función de los movimientos del contrincante, y emplea esta información nueva para mejorar el modelo constantemente. La última versión de esta computadora, llamada AlphaGo Zero, ya es capaz de acumular miles de años de conocimiento humano en tan solo unos días funcionando. Además, “AlphaGo Zero también descubrió conocimiento nuevo, desarrollando nuevas estrategias creativas y movimientos no convencionales”, explica DeepMind, la empresa filial de Google responsable de su desarrollo, en un artículo.

Esta capacidad de adaptación y de invención sin precedentes tiene un enorme potencial de cara al futuro para mejorar disciplinas científicas tan dispares como la creación de proteínas sintéticas o el diseño de antenas más eficientes. “Las aplicaciones industriales de esta técnica incluyen optimizar, de forma continua, cualquier tipo de ‘sistema’”, explica José Antonio Rodríguez, científico de datos senior en la Factoría de IA de BBVA. También en el mundo de la banca, el aprendizaje profundo permite “crear algoritmos que pueden ajustarse a cambios en el comportamiento de los mercados y clientes, para balancear oferta y demanda, por ejemplo, ofreciendo precios personalizados”, concluye Rodríguez.

Otro ejemplo es la mejora de sistemas como los de los coches autónomos, que han dado grandes pasos en los últimos años gracias al ‘deep learning’, ya que les permite mejorar su precisión progresivamente cuanto más conduzcan y más datos puedan analizar. Las posibilidades del ‘machine learning’ son virtualmente infinitas mientras existan datos disponibles de los que aprender, y algunos investigadores están incluso poniendo a prueba los límites de lo que llamamos creatividad, empleando esta tecnología para hacer arte o escribir artículos.

Otras historias interesantes