Historia de la inteligencia artificial
La inteligencia artificial se ha convertido en una de las tecnologías más influyentes del siglo XXI. Sin embargo, el ser humano sueña con ella desde hace siglos y su desarrollo ha pasado por ciclos de entusiasmo, enfriamiento y descubrimientos científicos que le han dado su forma actual. Su historia combina filosofía, matemáticas, ingeniería, ciencia de datos y mucha imaginación humana.
Las primeras referencias de seres capaces de realizar acciones de manera autónoma nos remiten al mundo clásico. En la mitología griega existía Talos, un gigante de bronce que protegía a Creta de piratas e invasores, considerado uno de los primeros entes programados o 'robots' de la historia. Además, las referencias de herramientas autónomas aparecen ya en la obra 'Autómatas' de Herón de Alejandría. Más adelante, los autómatas serían protagonistas de relatos y leyendas como las del gólem, que en la tradición judía es un ser de barro que sigue las órdenes de su creador.
Para referirnos a las primeras concepciones de automatización desde un punto de vista matemático, tenemos que remontarnos al siglo XVII y a la lógica matemática de Gottfried Leibniz. Con la aspiración de convertir el pensamiento en cálculo, propuso la 'characteristica universalis', un lenguaje formal universal basado en símbolos que permitiera razonar mecánicamente.
Más adelante, en el siglo XIX, George Boole desarrollaría la lógica simbólica mediante un sistema algebraico que se sustentaba en valores binarios (0 y 1). Esta álgebra binaria permitía convertir proposiciones lógicas en operaciones matemáticas. Aunque en un primer momento no se le encontró un uso práctico, en el siglo XX sirvió para sentar las bases de los circuitos digitales y permitió la implementación física del razonamiento en 'hardware', base de la computación digital y, por extensión, de la inteligencia artificial.
De Turing a la inteligencia artificial moderna
Alan Turing está considerado como uno de los padres de la inteligencia artificial y de la computación. Aunque no creó la disciplina, sí sentó las bases a través de varias ideas. En 1936 ideó la máquina universal, que podía ejecutar cualquier algoritmo formalizable. De esta manera, define el concepto moderno de computación programable. Además, en 1950 propuso una prueba para determinar la capacidad de una máquina para imitar el comportamiento de un humano. Es lo que se conoce como test de Turing, que se ha usado como referencia para evaluar la capacidad de los sistemas de IA. Actualmente, muchos grandes modelos de lenguaje (LLMs) ya han superado este test, por lo que se complementa con nuevos métodos y pruebas que evalúan diferentes aspectos de inteligencia.
En 1956 se dio otro hito histórico para la IA: John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon organizaron un taller, que después se conocería con el nombre de conferencia de Dartmouth. Allí se formalizó el término 'inteligencia artificial' y se considera el momento en el que la IA nace como campo académico autónomo. Desde entonces, esta tecnología pasa a ser oficialmente un área de investigación estructurada y un programa científico con financiación y objetivos definidos.
En la conferencia de Darmouth se introdujo también el trabajo de Allen Newell, Herbert A. Simon y Cliff Shaw. Estos investigadores señalaban que todo aspecto del aprendizaje o la inteligencia puede describirse con suficiente precisión como para que una máquina lo simule y presentaron Logic Theorist, considerado como el primer programa de IA.
Newell y Simon también desarrollaron años más tarde la hipótesis del sistema físico de símbolos, según la cual la inteligencia surge de manipular símbolos mediante reglas formales. Esta hipótesis consolidó el paso de la especulación filosófica a la disciplina académica.
LISP como lenguaje de IA
El propio John McCarthy prosiguió en su estudio y entre 1958 y 1959 desarrolló LISP (LISt Processing). Se trata de una familia de lenguajes de programación de alto nivel orientados a la manipulación simbólica. Más adelante sería el lenguaje dominante para desarrollar sistemas expertos durante las décadas de 1970 y 1980
LISP consolidó la primera gran etapa académica de la historia de la IA. Dio la posibilidad de representar conocimiento en estructuras formales (como si fueran listas), desarrollar sistemas basados en reglas y manipular expresiones matemáticas. Este avance fue fundamental para impulsar la primera ola de inteligencia artificial simbólica, ya que permitió programar reglas, inferencias y estructuras lógicas.
A partir de la década de 1960, aparecieron sistemas que marcaron esta etapa de desarrollo de la inteligencia artificial a nivel académico. En 1966 se desarrolla en el MIT ELIZA, considerado el primer 'chatbot' de simulación conversacional basada en reglas. En 1970, también en el MIT, se desarrolla SHRDLU, un programa de computación para comprender el lenguaje natural. Ambos desarrollos demostraron que ciertos procesos de la mente humana podían reflejarse en un modelo algorítmico, reforzando así la idea de que la inteligencia podía describirse y replicarse con computación.
Los dos inviernos de la IA
A pesar de estos avances, el periodo entre mediados de la década de 1970 y mediados de la década de 1990 estuvo protagonizado por lo que se conoce como los dos inviernos de la IA.
El primer invierno se extendió aproximadamente entre 1974 y 1980. Las grandes expectativas creadas en los años anteriores chocaron contra realidades como la limitada potencia de cómputo y la escasez de datos. En consecuencia, se redujo la financiación y se redefinieron los parámetros para pasar de una IA teórica proveniente de la academia a una IA con proyección industrial.
En la década de 1980, se produjo un resurgimiento gracias al desarrollo de la lógica difusa, un enfoque matemático que permitía manejar la imprecisión y la incertidumbre. Esto amplió las posibilidades de la IA para procesar datos. Sin embargo, entre 1987 y 1993 se produjo un segundo invierno de la IA también motivado por un incumplimiento de expectativas debido especialmente a las limitaciones de los sistemas, que provocó una reducción en la financiación de los proyectos.
Durante este segundo invierno de la IA, se produjo el declive de LISP como lenguaje de la industria. Las limitaciones del modelo fomentaron que los sistemas basados en este tipo de inteligencia artificial simbólica dieran paso a otros enfoques centrados en las redes neuronales y el aprendizaje profundo. Esto abrió el debate entre simbolismo (la inteligencia equivale a manipular símbolos) y conexionismo (las reglas emergen a partir del aprendizaje de la máquina), discusión que hoy sigue con los modelos de lenguaje.
Estos modelos son la base de los sistemas de inteligencia artificial actuales y se basan en el entrenamiento de los modelos para que puedan aprender nuevas reglas y mejorar sus resultados. En 1974 Paul Werbos presenta un trabajo que describe las redes neuronales multicapa y el entrenamiento mediante retropropagación ('backpropagation'), la técnica clave que permitió el entrenamiento eficiente de redes profundas ajustando progresivamente sus conexiones.
Más adelante, David E. Rumelhart, Geoffrey Hinton y Ronald J. Williams recogieron el trabajo de Werbos y formularon el algoritmo de retropropagación de manera más clara. Este trabajo sentó las bases del desarrollo del 'deep learning' (aprendizaje profundo), que tendría un mayor desarrollo a partir de la década de los 2000. En la década de 1980, John J. Hopfield desarrolló las redes de Hopfield que mostró cómo un sistema de neuronas artificiales podía almacenar y recuperar patrones.
Hinton, junto con Yann LeCun y Yoshua Bengio, es considerado uno de los arquitectos principales del aprendizaje profundo, término que acuñó en 2006. En 2018 los tres recibieron el premio Turing por sus aportaciones y Hinton y Hopfield ganarían el Nobel de Física en 2024 por sus descubrimientos y aportaciones al aprendizaje automático.
En la actualidad, Yann LeCun, que desarrolló su carrera como jefe científico de IA en Meta, ha fundado AMI Labs, una startup con sede en París con la que aspira a superar el paradigma actual basado en grandes modelos de lenguaje y avanzar en los denominados 'world models' o modelos de mundos, que permitiría a los sistemas de IA interpretar mejor el mundo.
Deep Blue vs Kasparov
En 1997, la máquina Deep Blue, diseñada por IBM, vence al campeón del mundo de ajedrez, Garry Kasparov. Fue un acontecimiento con impacto global y demostró el potencial de las máquinas para superar al ser humano en tareas cognitivas complejas. Además, fue la inspiración para que una mente brillante desarrollara uno de los sistemas de inteligencia artificial más potentes que existen actualmente.
Cuando la máquina venció al ajedrecista, Demis Hassabis era todavía un estudiante en Cambridge, pero el hecho le marcó. Para Hassabis el hecho fundamental era que, aunque la máquina era brillante jugando al ajedrez, "no podía hacer nada más… Algo faltaba en un sistema que queríamos ver como inteligente", según explicó a 'The Atlantic'. Desde entonces, Hassabis ha dedicado su carrera a refinar y perfeccionar modelos de inteligencia artificial. En 2010 cofundó DeepMind (2010), una startup británica dedicada a la investigación en inteligencia artificial que fue adquirida por Google en 2014.
Casi 20 años después de aquella partida de ajedrez, en 2016, AlphaGo (un modelo diseñado por Hassabis en DeepMind, la compañía de investigación en IA que cofundó y que había sido adquirida por Google en 2014), derrotó a Lee Sedol, considerado uno de los mejores jugadores de Go del mundo. El Go es un juego muy complejo con unas combinaciones mucho mayores que el ajedrez. Este hito supuso el primer paso del desarrollo de los modelos diseñados por Hassabis, que más adelante crearía AlphaFold, un modelo que ha ayudado a descifrar la estructura de más de 200 millones de proteínas, un conocimiento clave para comprender las enfermedades genéticas y diseñar terapias específicas altamente precisas. En 2024 el Nobel de Química reconocía esta aportación, junto a los trabajos de David Baker y John M. Jumper en el diseño computacional de proteínas y la predicción de su estructura, respectivamente.
El auge de la IA generativa
Aunque el boom actual de la IA se debe a la presentación al público general de ChatGPT en noviembre de 2022, hay que retrotraerse a 2017 para entender los actuales modelos de inteligencia artificial generativa. Ese año, investigadores de Google presentaron el paper 'Attention is All You Need' en el que sentaban los fundamentos de la arquitectura Transformer, base de los grandes modelos de lenguaje que configuran la IA generativa. Son modelos entrenados con billones de parámetros y capaces de generar texto coherente, programar, resumir información compleja y traducir y razonar.
El lanzamiento de ChatGPT por OpenAI supuso el acceso del gran público a los asistentes de inteligencia artificial generativa, herramientas capaces de generar contenidos, responder preguntas y asistir en múltiples tareas mediante lenguaje natural. El siguiente paso en la evolución de la tecnología son los agentes de IA, es decir, sistemas que puedan tomar decisiones autónomas.
Tras décadas de avances, retrocesos y expectativas renovadas, la inteligencia artificial sigue evolucionando en nuevas direcciones.