Cerrar panel

Cerrar panel

Cerrar panel

Cerrar panel

Ciencia y tecnología 25 dic 2013

Los chips neuromórficos tendrán una inteligencia alienígena

Los microchips que toman el cerebro como modelo podrían ser buenos para tareas que desconciertan a los ordenadores actuales tras 30 años de investigación.

Imagina a una persona en una cafetería leyendo estas líneas en un portátil. La máquina, hecha de metal, plástico y silicio consume unos 50 vatios de potencia mientras traduce trozos de información, una larga ristra de 1s y 0s para transformarlos en un patrón de puntos sobre una pantalla. Mientras, dentro de la cabeza de esa persona una masa viscosa de proteínas, sal y agua, usa una fracción minúscula de esa potencia no sólo para reconocer los patrones como letras, palabras y frases, sino también para reconocer la canción que suena en la radio.

Los ordenadores son increíblemente ineficientes en muchas tareas que resultan sencillas incluso a las mentes más simples, como por ejemplo reconocer imágenes y moverse por espacios desconocidos. Las máquinas que se encuentran en los laboratorios de investigación y grandes centros de datos pueden llevar a cabo este tipo de tareas, pero son inmensas y requieren muchísima energía para funcionar, además de una programación especializada. Hace poco Google copó los titulares por un software capaz de reconocer de forma fiable a gatos y caras humanas en vídeos, pero para conseguirlo fueron necesarios no menos de 16.000 potentes procesadores.

Una nueva generación de chips de ordenador que opera más como el cerebro quizá esté a punto de estrechar la distancia que existe entre la computación artificial y la natural; entre circuitos que resuelven operaciones lógicas a una velocidad de vértigo y un mecanismo afinado por la evolución para procesar y actuar partiendo de aportaciones sensoriales del mundo real. Los avances en neurociencia y tecnología de chips han hecho posible la construcción de dispositivos que, al menos a pequeña escala, procesan datos igual que el cerebro de un mamífero. Estos chips “neuromórficos” quizá sean la pieza que faltaba en muchos proyectos prometedores inacabados en el campo de la inteligencia artificial, como los coches que se conducen solos de forma fiable en cualquier circunstancia, y los teléfonos inteligentes que actúan como ayudantes competentes.

 

hombre calculadora ordenador dinero finanzas fintech bbva

"Un estudio matemático más profundo del sistema nervioso... podría alterar nuestra comprensión de la matemática y la lógica"

“Los ordenadores modernos derivan de las calculadoras, que sirven para resolver problemas matemáticos”, explica el investigador sénior del centro de investigación de IBM en Almadén, California (EEUU), Dharmendra Modha. “Los cerebros evolucionaron en el mundo real“. Modha dirige uno de los dos grupos que han construido chips de ordenador con una arquitectura básica copiada de la del cerebro de los mamíferos dentro del proyecto Synapse, financiado con 100 millones de dólares (unos 73 millones de euros) por la Agencia de Proyectos Avanzados de Defensa del Pentágono (DARPA por sus siglas en inglés).

Los prototipos ya han mostrado los primeros destellos de inteligencia, procesando imágenes con mucha eficacia y adquiriendo nuevas habilidades en formas que se parecen al aprendizaje biológico. IBM ha creado herramientas para permitir a los ingenieros de software programar estos chips inspirados en el cerebro. El otro prototipo, de los laboratorios HRL en Malibu, California (EEUU), pronto estará instalado dentro de una diminuta nave voladora robótica, desde donde aprenderá a reconocer su entorno.

La evolución de los chips inspirados en el cerebro comenzó a principio de la década de 1980, con el profesor del Instituto Tecnológico de California (Caltech, en EEUU) y uno de los padres de la computación moderna, Carver Mead. Mead se había dado a conocer ayudando a desarrollar una forma de diseñar chips de ordenador bautizada como integración a muy gran escala, o VLSI por sus siglas en inglés, que permitía a los fabricantes crear microprocesadores mucho más complejos. La VLSI disparó un crecimiento explosivo en la potencia de computación, los ordenadores iban a llegar al gran público, a estar en todas partes. Pero la industria parecía conformarse con construirlos siguiendo un único plano, creado en 1945.

La arquitectura von Neumann, bautizada así en honor del matemático de origen húngaro John von Neumann, está diseñada para ejecutar secuencias lineales de instrucciones. Todos los ordenadores actuales, desde los smartphones hasta los superordenadores, sólo tienen dos componentes principales: una unidad central de procesamiento o CPU, para manipular datos, y un bloque de memoria de acceso aleatorio o RAM, para almacenar los datos y las instrucciones sobre cómo manipularlos. La CPU empieza tomando su primera instrucción de la memoria, seguida de los datos necesarios para ejecutarla; después de llevar a cabo la instrucción, el resultado se devuelve a la memoria y el ciclo se repite. Incluso los chips multinúcleo que manejan datos en paralelo se limitan a unos pocos procesos lineales simultáneos.

Resulta irónico que, a pesar de que inspiró los diseños convencionales que siguen vigentes, Von Neumann también intuyera el potencial de la computación inspirada en el cerebro. En su libro inacabado The Computer and the Brain (El ordenador y el cerebro), publicado un año después de su muerte en 1957, se maravillaba ante el tamaño, la eficiencia y la potencia del cerebro si se comparaba con los ordenadores. “Un estudio matemático más profundo del sistema nervioso… podría alterar nuestra comprensión de la matemática y la lógica“, sostenía. Cuando Mead llegó a la misma conclusión más de dos décadas después, se dio cuenta de que nadie había intentado crear un ordenador inspirado en el cerebro. “En aquel momento no había nadie pensando: ¿Cómo construyo uno?”, explica Mead. “No teníamos ni idea de cómo funcionaba”.

Finalmente Mead construyó sus primeros chips neuromórficos, que es el nombre que el usó para bautizar sus dispositivos inspirados en el cerebro, a mediados de la década de 1980, después de colaborar con neurocientíficos para estudiar cómo procesan los datos las neuronas. Al operar transistores normales a una potencia inusualmente baja, podía crear redes de feedback que tienen un aspecto muy distinto a las colecciones de neuronas pero funcionaban de forma parecida. Usó ese truco para emular los circuitos que procesan los datos de la retina y la cóclea, construyendo chips capaces de hacer cosas como detectar los bordes de los objetos, y las características de una señal de audio. Pero trabajar con estos chips resultaba difícil, y sus esfuerzos se vieron limitados por la tecnología existente para su fabricación. Cuando la computación neuromórfica no era más que una curiosidad, Mead pasó a trabajar en otros proyectos. “Era más difícil de lo que imaginaba cuando empecé”, reflexiona.

El cerebro de una mosca no parece tan complejo, pero hace cosas que aún hoy no somos capaces de hacer. Eso debería ser una indicación”.

Neuronas dentro

El laboratorio de IBM en Almadén, cerca de San José, está cerca pero separado de Silicon Valley, quizá la situación ideal desde la que repensar las bases de la industria de la computación. Para llegar hasta allí hay que conducir hasta una calle bordeada de magnolios en las afueras de la ciudad y subir por tres kilómetros de curvas. El laboratorio se asienta en medio de nueve kilómetros cuadrados de colinas protegidas. Dentro, los investigadores se pasean por largos, anchos y tranquilos pasillos cavilando sobre distintos problemas. Aquí, Modha dirige el mayor de los dos equipos reclutados por DARPA para acabar con la dependencia de la industria de la computación del modelo Von Neumann. El enfoque básico es parecido al de Mead: construir chips de silicio con elementos que operan como neuronas. Pero Modha puede aprovechar los avances que ha habido en neurociencia y en la fabricación de chips. “El momento adecuado lo es todo; para Carver no era el momento”, afirma Modha, que tiene la costumbre de cerrar los ojos para pensar, respirar y reflexionar antes de hablar.

IBM fabrica chips neuromórficos basados en colecciones de 6.000 transistores que emulan el comportamiento de picos eléctricos de una neurona, y después cablean esas neuronas de silicio para conectarlas. La estrategia de Modha para combinarlos en un sistema parecido a un cerebro se inspira en estudios del córtex cerebral, la capa externa rugosa. Aunque distintas partes del córtex tienen distintas funciones, como controlar el lenguaje o el movimiento, está toda formada por microcolumnas, agrupamientos de 100 a 250 neuronas que se repiten. Modha presentó su versión de una microcolumna en 2011. Una mota de silicio un poco mayor que la cabeza de un alfiler que contenía 256 neuronas de silicio y un bloque de memoria que define las propiedades de hasta 262.000 conexiones sinápticas entre ellas. Programar esas sinapsis de forma correcta sirve para crear una red que procesa y reacciona a la información de forma muy parecida a cómo lo hacen las neuronas en un cerebro de verdad.

Poner ese chip a trabajar en un problema implica programar una simulación del chip en un ordenador convencional y después trasferir la configuración al chip real. En un experimento, el chip fue capaz de reconocer dígitos escritos a mano del 0 al 9, prediciendo incluso qué número estaba empezando a dibujar una persona con un lápiz digital. En otro, la red del chip se programaba para jugar a una versión del videojuego Pong. En un tercer experimento, dirigía a un pequeño vehículo aéreo sin piloto para que siguiera la doble línea amarilla en la carretera que conduce al laboratorio de IBM. Ninguno de estos logros son imposibles para el software convencional, pero en este caso se consiguieron usando una mínima parte del código, la potencia y el hardware que serían necesarios habitualmente.

Modha está probando las primeras versiones de un chip más complejo formado por una parrilla de núcleos neurosinápticos que componen un córtex rudimentario, más de un millón de neuronas en total. El verano pasado, IBM anunció una arquitectura de programación neuromórfica basada en bloques modulares de código llamados corelets. La intención es que los programadores combinen y cambien ligeramente los corelets de un menú preexistente, para que no tengan que pelearse con las sinapsis y neuronas de silicio. Ya se han diseñado más de 150 corelets, para tareas que van desde el reconocimiento de personas en vídeo hasta distinguir entre la música de Beethoven y la de Bach.

Otras historias interesantes