Cerrar panel

Cerrar panel

Cerrar panel

Cerrar panel

Ingeniería informática Act. 08 jul 2016

Los avances de la Inteligencia Artificial

A pesar de que aún no conocemos exactamente el funcionamiento de nuestro propio cerebro, cada vez somos más capaces de fabricar recreaciones más y más parecidas. No obstante, y aunque nuestros avances son realmente asombrosos en los últimos años, aún estamos lejos de alcanzar nuestra meta.

Fotografía inteligencia artificial- CIBBVA

La apuesta por las tecnologías de inteligencia artificial parece estar íntimamente relacionada con la búsqueda, en última instancia, de sistemas autoconscientes y capaces de actuar de un modo "humano" (el evento conocido como 'Singularidad').
Una búsqueda que genera un fuerte escepticismo: son muchos los que piensan que jamás podremos llegar a duplicar la inteligencia humana... sobre todo porque aún no la comprendemos totalmente: "Todavía no entendemos cómo funcionan los cerebros, así que no podemos construir uno", como comentaba el experto en informática Jaron Lanier en The New York Times el pasado julio. Otros, como el astrofísico Stephen Hawking, más que escepticismo sobre la posibilidad de alcanzar la Singularidad, son profundamente pesimistas hacia sus posibles efectos: "Sería el mayor evento en la historia humana, pero también el último".
Sin embargo, que estemos muy lejos aún de lograr esa meta no significa ni por asomo que la inteligencia artificial no pueda realizar grandes contribuciones a nuestra vida diaria mucho antes de que ninguna computadora pueda superar el Test de Turing. Si descendemos de las expectativas de ciencia-ficción a lo práctico: el advenimiento del Internet de las Cosas y la avalancha de datos que eso generará requieren de tecnologías de inteligencia artificial capaces de procesar dicho datos en tiempo real y de dar sentido a esa información.
Ya lo comentaban en 2011 los investigadores del grupo SCALAB de la Universidad Carlos III: "La explosión del número de dispositivos capaces de capturar y procesar información, junto al crecimiento de la capacidad de cómputo o los avances en algoritmos disparan las posibilidades de aplicación práctica. Entre ellas podemos mencionar la construcción de programas de ordenador que nos hagan la vida más fácil, que tomen decisiones en entornos complejos o que permitan resolver problemas en entornos difíciles para las personas".
O como planteaba el fundador de GigaOM, Om Malik, "en lugar de esperar a un Godot de la Inteligencia Artificial con el que podamos conversar, lo que necesitamos son maneras de utilizar la AI para aumentar nuestra capacidad de comprender nuestro creciente complejo entorno de datos".

Cambios graduales y aplicaciones prácticas

La inteligencia artificial, como muchas otras innovaciones, es de naturaleza acumulativa, y el logro debe ser optimizarla gradualmente, día a día, en lugar de poner nuestras esperanzas en la llegada de la Singularidad. Debemos, como usuarios, ser conscientes de que ya interactuamos todos los días con la inteligencia artificial... y que posiblemente hayamos ya perdido miles de veces contra ella (pensemos en los videojuegos).

Para Raymond Kurzweil, director de ingeniería de Google, señala que "Watson [la megacomputadora de IBM] no es capaz de entender todos los niveles del lenguaje humano (si lo fuera, estaríamos en el nivel de la prueba de Turing), y aun así fue capaz de derrotar a algunos destacados seres humanos en un concurso televisivo como Jeopardy".
Una de las ventajas de la inteligencia artificial es que sus decisiones son neutrales ante las emociones: se basan en hechos. Su pensamiento intuitivo no se basa en "corazonadas", sino en la detección de patrones de datos a partir de la información de registros históricos introducida en el sistema. A eso se le añade, además, la precisión vinculada a no depender del sueño o el hambre de la inteligencia que debe analizar tales datos, ni de los eventuales errores de comunicación entre dos humanos. Las empresas tienen mucho que ganar adoptando la AI para tomar decisiones en base a grandes volúmenes de datos, y pueden hacerlo ya, con la tecnología disponible actualmente.
Sin embargo, centrarnos únicamente en las aplicaciones prácticas de la Inteligencia Artificial podría limitar su desarrollo, tal y como recordaba recientemente uno de los fundadores de la disciplina, Marvin Minsky: “Los grandes avances en Inteligencia Artificial se dieron entre los 60 y los 80 del pasado siglo. En los últimos años no he visto nada que me sorprenda, porque ahora la financiación se enfoca más en aplicaciones de corto plazo que en ciencia básica”.