Cerrar panel

Cerrar panel

Cerrar panel

Cerrar panel

Ciencia y tecnología Act. 16 may 2018

Riesgos existenciales para el futuro de la humanidad

En 1815, el sol se apagó en el hemisferio norte y el verano desapareció. La erupción de un volcán en Indonesia arrojó tanta ceniza a la atmósfera que impidió el paso de la luz y provocó una escasez de alimentos en todo el mundo. Meteoritos, erupciones y pandemias han amenazado durante 200.000 años la vida en la Tierra. Sin embargo, los riegos de antes no son los de ahora, advierte Seán Ó hÉigeartaigh, director del Centro para el Estudio del Riesgo Existencial (CSER) de la Universidad de Cambridge.

Las nuevas tecnologías, y aquellas que están por llegar, plantean desafíos todavía desconocidos. El apocalipsis toma ahora nuevas e inquietantes formas y ya no tenemos que mirar al cielo o a la tierra para temer lo peor, sino a nosotros mismos.

“En nuestro tiempo los mayores riesgos a que nos enfrentamos tienen una alta probabilidad de ser el resultado de nuestras actividades”, explica Ó hÉigeartaigh en el libro El próximo paso: La vida exponencial, publicado por BBVA dentro de su iniciativa OpenMind, y que puede descargarse gratuitamente en varios formatos electrónicos.

Los mismos avances que ofrecen la visión de un futuro extraordinario, plantean amenazas inimaginables: los riegos existenciales modernos.

Inteligencia artificial (IA)

Los avances en inteligencia artificial preocupan a los expertos en la materia. Los propios sistemas de IA serán capaces de investigar al más alto nivel y programarse a sí mismos, hasta crear máquinas superinteligentes, mucho más que el ser humano. Esto podría desembocar en sistemas que escapen al control del hombre.

Los expertos de DeepMind, una empresa de Google que desarrolla un  potente sistema de IA, afirman que si la inteligencia se puede “resolver”, también se puede resolver todo lo demás. El riesgo de esta hipotética tecnología, advierte Ó hÉigeartaigh, podría ser superior al de cualquier otra  desarrollada hasta ahora. La solución está en incluir los valores humanos en los algoritmos de la inteligencia artificial.

Cambio climático

La humanidad ya consume por año el 50% más de recursos de lo que puede reponer y la población mundial no deja de crecer (alcanzará los 11.000 millones de personas en 2100 según las previsiones de Naciones Unidas). En la última Conferencia sobre el Cambio Climático, celebrada en 2015, casi 200 países se pusieron de acuerdo para limitar la emisión de gases contaminantes y tratar de frenar el calentamiento global. Pero los expertos advierten de que los objetivos pactados no son suficientes, ni realistas. La erosión del suelo y la extinción masiva de especies, consecuencia de la acción del hombre, están poniendo en riesgo la seguridad del planeta.

Biología sintética

Si en un futuro las bacterias generasen electricidad y los seres humanos fueran inmunes a los virus, la biología sintética habría hecho bien su trabajo. Sin embargo, aunque su potencial es enorme, también los son sus riesgos.

Esta tecnología resulta cada vez más fácil de manejar y, de hecho, existen ya instalaciones de DIY (Do It Yourself) que permiten a particulares participar en experimentos. Incluso hay quienes investigan por su cuenta y riesgo en casa. No sorprende, por tanto, que la preocupación crezca entre los expertos, que ven como esta poderosa herramienta llega a manos inexpertas. El FBI, por ejemplo, ya cuenta con una unidad dedicada a vigilar experimentos biológicos.

ciencia adn laboratorio bbva

Genspace. Biolaboratorio comunitario de Nueva York.

Invierno nuclear

Como ya ocurrió con el volcán de Indonesia en el siglo XIX, una explosión lo suficientemente potente puede lanzar a la atmósfera tal cantidad de materia que lleve a un periodo de frío y oscuridad prolongada. Los arsenales que todavía existen en el mundo bastarían para causar lo que se conoce como un invierno nuclear, un periodo donde la drástica caída en la producción mundial de alimentos podría llevar a la extinción del ser humano.


Descargar libro completo
Kindle epub descargar pdf