En su artículo publicado en el portal ‘The Raw Story’ Sandberg señala que la gente ha estado hablando sobre el apocalipsis durante milenios, pero pocos han tratado de buscar la manera de evitarlo, al contrario, durante el último siglo solo hemos descubierto o creado nuevos riesgos existenciales.
Guerra nuclear
La amenaza más peligrosa para todos los seres humanos, según el científico, es la guerra nuclear.
Sandberg afirma que mientras que sólo dos armas nucleares se han utilizado en combate hasta ahora, en Hiroshima y Nagasaki durante la Segunda Guerra Mundial, los arsenales nucleares están a punto de llegar a una guerra fría global y es un error pensar que la guerra nuclear es imposible.
De acuerdo con el científico, si suponemos que el calentamiento de la situación en esta área podría tener lugar cada 69 años, teniendo en cuenta la crisis de los misiles de Cuba, con una de cada tres posibilidades de que podría haber una guerra nuclear, la posibilidad de una catástrofe aumenta a una de cada 200 por año.
Sin embargo, pese a que una guerra nuclear a gran escala entre las grandes potencias mataría a cientos de millones de personas en forma o a través de sus efectos secundarios, no será suficiente para que sea un riesgo existencial.
La verdadera amenaza, según el investigador, es el invierno nuclear, en otras palabras, una increíble cantidad de hollín lanzada a la estratosfera que causaría un enfriamiento y sequía del mundo entero en unos años. Las simulaciones climáticas modernas indican que esto podría impedir la agricultura en gran parte del mundo. Si ocurre esta situación miles de millones de personas morirían de hambre, dejando solo supervivientes dispersos por todo el planeta que, por su parte, serían interceptados por otras amenazas, como diferentes enfermedades.
Bioingeniería pandémica o armas químicas
Las pandemias naturales han matado a más personas que las guerras, pero es poco probable que pudieran convertirse en una amenaza existencial, ya que siempre hay algunas personas resistentes al patógeno.
Sin embargo, ahora el propio ser humano puede hacer las enfermedades más irresistibles y peligrosas. Uno de los ejemplos es el famoso gen mousepox, introducido en un ratón con viruela, que hizo la enfermedad mucho más letal y capaz de infectar a los individuos vacunados. Los últimos trabajos sobre la gripe aviar también han demostrado que es posible fomentar deliberadamente el contagio de la enfermedad.
De acuerdo con Sandberg, está capacidad y el hecho de que la biotecnología sea cada día más barata permitió a los gobiernos en busca de nuevas herramientas de control desarrollar un nuevo tipo de armas de destrucción masiva: armas químicas o biológicas.
El científico destaca que aunque acabar con la humanidad no es militarmente útil, siempre aparece alguien que quiere hacer las cosas porque puede. Y hasta existen grupos de personas que creen que la Tierra sería mejor sin el ser humano.
Superinteligencia
La inteligencia es muy poderosa y cada día ayuda más a los individuos y diferentes organizaciones en el logro de sus objetivos, pero si las metas se fijan mal este poder puede llevar la humanidad a extremos desastrosos.
De acuerdo con el investigador, la forma de inteligencia más poderosa de las existentes hasta la fecha es el ‘software’ y cuando se vuelva lo suficientemente potente como para hacer una forma mejor de sí misma provocará una “explosión de inteligencia” que llevaría a una gran diferencia en el poder potencial entre el sistema inteligente (o las personas que le indican lo que debe hacer) y el resto del mundo. Esto, según Sandberg, tiene un enorme potencial para el desastre si las metas se fijan mal.
Sin embargo, el científico admite que es muy difícil razonar acerca de la tecnología del futuro que todavía no tenemos, o inteligencias más grandes que nosotros, por los que esta teoría podría ser el desastre más masivo o simplemente un espejismo.
Nanotecnología
La nanotecnología es el control sobre la materia con precisión atómica o molecular y en sí misma no es peligrosa, al contrario, podría convertirse en una solución para muchos problemas que hoy en día no dejan dormir a los científicos. Sin embargo, según afirma Sandberg, su problema, al igual que el de la biotecnología, es que su aumento de potencia también aumenta la posibilidad de sus abusos, que son difíciles de diferenciar.
El riesgo más evidente de la fabricación de precisión atómica parece ideal para la fabricación rápida y barata de cosas como las armas. Así en el mundo donde cualquier gobierno podría “imprimir” grandes cantidades de armas autónomas las carreras de armamentos podrían llegar a ser muy rápidas y por lo tanto inestables. En esta situación atacar primero antes de que tu enemigo alcance la cantidad más grande de armas pudiera ser la mayor tentación.
De acuerdo con Sandberg, el desarrollo de la nanotecnología “podría actuar como un gas nervioso, que busca a las víctimas con el fin de mantener las poblaciones obedientes” y además conseguir la proliferación nuclear y la ingeniería climática en manos de cualquiera que lo desee.
La incertidumbre
Mencionando a la amenaza para la humanidad más inquietante de todas, Sandberg indica la existencia de algo desconocido y muy mortal de lo que todavía no tenemos ni idea.
El científico señala que “el silencio en el cielo podría ser evidencia de esto” y se cuestiona ¿si la ausencia de los extraterrestres se debe al hecho de que la vida y la inteligencia son excepcionales o a que tienden a ser aniquiladas? Sandberg supone que si de verdad existe un gran filtro, debe haber funcionado con otras civilizaciones también.
El investigador también señala que los riegos mencionados en la lista tienen mucha más probabilidad de llevar a la humanidad a la extinción que, por ejemplo, el cambio climático o el impacto de un asteroide, los cuales, por su parte, aparecen mucho más a menudo en los medios de comunicación, quienes sobrevaloran su potencia.