Este texto fue publicado originalmente en Motherboard, nuestra plataforma de ciencia y tecnología.
Hay algunas maneras relativamente obvias por las que la humanidad puede desaparecer: el cambio climático, un conflicto nuclear o una inteligencia artificial asesina, por mencionar algo. También existen riesgos menos probables, los que ahondan muy profundo en lo especulativo y van tanto hacia lo desconocido que es casi imposible imaginar que algún día podrían suceder.
Videos by VICE
Un súper contaminante podría hacer que la raza humana se vuelva estéril. El gran colisionador de hadrones podría transformar el planeta Tierra en un gran hoyo negro. Un videojuego podría ser tan adictivo que los humanos prefieren morir antes de apretar pausa. Los animales podrían ser más inteligentes que los humanos a través de la experimentación. Incluso podrían llegar los extraterrestres asesinos.
Hay potenciales riesgos que son dados como ejemplo en una sección muy particular del reporte hecho por la Global Challenges Foundation, bajo el título “Riesgos que amenazan a la civilización humana” en el capítulo “Consecuencias desconocidas”.
Puede sonar absurdamente improbable, pero te pueden dar una razón para pensar. “(Los riesgos inciertos) constituyen una amalgama de todos los riesgos que pueden parecer muy poco probables por sí mismos, pero combinados representan una proporción importante de la exposición al riesgo”, dice el reporte. También señala que “muchos de los riesgos de hoy habrían sonado ridículos para las personas en el pasado”.
“Si trabajas con los riesgos, es la parte más difícil pero también la categoría más interesante”, me dijo por teléfono Dennis Pamlin, productor ejecutivo y administrador de riesgos globales en la fundación. “Básicamente el riesgo es intentar predecir consecuencias diferentes y además siempre está lo desconocido”.
Es particularmente importante pensar en eso, dice Pamlin, cuando tomas en cuenta las investigaciones de vanguardia y las tecnologías avanzadas que se utilizan hoy en día. Estamos viendo las materias a un nivel atómico; estamos aprovechando energías que nunca habíamos usado antes. “Estamos explorando territorios realmente excitantes, pero por supuesto hay cosas desconocidas”, dice. “No sabemos realmente a lo que nos enfrentamos”.
Para Pamlin, sin embargo, el mayor riesgo de todos es parecer una “persona loca” cuando habla de estas cosas. “Es difícil discutir estos temas porque es muy fácil quedar como un miedoso o una persona que odia la tecnología”, platica.
Él insiste que es un optimista.
“Es difícil conocer a una persona más fascinada y optimista con la tecnología que yo, pero creo que es irresponsable de nuestra parte el negar que existen retos en esta área”, cuenta. El hecho que debamos enfrentarnos a estos riesgos potenciales es un indicador de qué tan lejos hemos llegado y debemos ser “humildes” respecto a esto.
Y como él mismo dijo, ¿cuál es la alternativa al optimismo? ¿Rendirse?
¿Cómo podemos evaluar los riesgos que por definición son desconocidos? Una manera es tomar un acercamiento abstracto y abordar el problema a nivel teórico. Tomen, por ejemplo, la paradoja de Fermi. En resumen el argumento es así: es muy probable que haya habido otra forma de vida en el universo y quizás razonablemente esperamos que exista alguna evidencia de esta vida. Pero no la tenemos. Lo que sabemos es que estamos solos en el universo.
Esto sirve para mitigar el riesgo de los “extraterrestres asesinos”, pero da lugar a una conclusión potencial que aparece en el reporte: “La vida inteligente se destruye a sí misma antes de comenzar a expandirse por la galaxia”.
Trabajar con resultados que se ajusten a esta explicación puede ayudar a entender la probabilidad de que estemos condenados a la destrucción.
Otra forma de hacer frente a los nuevos riesgos es mirar hacia el pasado en vez de al futuro. “Mirando a través de la historia, ¿cuál ha sido nuestra capacidad y qué ha sido lo desconocido que llegó gracias al desarrollo tecnológico?”, explica Pamlin.
Él quiere abordar los desafíos de lo desconocido a través de una discusión más sistemática y reflexiva, lo que está obstaculizado por agrandar los problemas apenas hablas del fin del mundo, cree. “Durante la historia de la humanidad, las personas que han hablado sobre el fin del mundo de esta manera son personas supersticiosas que aseguran intervención divina y cosas así”, dice. “No hay un precedente real”.
Pamlin no es el único preocupado por las potenciales amenazas apocalípticas. Figuras publicas como Elon Musk y Stephen Hawking se han referido a la amenaza que es la inteligencia artificial y varios centros de estudios académicos existen específicamente para trabajar en este tema, como el Centro de estudios de riesgos existenciales de la Universidad de Cambridge y Instituto del futuro de la humanidad de Oxford (FHI, por sus siglas en ingles). El reporte de desafíos globales fue co-escrito por Stuart Armstrong del FHI.
Algunos riesgos más “desconocidos” incluyen una pandemia global (imaginen una enfermedad incurable como el ébola, fatal como la rabia e infecciosa como el resfrío común), el colapso del sistema global (todo, desde los disturbios civiles causados por el colapso económico a un problema crítico de infraestructura causado por el apagón de las redes de energía), el impacto de un asteroide gigante, un súper volcán y el mal o accidental uso de la nanotecnología (para fabricar armas) y la biología sintética (para crear patógenos peligrosos).
Pamlin cree que los representantes de distintos campos, como la tecnología, la economía y el arte, deben unirse a la conversación. Pero reitera que debe ser algo positivo; con grandes riesgos llegan grandes oportunidades. El optimismo no es ignorar los riesgos, más bien reconsiderarlos y reconocer que podemos hacer algo respecto a ellos.
Cuando le pregunté qué tan preocupados deberíamos estar, respondió: “Ésa es la pregunta de los 10 billones de dólares”.
Pero el preocuparnos no nos llevará a ningún lugar.