¿Sobreviviremos en los próximos 100 años? | El Nuevo Siglo
EXISTEN riesgos graves para la supervivencia de la humanidad, en su mayoría generados por los seres humanos, ya sea intencionalmente, como el bioterrorismo, o involuntariamente, como una superinteligencia artificial que no esté alineada con nuestros valores./Archivo Shutterstock
Viernes, 16 de Agosto de 2024
Peter Singer*

ENSMelbourne. - En mayo, expertos de muchos campos se reunieron en Montenegro para discutir el siguiente tema: “Amenazas existenciales y otros desastres: cómo deberíamos abordarlos”. El término “riesgo existencial” se popularizó en un ensayo de 2002 del filósofo Nick Bostrom, quien definió a este tipo de riesgos como aquellos en los que “un desenlace adverso aniquilaría la vida inteligente que se origina en la Tierra o afectaría de manera drástica y permanente su potencial”.

Para apreciar la distinción entre riesgos existenciales y otros desastres, consideremos el cambio climático. En algunos escenarios, el calentamiento global incontrolado podría hacer que la Tierra fuera demasiado caliente como para que los seres humanos puedan seguir viviendo allí, pero la Antártida y algunas de las regiones más al norte de Europa, Asia y Norteamérica se tornarían inhabitables.

Eso reduciría el potencial de vida inteligente en la Tierra, quizá por milenios, pero llegado el caso el planeta se enfriaría, y los descendientes de los sobrevivientes lo volverían a poblar. Si estos son, por cierto, los peores escenarios, entonces el cambio climático, por más desastroso que pudiera ser, no constituye un riesgo existencial.

Sin duda, si la gravedad de un desastre es directamente proporcional a la cantidad de personas que mata, la diferencia entre un desastre que mata a casi toda la población humana de la Tierra y uno que trae aparejada su extinción no sería tan grande. Sin embargo, para muchos filósofos abocados al riesgo existencial, esta visión no considera la gran cantidad de gente que nacería si nuestra especie sobreviviera por un período prolongado, pero que no lo haría si Homo sapiens se extinguiera.

La conferencia de Montenegro, al referirse en su título a “otros desastres”, no se limitó a los riesgos existenciales, aunque gran parte de la discusión tuvo que ver con ellos. Cuando la sesión final de la conferencia se acercaba a un cierre, a algunos de los presentes nos pareció que las cuestiones que habíamos estado discutiendo eran tan graves, y a la vez tan desatendidas, que debíamos intentar atraer la atención pública, y la atención de los gobiernos, al tema. Se discutió el tenor general de esa declaración, y yo mismo integré un pequeño grupo encargado de redactarla.

Riesgos

El comunicado observa que existen riesgos graves para la supervivencia de la humanidad, en su mayoría generados por los seres humanos, ya sea intencionalmente, como el bioterrorismo, o involuntariamente, como el cambio climático o el riesgo planteado por la creación de una superinteligencia artificial que no esté alineada con nuestros valores.

Estos riesgos, continúa diciendo la declaración, no son abordados por los gobiernos con la seriedad o la urgencia que merecen.

El comunicado respalda su visión haciendo referencia a dos argumentos formulados por Toby Ord en su libro de 2020 El precipicio. Ord estimaba la probabilidad de que nuestra especie se extinguiera en los próximos 100 años en 16-17%, o una posibilidad en seis. También estimaba que la proporción del PIB mundial que la humanidad gasta en intervenciones destinadas a reducir este riesgo en menos del 0,001%.

En una nueva edición que se publicó en julio, Ord dice que, como la nueva evidencia sugiere que los escenarios de cambio climático más extremo son improbables, el riesgo existencial que plantea el cambio climático es menor a lo que pensaba en 2020. Por otro lado, la guerra en Ucrania significa que el riesgo de una guerra nuclear que cause nuestra extinción es más alto, mientras que los riesgos de la IA superinteligente y de las pandemias, a su modo de ver, son menores en algunos sentidos y mayores en otros.

Ord considera que el foco en los chatbots lleva a la IA en una dirección menos peligrosa, porque los chatbots no son agentes. Pero estima que la mayor competencia en la carrera para crear inteligencia general artificial avanzada probablemente lleve a no prestarle la debida atención a la seguridad de la IA.

En términos generales, Ord no ha cambiado su pronóstico -que, admite, es muy duro- de que hay una posibilidad en seis de que nuestra especie no sobreviva en los próximos 100 años. Valora el hecho de que hoy exista un mayor interés global por reducir los riesgos de extinción, y ofrece como ejemplos la inclusión del tema en el informe de 2021 de la Secretaría General de la Naciones Unidas y su prominencia en la agenda del grupo internacional de exlíderes mundiales conocidos como The Elders (Los mayores).

La declaración de Montenegro insta a los gobiernos a trabajar mancomunadamente para prevenir desastres existenciales y llama especialmente a los gobiernos de los países ricos a invertir “recursos significativos” para encontrar las mejores maneras de reducir los riesgos de una extinción humana.

Si bien el comunicado no brinda ningún indicio sobre qué implica la palabra “significativos” en este contexto, Ord en algún otro momento sugirió un compromiso del 1% del PIB global para reducir los riesgos de que nuestra especie se extinga. Eso es mil veces más que su estimación de 2020 de cuánto gastaban en aquel momento los gobiernos en esta tarea, pero sería difícil decir que es demasiado.

*Fundador de la organización The Life You Can Save, es profesor emérito de Bioética en la Universidad de Princeton. Es el conductor, junto con Kasia de Lazari-Radek, del podcast Lives Well Lived. Es el autor de Animal Liberation, Practical Ethics, The Life You Can Save, The Most Good You Can Do y coautor (con Shih Chao-Hwei) de The Buddhist and the Ethicist (Shambhala Publications, 2023).

www.project-syndicate.org