Universidad Oxford (El Confidencial).- No es un vidente perdido en una remota isla, ni un chamán dotado de poderes especiales. No es astrólogo ni lector de palmas, pies, o iris oculares… Toby Ord es un filósofo de Oxford, asesor de la Organización Mundial de la Salud y de del Banco Mundial… Y también el autor de un estudio publicado en su libro “The Precipice” (El precipicio) en el que asegura que “hay una posibilidad entre seis de que nos extingamos en este mismo siglo”.

El investigador evita hablar de fin del mundo o del apocalipsis, y en su lugar prefiere el menos alarmista pero aún preocupante “colapso de la civilización”.

Según sus cálculos, la posibilidad de que colapse la civilización por causas naturales es mucho menor a los riesgos que supone la mano del hombre. Así, el riesgo de que un asteroide termine con la humanidad es de 1 en 1.000.000 y que la erupción de un volcán lo haga es de 1 en 10.000. Pero, cuando analiza a los riesgos provocados por el hombre, las probabilidades se vuelven más altas: 1 en 1.000 para una guerra nuclear o para el cambio climático; 1 en 30 para una pandemia provocada de forma intencionada; y 1 en 10 para el uso de la inteligencia artificial fuera de control. En su promedio final, afirma que el total de “riesgos existenciales es de 1 en 6”.

“Eso también significa que hay cinco posibilidades entre seis de que sobrevivamos como especie”, afirma en una entrevista con El Confidencial. Y sigue con su explicación: “Europa sobrevivió en la Edad Media perdiendo del 25 al 50% de su población en la Peste Negra, lo que podría significar que para desencadenar el colapso de la civilización requeriría más del 50% de mortalidad en todas las regiones del mundo”.

Para él, los humanos llevamos decenas de miles de años sobreviviendo a las pandemias, por lo que no cree que “sean una amenaza para la extinción, aunque puedan ser muy devastadoras”. Advierte también de que, “con el aumento de las comunicaciones globales y la superpoblación, las cosas pueden ponerse mucho peor en términos de pandemias que con el covid-19”. Sin embargo, en su investigación no teme por un virus sino a las amenazas potenciales de grupos terroristas que diseñen armas biológicas, una tecnología que, a diferencia de las armas nucleares, cada vez es más accesible y difícil de rastrear.

“La inteligencia artificial es más peligrosa que las pandemias. Igual que las armas biológicas, la inteligencia artificial puede suponer en los próximos 50 años riesgos nuevos que aún desconocemos y en cuya prevención apenas estamos invirtiendo: la humanidad gasta más cada año en helado que en que prevenir que las nuevas tecnologías no nos destruyan”, afirma con ironía.

Y sentencia: “La inteligencia artificial tiene una posibilidad entre 10 de acabar con la humanidad”. En su entrevista con el medio español, intenta matizar -”no digo que los robots sean malos”- ya que “la Inteligencia Artificial, igual que la energía nuclear, puede usarse para algo bueno” pero insiste en que “el problema es que todavía no hay una conciencia pública sobre sus riesgos. Los físicos en los años cuarenta y cincuenta estaban preocupados por armas nucleares y en el siglo XX los gobiernos desarrollaron protocolos de seguridad, ahora deberíamos preocuparnos más por los riesgos de la IA y las armas biológicas”.

Para ponerlo en perspectiva, Ord calcula que durante los 2.000 siglos anteriores hubo una posibilidad entre 10.000 de llegar a la catástrofe existencial. La mayoría de ellas relacionadas con riesgos naturales como el impacto de asteroides o la erupción supervolcánica. Ahora esa probabilidad se ha reducido a una entre seis debido a factores influenciados por el hombre. “Es exactamente la misma probabilidad de muerte que tiene la ruleta rusa”, compara.

En su investigación recuerda que solo tenemos unos 200.000 años de existencia, “eso nos convierte en adolescentes… Pero los adolescentes no son buenos ordenando las prioridades. No ven más allá de dentro de un rato. Y en este momento la humanidad está actuando de forma tremendamente imprudente con el futuro, como un adolescente, pensando solo en nuestras próximas cinco horas de vida”.

Y agrega: “Todos los años tenemos un poco de suerte de no tener una guerra nuclear, un poco de suerte de no tener una pandemia, o un poco de suerte de no tener un incidente de otro tipo. Pero eventualmente, esa suerte acabará”.

En su teoría también hay espacio para buscar soluciones. “Si queremos tener cientos de miles de años de futuro, tenemos que repensar las prioridades. Eso precisa cooperar mejor entre países y reconocer que tenemos un problema y necesitamos más sabiduría”. “Hay que frenar el riesgo en primer lugar. Las amenazas son demasiado grandes y las soluciones individuales no van a evitar el problema, necesitamos invertir más en conocimiento para sobrevivir como especie”, propone.

Lejos de ser fatalista, apela a una simple medida de prevención: “No elegir políticos que actúen como adolescentes sería un buen comienzo para garantizar el futuro de la humanidad”. Es que según evalúa, “en otras épocas daba igual cómo de malos fueran los gobernantes, antes no tenían el poder de destruirlo todo. Y no podremos sobrevivir muchos siglos con el nivel de poder que estamos acumulando si no aumenta también la toma de conciencia del peligro”. E insiste: “Estamos en un nivel insostenible de riesgo en manos de un grupo de adolescentes. Y los adolescentes no son buenos pensando en el largo plazo”.

Dejar respuesta

Please enter your comment!
Please enter your name here