En 2009 Toby Ord, un filósofo moralista que vive con su esposa en un apartamento austero de Londres, saltó a la fama cuando se comprometió a donar de por vida el 10 por ciento de su salario a obras de caridad. Lo decidió tras estudiar por años la ética de la salud y la pobreza global desde instituciones como la Organización Mundial de la Salud y el Banco Mundial. Allí llegó a la conclusión de que todas las personas tienen un compromiso moral comprobable con la supervivencia y el bienestar de las generaciones futuras. Desde entonces creó la fundación Giving What We Can, y en diez años se han sumado a su causa más de 4.000 personas. La filantropía, sin duda, lo puso bajo la lupa mundial. Pero él enfoca su trabajo real en investigar las posibilidades de amenaza de extinción humana, tema que considera uno de los más apremiantes y desatendidos en la actualidad. Este mes publicó El principio, en el que aborda, con estudios científicos, las razones por las cuales las personas deberían empezar a replantearse el rumbo de la civilización.
Según Ord, “vivimos en el siglo más importante para el futuro de la humanidad” y su argumento es simple: 200 años atrás la raza humana no podía aniquilarse a sí misma. Pero desde 1945, con las primeras bombas atómicas, la humanidad desarrolló múltiples opciones para ello. Además de la guerra nuclear, hoy la amenazan el cambio climático, las pandemias biológicas o el desborde de la inteligencia artificial. Para ponerlo en perspectiva, Ord calcula que durante los 2.000 siglos anteriores hubo una posibilidad entre 10.000 de llegar a la catástrofe existencial. La mayoría de ellas relacionadas con riesgos naturales como el impacto de asteroides o la erupción supervolcánica. Aunque esa probabilidad se ha reducido a una entre seis debido a factores influenciados por el hombre. “Es exactamente la misma probabilidad de muerte que tiene la ruleta rusa. Y de hecho, fue la misma que el análisis estadístico del ‘New York Times’ le dio a Donald Trump de convertirse en presidente”, explica.
De acuerdo con Ord, sin embargo, en realidad la inteligencia artificial (IA) y las pandemias programadas acabarán con la civilización. El cambio climático puede hacer a la Tierra más frágil y a la geopolítica, más vulnerable. Pero una catástrofe de este tipo tiene, según sus cálculos de colapso, una posibilidad entre 1.000.
En cambio, con la IA y las armas biológicas la probabilidad se reduce a una entre diez. La razón obedece a que, con la democratización de la tecnología y la globalización, aumenta la posibilidad de que los robots o programas tecnológicos empiecen a tomar más decisiones importantes, lo que podría llevar a un error fatal, como hoy sucede con las computadoras. Además, en el futuro cualquiera podría construir una poderosa arma biológica o editar una secuencia de genes. El filósofo cree que la IA o la ingeniería biológica no son negativas per se, ni que evolucionen con el objetivo de destruir o esclavizar a los humanos. No obstante, advierte que de no diseñarlas y controlarlas cuidadosamente, pueden resultar letales. “Nada garantizará que políticos calculadores y desesperados consideren estas opciones como un riesgo aceptable. Ciertamente habrá algunos locos reales que quieren destruir el mundo”, dice.
Estas amenazas no significarían la extinción de la raza humana, pero sí la de la civilización y su potencial. Incluso Ord vaticina que un colapso de este tipo podría implicar el regreso a grupos tribales dispersos o la imposición de una dictadura que coarte el libre pensamiento. Según él, hay que pensarlo de esta manera: “Todos los años tenemos un poco de suerte de no tener una guerra nuclear, un poco de suerte de no tener una pandemia, o un poco de suerte de no tener un incidente de otro tipo. Pero eventualmente, esa suerte acabará”. Si el ser humano está al borde del precipicio y puede cambiarlo, ¿por qué no hace todo lo que está en sus manos?