Tecnología
Sería pronto: experto da fecha para el fin de la humanidad a causa de la inteligencia artificial
El economista Bryan Caplan ha hecho una apuesta sobre el futuro de la IA, basándose en sus análisis.
El economista Bryan Caplan, de la Universidad George Mason en Virginia, ha ganado un amplio reconocimiento al convertirse en un hombre que ha acertado en sus diferentes apuestas sobre una variedad de temas de interés general.
Caplan atinó con sus pronósticos sobre las posibilidades electorales de Donald Trump en 2016, las futuras tasas de asistencia a las universidades de EE. UU. y, curiosamente, el economista suele apostar contra predicciones que considera exageradas.
En el marco de todas las teorías y afirmaciones sobre los efectos catastróficos que desencadenará la acelerada evolución de las inteligencias artificiales, especialmente IA tan potentes como la que posee ChatGPT, Caplan ha decidido lanzar una apuesta que muchos desearían que no llegase a ganar.
En una entrevista con The Guardian, Caplan habló de su visión sobre el futuro de la IA y la evolución que podría tener en un par de años.
Lo más leído
Inicialmente, el economista afirmó que todo progreso conlleva una situación negativa para alguien, por lo cual es imposible negar que el progreso que genere la evolución de las inteligencias artificiales terminará perjudicando a algunas personas.
“La regla general es que cualquier cosa que aumente la producción humana es buena para el nivel de vida humano. Algunas personas pierden, pero si vas y dices que solo queremos un progreso que beneficie a todos, entonces no podría haber progreso”, declaró Caplan en su entrevista.
En ese sentido, Bryan Caplan comentó que ya ha fijado una apuesta sobre las IA con Eliezer Yudkowsky, a quien señaló como el hombre con la visión más pesimista y extremista sobre las IA. Según el economista, él cree que esa tecnología funcionará con gran eficiencia, al punto que luego eliminará a la especie humana.
De manera que Caplan ha apostado que gracias a la inteligencia artificial la humanidad será borrada de la superficie de la Tierra para el 1.° de enero de 2030.
¿Cómo sería aniquilada la humanidad por una inteligencia artificial?
El economista ha imaginado un escenario en donde una IA lograría ser tan inteligente que contaría con posibilidad de aumentar sus propias capacidades y en muy poco tiempo pasaría a ser una “inteligencia infinita”. En ese punto se daría el principio del fin para el ser humano.
Pese a que el propio Caplan ha reconocido que su apuesta es una estimación sumamente extrema, se trata de una conclusión a la que llegó a partir de considerar un escenario en donde una IA logre aumentar su propia inteligencia. Pero dicha situación no parece ser tan descabellada si se tiene en cuenta la presencia de GPT-4, IA que posee capacidades muy superiores a las que tiene ChatGPT.
No obstante, Bryan Caplan manifestó que su apuesta ha sido basada en su modelo de generar pronósticos en donde parece estar haciendo una afirmación sumamente exagerada, pero fingiendo que posee una gran confianza en lo que el futuro podría traer. “Hasta ahora, me ha servido perfectamente. He tenido 23 apuestas que se han concretado; he ganado los 23″, indicó para The Guardian.
Pero el economista y catedrático también reconoció que su pronóstico puede fallar, puesto que es difícil imaginar que exista una inteligencia artificial infinita, teniendo en cuenta que nunca ha existido algo que sea infinito.
De hecho, Caplan afirmó que, debido a la naturaleza de su apuesta, él decidió pagar por adelantado la suma que acordó con Eliezer Yudkowsky y si el mundo no se acaba ya habrá saldado su deuda.
¿Cuál es la predicción de Yudkowsky sobre el futuro de las IA?
Eliezer Yudkowsky, experto en IA y a quien conocen en el medio como ‘activista del racionalismo’, afirmó que se está subestimando el poder de la inteligencia artificial. Yudkowsky considera que el problema no radica en el uso que las personas le den a herramientas como ChatGPT.
“Muchos expertos en estos temas, entre los que me incluyo, creen que el resultado más probable de construir una IA sobrehumanamente inteligente, en circunstancias remotamente parecidas a las actuales, es que literalmente todos los habitantes de la Tierra morirán. No como en el sentido de ‘tal vez exista alguna remota posibilidad’ [sino en el de] obviamente será lo que pase”, explicó.
Yudkowsky considera que las IA perciben a los humanos como objetos hechos de átomos y por ello el desafío es determinar qué tan sensible puede ser ante la humanidad, algo que, asegura, no va a pasar y que podría tener consecuencias desastrosas.
“Dicho esto, […] no tenemos ni idea de cómo determinar si los sistemas de IA son autoconscientes –ya que no tenemos ni idea de cómo descodificar nada de lo que ocurre en sus gigantescas matrices inescrutables– y, por lo tanto, puede que en algún momento creemos inadvertidamente mentes digitales”, precisó el experto en una entrevista para la prensa internacional.