Sin duda alguna, Stephen Hawking es una de las mentes más brillantes en la historia de la humanidad y por ello los aportes que este astrofísico realizó a la ciencia moderna representan importantes contribuciones para el desarrollo de nuevos estudios que permitan ampliar la comprensión del ser humano ante diferentes fenómenos que ocurren en el cosmos.
A lo largo de su carrera como académico e investigador, Hawking desarrolló una amplia variedad de teorías enfocadas en el campo de la física y astrofísica, sin embargo, él también llegó a hablar sobre los efectos que podría tener para la humanidad el desarrollo y uso de potentes inteligencias artificiales (IA).
Pese a que los seres humanos llevan años utilizando tecnologías que cuentan con una inteligencia artificial para desarrollar diferentes actividades que hacen parte de su vida cotidiana, hasta hace un par de meses las IA cobraron un mayor protagonismo.
Esto se debe a que muchos imaginaron que servicios tan avanzados como ChatGPT o Midjourney aparecerían dentro de varios años, pues dichas plataformas hacen tangibles las capacidades de una IA al poder entender y sostener una comunicación con humanos, en función de las peticiones, dudas o intereses de un usuario.
¿Cuál fue la advertencia de Stephen Hawking sobre las IA?
A pesar de que Stephen Hawking no llegó a interactuar potentes inteligencias artificiales como GPT-4, debido a que él falleció en marzo 2018, poco después de su deceso se publicó un libro póstumo que ofrece la visión del astrofísico sobre la inteligencia artificial.
En el texto, Hawking hace una clara advertencia sobre el peor error que la especie humana puede cometer ante la acelerada evolución de las IA.
De acuerdo con lo planteado por el astrofísico, si la ciencia moderna continúa impulsando el desarrollo de las inteligencias artificiales, es altamente probable que surjan máquinas o sistemas con una inteligencia muy superior a la humana, generando una brecha similar a la que hay entre el intelecto de un ser humano versus el de un caracol.
Agregado a ello, el astrofísico aseguró que la peor equivocación que podría cometer el ser humano es creer como una ficción el peligro que representa una máquina inteligente que tenga total autonomía. En ese sentido, Hawking recomendó tomar con mucha precaución el desarrollo e implementación de sistemas potenciados por una IA, para así asegurarse que las máquinas siempre estén programadas para cumplir órdenes de un humano, pues de no ser así, la inteligencia artificial acabaría con la raza humana.
Otras voces que advierten los peligros de la inteligencia artificial
Hace unos meses Geoffrey Hinton, excolaborador de Google considerado como el ‘padre’ de la IA, declaró estar preocupado por la competencia que se ha generado entre algunas megacorporaciones tecnológicas por el desarrollo de inteligencias artificiales cada vez más potentes.
El experto en inteligencias artificiales expuso que su mayor temor radica en que surjan nuevas versiones de IA que podrían transformarse en una amenaza para la humanidad, debido a que las máquinas podrían adquirir las habilidades necesarias para que generen y ejecuten su propio código.
En caso de darse ese escenario, las IA obtendrían la facultad de desarrollar y adquirir nuevas capacidades que escapan al control de los seres humanos, lo cual podría desencadenar un proceso de eliminación de la vida humana en la Tierra.
Por su parte, Sam Altman, CEO de OpenAI (empresa creadora de ChatGPT), también llegó a reconocer que sí existe un peligro real en cuanto a chatbots con IA que puedan ser utilizados con fines negativos. Altman señaló que su compañía no es la única entidad que está desarrollando ese tipo de tecnología y muy seguramente en el futuro aparecerán otras marcas que no establecerán los mismos límites para sus inteligencias artificiales.
En el marco de una entrevista que ofreció para ABC News, Altman aseguró que sí es necesario que la especie humana le tenga miedo a la IA, porque así siempre tendrá una consciencia sobre cuál es la mejor manera emplear y sobre todo limitar a esas tecnologías.