ANÁLISIS
Inteligencia artificial: ¿tiempos de recular o de regular?
Dice la carta que la IA con inteligencia humana competitiva puede plantear riesgos profundos para la sociedad y la humanidad.
“Los sistemas contemporáneos de IA están llegando a competir con los humanos en tareas generales, y debemos preguntarnos: ¿Debemos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedades? ¿Debemos automatizar todos los trabajos? ¿Debemos desarrollar mentes no humanas que con el tiempo nos superen en número, inteligencia, obsolescencia y reemplazo?”.
Estas preguntas, que bien podrían hacer parte del análisis de algún escéptico o apocalíptico en torno al futuro de la humanidad, fueron las que se plantearon Elon Musk y más de 1000 grandes expertos en inteligencia artificial en una carta ya conocida publicada por Future of Life Institute hace algunas semanas en torno a lo que representa ChatGPT4 y a lo que empieza a significar la inteligencia artificial para la humanidad.
Dice la carta que la IA con inteligencia humana competitiva puede plantear riesgos profundos para la sociedad y la humanidad.
Algunos de los riesgos son que “la inteligencia artificial avanzada podría representar un cambio profundo en la historia de la vida en la Tierra; falta planificación y gestión adecuadas en el desarrollo de la IA; los sistemas de inteligencia artificial contemporáneos están volviéndose competitivos para los humanos en tareas generales; las decisiones sobre la IA no deben delegarse exclusivamente en manos de líderes de empresas tecnológicas o personas que no han sido elegidas democráticamente para representar los intereses de la sociedad en general”.
Lo más leído
Que sean precisamente Musk y varios de los principales artífices de lo que es la inteligencia artificial hoy en día quienes adviertan del riesgo que está representando ChatGPT4 y demás inteligencias generativas en la actualidad, no es lo único que llama la atención. Que pidan una pausa de 6 meses para sentarse a pensar y preparar al mundo para todos los cambios que se pueden producir, resulta aún más sorprendente y nos lleva a analizar si es tiempo de recular o es momento de pensar en regular adecuadamente en torno al desarrollo de la inteligencia artificial.
Como una persona que ha trabajado durante décadas en temas de tecnología y más específicamente en campos relacionados con la analítica de datos y la inteligencia artificial, debo decir que me parece prácticamente imposible recular e intentar detener el tiempo. Este tipo de avances -solo comparables con la masificación de internet o de la telefonía móvil en los 80 y 90- son trenes que arrancan a toda velocidad y que resultan físicamente imposibles detener de un momento a otro.
Para que tengamos una idea de la velocidad a la que ha arrancado y avanza el tema basta con mirar las cifras de usuarios que ha alcanzado ChatGPT en tan poco tiempo y compararlo con lo logrado por otros desarrollos importantes para la humanidad en el último tiempo. Y es que mientras que a Netflix le tomó 3 años y medio, a Twitter 2 años y a Facebook 10 meses llegar a su primer millón de usuarios, a ChatGPT tan solo le tomó 5 días. Ni lo comparemos con las decenas de años que les tomó a medios como la televisión o la radio llegar a esa cifra que ChatGPT alcanzó en menos de una semana.
Descartemos, entonces, que podamos detener el tiempo y tomarnos una pausa, y analicemos si hay forma de regular o por lo menos de acelerar una necesaria reglamentación en la materia.
La carta de Musk y demás expertos menciona la necesidad de “desarrollar protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA”. Sin duda alguna, el tema de la seguridad es uno de los más apremiantes. Con inteligencias artificiales que ya pueden simular con exactitud la voz de las personas y que permiten falsear videos en los que las personas están hablando, distinguir entre la realidad y el engaño se hace una tarea casi imposible. Los niveles de fraude en las empresas y los ciberdelitos a nivel usuarios, ya son un grave problema en la actualidad y tienen el potencial de crecer exponencialmente si no se avanza en esos protocolos de seguridad que se mencionan.
La carta también hace referencia a la exigencia de “reenfocar la investigación y el desarrollo de IA en sistemas más seguros, transparentes y confiables”. Y aquí agregaría uno que ya hemos hablado en diferentes ocasiones, pero que quedó fuera de la misiva de los expertos y es el relacionado con la ética de la inteligencia artificial. Trasladar sesgos, tratos discriminatorios o inequidades como las que aún existen en materia de género a los entrenamientos de la inteligencia artificial no solo impediría a la humanidad seguir avanzando en el cierre de brechas, sino que podría representar retrasos importantes frente a temas de transformación social y de objetivos de desarrollo sostenibles.
Y, finalmente, propone la carta, “trabajar con legisladores para desarrollar sistemas sólidos de gobierno de inteligencia artificial”, un punto que resulta muy importante en la actualidad y que requiere una mayor preparación, concientización y participación de los legisladores.
Las empresas que hemos impulsado desde hace años ciencias como las de la analítica y avances como los de la inteligencia artificial hemos estado dispuestos a acompañar a los legisladores y a las entidades públicas en esta preparación y acceso a las soluciones de manera ética y organizada. Es hora de que esos acompañamientos sean activados en pro de un mejor futuro de la humanidad.