La inteligencia artificial se asemeja a un vehículo de Fórmula 1, ambos representan la vanguardia tecnológica y la optimización extrema en sus respectivos campos. Así como un auto de F1 está diseñado para alcanzar velocidades increíbles y maximizar el rendimiento en condiciones extremas de competición, la inteligencia artificial se desarrolla para procesar datos y realizar tareas con una eficiencia y precisión que superan con creces las capacidades humanas.
Pero la regulación va rezagada. La IA, al igual que con cualquier nueva especie o tecnología transformadora, necesita con urgencia establecer pautas éticas y legales para su uso e implementación.
Para Álvaro Meléndez, cofundador y CEO de Crant, empresa dedicada a la aplicación creativa de inteligencia artificial, esta disparidad crea un vacío peligroso. “Las empresas y los individuos se encuentran navegando en aguas desconocidas sin una brújula moral o legal clara. La IA es como tomar un carro de calle común y corriente y meterle un motor de Fórmula 1. De repente, tienes el potencial de llegar a lugares que antes eran inalcanzables, de superar límites que creías imposibles”, dice Meléndez. Pero advierte: “Si no aprendemos a manejar este nuevo poder, si no desarrollamos las habilidades y la ética necesarias para controlarlo, corremos el riesgo de perder el control y estrellarnos espectacularmente. La diferencia es que en este caso el choque no solo nos afecta a nosotros, sino a toda la sociedad”.
Uno de los mayores obstáculos para establecer marcos éticos y legales es la falta de comprensión de la tecnología. Y a eso hay que tenerle cuidado. Muchas empresas subestiman el impacto real de la IA y la urgencia con la que deben implementar los programas y ahí es donde la regulación forma parte integral de la solución.
Sin embargo, hay varios desafíos sociales significativos que se deben enfrentar para garantizar una adopción ética y sostenible. Al respecto, Danilo Romero, de Holland & Knight, dice que “la seguridad nacional, los derechos humanos, el derecho a la intimidad, el uso adecuado en ámbitos como la administración de justicia, salud y educación tienen unas connotaciones sociales y éticas que bien manejadas solo podrán disminuir brechas existentes y generar un beneficio colectivo medible en tasas de crecimiento económico, mejor nivel académico de los estudiantes, mejor asistencia médica”.
De ahí que el manejo como política de Estado a largo plazo y no político inmediato garantizaría que el uso de la IA sea no solo útil y masivo, sino responsable y sostenible desde lo ético. Y así se lo ratifica a quien asegura que los desafíos sociales y éticos deberían ser abordados desde la legislación.
“En primer lugar, la IA necesita grandes cantidades de datos para alimentarse y arrojar los resultados. Por lo tanto, la privacidad de las personas y la información confidencial están en constante riesgo al procesarse de forma masiva datos que pueden contener información de menores de edad o altamente sensible”, señala Laura Torrado, de Posse Herrera Ruiz. “En segundo lugar, se ha evidenciado que los algoritmos de IA pueden adoptar sesgos en su entrenamiento que arroje decisiones discriminatorias en relación con raza, género, orientación sexual, entre otros”, dice Torrado. Y agrega que, en tercera medida, la IA puede reemplazar puestos de trabajo, “por lo que la sociedad debe prepararse.”
¿Y Colombia en qué va?
Colombia aún no tiene una regulación de IA, pero es importante concebir el contexto mundial y nacional para entender que, si bien no existe una legislación particular, parece haber un consenso de querer regular la materia. Con ello se empieza a seguir la tendencia mundial de adoptar legislaciones, que, valga anotar, a la fecha no superan el 20 por ciento de los países.
Según Romero, “la IA forma parte de algunas regulaciones a nivel de superintendencias y documentos de política pública. Los dos últimos años han generado gran parte de la legislación internacional en la materia, y Colombia tiene sendas iniciativas que pueden, entre todas, adecuarse y acumularse en el mejor de los casos para tener un marco normativo coherente con los beneficios y riesgos del uso de la tecnología”.
Torrado asegura que Colombia carece aún de una regulación legal específica de inteligencia artificial por varias razones. “Una de ellas es que el desarrollo de la IA va a un ritmo más acelerado que el legislador, es decir que evoluciona rápidamente y supone nuevos retos de manera constante, lo que hace difícil para los legisladores mantenerse al día con sus implicaciones y retos legales”. Y comenta que la regulación en materia de IA en la Unión Europea fue aprobada apenas en marzo de 2024. “Por lo tanto, es previsible que países como Colombia, caracterizados por adoptar de forma posterior legislaciones en sectores novedosos, tarden un poco más en su implementación tras evidenciar el desempeño de los marcos normativos del exterior”.
Los expertos consultados insisten en que se requiere de un marco legal lo suficientemente flexible que aborde los desafíos y riesgos asociados con la IA, pero que permita una rápida evolución que pueda ajustarse al paso acelerado con el que se desarrollan las tecnologías y especialmente la IA.
Para esto, la Superintendencia de Industria y Comercio y el Ministerio de Tecnologías de la Información y las Comunicaciones pueden ser actores esenciales en este desarrollo.
En definitiva, la IA es una herramienta que, bien usada, podrá llevar a un nivel superior a Colombia como nación económicamente viable y respetuosa de los derechos humanos y empresariales. Hay que aprovechar el momento para que una ley sea realmente un punto de unión y visión a futuro de lo que debe ser el país como Estado.