Muchas son las preguntas que han surgido alrededor de la inteligencia artificial (IA), pero una de las que más ha generado controversia es si esta se debe regular. Dinero consultó con juristas y sus respuestas evidencian discrepancias y un punto en común: la ética relacionada con la necesidad de generar reglas de comportamiento en una tecnología cada vez más disruptiva en la vida del ser humano.
Algunos argumentan que es necesario establecer regulaciones para evitar posibles riesgos y consecuencias negativas de su uso, mientras que otros creen que un marco legal podría limitar la innovación y el desarrollo de la IA. A medida que la tecnología avanza, es importante considerar cómo se puede regular la IA de manera efectiva y equilibrada para garantizar su uso seguro y beneficioso para la sociedad.
Para Sebastián González, líder del área laboral de Scola Abogados, antes de abordar los desafíos que trae consigo la regulación para el desarrollo de la IA, es fundamental que toda la sociedad, no solo la jurídica, comprenda plenamente qué es la IA y genere conciencia sobre el tema, especialmente en relación con las implicaciones éticas.
“Muchas decisiones relacionadas con la regulación de la IA tienen un impacto profundo en la sociedad, la economía y la privacidad de las personas”, comenta.
Ahora, en cuanto a la regulación, González cree que no se puede caer en el error de hiperregular la IA, práctica que se ha vuelto costumbre en Colombia. “No podemos ver a la IA como un enemigo y, por el contrario, debemos tener la capacidad de utilizarla como una herramienta que, sin duda, se alinea con nuestra intención de desarrollo y optimización a todo nivel”.
Mauricio Jaramillo, socio de Gómez-Pinzón y director de la práctica de Propiedad Intelectual y Competencia, considera inadecuado para Colombia, en esta etapa tan preliminar de la implementación de la inteligencia artificial, entrar a explorar procesos regulatorios que, por desconocimiento o por falta de precisión, podrían terminar bloqueando, dificultando o afectando el desarrollo de una tecnología tan importante.
“El principal desafío, si se intenta regular, será hacerlo de tal forma que no se establezcan barreras artificiales, restrictivas e innecesarias que afecten la innovación y el uso de nuevas tecnologías en procesos productivos o de prestación de servicios”, precisa Jaramillo.
Para Álvaro Ceballos Suárez, abogado de la Universidad Externado y consultor del BID en modernización digital, “regular una actividad significa que quien ejerza la autoridad puede imponer reglas, cuyo incumplimiento traerá consecuencias consagradas en el respectivo ordenamiento jurídico. Estas pueden abarcar aspectos, como el inicio de procesos de investigación que culminan en sanciones, tales como multas, órdenes de cesar la conducta y la obligación de compensar económicamente a los perjudicados”.
Así las cosas, la regulación de una actividad tan importante como la IA conlleva riesgos que deben ser tenidos en cuenta a la hora de analizar si se genera o no un marco legal.
“Hoy –comenta el consultor del BID–, podemos observar una multiplicidad de propuestas por parte de Estados, organizaciones internacionales, profesionales y grandes empresas para regular la IA en aspectos éticos, operativos, técnicos, económicos, etcétera. Esto se debe a que hay una carrera geopolítica y económica por regular la IA, pues ello, a la postre, va a representar el dominio de una realidad muy impactante para el ser humano. El que consiga regular la IA logrará un poder sin precedentes, debido al alto impacto de estas tecnologías en el ser humano”.
¿Y los estándares a utilizar?
Con respecto a los estándares en los que se debería enmarcar la regulación de la inteligencia artificial, expertos como Sebastián González, de Scola Abogados, consideran que la regulación normativa en este campo debe girar en torno a la ética.
Añade que así se lograría que este tipo de tecnologías se desarrollen y utilicen de manera responsable y beneficiosa para la sociedad. “En ese sentido, la regulación no debe prohibir o restringir la utilización de la IA, pero sí debe garantizarle a la sociedad unos estándares mínimos frente al uso de las herramientas, protegiendo con esto los derechos humanos, la privacidad, la no discriminación y la seguridad”.
Mauricio Jaramillo enfatiza, en el tema de los estándares, que “en una etapa inicial, tendría que restringirse la IA a aquellos aspectos esenciales que por su sensibilidad y trascendencia se quieren proteger en esta etapa temprana, como podría ser temas de manipulación de conductas infantiles, la inducción a conductas delictivas o fraudes”.
Adicionalmente, se deben tener en cuenta temas como transparencia, no discriminación y manipulación de información.
La regulación debe intentar contener los abusos que por medio de la IA se puedan generar. Sin este tipo de normas, existe el riesgo de que la IA se utilice de manera abusiva o dañina, como, por ejemplo, creando deepfakes (videos, imágenes o audios que imitan la apariencia y el sonido de una persona) para la desinformación o la vigilancia masiva no autorizada; el uso de bots para generar desinformación en redes sociales y el mercadeo masivo de productos, entre otros.
Ceballos Suárez, del BID, dice que “la regulación debe ir en dos vías: la de la empresa generadora de la IA, por medio de los algoritmos, y la del uso mismo de la IA por el consumidor”.
En la Unión Europea, comenta Ceballos, diversas instituciones han estado o están haciendo propuestas en materia de ética de la IA, en concreto la Comisión Europea y el Grupo de Expertos de Alto Nivel sobre IA.
“Como resultado, tenemos que, bajo la óptica europea, la IA debe ser confiable y para ello observar tres aspectos relevantes: (a) Legal: respetando todas las leyes y regulaciones aplicables. (b) Ética: respetando los principios y valores éticos. (c) Robusta: tanto desde una perspectiva técnica como teniendo en cuenta su entorno social”, comenta Ceballos Suárez.
Mauricio Jaramillo plantea que los procesos de creación de normas cuentan actualmente con diversos sistemas de participación ciudadana, la cual es fundamental. “Debería empezarse por adelantar procesos de capacitación sobre inteligencia artificial a legisladores, jueces, autoridades y, en general, a todos los involucrados en el proceso legislativo y de implementación, pues hay mucho desconocimiento de la tecnología, mucha desinformación y, de cierta forma, temor”.
Asimismo, opina que debería invitarse a participar a la academia, a los jueces y, muy importante, a los desarrolladores de tecnologías de inteligencia artificial.
En últimas, no se puede perder de vista que la IA –al igual que cualquier software– es susceptible de errores y que los resultados que produce también serán producto de la información que se le suministre. He ahí la importancia de entrar a controlar los sesgos que esta tecnología pueda llegar a presentar.