Tecnología
ChatGPT e inteligencia artificial en la justicia: nuevos horizontes
El uso de ChatGPT en la decisiones de los jueces abre un nuevo debate sobre el uso de la IA en el la rama judicial.
El pasado 30 de enero se publicó un fallo del Juzgado 1° laboral del Circuito de Cartagena que protegió los derechos de un menor con trastorno del espectro autista y ordenó a su EPS a exonerarlo del pago de cuotas moderadoras y cubrir los costos del transporte desde su hogar al lugar de sus terapias. Sin embargo, la sentencia no será recordada por el sentido de su decisión, sino por la audacia del juez cartagenero de usar la herramienta de inteligencia artificial ChatGPT como parte de los elementos para construir su fallo.
ChatGPT, desarrollada por OpenAI (empresa sobre la cual Microsoft anunció inversiones recientemente), es según respuesta suministrada por ella misma, un “modelo de lenguaje (…) diseñado para generar texto de manera autónoma”. A diferencia de buscadores tradicionales de internet cuyos resultados comprenden principalmente enlaces a sitios web de terceros, ChatGPT genera una respuesta explícita a la cuestión formulada.
Sin embargo, existen múltiples evidencias acerca de su actual falta de precisión, entre otras razones, pues solo contiene información hasta 2021. También se han documentado sesgos o inconsistencias en sus respuestas, como algunas que mostrarían preferencias políticas o incluso información contraria a la realidad. Todo lo anterior, no es extraordinario en un desarrollo novedoso que continúa su proceso de consolidación y es previsible que superen dichas situaciones en el futuro.
Pero volviendo a la sentencia, el innovador juez planteó a ChatGPT el problema jurídico bajo análisis, y para ello indagó si el tutelante tenía derecho a la exoneración de las cuotas moderadoras, e incluso si la acción de tutela debía concederse. En la sentencia se menciona que el uso de ChatGPT no buscaba reemplazar la decisión del juez, y que pretendía optimizar los tiempos de redacción previa corroboración de la información suministrada.
Lo más leído
Hasta ahí todo estaría bien si en efecto el juez hubiera incluido información adicional sobre dicha corroboración, pero por el contrario, la sentencia omite incluir cómo fue ese proceso y explicar con qué terceras fuentes se contrastaron las respuestas de ChatGPT. La anterior omisión, quizá a pesar de lo justo que podría parecer el fallo, podría afectar la legalidad del mismo por falencias en su motivación como han dicho muchos expertos en temas procesales.
Si se pretendía utilizar ChatGPT solamente para agilizar la escritura, tal como usar una herramienta de dictado, quizá ni siquiera hubiera valido la pena mencionarlo en la sentencia; pero, si el uso que un juez pretende dar es para definir o soportar el sentido del fallo, así sea en una mínima medida, lo esperable de la autoridad judicial es que verifique y contraste las fuentes que tiene a su disposición.
Sería absurdo prohibir a los jueces el uso de herramientas tecnológicas, y de hecho, se valora que estén abiertos a utilizarlas en la administración de justicia, pero es esencial que no se haga a la ligera, pues los riesgos podrían ser mayores que los de utilizar un electrodoméstico nuevo sin leer las instrucciones.
Quedan muchas inquietudes que se revisarán por la academia y la jurisprudencia en materia de inteligencia artificial, algunas como: ¿qué alcance debe darse al uso de esta herramienta por los jueces? o ¿cómo debe incorporarse su uso al proceso y ser ponderado con otras fuentes? El primer reto es el desarrollo de políticas o al menos unas buenas prácticas consensuadas sobre el uso de herramientas de inteligencia artificial por la rama judicial, de manera que no se realice de forma inarticulada o dispar según cada operador judicial, y se evite que su uso resulte en decisiones contrarias a la ley.