Un juez federal impuso el jueves multas de 5.000 dólares (cerca de $20′700.000)a dos abogados y a un bufete jurídico en un ejemplo sin precedentes en que se responsabilizó a ChatGPT por el hecho de que ellos presentaran investigaciones jurídicas ficticias en una reclamación por lesiones de aviación.
El juez P. Kevin Castel dijo que actuaron de mala fe. Pero reconoció sus disculpas y los pasos tomados para remediar el daño al explicar por qué no era necesario aplicar sanciones más duras para asegurar que ellos u otros no vuelvan a permitir que herramientas de inteligencia artificial los impulsen a producir historias jurídicas falsas para usarlas en sus argumentaciones.
“Los avances tecnológicos son comunes y no hay nada inherentemente inadecuado con respecto a utilizar una herramienta confiable de inteligencia artificial para que proporcione apoyo”, escribió Castel. “Pero las normas existentes les imponen a los abogados un papel de verificación para asegurar la exactitud de sus declaraciones”.
El juez manifestó que los los abogados y su firma, Levidow, Levidow & Oberman, P.C., “abandonaron sus responsabilidades cuando presentaron opiniones judiciales inexistentes con declaraciones falsas y referencias creadas por la herramienta de inteligencia artificial ChatGPT, y luego continuaron respaldando las opiniones falsas después de que órdenes judiciales pusieron su existencia en entredicho”.
Por su parte, el bufete jurídico emitió un comunicado en donde manifestó que a pesar de no estar de acuerdo con la decisión emitida por el juez, se acataría la determinación realizada, además, los abogados indicaron que en el hecho solo hubo un error “de buena fe”.
“Respetuosamente estamos en desacuerdo con el hallazgo de que alguien en nuestra firma actuó de mala fe. Ya hemos ofrecido disculpas a la corte y a nuestro cliente. Seguimos creyendo que, ante lo que incluso la corte reconoció que era una situación sin precedentes, cometimos un error de buena fe al no creer que una unidad de tecnología pudiese estar inventando casos sin basarse en hechos ni la realidad”.
No obstante el bufete también indicó que estaba evaluando si apelaría la decisión.
A su turno el juez Castel dijo que la mala fe fue resultante de las fallas de los abogados en responder adecuadamente al juez y a sus adversarios jurídicos cuando se observó que seis casos jurídicos enumerados para respaldar sus argumentos escritos del 1 de marzo no existían.
El juez citó “explicaciones cambiantes y contradictorias” ofrecidas por el abogado Steven A. Schwartz. Dijo que el abogado Peter LoDuca mintió cuando dijo que estaba de vacaciones y fue deshonesto con relación a confirmar la veracidad de las declaraciones presentadas ante Castel.
En una audiencia este mes, Schwartz dijo que uso el chatbot que funciona con inteligencia artificial para que le ayudara a hallar precedentes jurídicos que respaldaran el caso de un cliente contra la aerolínea colombiana Avianca por una lesión que sufrió en un vuelo de 2019.
Microsoft ha invertido aproximadamente 1.000 millones de dólares en OpenAI, la compañía detrás de ChatGPT.
El chatbot, actualmente cuenta con la capacidad para generar respuestas similares a ensayos en función de diferentes tipos de solicitudes que podrían ser realizadas por sus usuarios, en ese sentido la inteligencia artificial sugirió varios casos que involucraban percances de aviación que Schwartz no había podido hallar a través de los métodos usuales empleados en su bufete jurídico.
Pero una buena parte de los casos que ChatGPT había referenciado resultaron ser hechos que no eran reales, puesto que contenían datos falsos o imprecisos al identificar erróneamente a jueces o mencionar aerolíneas que no existían.
En una opinión escrita por separado, el juez desechó la reclamación subyacente de aviación, diciendo que el asunto ya había prescrito.
Con información AP