La inteligencia artificial continúa dejando su huella en diversos campos, y el ámbito legal no es una excepción. Recientemente, dos abogados y un bufete jurídico se vieron duramente sancionados por presentar un caso jurídico falso generado por la herramienta de inteligencia artificial ChatGPT. El juez federal P. Kevin Castel impuso multas de 5.000 dólares debido a la mala fe con la que actuaron.
Aunque el juez reconoció las disculpas ofrecidas por los abogados y los pasos que tomaron para remediar el daño causado, consideró que era necesario establecer un precedente y evitar que herramientas de inteligencia artificial impulsen a los profesionales del derecho a producir argumentos jurídicos falsos.
Castel destacó que, si bien los avances tecnológicos son comunes y no hay nada inherentemente inadecuado en utilizar herramientas confiables de Inteligencia artificial, los abogados tienen la responsabilidad de verificar la exactitud de sus declaraciones.
Por qué sancionaron a los abogados que crearon un caso con inteligencia artificial
El juez reveló que los abogados y su firma, Levidow, Levidow & Oberman, P.C., habían fallado en su deber al presentar opiniones judiciales inexistentes y referencias falsas generadas por ChatGPT. Además, continuaron respaldando estas opiniones falsas incluso después de que se cuestionara su validez mediante órdenes judiciales.
El bufete jurídico acató la orden del juez, aunque expresó su desacuerdo con la afirmación de que sus miembros actuaron de mala fe. En un comunicado, el bufete señaló que ofrecieron disculpas a la corte y a su cliente, y argumentaron que, en una situación sin precedentes, creyeron de buena fe que la tecnología no estaba inventando casos sin basarse en hechos o la realidad.
Este caso plantea interrogantes sobre el papel de la inteligencia artificial en el ámbito legal y las responsabilidades éticas y profesionales de los abogados al utilizar estas herramientas. Aunque la IA puede ser una aliada poderosa para el análisis y la investigación legal, los abogados deben asumir la responsabilidad de verificar y garantizar la exactitud de la información generada por estas herramientas.
Es importante destacar que este caso no debe ser utilizado para desacreditar por completo el potencial de la inteligencia artificial en el campo legal. Más bien, debe servir como una llamada de atención para establecer pautas claras y asegurar que los abogados utilicen estas herramientas con integridad y responsabilidad.