Multan a dos abogados por usar ChatGPT para respaldar una demanda

Un equipo de abogados son multados por 5 mil dólares por usar ChatGPT en una denuncia contra una aerolínea.

Dos abogados fueron condenados a pagar una multa de $5,000 dólares por un juez en Estados Unidos, luego de presentar un escrito judicial que utilizaba la herramienta de inteligencia artificial (IA) ChatGPT para generar precedentes legales falsos. 

El juez Kevin Castel determinó que los abogados, Steven Schwartz y Peter LoDuca, deliberadamente ignoraron las señales que indicaban la falta de autenticidad de los casos incluidos en el documento, y proporcionaron información engañosa al tribunal, lo cual fue considerado un acto de mala fe.

El juez Castel aclaró que no hay nada incorrecto en utilizar herramientas confiables de inteligencia artificial como asistentes legales, pero los abogados tienen la responsabilidad de asegurar la precisión de sus declaraciones y ejercer un control sobre ellas. 

En su sentencia, el magistrado resaltó que ambos abogados "descuidaron sus responsabilidades" al presentar opiniones judiciales inexistentes respaldadas por citas falsas creadas por ChatGPT, incluso después de que las órdenes judiciales cuestionaran su existencia.

Demanda ficticia creada por IA en contra de aerolínea

 ChatGPT fue utilizado para respaldar una demanda con información falsa.

La demanda en cuestión estaba dirigida contra la aerolínea Avianca y fue presentada por un pasajero que afirmaba haber sufrido una lesión al ser golpeado por un carrito de servicio durante un vuelo. 

Schwartz, quien representaba al demandante, utilizó ChatGPT para redactar un escrito en respuesta a la solicitud de la defensa de desestimar el caso. Sin embargo, se descubrió rápidamente que las decisiones judiciales citadas en el documento de diez páginas eran invenciones generadas por la herramienta de inteligencia artificial desarrollada por OpenAI.

El propio abogado Schwartz admitió haber utilizado ChatGPT para preparar el escrito y reconoció en una declaración jurada que su única verificación fue preguntar a la aplicación si los casos citados eran reales. 

Schwartz argumentó que nunca antes había utilizado una herramienta de este tipo y, por lo tanto, no era consciente de la posibilidad de que el contenido pudiera ser falso. Además, afirmó que no tenía la intención de engañar al tribunal y exoneró por completo a otro abogado del bufete que también podría enfrentar sanciones.

Este caso plantea preguntas sobre el uso responsable de la inteligencia artificial en el ámbito legal y destaca la importancia de que los abogados ejerzan un control riguroso sobre los documentos generados por estas herramientas. 

Te puede interesar: Cómo usar ChatGPT para traducir frases o textos

Noticias Relacionadas

TE PUEDE INTERESAR

MÁS NOTICIAS

MÁS NOTICIAS