Novedades del derecho y las leyes argentinas para el ciudadano

una demanda con inteligencia artificial sale mal

Esto había sido advertido por Derecho En Zapatillas. El Chat GPT inventa casos y puede hacer simulaciones para que parezcan reales

Era el típico caso de las películas: “estaba sentado plácidamente en el vuelo cuando el carrito de comida del avión me golpea en su rodilla causándome daños físicos y morales como pasajero”. Tiempo después escribiría eso en Tribunales quien decide hacer juicio a Avianca, en, claro, Nueva York. O en verdad lo escribiría su abogado, o en verdad un robot.

El caso judicial, que podría ser uno más de daños, responsabilidad civil, terminó siendo tapa del diario gracias a la inteligencia artificial.

La aerolínea quiso frenar el proceso, alegó que era ridículo. Y el demandante, o más bien su abogado con 30 años de experiencia, presentó el pedido para que continúe.

Citó precedentes contundentes, como Martinez v. Delta Air Lines, Zicherman v. Korean Air Lines y, claro, Varghese v. China Southern  Me imagino la charla con el cliente, “No te preocupes, nos quedamos con, al menos, un 737”, escribió Leo Piccioli.

“Pero, hubo un pequeño problema. Nadie, ni el juez, ni los abogados defensores de Avianca, ni el mismo abogado patrocinante de la demanda encontró, en los archivos, ninguno de esos casos. Fueron inventados por el ChatGPT”, continuó el CEO. “Por si acaso le pregunté si eran casos reales, y me contestó que sí”, argumentó en la corte, que ahora decidirá su sanción.

El caso judicial y el chat GPT

El caso comenzó cuando Mata, quien era pasajero en el vuelo 670 de Avianca de El Salvador a Nueva York el 27 de agosto de 2019, cuando un empleado de la aerolínea lo golpeó con el carrito de servicio, según la demanda. Después de que el Sr. Mata presentó la demanda, la aerolínea presentó documentos solicitando que se desestimara el caso porque el caso había expirado, por su inacción y porque había pasado el tiempo, prescripción.

Los abogados de Avianca dijeron que cuando se trató de Varghese v. China Southern Airlines, dijeron que “no habían podido localizar este caso por título o cita, ni ningún caso que se pareciera a él”.

De hecho, agregaron los abogados, la cita, que provino del propio Varghese, citaba algo llamado Zicherman v. Korean Air Lines Co. Ltd., una opinión supuestamente emitida por la Corte de Apelaciones del 11° Circuito de los EE. UU. en 2008. Dijeron que tampoco pude encontrar eso.

Copia de los dictámenes (inventados)

El juez Castel ordenó a los abogados del señor Mata que entregaran copias de las sentencias o dictámenes judiciales referidos en su escrito. Los abogados presentaron un compendio de ocho; en la mayoría de los casos, enumeraban el tribunal y los jueces que los emitieron, los números de expediente y las fechas.

Cuando Avianca le pidió a un juez federal de Manhattan que desestimara el caso, los abogados de Mata se opusieron con vehemencia y presentaron un escrito de 10 páginas que citaba más de media docena de decisiones judiciales relevantes. Martinez v. Delta Air Lines, Zicherman v. Korean Air Lines y, por supuesto, Varghese v. China Southern Airlines, con su erudita discusión sobre la ley federal y los alcances de la prescripción.

Solo hubo un problema: nadie, ni los abogados de la aerolínea, ni siquiera el propio juez, pudo encontrar las decisiones o las citas citadas y resumidas en el escrito. Eso fue porque el ChatGPT había inventado todo.

El abogado que creó el escrito dijo en una declaración jurada que había usado el programa de inteligencia artificial para hacer su investigación legal. El abogado le dijo al juez P. Kevin Castel que no tenía intención de engañar al tribunal ni a la aerolínea. El abogado dijo que nunca había usado ChatGPT y “por lo tanto, no estaba al tanto de la posibilidad de que su contenido pudiera ser falso”.

Le dijo al juez ¡ que incluso le había pedido al programa que verificara que los casos eran reales, y el programa había dicho que sí. Alegó entonces buena fe: “lamento mucho” haber confiado en ChatGPT “y nunca lo hará en el futuro sin una verificación absoluta de su autenticidad”.

El juez Castel dijo en una orden que se le había presentado “una circunstancia sin precedentes”, una presentación legal repleta de “decisiones judiciales falsas, con citas falsas y citas internas falsas”. Ordenó una audiencia para el 8 de junio para discutir posibles sanciones por mal ejercicio profesional de la abogacía.

Los comentarios están cerrados, pero trackbacks Y pingbacks están abiertos.