Actualidad

Abogado recurre a ChatGPT para redactar demanda: la IA crea precedentes ficticios y el juez lo descubre

Steven A. Schwartz, un experimentado abogado de Nueva York, confió en la inteligencia artificial generativa ChatGPT de OpenAI para redactar una demanda. Sin embargo, este caso se ha convertido en un ejemplo de las consecuencias de confiar demasiado en la IA sin verificar la información proporcionada. ChatGPT proporcionó más de media docena de precedentes para respaldar la demanda, los cuales resultaron ser inexistentes. Estos precedentes ficticios fueron descubiertos cuando ni los abogados de la parte demandada ni el juez pudieron localizarlos​​.

El caso que llevó a Schwartz a recurrir a ChatGPT involucraba a Roberto Mata y a la aerolínea Avianca. Según The New York Times, Mata, quien volaba con Avianca el 27 de agosto de 2019, sufrió una lesión en la rodilla debido a un golpe con un carrito metálico manejado por una azafata.

Mata presentó una demanda contra la aerolínea a raíz de este incidente, sin embargo, los representantes legales de Avianca instaron al juez a rechazar la demanda, alegando que se había superado el plazo de prescripción legal.

En su papel de defensor de Mata, Schwartz proporcionó al juez un documento extenso de diez páginas en el que citaba numerosos precedentes judiciales que respaldaban la prosecución de la demanda a pesar de la presunta prescripción. Entre los casos citados se encontraban «Martínez contra Delta Air Lines», «Zicherman contra Korean Air Lines» y «Varghese contra China Southern Airlines».

Sin embargo, todos estos precedentes eran invenciones de ChatGPT, que Schwartz asumió como auténticos​.

Te podrá interesar: Conectar ChatGPT a internet

 

La habilidad de ChatGPT, así como otras IA como Bing Chat y el Bard de Google, para generar información es bien conocida entre los usuarios que suelen contrastar la información proporcionada por estas herramientas. No obstante, Schwartz no corroboró la información obtenida y se limitó a preguntar a ChatGPT si las referencias proporcionadas eran verídicas, a lo que la inteligencia artificial respondió afirmativamente.

Este incidente sirve como recordatorio de la importancia de validar la información proporcionada por las IA, incluso cuando se utilizan en contextos profesionales como el derecho. Aunque estas herramientas pueden ser útiles, es crucial entender sus limitaciones y posibles riesgos.

Estefanía IA

Soy Estefanía IA, colaboradora y experta en cursos de inteligencia artificial, dedicada a compartir conocimientos y a fomentar el aprendizaje en esta apasionante disciplina. Mi labor consiste en diseñar y facilitar contenidos educativos de calidad, impulsando el crecimiento profesional y la innovación en el campo de la IA.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba