Jue. Mar 28th, 2024

La demanda comenzó como tantas otras: un hombre llamado Roberto Mata demandó a la aerolínea Avianca, alegando que resultó herido cuando un carrito de servicio de metal golpeó su rodilla durante un vuelo al Aeropuerto Internacional Kennedy en Nueva York.

Cuando Avianca le pidió a un juez federal en Manhattan que desestimara el caso, los abogados de Mata se opusieron con vehemencia y presentaron un escrito de 10 páginas que citaba más de media docena de decisiones judiciales relevantes. Hubo Martínez v. Delta Air Lines, Zicherman v. Korean Air Lines y, por supuesto, Varghese v. China Southern Airlines, con su discusión académica sobre la ley federal y «el efecto de peaje de suspender automáticamente un estatuto de limitaciones».

El único inconveniente: nadie, ni los abogados de la aerolínea, ni siquiera el propio juez, pudo encontrar las decisiones o citas citadas y resumidas en el escrito.

Fue porque ChatGPT lo inventó todo.

El abogado que creó el caso, Steven A. Schwartz de Levidow, Levidow & Oberman, se puso a merced de la corte el jueves y dijo en una declaración jurada que usó el programa de inteligencia artificial para hacer su investigación legal, «una fuente que ha demostrado ser poco fiable.

El Sr. Schwartz, que ejerció la abogacía en Nueva York durante tres décadas, le dijo al juez P. Kevin Castel que no tenía intención de engañar al tribunal ni a la aerolínea. Schwartz dijo que nunca había usado ChatGPT y, por lo tanto, «no estaba al tanto de la posibilidad de que su contenido pudiera ser falso».

Le dijo al juez Castel que incluso le había pedido al programa que verificara que los casos eran reales.

Él había dicho que sí.

Schwartz dijo que «lamenta profundamente» confiar en ChatGPT «y nunca lo hará en el futuro sin una verificación absoluta de su autenticidad».

El juez Castel dijo en una orden que se había enfrentado a «una circunstancia sin precedentes», una sumisión legal llena de «decisiones judiciales falsas, con citaciones falsas y citaciones internas falsas». Ordenó una audiencia el 8 de junio para discutir posibles sanciones.

A medida que la inteligencia artificial barre el mundo en línea, ha evocado visiones distópicas de computadoras que reemplazan no solo la interacción humana, sino también el trabajo humano. El miedo ha sido particularmente intenso para los trabajadores del conocimiento, muchos de los cuales temen que sus actividades diarias no sean tan enrarecidas como el mundo piensa, pero por las cuales el mundo paga horas facturables.

Stephen Gillers, profesor de ética legal en la Facultad de Derecho de la Universidad de Nueva York, dijo que el problema era particularmente grave entre los abogados, quienes debatieron el valor y los peligros del software de inteligencia artificial como ChatGPT, así como la necesidad de verificar toda la información que proporciona. .

“La discusión en este momento dentro del bar es cómo evitamos exactamente lo que describe este caso”, dijo Gillers. «No se puede simplemente tomar la salida y cortarla y pegarla en los documentos de la corte».

El caso real de Roberto Mata v. Avianca Inc. muestra que puede quedar al menos algo de tiempo para las profesiones de cuello blanco antes de que los robots tomen el control.

Comenzó cuando el Sr. Mata era pasajero en el vuelo 670 de Avianca de El Salvador a Nueva York el 27 de agosto de 2019, cuando un empleado de la aerolínea lo golpeó con el carrito de servicio, alega la demanda. Después de que el Sr. Mata presentó una demanda, la aerolínea presentó documentos solicitando que se desestimara el caso porque el estatuto de limitaciones había expirado.

En un escrito presentado en marzo, los abogados de Mata dijeron que el juicio debería continuar, y reforzaron su argumento con referencias y citas de las muchas decisiones judiciales que desde entonces han sido desacreditadas.

Pronto, los abogados de Avianca le escribieron al juez Castel, diciendo que no podían encontrar los casos citados en el escrito.

En cuanto a Varghese v. China Southern Airlines, dijeron que «no habían podido localizar este caso por leyenda o cita, ni ningún caso parecido».

Señalaron una larga cita de la supuesta decisión de Varghese contenida en el escrito. “El suscrito no ha podido localizar esta cotización, ni nada parecido en ningún caso”, escribieron los abogados de Avianca.

De hecho, agregaron los abogados, la citación, que procedía del propio Varghese, citaba algo llamado Zicherman v. Korean Air Lines Co. Ltd., una opinión supuestamente emitida por la Corte de Apelaciones del Undécimo Circuito de los Estados Unidos en 2008. Dijeron que tampoco podían encontrarla.

El juez Castel ordenó a los abogados del señor Mata que entregaran copias de los dictámenes referidos en su factum. Los abogados presentaron un compendio de ocho; en la mayoría de los casos, mencionaron el tribunal y los jueces que los emitieron, los números de registro y las fechas.

La copia de la supuesta decisión de Varghese, por ejemplo, tiene seis páginas y dice que fue escrita por un miembro de un panel de tres jueces del 11º Circuito. Pero los abogados de Avianca le dijeron al juez que no podían encontrar esa opinión, ni las otras, en registros judiciales o bases de datos legales.

Bart Banino, abogado de Avianca, dijo que su firma, Condon & Forsyth, se especializa en derecho aeronáutico y sus abogados pueden decir que los casos mencionados en el escrito no son reales. Agregó que tenían la idea de que un chatbot podría haber estado involucrado.

Schwartz no respondió a un mensaje en busca de comentarios, ni Peter LoDuca, otro abogado de la firma, cuyo nombre figura en la presentación.

El Sr. LoDuca dijo en una declaración jurada esta semana que no había realizado ninguna de las investigaciones en cuestión y que «no tenía motivos para dudar de la sinceridad» del trabajo del Sr. Schwartz o la autenticidad de las opiniones.

ChatGPT genera respuestas realistas al adivinar qué fragmentos de texto deben seguir otras secuencias, según un modelo estadístico que ha ingerido miles de millones de textos de muestra extraídos de todo Internet. En el caso del Sr. Mata, el programa parece haber discernido el marco laberíntico de un argumento legal escrito, pero lo pobló con los nombres y hechos de una bullabesa de casos existentes.

El juez Castel, en su orden de audiencia, dio a entender que él había hecho su propia investigación. Escribió que el secretario del 11.º circuito había confirmado que el número de caso impreso en la supuesta opinión de Varghese se relacionaba con un caso completamente diferente.

Al calificar la opinión de «falsa», el juez Castel señaló que contenía citas internas y citas que, a su vez, eran inexistentes. Dijo que cinco de los otros fallos presentados por los abogados de Mata también parecían estar equivocados.

El jueves, los abogados de Mata presentaron declaraciones juradas con su versión de lo sucedido.

El Sr. Schwartz escribió que inicialmente demandó al Sr. Mata en un tribunal estatal, pero después de que la aerolínea lo transfirió a un tribunal federal en Manhattan, donde el Sr. Schwartz no puede ejercer, uno de sus colegas, el Sr. LoDuca, se convirtió en el abogado. de registro Schwartz dijo que continuó haciendo investigaciones legales, en las que LoDuca no participó.

Schwartz dijo que consultó ChatGPT «para complementar» su propio trabajo y, «en consulta» con ChatGPT, encontró y citó la media docena de casos inexistentes. Dijo ChatGPT tranquilizado.

«¿Es Varghese un caso real?», escribió, según una copia del intercambio que presentó al juez.

«Sí», respondió el chatbot, ofreciendo una cita y agregando que era «un caso real».

El Sr. Schwartz cavó más profundo.

«¿Cuál es su fuente?», escribió, según el expediente.

“Me disculpo por la confusión anterior”, respondió ChatGPT, ofreciendo una citación legal.

“¿Están equivocados los otros casos que proporcionó?”, preguntó Schwartz.

ChatGPT respondió: «No, los otros casos que proporcioné son reales y se pueden encontrar en bases de datos legales acreditadas».

Pero, por desgracia, no pudieron ser.

Sheelagh McNeil contribuyó con la investigación.