La IA es arriesgada, ¡úsala con precaución! Abogado estadounidense castigado por citar caso falso de ChatGPT

***Fuente: *Asociación Financiera

①Un juez federal en Nueva York emitió un veredicto de que el bufete de abogados citó un informe judicial escrito por ChatGPT que fue citado por un caso falso como un mal comportamiento y lo multó con $5,000; ② El progreso tecnológico es un lugar común, y no hay nada intrínsecamente inapropiado en el uso de herramientas confiables de inteligencia artificial para ayudar.

La inteligencia artificial generativa como ChatGPT puede mejorar en gran medida la eficiencia de la oficina humana, pero no se puede ignorar su capacidad de "fabricar". Si hay un error en el uso normal, puede ser solo una broma, como "Lin Daiyu saca el sauce llorón boca abajo, la abuela Liu golpea la puerta de Jiang borracha", pero si hay un error en un área o momento clave , el resultado puede ser desastroso.

El jueves, hora local, un juez federal de Nueva York dictaminó que Levidow, Levidow & Oberman, un bufete de abogados, citó un escrito judicial escrito por ChatGPT que fue citado por un caso falso como un mal comportamiento y lo multó con $5,000.

(Nota: documento de sentencia)

El juez P. Kevin Castel señaló que dos abogados de la firma evitaron deliberadamente demostrar que las citaciones eran falsas y "hicieron declaraciones engañosas ante el tribunal".

Levidow, Levidow & Oberman respondieron posteriormente que sus abogados "humildemente" no estaban de acuerdo con el juicio malicioso y engañoso. "Cometimos un error bien intencionado. No esperábamos que ChatGPT pudiera fabricarse de la nada".

Fabricación

En marzo, los abogados Peter LoDuca y Steven Schwartz presentaron una demanda contra Avianca en nombre de su cliente, Roberto Mata, un documento legal escrito por inteligencia artificial.

Se informa que los casos falsos citados incluyen "Ghese c. China Southern Airlines", "Martínez c. Delta Air Lines" y "Miller c. United Airlines", entre otros. Sin embargo, después de una cuidadosa investigación, estos casos de juicio no se pudieron encontrar en absoluto.

Ante los hechos, a fines de mayo, el abogado Schwartz tuvo que admitir que usó ChatGPT para “complementar” su investigación sobre el caso. Schwartz dijo que no sabía que el contenido de ChatGPT podría ser falso.

Custer dijo que los dos abogados "abandonaron sus responsabilidades" y que "continuaron insistiendo en opiniones falsas" después de cuestionar el papeleo.

Custer ordenó a Loduka y Schwartz, así como a su bufete de abogados Levidow, Levidow & Oberman, que cada uno pague una multa de $5,000 y que ellos mismos notifiquen a los jueces sobre el veredicto de que creían que el caso había sido falsificado.

"El tribunal no les pedirá que se disculpe porque una disculpa forzada no es una disculpa sincera”, escribió el juez Custer en el fallo del tribunal federal de distrito de Manhattan. “La decisión de disculparse recae en las partes involucradas”.

No hay nada de malo en usar inteligencia artificial

En una orden separada el jueves, el juez concedió la moción de Avianca para desestimar la demanda. El demandante, Mata, afirma que resultó gravemente herido cuando su rodilla fue golpeada por una paleta de metal en un vuelo de El Salvador a Nueva York en agosto de 2019.

Castells argumentó que la demanda de Mata se presentó después de la expiración de la ventana de litigación de dos años estipulada en la Convención de Montreal, que permite reclamos legales relacionados con viajes aéreos internacionales.

Castells dijo que los abogados podrían no ser castigados si "confesaron" sobre el uso de IA para escribir documentos legales.

Sin embargo, después de cuestionar el documento, los dos abogados aún se defendieron enérgicamente, haciendo declaraciones falsas y engañosas sobre el documento y su contenido, mostrando "malicia".

“Al investigar y redactar documentos judiciales, los buenos abogados, según corresponda, buscarán ayuda de bases de datos como abogados junior, estudiantes de derecho, abogados contratados, enciclopedias legales, Westlaw y LexisNexis”, dice el fallo.

Castor también escribió: "Los avances tecnológicos son comunes, y no hay nada intrínsecamente malo en usar herramientas confiables de inteligencia artificial para ayudar. Pero las reglas existentes imponen guardianes a los abogados para garantizar la precisión del papeleo que presentan".

Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Comercie con criptomonedas en cualquier lugar y en cualquier momento
qrCode
Escanee para descargar la aplicación Gate.io
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)