①Um juiz federal em Nova York emitiu um veredicto de que o escritório de advocacia citou um briefing do tribunal escrito pelo ChatGPT que foi citado por um caso falso como mau comportamento e multou-o em US$ 5.000;
② O progresso tecnológico é comum e não há nada inerentemente impróprio em usar ferramentas confiáveis de inteligência artificial para ajudar.
A inteligência artificial generativa como o ChatGPT pode melhorar muito a eficiência do escritório humano, mas sua capacidade de "fabricar" não pode ser ignorada. Se houver um erro no uso normal, pode ser apenas uma piada, como "Lin Daiyu puxa o salgueiro-chorão de cabeça para baixo, vovó Liu bate na porta de Jiang deus bêbado", mas se houver um erro em uma área ou momento chave , o resultado pode ser desastroso.
Na quinta-feira, horário local, um juiz federal de Nova York determinou que a Levidow, Levidow & Oberman, um escritório de advocacia, citou uma petição escrita pelo ChatGPT que foi citada por um caso falso como mau comportamento e a multou em US$ 5.000.
(Nota: documento de sentença)
O juiz P. Kevin Castel observou que dois advogados da firma evitaram conscientemente mostrar que as citações eram falsas e "fizeram declarações enganosas ao tribunal".
A Levidow, Levidow & Oberman posteriormente respondeu que seus advogados "humildemente" discordavam do julgamento malicioso e enganoso. "Cometemos um erro bem-intencionado. Não esperávamos que o ChatGPT pudesse ser fabricado do nada."
Fabricação
Em março, os advogados Peter LoDuca e Steven Schwartz entraram com uma ação contra a Avianca em nome de seu cliente, Roberto Mata, um documento legal escrito por inteligência artificial.
É relatado que os casos falsos citados incluem "Ghese v. China Southern Airlines", "Martinez v. Delta Air Lines" e "Miller v. United Airlines", entre outros. No entanto, após uma investigação cuidadosa, esses casos de julgamento não puderam ser encontrados.
Diante dos fatos, no final de maio, o advogado Schwartz teve que admitir que usou o ChatGPT para “complementar” suas pesquisas sobre o caso. Schwartz disse que não sabia que o conteúdo do ChatGPT poderia ser falso.
Custer disse que os dois advogados "abandonaram suas responsabilidades" e que "continuaram a insistir em opiniões falsas" depois de contestarem a papelada.
Custer ordenou que Loduka e Schwartz, bem como seu escritório de advocacia Levidow, Levidow & Oberman, pagassem uma multa de $ 5.000 cada e notificassem os juízes sobre o veredicto de que acreditavam que o caso havia sido falsificado.
"O tribunal não pedirá desculpas porque um pedido de desculpas coagido não é um pedido de desculpas sincero", escreveu o juiz Custer no julgamento do tribunal distrital federal de Manhattan. "A decisão de fazer qualquer pedido de desculpas cabe às partes envolvidas."
Não há nada de errado em usar inteligência artificial
Em uma ordem separada na quinta-feira, o juiz concedeu a moção da Avianca para rejeitar o processo. O autor, Mata, alega que ficou gravemente ferido quando seu joelho foi atingido por um palete de metal em um voo de El Salvador para Nova York em agosto de 2019.
Castells argumentou que a ação de Mata foi movida após a expiração da janela de litígio de dois anos estipulada na Convenção de Montreal, que permite reivindicações legais relacionadas a viagens aéreas internacionais.
Castells disse que os advogados podem não ser punidos se "confessarem" o uso da IA para redigir documentos legais.
No entanto, após questionarem o documento, os dois advogados ainda se defenderam vigorosamente, fazendo declarações falsas e enganosas sobre o documento e seu conteúdo, evidenciando “malícia”.
"Ao pesquisar e redigir documentos judiciais, bons advogados irão, quando apropriado, buscar ajuda em bancos de dados como advogados juniores, estudantes de direito, advogados contratuais, enciclopédias jurídicas, Westlaw e LexisNexis", diz o julgamento.
Castor também escreveu: "Os avanços tecnológicos são comuns e não há nada inerentemente errado em usar ferramentas confiáveis de inteligência artificial para ajudar. Mas as regras existentes impõem guardiões aos advogados para garantir a precisão da papelada que eles arquivam."
Ver original
O conteúdo serve apenas de referência e não constitui uma solicitação ou oferta. Não é prestado qualquer aconselhamento em matéria de investimento, fiscal ou jurídica. Consulte a Declaração de exoneração de responsabilidade para obter mais informações sobre os riscos.
A IA é arriscada, use-a com cautela! Advogado dos EUA é punido por citar caso falso do ChatGPT
***Fonte: *Associação Financeira
A inteligência artificial generativa como o ChatGPT pode melhorar muito a eficiência do escritório humano, mas sua capacidade de "fabricar" não pode ser ignorada. Se houver um erro no uso normal, pode ser apenas uma piada, como "Lin Daiyu puxa o salgueiro-chorão de cabeça para baixo, vovó Liu bate na porta de Jiang deus bêbado", mas se houver um erro em uma área ou momento chave , o resultado pode ser desastroso.
Na quinta-feira, horário local, um juiz federal de Nova York determinou que a Levidow, Levidow & Oberman, um escritório de advocacia, citou uma petição escrita pelo ChatGPT que foi citada por um caso falso como mau comportamento e a multou em US$ 5.000.
O juiz P. Kevin Castel observou que dois advogados da firma evitaram conscientemente mostrar que as citações eram falsas e "fizeram declarações enganosas ao tribunal".
A Levidow, Levidow & Oberman posteriormente respondeu que seus advogados "humildemente" discordavam do julgamento malicioso e enganoso. "Cometemos um erro bem-intencionado. Não esperávamos que o ChatGPT pudesse ser fabricado do nada."
Fabricação
Em março, os advogados Peter LoDuca e Steven Schwartz entraram com uma ação contra a Avianca em nome de seu cliente, Roberto Mata, um documento legal escrito por inteligência artificial.
É relatado que os casos falsos citados incluem "Ghese v. China Southern Airlines", "Martinez v. Delta Air Lines" e "Miller v. United Airlines", entre outros. No entanto, após uma investigação cuidadosa, esses casos de julgamento não puderam ser encontrados.
Diante dos fatos, no final de maio, o advogado Schwartz teve que admitir que usou o ChatGPT para “complementar” suas pesquisas sobre o caso. Schwartz disse que não sabia que o conteúdo do ChatGPT poderia ser falso.
Custer disse que os dois advogados "abandonaram suas responsabilidades" e que "continuaram a insistir em opiniões falsas" depois de contestarem a papelada.
Custer ordenou que Loduka e Schwartz, bem como seu escritório de advocacia Levidow, Levidow & Oberman, pagassem uma multa de $ 5.000 cada e notificassem os juízes sobre o veredicto de que acreditavam que o caso havia sido falsificado.
"O tribunal não pedirá desculpas porque um pedido de desculpas coagido não é um pedido de desculpas sincero", escreveu o juiz Custer no julgamento do tribunal distrital federal de Manhattan. "A decisão de fazer qualquer pedido de desculpas cabe às partes envolvidas."
Não há nada de errado em usar inteligência artificial
Em uma ordem separada na quinta-feira, o juiz concedeu a moção da Avianca para rejeitar o processo. O autor, Mata, alega que ficou gravemente ferido quando seu joelho foi atingido por um palete de metal em um voo de El Salvador para Nova York em agosto de 2019.
Castells argumentou que a ação de Mata foi movida após a expiração da janela de litígio de dois anos estipulada na Convenção de Montreal, que permite reivindicações legais relacionadas a viagens aéreas internacionais.
Castells disse que os advogados podem não ser punidos se "confessarem" o uso da IA para redigir documentos legais.
No entanto, após questionarem o documento, os dois advogados ainda se defenderam vigorosamente, fazendo declarações falsas e enganosas sobre o documento e seu conteúdo, evidenciando “malícia”.
"Ao pesquisar e redigir documentos judiciais, bons advogados irão, quando apropriado, buscar ajuda em bancos de dados como advogados juniores, estudantes de direito, advogados contratuais, enciclopédias jurídicas, Westlaw e LexisNexis", diz o julgamento.
Castor também escreveu: "Os avanços tecnológicos são comuns e não há nada inerentemente errado em usar ferramentas confiáveis de inteligência artificial para ajudar. Mas as regras existentes impõem guardiões aos advogados para garantir a precisão da papelada que eles arquivam."