Talvez você tenha ouvido falar sobre a vítima fatal de um caso de fúria no trânsito cuja família criou um avatar com IA para apresentar como declaração de impacto (possivelmente a primeira vez que isso aconteceu nos EUA). Mas há uma controvérsia maior e muito mais significativa em curso, segundo especialistas do setor jurídico. Alucinações de IA estão surgindo com frequência cada vez maior em petições judiciais. E isso está começando a irritar juízes. Basta considerar estes três casos, cada um oferecendo uma prévia do que devemos ver com mais frequência à medida que advogados adotam o uso da IA:
Um juiz da Califórnia, Michael Wilner, ficou intrigado com um conjunto de argumentos apresentados por advogados em uma petição. Ele decidiu investigar os artigos citados para embasar os argumentos. Mas os artigos não existiam. Ao solicitar mais informações ao escritório dos advogados, recebeu um novo documento com ainda mais erros que o primeiro. Wilner ordenou que os advogados prestassem depoimentos sob juramento explicando as falhas, nos quais descobriu que um deles, de um escritório de elite chamado Ellis George, utilizou o Google Gemini e modelos de IA específicos da área jurídica para redigir o texto, o que resultou na geração de informações falsas. Conforme detalhado em uma petição de 6 de maio, o juiz multou o escritório em US$ 31.000.
Um outro juiz da Califórnia detectou mais uma alucinação em uma petição judicial, desta vez apresentada pela empresa de IA Anthropic, no processo movido por gravadoras por questões de direitos autorais. Um dos advogados da Anthropic pediu ao modelo Claude da empresa para que gerasse uma citação para um artigo jurídico, mas o Claude incluiu o título e o autor errados. O advogado da empresa admitiu que o erro não foi identificado por ninguém durante a revisão do documento.
Por fim, e talvez o mais preocupante, há um caso em andamento em Israel. Após a prisão de um indivíduo acusado de lavagem de dinheiro, promotores israelenses apresentaram um pedido solicitando à Justiça a retenção do celular do investigado como prova. No entanto, citaram leis que não existem, levando o advogado de defesa a acusá-los de usar alucinações de IA na petição. Segundo veículos israelenses, os promotores admitiram que esse foi o caso e receberam uma advertência do juiz.
Esses casos apontam para um problema sério. O sistema judiciário depende de documentos precisos e com referências verificáveis — duas qualidades que os modelos de IA, apesar de amplamente adotados por advogados que buscam economizar tempo, muitas vezes deixam a desejar.
Esses erros ainda estão sendo detectados (por enquanto), mas não é difícil imaginar que, em breve, uma decisão judicial seja influenciada por algo completamente inventado por uma IA, e que ninguém perceba.
Conversei com Maura Grossman, professora da Escola de Ciência da Computação da Universidade de Waterloo e da Osgoode Hall Law School, além de uma das primeiras críticas vocais aos problemas que a IA generativa pode causar nos tribunais. Ela escreveu sobre isso ainda em 2023, quando os primeiros casos de alucinações começaram a aparecer. Grossman acreditava que as regras já existentes, que exigem que advogados verifiquem o que submetem aos tribunais, combinadas com a má publicidade dos casos anteriores, seriam suficientes para conter o problema. Mas isso não se confirmou.
As alucinações “não parecem ter diminuído”, diz ela. “Se algo mudou, é que estão se tornando mais frequentes.” E não se trata de casos isolados envolvendo firmas locais pouco conhecidas, afirma. São advogados de alto nível cometendo erros significativos e constrangedores com o uso de IA. Ela se preocupa com o fato de que esses erros também estejam aparecendo com mais frequência em documentos que não são redigidos diretamente por advogados, como relatórios de peritos (em dezembro, um professor de Stanford e especialista em IA admitiu ter incluído erros gerados por inteligência artificial em seu testemunho).
Contei a Grossman que acho tudo isso um pouco surpreendente. Advogados, mais do que a maioria das pessoas, são obcecados por precisão linguística. Escolhem suas palavras com cuidado. Por que tantos estão cometendo esse tipo de erro?
“Os advogados se dividem em dois grupos”, diz ela. “O primeiro tem pavor e prefere não usar a tecnologia de forma alguma.” Mas há também os que adotam cedo as novidades. São advogados com pouco tempo ou que não contam com uma equipe de apoio para ajudar na elaboração de petições. Eles estão ansiosos por uma tecnologia que os ajude a redigir documentos sob pressão de prazos. E nem sempre verificam com rigor o que a IA produziu.
O fato de que até advogados de alto escalão, cuja profissão gira em torno da análise minuciosa da linguagem, continuem sendo flagrados cometendo erros introduzidos pela IA diz algo sobre como a maioria de nós encara essa tecnologia hoje. Repetem-nos constantemente que a IA comete erros, mas os modelos de linguagem ainda soam como mágica. Fazemos uma pergunta complexa e recebemos uma resposta que parece ponderada e inteligente. Com o tempo, os modelos de IA passam a exibir uma aura de autoridade. E acabamos confiando.
“Pressupomos que, pelo fato de esses grandes modelos de linguagem serem tão fluentes, isso também significa que são precisos”, diz Grossman. “Todos nós, de certa forma, caímos nesse modo de confiança porque o tom parece autoritário.” Advogados estão acostumados a revisar o trabalho de colegas mais jovens ou estagiários, mas, por algum motivo, Grossman afirma que esse ceticismo não é aplicado à IA.
Sabemos desse problema desde o lançamento do ChatGPT, há quase três anos, mas a solução recomendada pouco evoluiu desde então: não confie em tudo o que lê e verifique o que o modelo de IA afirma. À medida que essas ferramentas são incorporadas a um número cada vez maior de plataformas, essa orientação me parece cada vez mais insatisfatória diante de uma das falhas mais fundamentais da IA.
As alucinações fazem parte do modo como os grandes modelos de linguagem funcionam. Mesmo assim, há empresas vendendo ferramentas de IA generativa voltadas para advogados que alegam oferecer resultados confiáveis. “Tenha confiança de que sua pesquisa é precisa e completa”, diz o site da Westlaw Precision. Já o site da CoCounsel afirma que sua IA é “baseada em conteúdo com autoridade”. Isso, no entanto, não impediu que seu cliente, o escritório Ellis George, fosse multado em 31 mil dólares.
Tenho cada vez mais empatia por quem confia mais na IA do que deveria. Afinal, vivemos uma época em que os próprios criadores dessa tecnologia afirmam que ela é tão poderosa que deveria ser tratada como armamento nuclear. Os modelos de IA aprenderam com praticamente tudo o que a humanidade já escreveu e estão cada vez mais presentes na nossa vida digital. Se as pessoas não devem confiar cegamente no que esses modelos dizem, talvez mereçam ser lembradas disso com mais frequência, especialmente por parte das empresas que os desenvolvem.