A Inteligência Artificial pode não roubar seu emprego, mas pode mudá-lo
Inteligência artificial

A Inteligência Artificial pode não roubar seu emprego, mas pode mudá-lo

A Inteligência Artificial (IA) já está sendo usada no campo jurídico. Será que ela está realmente pronta para ser um advogado?

Os avanços em Inteligência Artificial (IA) tendem a gerar ansiedades quanto ao futuro dos empregos. Esta última onda de modelos de IA, como o ChatGPT e o novo GPT-4 da OpenAI, não é diferente. Primeiro tivemos o lançamento dos sistemas. E agora estamos vendo as previsões de automação dos trabalhos. 

Em um relatório divulgado pelo grupo Goldman Sachs no início de abril, foi previsto que os avanços da IA poderiam fazer com que 300 milhões de empregos (representando aproximadamente 18% da força de trabalho global) fossem automatizados de alguma forma. A OpenAI também divulgou seu próprio estudo em conjunto a Universidade da Pensilvânia (EUA), que afirmava que o ChatGPT poderia afetar mais de 80% dos empregos no país. 

Os números parecem assustadores, mas a linguagem usada nesses relatórios pode ser frustrantemente vagas. “Modificar” pode significar uma série de coisas, e os detalhes são incertos. 

Pessoas cujos trabalhos lidam com a comunicação por meio da linguagem podem, sem surpresa, ser particularmente afetadas por grandes modelos de linguagem como o ChatGPT e o GPT-4. Veja um exemplo: advogados. No início de abril, analisei o setor jurídico e como ele será provavelmente afetado por novos modelos de IA, e o que descobri é que há tanto motivo para otimismo quanto para preocupação. 

A indústria jurídica antiquada e lenta tem sido objeto de disrupção tecnológica há algum tempo. Em um setor com escassez de mão de obra e necessidade de lidar com pilhas de documentos complexos, uma tecnologia que possa entender e resumir textos rapidamente pode ser imensamente útil. Sendo assim, como devemos pensar sobre o impacto que esses modelos de IA podem ter no setor jurídico? 

Em primeiro lugar, os avanços recentes da IA são particularmente compatíveis e adequados para o trabalho jurídico. Em março, o GPT-4 passou no Uniform Bar Exam, também conhecido como UBE, similar à prova da OAB no Brasil, que é o teste padrão exigido para licenciar advogados nos EUA. No entanto, isso não significa que a IA esteja pronta para advogar. 

O modelo poderia ter sido treinado em milhares de testes práticos, o que o tornaria um candidato impressionante, mas não necessariamente um grande advogado. (Não sabemos muito sobre os dados de treinamento do GPT-4 porque a OpenAI não divulgou essas informações.) 

Ainda assim, o sistema é ótimo na análise de texto, o que é de extrema importância para os advogados. 

“A linguagem é de extrema importância na indústria jurídica e no campo do direito. Todos os caminhos levam a um documento. Isso significa que você tem que ler, analisar ou escrever um documento… e essa é realmente a moeda com a qual as pessoas negociam”, diz Daniel Katz, professor de direito da Faculdade Chicago-Kent (EUA), que supervisionou a prova do GPT-4. 

Além disso, de acordo com Katz, o trabalho jurídico tem muitas tarefas repetitivas que podem ser automatizadas, como a busca de leis e casos aplicáveis e a obtenção de evidências relevantes. 

Um dos pesquisadores do teste com o UBE, Pablo Arredondo, vem trabalhando secretamente com a OpenAI desde outono para usar o GPT-4 em seu produto legal, o Casetext. Segundo o site do Casetext, ele usa IA para realizar “revisão de documentos, memorandos de pesquisa jurídica, preparação para depoimentos e análise de contratos”. 

Arredondo também diz que, à medida que usa o GPT-4, fica cada vez mais entusiasmado com o potencial do modelo de linguagem para auxiliar os advogados. Ele diz que a tecnologia é “incrível” e “refinada”. 

No entanto, a IA no campo jurídico não é uma nova tendência. Ela já foi usada para revisar contratos e prever resultados legais, e os pesquisadores já andaram explorando como a IA poderia ajudar na aprovação das leis. Recentemente, a DoNotPay, uma empresa de direitos do consumidor, considerou a possibilidade de apresentar um argumento escrito por IA em um caso jurídico, usando o chamado “advogado robô”,  que o recitaria nos ouvidos dos réus por meio de um fone de ouvido. (A DoNotPay não realizou a ação e está sendo processada por exercício ilegal da advocacia). 

Apesar desses exemplos, esses tipos de tecnologias ainda não conquistaram uma ampla adoção em escritórios de direito. Isso poderia mudar com os novos grandes modelos de linguagem? 

Em terceiro lugar, os advogados estão acostumados a revisar e editar trabalhos. 

Grandes modelos de linguagem estão longe de serem perfeitos e seus resultados teriam que ser verificados de perto, o que é trabalhoso. No entanto, advogados estão muito acostumados a revisar documentos, sejam eles produzidos por pessoas ou máquinas. Muitos são treinados na revisão de documentos, o que significa que um maior uso de IA, com um humano envolvido no processo, poderia ser relativamente fácil e prático em comparação com a adoção dessa tecnologia em outros setores. 

A grande questão é se os advogados podem ser convencidos a confiar em um sistema de IA em vez de um advogado júnior que passou alguns anos na faculdade de direito. 

Por fim, existem limitações e riscos. Às vezes, o GPT-4 pode até criar um texto muito convincente, mas incorreto, e faz uso indevido do conteúdo de referência. Uma vez, diz Arrodondo, o GPT-4 o fez duvidar dos fatos de um caso em que ele mesmo havia trabalhado. “Eu disse a ele, você está errado. Eu defendi este caso. E a IA disse, você pode se gabar dos casos em que trabalhou, Pablo, mas estou certo e aqui está a prova. E então deu uma URL que levava a lugar nenhum”. Arredondo acrescenta: “Ela é um pouco sociopata”. 

Katz diz que é essencial que os humanos monitorem os resultados gerados pelos sistemas de IA constantemente e destaca a obrigação profissional dos advogados de serem rigorosos e minuciosos: “Você não deve simplesmente pegar os resultados desses sistemas e entregá-los às pessoas sem revisá-los”. 

Outros profissionais são ainda mais céticos. “Esta não é uma ferramenta em que eu confiaria para realizar análises legais importantes e garantir que elas fossem confiáveis e precisas”, diz Ben Winters, que lidera os projetos do Electronic Privacy Information Center sobre IA e direitos humanos. Winters caracteriza a cultura da IA generativa no campo jurídico como “excessivamente confiante e irresponsável”. Também já foi exposto na imprensa que a IA é afetada por preconceitos raciais e de gênero. 

Há também considerações de longo prazo e questões complexas. Se os advogados têm menos prática em fazer pesquisas jurídicas, o que isso significa para a habilidade e o conhecimento desses profissionais na área? 

Mas ainda estamos um pouco longe desse cenário. Por enquanto. 

Meu colega e editor geral da Tech Review americana, David Rotman, escreveu um artigo analisando o impacto da nova era da IA na economia, especialmente no que diz respeito aos empregos e a produtividade. 

“Olhando pelo lado bom: esses grandes modelos de linguagem serão uma ferramenta poderosa para muitos trabalhadores, melhorando suas capacidades e conhecimentos, ao mesmo tempo em que impulsiona a economia como um todo. E pelo ruim: as empresas simplesmente os usarão para destruir o que antes pareciam empregos à prova de automação, aqueles que eram bem remunerados e que exigiam habilidades criativas e raciocínio lógico. Algumas empresas líderes tecnológicas ficarão ainda mais ricas, mas contribuirão pouco para o crescimento econômico geral”. 

O que andei lendo 

Alguns líderes influentes, incluindo Elon Musk, Gary Marcus, Andrew Yang, Steve Wozniak e mais de 1.500 pessoas, assinaram uma carta patrocinada pelo Future of Life Institute que pediu uma moratória em grandes projetos de IA para evitar uma possível catástrofe provocada por esta tecnologia. Muitos especialistas em IA concordam com a ação, mas a justificativa para ela tem sido alvo de muitas críticas. 

O New York Times anunciou que não pagará pela nova verificação do Twitter. É outro golpe no plano de Elon Musk de tornar o Twitter lucrativo cobrando pelos sinais azuis. 

Em 31 de março, as agências reguladoras italianas baniram temporariamente o ChatGPT por questões de privacidade. Elas estão investigando se a forma como a OpenAI treinou o modelo com dados dos usuários violou o Regulamento Geral sobre a Proteção de Dados (GDPR). 

Ultimamente, estou sendo atraída por algumas histórias culturais mais extensas. Confira uma amostra das minhas últimas favoritas: 

  • Minha colega Tanya Basu escreveu uma ótima história sobre pessoas dormindo juntas, platonicamente, em um ambiente de Realidade Virtual. Faz parte de uma nova era de comportamento social virtual que ela chamou de “aconchegante, mas assustador”. 
  • No New York Times, Steven Johnson publicou um perfil adorável, embora assustador, de Thomas Midgley Jr., que criou duas das invenções mais prejudiciais ao meio ambiente da história. 
  • E Jason Kehe, da Wired, passou meses entrevistando o autor de ficção científica mais popular do qual você provavelmente nunca ouviu falar nesta análise perspicaz e profunda da mente de Brandon Sanderson. 

O que aprendi 

“News Snacking” (em tradução livre, “petiscar notícias”), o ato de ler manchetes por alto ou trechos e descrições de forma superficial, parece ser uma maneira bastante ineficaz de aprender sobre eventos atuais e notícias políticas. Um estudo revisado por pares e conduzido por pesquisadores da Universidade de Amsterdã (Países Baixos) e da Universidade Macromedia de Ciências Aplicadas na Alemanha descobriu que “usuários que ‘beliscam’ notícias mais do que outros não obtêm muitos benefícios mesmo com seus altos níveis de exposição a elas” e que simplesmente “degustar” as informações resulta em “significativamente menos aprendizado” do que se as pessoas se dedicassem mais à leitura de notícias. Isso significa que a forma como as pessoas consomem informações é mais importante do que a quantidade a qual elas são expostas. O estudo complementa pesquisas anteriores mostrando que, embora o número de “contatos” que as pessoas tenham com notícias a cada dia esteja aumentando, a quantidade de tempo que elas gastam em cada encontro está diminuindo. Acontece que… isso não é nada bom se quisermos ter uma sociedade informada. 

Último vídeo

Nossos tópicos