Por que o mundo quer abandonar os modelos de IA dos EUA
Inteligência artificial

Por que o mundo quer abandonar os modelos de IA dos EUA

Sistemas de moderação de conteúdo estão sendo desativados e perdendo financiamento, levando muitos países a buscar alternativas.

No fim de fevereiro, enquanto eu participava da conferência sobre direitos digitais RightsCon, em Taiwan, acompanhei em tempo real o momento em que organizações da sociedade civil de todo o mundo, incluindo dos Estados Unidos, enfrentavam a perda de um dos maiores financiadores do trabalho global em direitos digitais: o governo dos Estados Unidos.

Como escrevi anteriormente, o desmonte chocante e acelerado do governo americano pela administração Trump (e sua guinada para o que alguns cientistas políticos proeminentes chamam de “autoritarismo competitivo”) também afeta o funcionamento e as políticas das empresas de tecnologia dos EUA — muitas das quais, claro, têm usuários muito além das fronteiras americanas. Pessoas presentes na RightsCon disseram que já estão observando mudanças na disposição dessas empresas em se envolver com comunidades menores — especialmente aquelas que não falam inglês — e em investir nelas.

Como resultado, alguns formuladores de políticas e líderes empresariais — especialmente na Europa — estão repensando sua dependência da tecnologia baseada nos EUA e se perguntando se conseguiriam desenvolver, rapidamente, alternativas melhores e locais. Isso é particularmente verdadeiro no caso da Inteligência Artificial.

Um dos exemplos mais claros disso está nas redes sociais. Yasmin Curzi, pós-doutoranda no Karsh Institute of Democracy da University of Virginia e professora licenciada da FGV Direito Rio, que pesquisa políticas tecnológicas nacionais, resumiu da seguinte forma: “Desde o segundo governo Trump, não podemos mais contar com [as plataformas de redes sociais americanas] nem para fazer o mínimo necessário.”

Os sistemas de moderação de conteúdo nas redes sociais — que já utilizam automação e também estão experimentando o uso de modelos de linguagem de grande escala (LLMs) para sinalizar postagens problemáticas — estão falhando em detectar violência de gênero em países tão diversos quanto Índia, África do Sul e Brasil. Se as plataformas passarem a depender ainda mais dos LLMs para a moderação de conteúdo, esse problema provavelmente vai piorar, afirma Marlena Wisniak, advogada de direitos humanos especializada em governança de IA no Centro Europeu de Direito para Organizações Sem Fins Lucrativos. “Os LLMs já são mal moderados, e esses mesmos LLMs mal moderados estão sendo usados para moderar outros conteúdos”, ela me disse. “É tão circular, e os erros continuam se repetindo e se amplificando.”

Parte do problema é que esses sistemas são treinados principalmente com dados do mundo anglófono (em especial, o inglês americano), o que faz com que tenham desempenho inferior em idiomas e contextos locais.

Mesmo os modelos de linguagem multilíngues, que deveriam ser capazes de processar vários idiomas ao mesmo tempo, ainda têm desempenho fraco em línguas não ocidentais. Por exemplo, uma avaliação das respostas do ChatGPT a perguntas sobre saúde mostrou que os resultados foram muito piores em chinês e hindi — idiomas menos representados nos conjuntos de dados norte-americanos — do que em inglês e espanhol.

Para muitos participantes da RightsCon, isso valida os apelos por abordagens mais comunitárias no desenvolvimento da IA — tanto dentro quanto fora do contexto das redes sociais. Essas abordagens podem incluir pequenos modelos de linguagem, chatbots e conjuntos de dados criados para usos específicos e voltados a idiomas e contextos culturais particulares. Esses sistemas poderiam ser treinados para reconhecer gírias e insultos, interpretar palavras ou frases escritas com mistura de idiomas (e até alfabetos), e identificar “linguagem ressignificada” (termos ofensivos que passaram a ser adotados positivamente pelo grupo antes atingido). Todos esses aspectos tendem a ser ignorados ou classificados incorretamente por modelos de linguagem e sistemas automatizados treinados principalmente com base no inglês anglo-americano.

A fundadora da startup Shhor AI, por exemplo, conduziu um painel na RightsCon para apresentar sua nova API de moderação de conteúdo voltada às línguas vernáculas da Índia.

Muitas soluções semelhantes estão em desenvolvimento há anos — e já cobrimos várias delas, incluindo uma iniciativa voluntária facilitada pela Mozilla para coletar dados de treinamento em idiomas além do inglês, e startups promissoras como a Lelapa AI, que está desenvolvendo inteligência artificial para línguas africanas. No início deste ano, inclusive, incluímos os pequenos modelos de linguagem na nossa lista das 10 principais tecnologias inovadoras de 2025.

Ainda assim, este momento parece um pouco diferente. A segunda administração Trump, que influencia diretamente as ações e políticas das empresas de tecnologia americanas, é obviamente um fator central. Mas há outros elementos em jogo também.

Primeiro, as pesquisas e os avanços recentes no desenvolvimento de modelos de linguagem chegaram a um ponto em que o tamanho do conjunto de dados deixou de ser um fator determinante de desempenho — o que significa que mais pessoas podem criá-los. Na verdade, “modelos de linguagem menores podem ser concorrentes à altura dos modelos multilíngues em idiomas específicos com poucos recursos”, afirma Aliya Bhatia, pesquisadora visitante no Center for Democracy & Technology, que estuda moderação automatizada de conteúdo.

Além disso, há o cenário global. A competição em torno da IA foi um dos principais temas da recente Cúpula de IA de Paris, realizada na semana anterior à RightsCon. Desde então, uma série de anúncios vem destacando iniciativas de “IA soberana”, que visam dar a um país (ou organização) controle total sobre todos os aspectos do desenvolvimento de inteligência artificial.

Mini Banner - Assine a MIT Technology Review

A soberania em IA é apenas uma parte do desejo mais amplo por uma “soberania tecnológica”, que também vem ganhando força, impulsionada por preocupações mais amplas com a privacidade e a segurança dos dados transferidos para os Estados Unidos. A União Europeia nomeou, em novembro passado, seu primeiro comissário para soberania tecnológica, segurança e democracia, e vem trabalhando em planos para criar uma “Euro Stack”, ou “infraestrutura pública digital”.

A definição desse conceito ainda está em construção, mas pode incluir os sistemas de energia, água, chips, serviços de nuvem, softwares, dados e IA necessários para sustentar a sociedade moderna e a inovação futura. Todos esses elementos são, em grande parte, fornecidos hoje por empresas de tecnologia dos EUA. Os esforços europeus se inspiram parcialmente no “India Stack”, a infraestrutura digital da Índia que inclui o sistema de identidade biométrica Aadhaar. Na semana passada, inclusive, parlamentares holandeses aprovaram diversas moções para desvincular o país dos provedores tecnológicos americanos.

Tudo isso está alinhado com o que Andy Yen, CEO da empresa suíça de privacidade digital Proton, me disse na RightsCon. Segundo ele, Trump está “fazendo a Europa se mover mais rápido… levando ao reconhecimento de que o continente precisa recuperar sua soberania tecnológica.” Isso se deve, em parte, à influência que o presidente exerce sobre os CEOs de empresas de tecnologia, afirmou Yen, mas também ao fato de que “a tecnologia é onde está o crescimento econômico futuro de qualquer país.”

Mas o fato de os governos se envolverem não significa que as questões de inclusão nos modelos de linguagem desaparecerão. “Acho que é necessário haver limites bem definidos sobre qual deve ser o papel do governo nesse contexto. A situação fica complicada quando o governo decide: ‘Esses são os idiomas que queremos promover’ ou ‘Esses são os tipos de visões que queremos representar em um conjunto de dados’”, diz Bhatia. “Fundamentalmente, os dados de treinamento de um modelo equivalem à visão de mundo que ele desenvolve.”

Ainda é cedo para saber como tudo isso vai se desenrolar — e o quanto se confirmará como realidade ou apenas hype. Mas, aconteça o que acontecer, esse é um cenário que continuaremos acompanhando de perto.

Último vídeo

Nossos tópicos