No final de outubro, a News Corp abriu um processo contra a Perplexity AI, um popular motor de busca com Inteligência Artificial. À primeira vista, pode parecer algo banal. Afinal, essa ação judicial junta-se a mais de duas dezenas de casos similares que buscam reconhecimento, consentimento ou compensação pelo uso de dados por desenvolvedores de IA. No entanto, essa disputa em particular é diferente, podendo ser a mais significativa de todas.
O que está em jogo é o futuro da busca por IA — ou seja, chatbots que resumem informações de toda a web. Se a crescente popularidade desses “motores de resposta” com IA serve de indicador, eles podem substituir os motores de busca tradicionais como nosso principal portal para a internet. Enquanto os chatbots comuns de IA conseguem reproduzir — frequentemente de forma pouco confiável — informações aprendidas durante o treinamento, ferramentas de busca com IA, como Perplexity, o Gemini da Google ou o SearchGPT, agora público da OpenAI, buscam e reorganizam informações de sites de terceiros. Esses sistemas devolvem um resumo curto aos usuários, junto com links para algumas fontes, que vão desde artigos de pesquisa até páginas da Wikipedia e transcrições de vídeos do YouTube. O sistema de IA realiza a leitura e a redação, mas a informação vem de fora.
Na melhor das hipóteses, a busca com IA pode inferir melhor a intenção do usuário, amplificar conteúdo de qualidade e sintetizar informações de fontes diversas. No entanto, se a busca com IA se tornar nosso portal principal para a web, poderá desestabilizar uma economia digital já frágil. Atualmente, a produção de conteúdo online depende de um conjunto delicado de incentivos atrelados ao tráfego virtual: anúncios, assinaturas, doações, vendas ou exposição de marca. Ao “esconder” a web por trás de um chatbot onisciente, a busca com IA poderia privar os criadores das visitas e da atenção que eles precisam para sobreviver.
Se a busca com IA desmantelar esse ecossistema, é improvável que a legislação existente seja eficaz. Governos já acreditam que conteúdos estão caindo nas lacunas do sistema legal e estão aprendendo a regular o fluxo de valor na web de outras maneiras. A indústria de IA deveria aproveitar essa janela de oportunidade para construir um mercado de conteúdo mais inteligente antes que os governos recorram a intervenções ineficazes, que beneficiem apenas uma minoria ou que dificultem o livre fluxo de ideias na web.
Direitos autorais não resolvem a questão da busca com IA
A News Corp argumenta que usar seu conteúdo para extrair informações para a busca com IA constitui violação de direitos autorais, afirmando que a Perplexity AI “concorre por leitores enquanto se aproveita dos publishers.” Esse sentimento provavelmente é compartilhado pelo New York Times, que enviou uma notificação de cessar e desistir à Perplexity AI em meados de outubro.
Em alguns aspectos, o caso contra a busca com IA é mais sólido do que outros casos envolvendo o treinamento de IA. No treinamento, o conteúdo tem maior impacto quando é comum e repetitivo; um modelo de IA aprende comportamentos generalizáveis ao observar padrões recorrentes em grandes conjuntos de dados, sendo limitada a contribuição de qualquer conteúdo isolado. Na busca, o conteúdo tem mais impacto quando é novo ou distinto, ou quando o criador possui uma autoridade única. Por design, a busca com IA visa reproduzir características específicas desses dados subjacentes, invocar as credenciais do criador original e substituir o conteúdo original.
Mesmo assim, a News Corp enfrenta uma batalha difícil para provar que a Perplexity AI infringe direitos autorais ao processar e resumir informações. Os direitos autorais não protegem meros fatos, nem o trabalho criativo, jornalístico e acadêmico necessário para produzi-los. Os tribunais dos EUA historicamente favorecem réus do setor de tecnologia que usam conteúdo para fins suficientemente transformadores, e esse padrão provavelmente continuará. Se a News Corp tiver sucesso, as implicações irão muito além da Perplexity AI. Restringir o uso de conteúdos ricos em informação para fins não criativos ou não expressivos poderia limitar o acesso a dados abundantes, diversos e de alta qualidade, prejudicando esforços mais amplos para melhorar a segurança e a confiabilidade dos sistemas de IA.
Governos estão aprendendo a regular a distribuição de valor online
Se a lei atual não puder resolver esses desafios, os governos podem considerar novas legislações. Fortalecidos por disputas recentes com plataformas de busca e redes sociais tradicionais, os governos poderiam buscar reformas agressivas, inspiradas nos códigos de negociação da mídia implementados na Austrália e no Canadá ou propostos na Califórnia e no Congresso dos EUA. Essas reformas obrigam determinadas plataformas a pagar certos veículos de mídia pela exibição de seu conteúdo, como em trechos de notícias ou painéis de conhecimento. A União Europeia impôs obrigações semelhantes por meio de uma reforma dos direitos autorais, enquanto o Reino Unido introduziu amplos poderes de concorrência que poderiam ser usados para forçar negociações.
Em resumo, os governos já demonstraram disposição para regular o fluxo de valor entre produtores e agregadores de conteúdo, abandonando sua tradicional relutância em interferir na internet.
No entanto, a negociação obrigatória é uma solução grosseira para um problema complexo. Essas reformas favorecem uma classe restrita de organizações de notícias, operando sob a suposição de que plataformas como Google e Meta exploram os publishers. Na prática, não está claro quanto do tráfego dessas plataformas é realmente atribuído a notícias, com estimativas variando de 2% a 35% das buscas e apenas 3% dos feeds das redes sociais. Ao mesmo tempo, as plataformas oferecem um benefício significativo aos publishers ao amplificar seu conteúdo, e há pouco consenso sobre a divisão justa desse valor de mão dupla. De forma controversa, os quatro códigos de negociação regulam simplesmente a indexação ou o link para conteúdo de notícias, não apenas sua reprodução. Isso ameaça a “capacidade de vincular livremente” que fundamenta a web. Além disso, as regras de negociação focadas na mídia tradicional — apenas 1.400 publicações no Canadá, 1.500 na UE e 62 organizações na Austrália — ignoram inúmeros criadores e usuários do dia a dia que contribuem com postagens, blogs, imagens, vídeos, podcasts e comentários que impulsionam o tráfego nas plataformas.
Ainda assim, com todos os seus problemas, a negociação obrigatória pode se tornar uma resposta atraente para a busca com IA. Em parte, o caso é mais convincente. Ao contrário da busca tradicional — que indexa, vincula e exibe pequenos trechos de fontes para ajudar o usuário a decidir se deseja acessar o conteúdo — a busca com IA poderia substituir diretamente os resumos gerados pelo material original, potencialmente drenando tráfego, atenção e exposição dos sites. Mais de um terço das sessões do Google terminam sem cliques, e essa proporção provavelmente será significativamente maior na busca com IA. A busca com IA também simplifica o cálculo econômico: Como apenas algumas fontes contribuem para cada resposta, plataformas — e árbitros — podem rastrear com mais precisão o quanto criadores específicos geram engajamento e receita.
No fim das contas, os detalhes fazem a diferença. Regras de negociação obrigatória bem-intencionadas, mas mal projetadas, podem não resolver o problema, proteger apenas um seleto grupo e potencialmente prejudicar a livre troca de informações na web.
A indústria tem uma janela estreita para construir um sistema de recompensas mais justo
Entretanto, a mera ameaça de intervenção pode ter um impacto maior do que uma reforma efetiva. Empresas de IA silenciosamente reconhecem o risco de que litígios evoluam para regulamentação. Por exemplo, Perplexity AI, OpenAI e Google já estão firmando acordos com publishers e plataformas de conteúdo, alguns voltados para o treinamento de IA e outros para a busca com IA. Mas, assim como nas primeiras leis de negociação, esses acordos beneficiam apenas algumas poucas empresas, algumas das quais (como o Reddit) ainda não se comprometeram a compartilhar essa receita com seus próprios criadores.
Essa política de apaziguamento seletivo é insustentável. Ela negligencia a imensa maioria dos criadores online, que não conseguem facilmente optar por sair da busca com IA e que não têm o poder de barganha de um publisher consolidado. Retira a urgência da reforma ao acalmar os críticos mais barulhentos. Legitima algumas poucas empresas de IA por meio de acordos comerciais confidenciais e complexos, dificultando que novos participantes obtenham condições ou garantias iguais, e potencialmente criando uma nova onda de monopólios de busca. A longo prazo, isso pode gerar incentivos perversos para que empresas de IA favoreçam fontes de baixo custo e baixa qualidade em detrimento de notícias ou conteúdos de alta qualidade, mas mais caros, promovendo uma cultura de consumo acrítico de informações.
Em vez disso, a indústria de IA deveria investir em estruturas que recompensem criadores de todos os tipos por compartilharem conteúdo valioso. De YouTube a TikTok e X, plataformas de tecnologia já demonstraram ser capazes de administrar recompensas inovadoras para criadores distribuídos em mercados complexos de conteúdo. De fato, a monetização mais justa do conteúdo cotidiano é um dos objetivos centrais do movimento “web3”, amplamente celebrado por investidores de risco. O mesmo raciocínio se aplica à busca com IA. Se as consultas gerarem engajamento lucrativo, mas os usuários não clicarem nas fontes, as plataformas comerciais de busca com IA deveriam encontrar maneiras de atribuir esse valor aos criadores e reparti-lo em larga escala.
É claro que é possível que nossa economia digital tenha nascido quebrada. A subsistência por meio da receita publicitária em modelo de “gotejamento” pode ser insustentável, e a economia da atenção causou danos reais à privacidade, à integridade e à democracia online. Apoiar notícias de qualidade e conteúdo fresco pode exigir outras formas de investimento ou incentivos.
Mas não devemos desistir da perspectiva de uma economia digital mais justa. Se algo, enquanto a busca com IA torna a negociação de conteúdo mais urgente, ela também a torna mais viável do que nunca. Pioneiros da IA devem aproveitar essa oportunidade para estabelecer as bases de um sistema de recompensas inteligente, equitativo e escalável. Caso não o façam, os governos agora dispõem de estruturas – e da confiança – para impor sua própria visão de valor compartilhado.
Benjamin Brooks é pesquisador no Berkman Klein Center de Harvard, onde analisa as respostas regulatórias e legislativas à IA. Ele já liderou a área de políticas públicas na Stability AI, desenvolvedora de modelos abertos para geração de imagem, linguagem, áudio e vídeo. Suas opiniões não representam necessariamente as de nenhuma organização com a qual ele tenha sido ou seja atualmente associado.