Como os poderosos caíram. Há uma década, a mídia social era celebrada por provocar revoltas democráticas no mundo árabe e em outros países. Agora, as primeiras páginas estão repletas de histórias sobre o papel dessas plataformas sociais na desinformação, na conspiração empresarial, na má conduta e nos riscos à saúde mental. Em uma pesquisa da Pew Research Center de 2022, os americanos culparam as mídias sociais pelo embrutecimento do nosso discurso político, pela disseminação da desinformação e pelo aumento da polarização partidária.
Hoje, a queridinha da vez é a Inteligência Artificial. Assim como a mídia social, ela tem o potencial de mudar o mundo de muitas maneiras, algumas favoráveis à democracia. Mas, ao mesmo tempo, tem o potencial de causar danos à sociedade.
Há muito que podemos aprender sobre a evolução não regulamentada da mídia social na última década, que se aplica diretamente às empresas e tecnologias de IA. Essas lições podem nos ajudar a evitar cometer os mesmos erros que cometemos com a mídia social.
Em particular, cinco atributos fundamentais da mídia social prejudicaram a sociedade. A IA também tem esses mesmos atributos. Observe que eles não são intrinsecamente maus. Todos eles são facas de dois gumes, com potencial para fazer o bem ou o mal. O perigo vem de quem os utiliza. O perigo vem de quem maneja a faca e em que direção ela é brandida. Isso tem sido verdade para a mídia social e será verdade para a IA. Em ambos os casos, a solução está nos limites de uso da tecnologia.
#1: Publicidade
A função que a publicidade desempenha na Internet surgiu mais por acidente do que por qualquer outra coisa. Quando a comercialização chegou à Internet, não havia uma maneira fácil de os usuários fazerem micropagamentos para fazer coisas como visualizar uma página da web. Além disso, os usuários estavam acostumados ao acesso gratuito e não aceitavam modelos de assinatura para serviços. A publicidade era o modelo de negócios óbvio, embora nunca o melhor. E é o modelo no qual a mídia social também se baseia, o que a leva a priorizar o engajamento em detrimento de qualquer outra coisa.
Tanto o Google quanto o Facebook acreditam que a IA os ajudará a manter seu domínio sobre um mercado de anúncios online de 11 dígitos (sim, 11 dígitos), e os gigantes da tecnologia, que tradicionalmente dependem menos da publicidade, como a Microsoft e a Amazon, acreditam que a IA os ajudará a conquistar uma fatia maior desse mercado.
A Big Tech precisa de algo para persuadir os anunciantes a continuar gastando em suas plataformas. Apesar das afirmações bombásticas sobre a eficácia do marketing direcionado, os pesquisadores há muito tempo lutam para demonstrar onde e quando os anúncios online realmente têm um impacto. Quando grandes marcas, como Uber e Procter & Gamble, reduziram recentemente seus gastos com anúncios digitais em centenas de milhões, elas afirmaram que isso não afetou em nada suas vendas.
Os líderes do setor afirmam que os anúncios com IA serão muito melhores. O Google garante que a IA pode ajustar o texto do seu anúncio em resposta ao que os usuários pesquisam e que seus algoritmos de IA configurarão suas campanhas para maximizar o sucesso. A Amazon quer que você use a IA de geração de imagens dela para deixar as páginas de produtos de torradeiras mais legais. E a IBM está confiante de que a IA Watson tornará os anúncios melhores.
Essas técnicas beiram a manipulação, mas o maior risco para os usuários vem da publicidade nos chatbots com IA. Assim como o Google e o Meta incorporam anúncios em seus resultados de pesquisa e feeds, as empresas de IA serão pressionadas a incorporar anúncios em conversas. E, como essas conversas serão relacionais e semelhantes às humanas, elas podem ser mais prejudiciais. Embora muitos de nós tenhamos nos tornado ótimos em passar por cima dos anúncios nas páginas de resultados da Amazon e do Google, será muito mais difícil determinar se um chatbot de IA está mencionando um produto porque é uma boa resposta à sua pergunta ou porque o desenvolvedor de IA recebeu uma comissão do fabricante.
#2: Vigilância
A dependência da mídia social em relação à publicidade como a principal forma de monetizar os sites levou à personalização, o que levou a uma vigilância crescente. Para convencer os anunciantes de que as plataformas sociais podem ajustar os anúncios para que sejam o mais atraente possível para cada pessoa, as plataformas devem demonstrar que podem coletar o máximo possível de informações sobre essas pessoas.
É difícil exagerar a quantidade de espionagem que está acontecendo. Uma análise recente da Consumer Reports sobre o Facebook — apenas o Facebook — mostrou que cada usuário tem mais de 2.200 empresas diferentes espionando suas atividades na web.
As plataformas baseadas em IA que são apoiadas por anunciantes enfrentarão todos os mesmos incentivos de mercado perversos e poderosos que as plataformas sociais enfrentam. É fácil imaginar que uma operadora de chatbot poderia cobrar um preço mais alto se pudesse afirmar que poderia direcionar os usuários com base em sua localização, dados de preferência ou histórico de bate-papo anterior e persuadi-los a comprar produtos.
A possibilidade de manipulação só aumentará à medida que dependermos da IA para serviços pessoais. Uma das promessas da IA generativa é a perspectiva de criar um assistente digital pessoal avançado o suficiente para atuar como seu defensor perante os outros e como seu mordomo. Isso requer mais intimidade do que a que você tem com seu mecanismo de busca, provedor de e-mail, sistema de armazenamento em nuvem ou telefone. Você vai querer que ele esteja sempre com você e, para trabalhar de forma mais eficaz, ele precisará saber tudo sobre você. Ele agirá como um amigo e é provável que você o trate como tal, confiando erroneamente em sua discrição.
Mesmo que você opte por não familiarizar voluntariamente um assistente de IA com seu estilo de vida e preferências, a tecnologia de IA pode facilitar o conhecimento das empresas sobre você. As primeiras demonstrações ilustram como os chatbots podem ser usados para extrair sub-repticiamente dados pessoais fazendo perguntas comuns. E com os chatbots sendo cada vez mais integrados a tudo, desde sistemas de atendimento ao cliente até interfaces básicas de pesquisa em sites, a exposição a esse tipo de coleta de dados inferenciais pode se tornar inevitável.
#3: Viralidade
A mídia social permite que qualquer usuário expresse qualquer ideia com o potencial de alcance global instantâneo. Um grande orador público em um palanque pode divulgar ideias para talvez algumas centenas de pessoas em um boa noite. Uma criança com a quantidade certa de piadas no Facebook pode atingir algumas centenas de milhões de pessoas em poucos minutos.
Há uma década, os tecnólogos esperavam que esse tipo de viralidade reunisse as pessoas e garantisse o acesso a verdades suprimidas. Mas, por uma questão estrutural, é do interesse de uma rede social mostrar a você as coisas nas quais você tem maior probabilidade de clicar e compartilhar, e as coisas que o manterão na plataforma.
Na verdade, isso geralmente significa conteúdo ultrajante, escandaloso e provocador. Os pesquisadores descobriram que o conteúdo que expressa o máximo de animosidade em relação aos adversários políticos obtém o maior engajamento no Facebook e no Twitter. E esse incentivo à indignação impulsiona e recompensa a desinformação.
Como Jonathan Swift escreveu certa vez: “A falsidade voa, e a verdade vem mancando atrás dela”. Os acadêmicos parecem ter comprovado isso no caso da mídia social; as pessoas estão mais propensas a compartilhar informações falsas, talvez porque pareçam mais inovadoras e surpreendentes. E, infelizmente, esse tipo de desinformação viral tem sido generalizado.
A IA tem o potencial de sobrecarregar o problema porque torna a produção e a propagação de conteúdo mais fáceis, mais rápidas e mais automáticas. As ferramentas geradoras de IA podem fabricar um número infinito de falsidades sobre qualquer indivíduo ou tema, algumas das quais se tornam virais. E essas mentiras podem ser impulsionadas por contas sociais controladas por bots de IA, que podem compartilhar e lavar a desinformação original em qualquer escala.
Geradores de texto e agentes autônomos de IA incrivelmente poderosos já estão começando a marcar presença nas mídias sociais. Em julho, pesquisadores da Universidade de Indiana revelaram uma botnet de mais de 1.100 contas do Twitter (atual X) que pareciam ser operadas usando o ChatGPT.
A IA ajudará a reforçar o conteúdo viral que emerge da mídia social. Ela será capaz de criar sites e conteúdo da Web, avaliações de usuários e aplicativos para smartphones. Será capaz de simular milhares, ou até milhões, de personas falsas para dar a impressão errônea de que uma ideia, uma posição política ou o uso de um produto é mais comum do que realmente é. O que poderíamos perceber como um debate político vibrante poderia ser bots conversando com bots. E esses recursos não estarão disponíveis apenas para aqueles com dinheiro e poder; as ferramentas de IA necessárias para tudo isso estarão facilmente disponíveis para todos nós.
#4: Bloqueio
As empresas de mídia social se esforçam muito para dificultar a saída de suas plataformas. Isso não significa apenas que você perderá as conversas com seus amigos. Elas dificultam que você pegue seus dados salvos — conexões, publicações, fotos — e os transfira para outra plataforma. Cada momento que você investe em compartilhar uma lembrança, entrar em contato com um conhecido ou fazer a curadoria de seus seguidores em uma plataforma social acrescenta um tijolo à parede que você teria que escalar para ir para outra plataforma.
Esse conceito de “lock-in” não é exclusivo da mídia social. A Microsoft cultivou formatos de documentos proprietários durante anos para mantê-lo usando seu principal produto, o Office. Seu serviço de música ou leitor de e-book dificulta a transferência do conteúdo que você comprou para um serviço ou leitor rival. E se você mudar de um iPhone para um dispositivo Android, seus amigos poderão zombar de você. Mas a mídia social leva isso a um novo patamar. Não importa o quanto seja ruim, é muito difícil sair do Facebook se todos os seus amigos estiverem lá. Coordenar a saída de todos para uma nova plataforma é incrivelmente difícil, por isso ninguém o faz.
Da mesma forma, as empresas que criam assistentes pessoais digitais com IA dificultarão a transferência dessa personalização para outra IA pelos usuários. Se os assistentes pessoais de IA conseguirem economizar muito tempo, será porque eles conhecem os detalhes de sua vida tão bem quanto um bom assistente humano; você gostaria de renunciar a isso para começar de novo com o serviço de outra empresa? Em exemplos extremos, algumas pessoas criaram laços estreitos, talvez até familiares, com chatbots de IA. Se você pensar em sua IA como um amigo ou terapeuta, isso pode ser uma forma poderosa de fidelização.
O lock-in é uma preocupação importante porque resulta em produtos e serviços que respondem menos à demanda dos clientes. Quanto mais difícil for para você mudar para um concorrente, pior a empresa poderá tratá-lo. Na ausência de qualquer forma de forçar a interoperabilidade, as empresas de IA têm menos incentivo para inovar em recursos ou competir em preço, e menos escrúpulos para se envolver em vigilância ou outros comportamentos ruins.
#5: Monopolização
As plataformas sociais geralmente começam como produtos excelentes, realmente úteis e reveladores para seus consumidores, antes de começarem a monetizar e explorar esses usuários para o benefício de seus clientes comerciais. Em seguida, as plataformas recuperam o valor para si mesmas, transformando seus produtos em experiências realmente miseráveis para todos. Esse é um ciclo sobre o qual Cory Doctorow escreveu de forma contundente e traçou a história do Facebook, do Twitter e, mais recentemente, do TikTok.
A razão para esses resultados é estrutural. Os efeitos de rede das plataformas de tecnologia levam algumas empresas a se tornarem dominantes, e o aprisionamento garante sua dominância contínua. Os incentivos no setor de tecnologia são tão espetacularmente, cegamente poderosos que permitiram que seis megacorporações (Amazon, Apple, Google, Facebook, Meta, Microsoft e Nvidia) comandassem um trilhão de dólares cada uma em valor de mercado – ou mais. Essas empresas usam sua riqueza para bloquear qualquer legislação significativa que possa reduzir seu poder. E, às vezes, conspiram umas com as outras para engordar ainda mais.
Esse ciclo está claramente começando a se repetir na IA. Basta olhar para o exemplo da OpenAI, a garota-propaganda do setor, cuja principal oferta, o ChatGPT, continua a estabelecer marcas de aceitação e uso. Um ano após o lançamento do produto, a avaliação da OpenAI disparou para cerca de US$ 90 bilhões.
A OpenAI já pareceu uma alternativa “aberta” às megacorporações — uma operadora comum de serviços de IA com uma missão social sem fins lucrativos. Mas o desastre da demissão e recontratação de Sam Altman no final de 2023, e o papel central da Microsoft na recondução de Altman ao cargo de CEO, simplesmente ilustrou como o financiamento de risco das fileiras familiares da elite tecnológica permeia e controla a IA corporativa. Em janeiro de 2024, a OpenAI deu um grande passo em direção à monetização dessa base de usuários ao introduzir a GPT Store, em que um cliente da OpenAI pode cobrar de outro pelo uso de versões personalizadas do software da OpenAI; a empresa, é claro, coleta a receita de ambas as partes. Isso coloca em movimento o ciclo sobre o qual Doctorow adverte.
Em meio a essa espiral de exploração, pouca ou nenhuma atenção é dada às externalidades impostas ao público em geral — pessoas que nem sequer estão usando as plataformas. Mesmo depois de a sociedade ter lutado contra seus efeitos nocivos durante anos, as redes sociais monopolistas não têm praticamente nenhum incentivo para controlar o impacto ambiental de seus produtos, a tendência de espalhar desinformação ou os efeitos perniciosos sobre a saúde mental. E o governo não aplicou praticamente nenhuma regulamentação para esses fins.
Da mesma forma, há poucas ou nenhuma proteção para limitar o possível impacto negativo da IA. Softwares de reconhecimento facial que equivalem a perfis raciais, opiniões públicas simuladas e sobrecarregadas por chatbots, vídeos falsos em anúncios políticos – tudo isso persiste em uma área cinzenta do ponto de vista jurídico. Até mesmo os infratores claros da lei de publicidade de campanha podem, segundo alguns, ser inocentados se simplesmente fizerem isso com IA.
Mitigando os riscos
Os riscos que a IA representa para a sociedade são surpreendentemente familiares, mas há uma grande diferença: não é tarde demais. Desta vez, sabemos que tudo está chegando. Recém-saídos de nossa experiência com os danos causados pelas mídias sociais, temos todos os avisos de que precisamos para evitar os mesmos erros.
O maior erro que cometemos com a mídia social foi deixá-la como um espaço não regulamentado. Mesmo agora – depois de todos os estudos e revelações dos efeitos negativos da mídia social sobre as crianças e a saúde mental, depois da Cambridge Analytica, depois da exposição da intervenção russa em nossa política, depois de tudo o mais — a mídia social nos EUA continua sendo, em grande parte, uma “arma de destruição em massa” não regulamentada. O Congresso receberá milhões de dólares em contribuições das Big Techs, e os legisladores até investirão milhões de seus próprios dólares nessas empresas, mas aprovar leis que limitem ou penalizem seu comportamento parece ser uma ponte longe demais.
Não podemos nos dar ao luxo de fazer a mesma coisa com a IA, pois os riscos são ainda maiores. O dano que a mídia social pode causar decorre de como ela afeta nossa comunicação. A IA nos afetará da mesma forma e de muitas outras. Se a trajetória da Big Tech for um sinal, as ferramentas de IA estarão cada vez mais envolvidas na forma como aprendemos e como expressamos nossos pensamentos. Mas essas ferramentas também influenciarão a forma como programamos nossas atividades diárias, como projetamos produtos, como escrevemos leis e até mesmo como diagnosticamos doenças. O papel expansivo dessas tecnologias em nossa vida diária dá às empresas com fins lucrativos oportunidades de exercer controle sobre mais aspectos da sociedade, o que nos expõe aos riscos decorrentes de seus incentivos e decisões.
A boa notícia é que temos toda uma categoria de ferramentas para modular o risco que as ações corporativas representam para nossas vidas, a começar pela regulamentação. As regulamentações podem vir na forma de restrições de atividade, como limitações sobre quais tipos de empresas e produtos podem incorporar ferramentas de IA. Elas podem vir na forma de regras de transparência, exigindo a divulgação de quais conjuntos de dados são usados para treinar modelos de IA ou quais novos modelos em fase de pré-produção estão sendo treinados. E podem vir na forma de requisitos de supervisão e responsabilidade, permitindo penalidades civis nos casos em que as empresas desrespeitam as regras.
O maior ponto de influência que os governos têm quando se trata de empresas de tecnologia é a lei antitruste. Apesar do que muitos lobistas querem que você pense, uma das principais funções da regulamentação é preservar a concorrência – não dificultar a vida das empresas. Não é inevitável que a OpenAI se torne outro Meta, um gorila de 800 libras cuja base de usuários e alcance são várias vezes superiores aos de seus concorrentes. Além de fortalecer e fazer cumprir a lei antitruste, podemos introduzir uma regulamentação que apoie os padrões de concorrência específicos do setor de tecnologia, como a portabilidade de dados e a interoperabilidade de dispositivos. Essa é outra estratégia fundamental para resistir ao monopólio e ao controle corporativo.
Além disso, os governos podem aplicar as regulamentações existentes sobre publicidade. Assim como os EUA regulamentam quais mídias podem ou não hospedar anúncios de produtos sensíveis, como cigarros, e assim como muitas outras jurisdições exercem um controle rigoroso sobre o tempo e a forma de publicidade politicamente sensível, os EUA também poderiam limitar o envolvimento entre provedores de IA e anunciantes.
Por fim, devemos reconhecer que o desenvolvimento e o fornecimento de ferramentas de IA não precisam ser de domínio soberano das corporações. Nós, o povo e nosso governo, também podemos fazer isso. A proliferação do desenvolvimento de IA de código aberto em 2023, bem-sucedido a ponto de assustar os participantes corporativos, é uma prova disso. E podemos ir além, pedindo ao nosso governo que crie ferramentas de IA de opinião pública desenvolvidas com supervisão política e responsabilidade em nosso sistema democrático, onde a ditadura da motivação do lucro não se aplica.
É possível debater qual dessas soluções é mais prática, mais importante ou mais urgentemente necessária. Devemos ter um diálogo social vibrante sobre se e como usar cada uma dessas ferramentas. Há muitos caminhos para um bom resultado.
O problema é que isso não está acontecendo agora, principalmente nos EUA. E com uma eleição presidencial iminente, conflitos se espalhando de forma alarmante pela Ásia e pela Europa e uma crise climática global, é fácil imaginar que não conseguiremos lidar com a IA mais rapidamente do que (não) conseguimos com as mídias sociais. Mas ainda não é tarde demais. Estes ainda são os primeiros anos para aplicativos práticos de IA para consumidores. Devemos e podemos fazer melhor.
Nathan E. Sanders é cientista de dados e afiliado ao Berkman Klein Center da Universidade de Harvard. Bruce Schneier é tecnólogo em segurança, bolsista e professor da Harvard Kennedy School.