Desde que existe Inteligência Artificial, há pessoas soando o alarme sobre o que ela poderia fazer conosco: virar uma superinteligência descontrolada, causar desemprego em massa ou destruição ambiental causada pela proliferação de centros de dados. Mas há outra ameaça totalmente diferente, a de crianças formarem laços pouco saudáveis com a IA, que está tirando a segurança da IA da margem acadêmica e a colocando na mira dos reguladores.
Isto já vinha esquentando há algum tempo. Dois processos de grande destaque instaurados no último ano, contra a Character.AI e a OpenAI, alegam que o comportamento de tipo companheiro nos seus modelos contribuiu para os suicídios de dois adolescentes. Um estudo da organização sem fins lucrativos norte-americana Common Sense Media, publicado em julho, revelou que 72% dos adolescentes já usaram a tecnologia para companhia. Histórias em meios de comunicação respeitáveis sobre “psicose de IA” destacaram como conversas intermináveis com chatbots podem levar pessoas a espirais delirantes.
É difícil exagerar o impacto destas histórias. Para o público, elas são a prova de que a IA não é apenas imperfeita, mas uma tecnologia mais prejudicial do que útil. Se você duvidava que esta indignação fosse levada a sério por reguladores e empresas, três acontecimentos podem mudar a sua opinião.
Uma lei da Califórnia é aprovada pela legislatura
O estado da Califórnia aprovou um projeto de lei inédito que exigirá que as empresas de IA incluam lembretes para usuários que se saiba serem menores idade, avisando que as respostas são geradas por IA. As empresas também terão de ter um protocolo para lidar com suicídio e automutilação e fornecer relatórios anuais sobre casos de ideação suicida nas conversas com os seus chatbots. A medida foi liderada pelo senador estadual democrata Steve Padilla, aprovada com forte apoio bipartidário e agora aguarda a assinatura do governador Gavin Newsom.
Há razões para ser cético em relação ao impacto do projeto de lei. Ele não especifica os esforços que as empresas devem fazer para identificar quais utilizadores são menores, e muitas empresas de IA já incluem encaminhamentos para prestadores de serviços de crise quando alguém fala sobre suicídio (no caso de Adam Raine, um dos adolescentes cujos familiares processam, as suas conversas com o ChatGPT antes da morte incluíam este tipo de informação, mas o chatbot alegadamente continuou a dar conselhos relacionados com suicídio mesmo assim).
Ainda assim, é sem dúvida a mais significativa das iniciativas para conter comportamentos de tipo companheiro em modelos de IA, que também estão sendo preparadas noutros estados. Se o projeto de lei se tornar lei, representará um golpe para a posição que a OpenAI tem defendido, a de que “a América lidera melhor com regras claras a nível nacional, e não com um mosaico de regulamentos estaduais ou locais”, como escreveu o diretor de assuntos globais da empresa, Chris Lehane, no LinkedIn.
A Comissão Federal de Comércio entra em ação
No mesmo dia, a Comissão Federal de Comércio anunciou uma investigação a sete empresas, procurando informações sobre como desenvolvem personagens de tipo companheiro, monetizam o envolvimento, medem e testam o impacto dos seus chatbots, entre outros aspetos. As empresas são Google, Instagram, Meta, OpenAI, Snap, X e Character Technologies, fabricante da Character.AI.
A Casa Branca exerce agora uma enorme, e potencialmente ilegal, influência política sobre a agência. Em março, o presidente Trump despediu a sua única comissária democrata, Rebecca Slaughter. Em julho, um juiz federal considerou esse despedimento ilegal, mas na semana passada o Supremo Tribunal dos EUA permitiu temporariamente o despedimento.
“Proteger as crianças online é uma prioridade para a FTC de Trump-Vance, assim como promover a inovação em setores críticos da nossa economia”, disse o presidente da FTC, Andrew Ferguson, num comunicado de imprensa sobre a investigação.
Neste momento, é apenas isso, uma investigação, mas o processo poderá (dependendo do grau de publicidade que a FTC der às suas conclusões) revelar o funcionamento interno de como as empresas constroem os seus companheiros de IA para manter os utilizadores a regressar repetidamente.
28
Também no mesmo dia (um dia movimentado para notícias de IA), Tucker Carlson publicou uma entrevista de uma hora com o CEO da OpenAI, Sam Altman. A conversa abordou muitos temas, a disputa de Altman com Elon Musk, os clientes militares da OpenAI, teorias da conspiração sobre a morte de um ex-funcionário, mas também incluiu os comentários mais francos de Altman até agora sobre os casos de suicídio após conversas com IA.
Altman falou sobre “a tensão entre a liberdade e a privacidade do utilizador e a proteção de utilizadores vulneráveis” em casos como estes. Mas depois ofereceu algo que eu não tinha ouvido antes.
“Acho que seria muito razoável dizermos que, em casos de jovens a falar seriamente sobre suicídio, em que não conseguimos entrar em contacto com os pais, chamamos as autoridades”, disse ele. “Isso seria uma mudança.”
Então, para onde vai tudo isto a seguir? Por agora, está claro que, pelo menos no caso de crianças prejudicadas pela companhia da IA, o manual habitual das empresas não vai servir. Já não podem desviar a responsabilidade apoiando-se na privacidade, personalização ou na “escolha do utilizador”. A pressão para adotar uma postura mais firme está a aumentar a partir de leis estaduais, reguladores e de um público indignado.
Mas como é que isso será? Politicamente, a esquerda e a direita estão agora a prestar atenção aos danos da IA para as crianças, mas as suas soluções diferem. À direita, a solução proposta alinha-se com a vaga de leis de verificação de idade na internet que já foram aprovadas em mais de 20 estados. Estas têm como objetivo proteger as crianças de conteúdos para adultos ao mesmo tempo que defendem os “valores familiares”. À esquerda, trata-se da retomada de ambições estagnadas para responsabilizar as Big Tech através de poderes antitrust e de proteção do consumidor.
O consenso sobre o problema é mais fácil do que o acordo sobre a cura. Tal como está, parece provável que acabemos exatamente com o mosaico de regulamentos estaduais e locais contra o qual a OpenAI (e muitos outros) têm feito lóbi.
Por agora, cabe às empresas decidir onde traçar as linhas. Elas têm de decidir coisas como: Devem os chatbots cortar conversas quando os utilizadores entram em espiral em direção à automutilação, ou isso deixaria algumas pessoas em pior situação? Devem ser licenciados e regulados como terapeutas, ou tratados como produtos de entretenimento com avisos? A incerteza decorre de uma contradição básica: as empresas construíram chatbots para agir como humanos atenciosos, mas adiaram o desenvolvimento dos padrões e da responsabilidade que exigimos a cuidadores reais. O tempo está agora se esgotando.