Precisamos nos preparar para uma inteligência viciante
Inteligência artificial

Precisamos nos preparar para uma inteligência viciante

O fascínio com os assistentes de IA é difícil de resistir. Veja como a inovação na regulamentação pode ajudar a proteger as pessoas.

O que você encontrará neste artigo:

Por que os assistentes de IA são tão viciantes
Difícil mudar o desejo humano de amor e entretenimento
Reavaliar a regulamentação

Banner indicando a posição do botão de download do artigo em formato pdf

As preocupações com a Inteligência Artificial enfatizam demais os danos decorrentes da subversão em vez da sedução. Esses alertas geralmente imaginam cenários apocalípticos em que os sistemas escapam do controle humano ou até mesmo da compreensão. Além desses pesadelos, há danos de curto prazo que devemos levar a sério: a IA poderia comprometer o discurso público por meio de desinformação; cimentar preconceitos em consultas para empréstimos, julgamentos ou contratações; ou desestabilizar os setores criativos.

No entanto, prevemos uma classe diferente de riscos, mas não menos urgente: aqueles decorrentes de relacionamentos com agentes não humanos. O companheirismo da IA não é mais teórico – nossa análise de um milhão de registros de interação do ChatGPT revela que o segundo uso mais popular da IA é a interpretação de papéis sexuais. Já estamos começando a convidar as IAs para nossas vidas como amigos, amantes, mentores, terapeutas e professores.

Será mais fácil se refugiar em uma réplica de um parceiro falecido do que navegar pelas realidades confusas e dolorosas dos relacionamentos humanos? De fato, o provedor de companhia de IA Replika nasceu da tentativa de “ressuscitar” um melhor amigo falecido, e, agora, oferece companhia a milhões de usuários. Até mesmo o CTO da OpenAI adverte que a IA tem o potencial de ser “extremamente viciante”.

Mini Banner - Assine a MIT Technology Review

Estamos testemunhando um experimento gigantesco se desenrolar no mundo real, sem saber ao certo o impacto que esses assistentes de IA terão sobre nós individualmente ou sobre a sociedade como um todo. Será que a avó passará seus últimos dias negligenciados conversando com o sósia digital do neto, enquanto o parente verdadeiro é orientado por um idoso simulado? A IA exerce o charme coletivo de toda a história e a cultura humanas com um mimetismo sedutor infinito. Esses sistemas são simultaneamente superiores e submissos, com uma nova forma de persuasão que pode iludir sobre o consentimento nessas interações. Diante desse desequilíbrio de poder, será que podemos consentir de modo significativo em nos envolver em um relacionamento com IA, especialmente quando, para muitos, a alternativa é não fazer nada?

Como pesquisadores de IA que trabalham em estreita colaboração com os formuladores de políticas, ficamos preocupados com o desinteresse que os legisladores demonstraram em relação aos danos decorrentes desse futuro. Ainda não estamos preparados para responder a esses riscos porque não os compreendemos totalmente. O que é necessário é uma nova pesquisa científica na interseção de Tecnologia, Psicologia e Direito – e, talvez, novas abordagens para a regulamentação da IA.

Por que os assistentes de IA são tão viciantes

Por mais atraentes que as plataformas alimentadas por sistemas de recomendação possam parecer hoje, o TikTok e seus rivais ainda são limitados pelo conteúdo humano. Embora, no passado, tenham alertado sobre o “vício” em novelas, televisão, Internet, smartphones e mídias sociais, todas essas formas de mídia são igualmente limitadas pela capacidade humana. A IA generativa é diferente. Ela pode gerar conteúdo realista em tempo real sem se cansar, tudo otimizado para atender às preferências específicas da pessoa com quem está interagindo.

O fascínio da Inteligência Artificial está em sua capacidade de identificar nossos desejos e atendê-los quando e como quisermos. A IA não tem preferências nem personalidade próprias, mas reflete o que os usuários acreditam que ela seja – um fenômeno conhecido pelos pesquisadores como “bajulação”. Nossa pesquisa demonstrou que aqueles que percebem ou desejam que uma IA tenha motivos carinhosos usarão uma linguagem que estimule exatamente esse comportamento. Isso cria uma câmara de eco de afeto que ameaça ser extremamente viciante. Por que se envolver no processo de dar e receber de outra pessoa quando podemos simplesmente receber? Interações repetidas com assistentes bajuladores podem acabar atrofiando a parte de nós que é capaz de se envolver totalmente com outros seres humanos, que têm desejos e sonhos reais próprios, levando ao que poderíamos chamar de “transtorno de apego digital”.

Investigando os incentivos que impulsionam os produtos viciantes

Para lidar com os danos que os assistentes de IA podem causar, é necessário um entendimento completo dos incentivos econômicos e psicológicos que impulsionam seu desenvolvimento. Enquanto não compreendermos esses fatores de dependência de Inteligência Artificial, será impossível criar políticas eficazes.

Não é por acaso que as plataformas da Internet são viciantes – escolhas deliberadas de design, conhecidas como padrões obscuros, são feitas para maximizar o envolvimento do usuário. Esperamos que incentivos semelhantes acabem por criar assistentes de IA que ofereçam hedonismo como um serviço. Isso levanta duas questões distintas relacionadas ao recurso. Que escolhas de design serão usadas para tornar esses assistentes envolventes e, por fim, viciantes? E como esses companheiros viciantes afetarão as pessoas que os utilizam?

Um estudo interdisciplinar baseado em pesquisas sobre padrões obscuros na mídia social é necessário para entender essa dimensão psicológica da Inteligência Artificial. Por exemplo, nossa pesquisa já mostra que as pessoas têm maior probabilidade de se envolver com IAs que imitam pessoas que elas admiram, mesmo que saibam que o avatar é falso.

Quando entendermos as dimensões psicológicas do companheirismo da IA, poderemos criar intervenções políticas eficazes. Já foi demonstrado que redirecionar o foco das pessoas para avaliar a veracidade antes de compartilhar conteúdo online pode reduzir a desinformação, enquanto imagens horríveis em embalagens de cigarros já são usadas para dissuadir possíveis fumantes. Semelhantes abordagens de design poderiam destacar os perigos do vício em IA e tornar seus sistemas menos atraentes como substitutos da companhia humana.

É difícil modificar o desejo humano de ser amado e entretido, mas talvez possamos mudar os incentivos econômicos. Um imposto sobre o envolvimento com a Inteligência Artificial pode levar as pessoas a interações de maior qualidade e incentivar um jeito mais seguro de usar as plataformas, regularmente, mas por períodos curtos. Assim como as loterias estaduais têm sido usadas para financiar a educação, um imposto sobre o engajamento poderia financiar atividades que promovam conexões humanas, como centros de arte ou parques.

Pode ser necessário um novo pensamento sobre a regulamentação

Em 1992, Sherry Turkle, uma importante psicóloga pioneira no estudo da interação entre humanos e tecnologia, identificou as ameaças que os sistemas técnicos representam para os relacionamentos humanos. Um dos principais desafios que emergiram do trabalho de Turkle refere-se a uma questão central deste assunto: Quem somos nós para dizer que o que você gosta não é o que você merece?

Por boas razões, nossa sociedade liberal se esforça para regulamentar os tipos de danos que descrevemos aqui. Assim como a proibição do adultério foi corretamente rejeitada como intromissão iliberal em assuntos pessoais, quem – ou o quê – desejamos amar não é da conta do governo. Ao mesmo tempo, a proibição universal de material de abuso sexual infantil representa um exemplo de uma linha explícita que deve ser traçada, mesmo em uma sociedade que valoriza a liberdade de expressão e a liberdade pessoal. A dificuldade de regulamentar a companhia das IAs pode exigir novas abordagens regulatórias – fundamentadas em uma compreensão mais profunda dos incentivos subjacentes a essas companhias – que tirem proveito das novas tecnologias.

Uma das abordagens regulatórias mais eficazes é incorporar salvaguardas diretamente nos projetos técnicos, semelhante à como projetistas evitam riscos de asfixia fazendo brinquedos infantis maiores do que a boca de um bebê. Essa abordagem de “regulamentação por projeto” poderia ter o foco de tornar as interações com a IA menos prejudiciais, projetando a tecnologia para torná-la menos desejável como substituta das conexões humanas, embora ainda seja útil em outros contextos. Talvez sejam necessárias novas pesquisas para encontrar melhores maneiras de limitar os comportamentos de grandes modelos de Inteligência Artificial com técnicas que alterem os objetivos da IA em um nível técnico fundamental. Por exemplo, o “ajuste de alinhamento” representa um conjunto de técnicas de treinamento para que os modelos de IA estejam conforme as preferências humanas; isso poderia ser estendido para abordar seu potencial viciante. Da mesma forma, a “interpretabilidade mecanicista” tem o objetivo de fazer a engenharia reversa no modo como os modelos de IA tomam decisões. Essa postura poderia ser usada para identificar e eliminar partes específicas de um sistema de IA que dão origem a comportamentos prejudiciais.

Podemos avaliar o desempenho dos sistemas de IA utilizando técnicas interativas e orientadas por humanos que vão além do benchmarking estático para destacar os recursos atrativos. A natureza viciante da Inteligência Artificial é o resultado de interações complexas entre a tecnologia e seus usuários. Testar modelos em condições do mundo real com a contribuição do usuário pode revelar padrões de comportamento que, de outra forma, passariam despercebidos. Cientistas e legisladores devem colaborar para determinar práticas padronizadas a fim de testar modelos de IA com grupos diversos, inclusive populações vulneráveis, para garantir que não explorem as pré-condições psicológicas das pessoas.

Diferentemente dos seres humanos, esses sistemas tecnológicos podem se ajustar facilmente às mudanças de políticas e regras. O princípio do “dinamismo jurídico”, que apresenta as leis como sistemas dinâmicos que se adaptam a fatores externos, pode nos ajudar a identificar a melhor intervenção possível, como as “restrições de negociação”, que pausam a negociação de ações para ajudar a evitar quedas após um grande despencar no mercado. No caso da Inteligência Artificial, os fatores de transformação incluem temas como o estado mental do usuário. A título de exemplo, uma política dinâmica pode permitir que um assistente de IA se torne cada vez mais envolvente, charmoso ou paquerador com o passar do tempo, se esse for o desejo do público, desde que a pessoa não apresente sinais de isolamento social ou vício. Essa perspectiva pode auxiliar a maximizar a escolha pessoal e, ao mesmo tempo, minimizar o vício. Em contrapartida, ela depende da capacidade de entender precisamente o comportamento e o estado mental do usuário e de medir esses atributos sensíveis de uma maneira que preserve a privacidade.

Banner Assine a MIT Technology Review Brasil - Escolha seu plano

A solução mais eficaz para esses problemas atingiria provavelmente o que leva as pessoas a buscarem a companhia da IA – a solidão e o tédio. Contudo, as intervenções regulatórias também podem punir inadvertidamente quem precisa de companhia, ou podem fazer com que os provedores de IA se mudem para uma jurisdição mais favorável no mercado internacional descentralizado. Ainda que devamos nos esforçar para tornar a Inteligência Artificial o mais segura possível, esse trabalho não pode substituir os esforços para abordar questões maiores, como a solidão, que tornam as pessoas vulneráveis ao vício em IA em primeiro lugar.

O panorama

Os tecnólogos são movidos pelo desejo de enxergar além dos horizontes que os outros não conseguem imaginar. Eles querem estar na vanguarda da mudança revolucionária. Por outro lado, as questões que discutimos aqui deixam nítido que a dificuldade de criar sistemas técnicos não se compara ao desafio de promover interações humanas saudáveis. A questão oportuna dos assistentes de IA é um sintoma de um problema maior: manter a dignidade humana em face dos avanços tecnológicos impulsionados por incentivos econômicos estreitos. Com frequência cada vez maior, testemunhamos situações em que a tecnologia criada para “tornar o mundo um lugar melhor” causa estragos na sociedade. São necessárias ações ponderadas, ainda que decisivas, antes que a Inteligência Artificial se torne um conjunto onipresente de óculos generativos cor de rosa para a realidade – antes que percamos nossa capacidade de ver o mundo como ele realmente é e de reconhecer quando nos desviamos de nosso caminho.

A tecnologia passou a ser sinônimo de progresso, mas aquela que nos rouba o tempo, a sabedoria e o foco necessários para uma reflexão profunda é um retrocesso para a humanidade. Como criadores e pesquisadores de sistemas de IA, convidamos pesquisadores, legisladores, especialistas em ética e líderes de pensamento de várias disciplinas a se juntar a nós para aprender mais sobre como a Inteligência Artificial nos afeta individual e coletivamente. Somente renovando sistematicamente nossa compreensão da humanidade nesta era tecnológica é que poderemos encontrar maneiras de garantir que as tecnologias que desenvolvemos promovam o florescimento humano.


Por:Robert Mahari
Robert Mahari é candidato a JD-PhD no MIT Media Lab e na Harvard Law School. Seu trabalho se concentra no direito computacional – usando técnicas computacionais avançadas para analisar, melhorar e ampliar o estudo e a prática do Direito.
Por:Pat Pataranutaporn
Pat Pataranutaporn é pesquisador do MIT Media Lab. Seu trabalho se concentra na psicologia ciborgue e na Arte e na Ciência da interação entre humanos e Inteligência Artificial.

Último vídeo

Nossos tópicos