Quando o boom da IA generativa começou com o ChatGPT no final de 2022, venderam-nos uma visão de ferramentas superinteligentes de Inteligência Artificial que sabem tudo, podem substituir as partes chatas do trabalho e aumentar drasticamente a produtividade e os ganhos econômicos.
Dois anos depois, a maioria desses ganhos de produtividade não se concretizou, e vimos algo peculiar e um pouco inesperado acontecer: as pessoas começaram a se relacionar com os modelos de IA. Conversamos com eles, dizemos “por favor” e “obrigado”, e começamos a convidá-los para nossas vidas como amigos, amantes, mentores, terapeutas e professores.
Estamos vendo um experimento gigantesco no mundo real se desenrolar, e ainda é incerto o impacto que esses assistentes de IA terão sobre nós individualmente ou sobre a sociedade como um todo, argumentam Robert Mahari, candidato a JD-PhD no MIT Media Lab e na Harvard Law School, e Pat Pataranutaporn, pesquisador do MIT Media Lab. Eles dizem que precisamos nos preparar para o “vício em Inteligência Artificial”, ou assistentes de Inteligência Artificial com padrões obscuros incorporados para nos deixar viciados. Você pode ler o artigo deles aqui. Eles analisam como a regulamentação pode nos ajudar a evitar alguns dos riscos associados aos chatbots de IA que entram profundamente em nossas cabeças.riscos associados aos chatbots de IA que entram profundamente em nossas cabeças.
A ideia de que formaremos vínculos com assistentes de Inteligência Artificial não é mais apenas hipotética. É provável que chatbots com vozes bem mais emotivas, como o GPT-4o da OpenAI, envolvam-nos ainda mais. Durante os testes de segurança, a OpenAI observou que os usuários usavam uma linguagem que indicava já terem formado conexões com os modelos de IA, como “Este é o nosso último dia juntos”. A própria empresa admite que a dependência emocional é um perigo escalável por seu novo chatbot habilitado para voz.
Já existem evidências de que estamos nos conectando em um nível mais profundo com a Inteligência Artificial, mesmo quando ela se limita apenas a trocas de texto. Mahari fez parte de um grupo de estudiosos que analisou um milhão de registros de interação do ChatGPT e descobriu que o segundo uso mais popular da IA era para que ela interpretasse papéis sexuais. Além disso, o caso de uso mais popular para o chatbot foi a composição criativa. As pessoas também gostavam de usá-lo para brainstorming e planejamento, pedindo explicações e informações gerais sobre coisas.
Esses tipos de tarefas criativas e divertidas são excelentes formas de usar chatbots com Inteligência Artificial. Os modelos de linguagem de IA funcionam prevendo a próxima palavra provável em uma frase. Eles são mentirosos confiantes e, frequentemente, apresentam falsidades como fatos, inventam coisas ou têm alucinações. Isso não é tão importante quando inventar coisas é praticamente o objetivo principal. Em junho, minha colega Rhiannon Williams escreveu sobre como os comediantes consideram os modelos de linguagem de IA úteis para gerar um primeiro “rascunho vomitado” de seu material; em seguida, eles acrescentam sua própria engenhosidade humana para torná-lo engraçado.
Mas esses casos de uso não são necessariamente produtivos no sentido financeiro. Tenho certeza de que os smutbots não eram o que os investidores tinham em mente quando despejaram bilhões de dólares em empresas de IA e, combinado com o fato de que ainda não temos um aplicativo fatal para a Inteligência Artificial, não é de se admirar que Wall Street esteja se sentindo muito menos otimista em relação a ela recentemente.
Os casos de uso que seriam “produtivos” e que, portanto, foram os mais badalados, tiveram menos sucesso na adoção da IA. A alucinação começa a se tornar um problema em alguns desses casos de uso, como geração de códigos, notícias e pesquisas online, em que é muito importante fazer as coisas direito. Alguns dos fracassos mais embaraçosos dos chatbots aconteceram quando as pessoas começaram a confiar demais neles ou a considerá-los fontes de informações factuais. No início deste ano, por exemplo, o recurso de visão geral de Inteligência Artificial do Google, que resume os resultados de pesquisa online, sugeriu que as pessoas comem pedras e colocam cola na pizza.
E esse é o problema com o hype da IA. Ela coloca nossas expectativas muito altas e nos deixa desapontados e desiludidos quando as promessas literalmente incríveis não acontecem. Ela também nos leva a pensar que a Inteligência Artificial é uma tecnologia madura o suficiente para provocar mudanças instantâneas. Na realidade, pode levar anos até que vejamos seus benefícios verdadeiros.
Aprofundando
O “padrinho” da IA, Yoshua Bengio, juntou-se a um projeto do Reino Unido para evitar catástrofes de Inteligência Artificial.
Yoshua Bengio, vencedor do Prêmio Turing e considerado um dos padrinhos da IA moderna, está apoiando um projeto financiado pelo governo do Reino Unido para incorporar mecanismos de segurança aos sistemas de Inteligência Artificial. O projeto, chamado de Safeguarded AI, tem o objetivo de criar um sistema de IA que verifique se modelos similares e implantados em áreas críticas são seguros. Bengio está se juntando ao programa como diretor-científico e fornecerá informações e conselhos importantes.
O que eles estão tentando fazer
O objetivo da Safeguarded AI é criar sistemas de Inteligência Artificial que possam oferecer garantias quantitativas, como pontuações de risco, sobre seu efeito no mundo real. O projeto visa a criar mecanismos de segurança para IAs, combinando modelos científicos mundiais, que são essencialmente simulações do mundo, com provas matemáticas, que incluiriam explicações sobre o trabalho da Inteligência Artificial, Os seres humanos teriam a tarefa de checar se as verificações de segurança do modelo de IA estão corretas. Leia mais sobre mim aqui.
Por:Melissa Heikkilä Melissa é repórter sênior da MIT Technology Review, cobrindo assuntos ligados à Inteligência Artificial e como ela está mudando nossa sociedade.