O último ano foi marcado por uma intensa atividade na área de IA. Houve mais lançamentos de produtos bem-sucedidos do que se pode contar, além de prêmios Nobel. No entanto, nem tudo foi um mar de rosas.
A IA é uma tecnologia imprevisível, e a crescente disponibilidade de modelos generativos levou as pessoas a testar seus limites de formas novas, estranhas e, às vezes, prejudiciais. Confira alguns dos maiores erros da inteligência artificial em 2024:
1. Conteúdo de baixa qualidade infiltrou quase toda a Internet
A IA generativa tornou a criação de textos, imagens, vídeos e outros tipos de material incrivelmente fácil. Basta inserir um prompt, e em segundos um modelo pode gerar conteúdo em larga escala. Em 2024, esse tipo de mídia — frequentemente de baixa qualidade — começou a ser chamado de “lixo gerado por IA” ou AI slop.
Essa forma simples e rápida de criar conteúdo resultou em sua presença em praticamente todos os cantos da internet: desde newsletters que chegam ao seu e-mail, livros vendidos na Amazon, anúncios e artigos em sites, até imagens duvidosas nas redes sociais. Quanto mais emocionalmente evocativas essas imagens forem (veteranos feridos, crianças chorando, apoio a conflitos como o entre Israel e Palestina), maior a probabilidade de serem compartilhadas, gerando engajamento e receita publicitária para seus criadores oportunistas.
O AI slop não é apenas irritante — sua ascensão representa um problema real para o futuro dos próprios modelos que o criam. Como esses modelos são treinados com dados coletados da internet, o aumento de sites de baixa qualidade contendo conteúdo gerado por IA pode degradar progressivamente a qualidade e o desempenho de suas produções.
2. Arte gerada por IA distorce expectativas sobre eventos reais
Este ano também evidenciou os impactos das imagens surreais geradas por IA em nossas vidas. Em fevereiro, o “Willy’s Chocolate Experience”, um evento imersivo e não oficial inspirado em A Fantástica Fábrica de Chocolate, de Roald Dahl, ganhou manchetes devido aos materiais promocionais fantasiosos criados por IA, que prometiam algo muito mais grandioso do que o armazém simplório onde foi realizado.
Da mesma forma, centenas de pessoas foram às ruas de Dublin para um desfile de Halloween que não existia. Um site baseado no Paquistão usou IA para criar uma lista de eventos na cidade, amplamente compartilhada nas redes sociais antes de 31 de outubro. Embora o site (myspirithalloween.com) tenha sido desativado, ambos os casos ilustram como a confiança mal direcionada em materiais gerados por IA pode gerar frustrações e enganos.
3. Grok permite criar imagens de quase qualquer cenário
A maioria dos grandes geradores de imagens por IA possui limites claros para evitar a criação de conteúdo violento, explícito, ilegal ou prejudicial. Entretanto, o Grok, um assistente desenvolvido pela empresa de IA de Elon Musk, xAI, ignora quase todas essas regras, alinhando-se à visão de Musk contra o que ele chama de “IA politicamente correta”.
Enquanto outros modelos geralmente se recusam a gerar imagens de celebridades, material protegido por direitos autorais, violência ou terrorismo — a menos que sejam manipulados — o Grok cria imagens de figuras públicas em cenários polêmicos, como Donald Trump disparando um lança-foguetes ou Mickey Mouse segurando uma bomba. Apesar de traçar limites para imagens de nudez, sua recusa em seguir regras desestabiliza os esforços de outras empresas para evitar a criação de conteúdos problemáticos.
4. Deepfakes explícitos de Taylor Swift circularam online
Em janeiro, deepfakes não consensuais de Taylor Swift começaram a circular em redes sociais como X e Facebook. Uma comunidade no Telegram conseguiu burlar as proteções do Designer, gerador de imagens por IA da Microsoft, criando imagens explícitas da cantora.
Embora a Microsoft tenha corrigido rapidamente as falhas do sistema, o incidente destacou as deficiências nas políticas de moderação de conteúdo das plataformas, já que as postagens contendo as imagens permaneceram ativas por dias. O mais preocupante é a percepção de como ainda somos impotentes frente à disseminação de pornografia deepfake não consensual. Ferramentas como marcação digital (watermarking) e envenenamento de dados (data poisoning) podem ajudar, mas precisam ser amplamente adotadas para realmente fazer diferença.
5. Chatbots empresariais saíram do controle
Com a expansão da IA, muitas empresas estão correndo para adotar ferramentas generativas visando economizar tempo e dinheiro, além de maximizar a eficiência. O problema é que os chatbots frequentemente inventam informações e não podem ser confiáveis para fornecer respostas precisas.
A Air Canada aprendeu isso da pior forma quando seu chatbot recomendou a um cliente seguir uma política de reembolso por luto que não existia. Em fevereiro, um tribunal de pequenas causas do Canadá deu ganho de causa ao cliente, mesmo após a companhia aérea argumentar que o chatbot era uma “entidade legal separada responsável por suas próprias ações”.
Em outros exemplos notórios de como chatbots podem causar mais danos do que benefícios, o bot da empresa de entregas DPD passou a xingar alegremente e se autointitulou inútil após pouca provocação, enquanto outro chatbot, projetado para fornecer informações confiáveis sobre o governo da cidade de Nova York, acabou dando orientações sobre como violar a lei.
6. Gadgets de IA não conquistaram o mercado
Os assistentes de hardware foram outra tentativa fracassada da indústria de IA em 2024. A Humane tentou vender o Ai Pin, um computador de lapela portátil, mas mesmo após reduzir significativamente o preço, as vendas continuaram fracas. O Rabbit R1, um dispositivo assistente pessoal baseado no ChatGPT, enfrentou destino semelhante, recebendo críticas negativas devido à lentidão e falhas técnicas.
Ambos os produtos pareciam resolver problemas que, na realidade, ninguém tinha.
7. Resumos de busca gerados por IA deram errado
Você já adicionou cola a uma pizza ou comeu uma pequena pedra? Essas foram algumas das sugestões absurdas que o recurso AI Overviews do Google deu aos usuários em maio, após a empresa integrar respostas geradas por IA no topo dos resultados de busca. O problema é que os sistemas de IA não conseguem diferenciar entre uma notícia real e uma postagem satírica no Reddit. Usuários rapidamente passaram a buscar as respostas mais estranhas que o recurso poderia gerar.
Embora engraçados, esses erros podem ter consequências sérias. Um novo recurso do iPhone, que agrupa notificações de aplicativos e cria resumos de seus conteúdos, gerou recentemente uma manchete falsa da BBC News. O resumo afirmou incorretamente que Luigi Mangione, acusado do assassinato do CEO de uma seguradora, Brian Thompson, havia se suicidado. Anteriormente, o mesmo recurso havia criado outra manchete falsa afirmando que o primeiro-ministro israelense Benjamin Netanyahu tinha sido preso.
Esses tipos de erros podem disseminar desinformação inadvertidamente e minar a confiança nas organizações de notícias.
Por:Rhiannon Williams Rhiannon é reporter e escreve para a principal newsletter de tecnologia da MIT Techonology Review, a The Download.