Por que detectar texto gerado por Inteligência Artificial é algo tão difícil (e o que fazer a respeito)
Inteligência artificial

Por que detectar texto gerado por Inteligência Artificial é algo tão difícil (e o que fazer a respeito)

E mais: os modelos de Inteligência Artificial podem reproduzir imagens e fotos de pessoas reais protegidas por direitos autorais

No final de janeiro, a OpenAI revelou uma ferramenta que consegue detectar que um texto foi produzido por seu sistema de Inteligência Artificial (IA), o ChatGPT. Mas se você é um professor que teme a enxurrada de redações geradas pelo modelo de linguagem, não festeje antes da hora. 

Essa ferramenta é uma resposta da OpenAI às críticas feitas após o lançamento do ChatGPT por não existir nenhuma maneira de detectar um texto gerado por uma IA, ponto levantado por educadores, jornalistas e outros profissionais. No entanto, o desenvolvimento dessa ferramenta ainda está em andamento e, infelizmente, ela não é nada confiável. A OpenAI diz que seu detector de texto gerado por IA classifica corretamente apenas cerca de 26% do texto escrito com o uso de alguma inteligência como “provavelmente escrito por IA”. 

Embora a OpenAI claramente tenha muito trabalho pela frente quanto ao refinamento desse recurso, há um limite para essa melhoria. É muito improvável que consigamos desenvolver uma ferramenta que consiga verificar com 100% de certeza se um texto foi gerado por uma IA. Detectar um texto gerado por IA é uma façanha realmente difícil, pois o objetivo dos modelos de linguagem é gerar um texto fluente e que se assemelhe à escrita humana, diz Muhammad Abdul-Mageed, professor que supervisiona pesquisas em processamento de linguagem natural e machine learning na University of British Columbia (Canadá). 

Abdul-Mageed acrescenta que estamos correndo para desenvolver métodos de detecção que possam competir com os modelos mais recentes e poderosos. Os novos modelos de linguagem de IA são mais avançados e tem uma capacidade melhor de gerar um produto final ainda mais fluente, o que rapidamente faz com que nossas ferramentas já existentes de detecção fiquem ultrapassadas 

A OpenAI desenvolveu seu detector criando um modelo de linguagem de IA totalmente novo, semelhante ao ChatGPT, mas treinado especificamente para detectar produções de modelos como ele próprio. Embora os detalhes sejam escassos, a empresa aparentemente treinou o modelo com exemplos de texto gerado por IA e outros por humanos e, em seguida, pediu que o ChatGPT identificasse o texto gerado por modelos de linguagem. Pedimos mais informações sobre o processo, mas a OpenAI não respondeu. 

Em janeiro, escrevi sobre outro método para detectar texto gerado por uma IA: marcas d’água. Elas agem como uma espécie de código secreto em um texto produzido por IA que permite que os softwares o detectem como tal. 

Pesquisadores da Universidade de Maryland (EUA) desenvolveram uma maneira simples e discreta de aplicar marcas d’água aos textos gerados por modelos de linguagem de IA, e as disponibilizaram gratuitamente. Essas marcas d’água nos permitiriam dizer com quase total certeza quando uma IA foi usada para escrever um texto. 

O problema é que esse método exige que as empresas desenvolvedoras de sistemas de IA incorporem marcas d’água em seus chatbots desde o princípio. A OpenAI está desenvolvendo sistemas com essa função, mas ainda não os implementou em nenhum de seus produtos. Mas por que tanta demora para lançar essas ferramentas? Um motivo pode ser porque ter uma marca d’água em um texto gerado por IA nem sempre é algo conveniente ou desejável. 

Uma das maneiras mais promissoras de integrar o ChatGPT aos produtos é como uma ferramenta para ajudar as pessoas a escrever e-mails ou como um corretor ortográfico aprimorado em processadores de texto. Isso não seria exatamente uma trapaça por parte das empresas para escapar da detecção. Mas colocar marca d’água em todos os textos gerados por IA significaria que esses tipos de criação ou correção de texto poderiam ser marcados automaticamente como produtos de uma IA e levar a acusações equivocadas. 

O detector de textos criados por IA que a OpenAI lançou é apenas uma de muitas ferramentas e, no futuro, provavelmente teremos que usar uma combinação delas para identificar um produto textual gerado por IA. Outro novo recurso, chamado GPTZero, mede o nível de aleatoriedade nos trechos de texto. A escrita gerada por IA usa palavras repetidas, enquanto as pessoas escrevem com mais variabilidade. Abdul-Mageed diz que, assim como fazemos com os diagnósticos de médicos, seria uma boa ideia obtermos uma segunda ou até uma terceira opinião ao usarmos ferramentas de detecção de IA. 

Uma das maiores mudanças introduzidas pelo ChatGPT pode ser o novo olhar que teremos quanto ao texto escrito. No futuro, talvez os alunos não escrevam mais tudo do zero, e o foco seja voltado em ter pensamentos originais, diz Sebastian Raschka, um pesquisador de IA que trabalha na startup do ramo de IA, a Lightning.AI. Dissertações e textos gerados pelo ChatGPT eventualmente começarão a ficar parecidos entre si à medida que o sistema ficar sem fontes de materiais, já que ele é limitado por sua programação e pelos dados em seu conjunto de treinamento. 

“Será mais fácil escrever de forma correta, mas não será tão simples escrever de maneira original e criativa”, diz Raschka. 

Novo relatório: “IA generativa: Design e engenharia industrial” 

A IA generativa, a tecnologia mais comentada deste ano, está transformando setores inteiros, desde jornalismo e concepção de medicamentos até design e engenharia industrial. Será mais importante do que nunca para os líderes desses setores ficarem à frente dessa novidade. E nós podemos ajudá-los. Um novo relatório de pesquisa da MIT Technology Review destaca as oportunidades, e possíveis armadilhas, dessa nova tecnologia para as áreas de design e engenharia industrial. 

O relatório inclui dois cases de empresas líderes do setor industrial e de engenharia que já estão usando IA generativa em seus processos. Você também encontrará uma grande quantidade de sugestões e práticas recomendadas de companhias da área. Disponível por US$ 195. 

Um aprendizado ainda mais profundo 

Modelos de IA podem gerar imagens e fotos de pessoas reais protegidas por direitos autorais. 

De acordo com uma nova pesquisa, alguns modelos mais populares de geração de imagens, como o Stable Diffusion, podem receber instruções para produzir fotos contendo pessoas reais facilmente reconhecíveis, colocando a privacidade dos indivíduos em risco. O trabalho também mostra que esses sistemas de IA podem reproduzir cópias exatas de imagens médicas, assim como obras artísticas protegidas por direitos autorais. 

Por que isso é importante: o argumento principal de muitos processos judiciais entre empresas de IA e artistas tem sido sobre até que ponto esses modelos de IA memorizam e reproduzem imagens provenientes de seus bancos de dados. Essa descoberta pode fortalecer as críticas dos artistas. Leia mais do que escrevi sobre isso aqui. 

Vazamento de dados dos modelos de IA: infelizmente, ao tentar lançar novos modelos de forma mais rápida, os desenvolvedores muitas vezes ignoram questões de privacidade. E isso acontece somente com sistemas de geração de imagens. Grandes vazamentos de dados pessoais também acontecem com os grandes modelos de linguagem. Descobri esse fenômeno quando perguntei ao GPT-3, predecessor do ChatGPT, o que ele sabia sobre mim e sobre o editor-chefe da MIT Technology Review americana. Os resultados foram tanto hilários quanto assustadores. 

Bits e Bytes 

Quando meu pai ficou doente, comecei a pesquisar sobre luto no Google. Depois disso, não consegui mais escapar do algoritmo 

Minha colega Tate Ryan-Mosley escreveu um artigo excelente sobre luto e morte, e como os algoritmos nocivos de recomendação de conteúdo agora a perseguem pela internet, oferecendo mais conteúdo sobre esses temas. Tate passou meses perguntando aos especialistas como podemos controlar melhor esses algoritmos rebeldes. As respostas deles não foram lá muito animadoras. (MIT Technology Review americana) 

Google investiu US$ 300 milhões em uma startup do setor de IA 

A gigante da tecnologia é a mais recente a entrar na onda da IA generativa. Ela decidiu investir em uma startup do ramo de IA, a Anthropic, que está desenvolvendo modelos de linguagem semelhantes ao ChatGPT. O acordo garante ao Google uma participação de 10% na empresa em troca do poder de computação que a startup precisa para executar grandes modelos de IA. (The Financial Times) 

Como o ChatGPT iniciou uma competição acirrada na área de IA 

Este artigo faz revelações interessantes sobre os bastidores da OpenAI e como eles decidiram lançar o ChatGPT como uma forma de obter feedback para sua próxima geração de modelo de linguagem de IA, o GPT-4. O sucesso do chatbot foi uma “surpresa com muitos impactos importantes” dentro da OpenAI. (The New York Times 

Se o ChatGPT fosse um gato. 

Conheça o CatGPT. Sinceramente, ele é o único chatbot de IA que me interessa. 

Último vídeo

Nossos tópicos