Nos últimos meses, muito se falou sobre se jornalistas ou redatores poderiam ou deveriam ser substituídos pela Inteligência Artificial. Pessoalmente, não estou preocupada e eu vou explicar o porquê.
Até agora, as redações buscaram dois meios muito diferentes para integrar em suas rotinas a nova ferramenta de IA, o ChatGPT. O site de notícias de tecnologia CNET secretamente começou a usar o ChatGPT para escrever artigos inteiros, mas o experimento acabou dando terrivelmente errado. No final das contas, a CNET teve que publicar correções em meio a acusações de plágio de seus conteúdos. O Buzzfeed, por outro lado, adotou uma abordagem mais cuidadosa e comedida. A empresa de notícias quer usar o ChatGPT para gerar as respostas de questionários, guiados por jornalistas que criam os tópicos e perguntas.
Você pode resumir essas histórias a uma questão fundamental que muitos setores enfrentam agora: quanto controle devemos dar a um sistema de IA? A CNET deu muito e acabou metida em uma confusão embaraçosa, enquanto a abordagem mais cautelosa (e transparente) do Buzzfeed de usar o ChatGPT como uma ferramenta de produtividade foi até agora bem recebida e disparou o preço de suas ações.
Mas aqui está um segredinho sujo do jornalismo: uma quantidade surpreendentemente grande dele poderia ser automatizada, diz Charlie Beckett, professor da London School of Economics (Reino Unido) que mantém um programa chamado JournalismAI. Os jornalistas rotineiramente reutilizam textos de agências de notícias e roubam fontes de concorrentes e ideias para criar histórias. Por isso, faz todo o sentido que as redações explorem como as novas tecnologias podem ajudar a tornar esses processos mais eficientes.
“A ideia de que o jornalismo é esse canteiro fértil de flores de originalidade e criatividade desabrochando é uma grande bobagem”, diz Beckett. (ai!)
Não é necessariamente uma coisa ruim se pudermos deixar algumas das partes chatas e repetitivas do jornalismo para a IA. Na verdade, poderia permitir que os jornalistas focassem na realização de um trabalho mais criativo e importante.
Um bom exemplo que vi disso é o uso do ChatGPT para compactar textos em um formato resumido e conciso muito usado pelo Axios conhecido como smart brevity (brevidade inteligente). Basicamente, a Axios resume as informações mais importantes para os leitores, priorizando apenas o essencial em uma notícia. O chatbot parece fazer um bom trabalho, e posso imaginar que qualquer jornalista encarregado de usar esse formato ficará feliz em ter tempo para fazer algo mais divertido.
Esse é apenas um exemplo de como as redações podem usar a IA com sucesso. Ela também pode ajudar os jornalistas a resumir longos trechos de texto, vasculhar conjuntos de dados ou pensar em ideias para manchetes. Durante a escrita desta newsletter, eu mesma usei várias ferramentas de IA, como preenchimento automático em processamento de texto e transcrição de áudios de entrevistas.
Mas existem algumas preocupações importantes com o uso de IA nas redações. Um dos principais é a privacidade, especialmente em torno de histórias sensíveis onde é vital proteger a identidade da fonte. Este é um problema que os jornalistas da MIT Technology Review americana encontraram quando usaram serviços de transcrição de áudio e, infelizmente, a única maneira de contornar isso é transcrever entrevistas confidenciais manualmente.
Os jornalistas também devem ter cuidado ao inserir material sensível no ChatGPT. Não temos ideia do que sua criadora, OpenAI, faz posteriormente com os dados alimentados ao bot, e é provável que nossos insumos estejam sendo usados de volta no treinamento do modelo, o que significa que elas podem ser potencialmente regurgitadas para pessoas que poderão usá-los no futuro. As empresas já estão percebendo isso: um advogado da Amazon teria avisado os funcionários contra o uso do ChatGPT em documentos internos da empresa.
O ChatGPT também é um notório mentiroso, como a CNET descobriu da maneira mais embaraçosa. Os modelos de linguagem de IA funcionam prevendo a próxima palavra, mas não têm conhecimento real de significado ou contexto. Eles cospem falsidades o tempo todo. Isso significa que tudo o que eles geram deve ser cuidadosamente verificado. Se parar para pensar a longo prazo, escrever esse artigo sozinha parece menos trabalhoso e demorado.
Novo relatório: “IA generativa: design e engenharia industrial”
A IA generativa, a tecnologia mais comentada deste ano, está transformando setores inteiros, desde jornalismo e concepção de medicamentos até design e engenharia industrial. Será mais importante do que nunca para os líderes desses setores ficarem à frente dessa novidade. E nós podemos ajudá-los. Um novo relatório de pesquisa da MIT Technology Review destaca as oportunidades, e possíveis armadilhas, dessa nova tecnologia para as áreas de design e engenharia industrial.
O relatório inclui dois cases de empresas líderes do setor industrial e de engenharia que já estão usando IA generativa em seus processos. Você também encontrará uma grande quantidade de sugestões e práticas recomendadas de companhias da área. Disponível por US$ 195.
Um aprendizado ainda mais profundo
As pessoas já estão usando o ChatGPT para criar planejamentos de treinos de exercício físico
Alguns loucos por exercícios físicos começaram a usar o ChatGPT como um personal trainer substituto. Minha colega Rhiannon Williams pediu ao chatbot que criasse um plano de treinamento específico para maratona para ela como parte de um artigo que investigava se a IA poderia mudar a maneira como malhamos. Você pode ler mais sobre isso aqui.
Hora de suar: este artigo não é apenas uma leitura divertida, mas um lembrete de que confiamos em modelos de IA por nossa conta e risco. Como Rhiannon aponta, a IA não tem ideia de como é realmente se exercitar e geralmente oferece planos de treinamento que são eficientes, mas chatos. Ela concluiu que o ChatGPT pode ser melhor tratado como uma maneira divertida de apimentar uma rotina de exercícios que começou a parecer um pouco estagnada ou como uma maneira de encontrar exercícios que você pode não ter pensado sozinho.
Bits e bytes
Uma marca d’água nos chatbots pode denunciar textos escritos por Inteligência Artificial
Padrões ocultos intencionalmente enterrados em textos gerados por IA podem nos ajudar a saber se as palavras que estamos lendo foram escritas por um humano ou não. Entre outras coisas, isso pode ajudar os professores que tentam identificar alunos que possam estar terceirizando a produção de seus trabalhos para a IA. (MIT Technology Review)
A OpenAI depende da Microsoft para manter o ChatGPT em operação
A criadora do ChatGPT precisa de bilhões de dólares por dia para executá-lo. Esse é o problema com esses modelos enormes: esse tipo de poder de computação só é acessível para empresas com os bolsos mais gordos. (Bloomberg)
A Meta está adotando a IA para impulsionar o engajamento publicitário
A Meta está apostando em uma integração mais aprofundada da tecnologia de IA em seus produtos para gerar receita e engajamento de publicidade. Ela tem um dos maiores laboratórios da indústria de IA, e notícias como essa me fazem pensar o que essa mudança para o uso de uma IA lucrativa fará com o desenvolvimento da tecnologia. A pesquisa de IA está realmente destinada a ser apenas uma ferramenta para gerar dinheiro para publicidade? (The Wall Street Journal)
Como o Google resolverá seu enigma de IA?
O Google tem modelos de linguagem de IA de última geração, mas reluta em usá-los pelo enorme risco de reputação que vem associado a integração da tecnologia à pesquisa online. Em meio à crescente pressão da OpenAI e da Microsoft, a empresa enfrenta um dilema: lançar um produto concorrente e correr o risco de sofrer uma reação negativa devido a resultados de pesquisa prejudiciais ou arriscar ficar de fora da última onda de desenvolvimento? (The Financial Times)