Cinco maneiras pelas quais os criminosos estão usando a IA
Podcast

Cinco maneiras pelas quais os criminosos estão usando a IA

A IA generativa tem aberto caminhos para crimes digitais

Phishing, deepfake e doxxing. Provavelmente você já sofreu ou conhece alguém que tenha sofrido um desses golpes. O Brasil é um dos países mais vulneráveis a ciberataques e o crescente uso de ferramentas de Inteligência Artificial tem o potencial de aumentar a produtividade desses crimes.

Os resultados? Prejuízos altos tanto para o usuário comum, quanto para as empresas. A projeção é que até 2025 os ataques digitais causem uma perda de 10,5 trilhões de dólares por ano.

No episódio do podcast da MIT Technology Review Brasil desta semana, André Miceli, Carlos Aros e Rafael Coimbra falam sobre a evolução e eficiência dos ataques e refletem acerca da exposição dos dados nas redes sociais.

Este podcast é oferecido pelo SAS.


TRANSCRIÇÃO

[TRILHA SONORA – ABERTURA]

[ANDRÉ MICELI]

Olá, eu sou o André Miceli e esse é mais um podcast da MIT Techonology Review Brasil. Hoje, eu,  Rafael Coimbra e Carlos Aros vamos falar sobre a inteligência artificial e os crimes. Nos últimos anos, a inteligência artificial vem se tornando uma ferramenta poderosa em diversas indústrias, trazendo produtividade, facilidade e recursos que expandem a nossa criatividade. Mas essa criatividade pode ser usada para o bem e para o mal e, neste caso, a tecnologia está sendo explorada por criminosos para atividades ilícitas. Antes de começar, eu quero dizer que esse podcast é um oferecimento do SAS, líder em analitics, e também fazer aquele convite para você entrar para nossa comunidade lá em www.mittechreview.com.br/assine.
Rafa Coimbra, essa história toda da Inteligência Artificial expandir a nossa criatividade funciona também para o mal, meu amigo. Eu quero entender como a gente vai equilibrar esse desenvolvimento para fins benéficos, mitigando os riscos do que está acontecendo. Me dá um contexto geral sobre os crimes que estão sendo potencializados pela Inteligência Artificial.

[RAFAEL COIMBRA]

André, os bandidos digitais, os criminosos, eles são profissionais. Eles não são pessoas que tenham pouco conhecimento sobre o assunto. Eles como profissionais “honestos”, usam essas ferramentas todas, como você falou, para o mal, e estão sempre em busca de produtividade. De um lado, querem fazer com que esses golpes aconteçam de maneira volumosa porque eles têm mais chances, obviamente, de conseguir pessoas que caiam nesses golpes, e querem [também] fazer isso de uma maneira mais rápida para que eles consigam escapar da justiça.

Então é aquele eterno jogo de gato e rato. As tecnologias surgem, eles se apropriam dessas tecnologias, aplicam golpes, alguém do outro lado – as empresas, geralmente, que são vítimas desses esquemas – correm atrás, desenvolvem alguma mecanismo de segurança e a gente passa para outra. Então, o que está acontecendo agora é que a inteligência artificial generativa, essa que produz imagens, textos, tipo chat GPT e Gemini, elas obviamente estão dando mais munição para que esses bandidos apliquem golpes.

Vou dar alguns exemplos de golpes que não são nem tão novos, mas ficaram de certa forma aprimoradas para o mal, por conta dessas tecnologias. O tal phising. Todo mundo aqui, volta e meia, recebe um SMS ou, geralmente, um e-mail com algum conteúdo que chama atenção e tem ali um link: “Clique aqui para….”, seja lá o que for, e esse link é malicioso, você vai acabar caindo no conto do vigário. Quem nunca aqui recebeu aquele e-mail de um príncipe nigeriano que tinha uma dívida e queria sua ajuda – para resgatar uma herança, perdão- milionária e queria sua ajuda para resgatar essa herança? Muita gente lá no início caiu. Depois ficou um golpe batido, mas o que acontece, é que esse texto, que era um texto geral, para todo mundo, na mão de um bandido com IA generativa, é capaz de ser personalizado. Ele é capaz de se fazer passar por alguém escrevendo com trejeitos, com uma linguagem muito natural, muito próxima da de uma pessoa. Coloca uma foto ali, gera uma imagem sintética, uma foto que não é verdadeira mas que você olha e fala: “Cara, isso aqui é uma pessoa de verdade.” Esses mecanismos todos vão aumentar o poder de convencimento por parte dos bandidos.

Um outro que está começando agora, não é tão comum, que é o Deep Fake. A gente tem para o vídeo, que é mais complexo mas em algum momento isso também começa a chegar, mas vou pegar (falar sobre) áudio. Clonar voz sintética hoje está extremamente bobo. Eu tava usando, outro dia, uma ferramenta que gerava, você paga lá e ela gera – estou falando de empresa do bem. Por isso que eu tô falando, dá para você usar parar o bem e criar um avatar ou um chatbot com uma voz sintética. Mas você pode usar para o mal. – Então eu tava impressionado com a qualidade que você consegue determinar o tom, a velocidade com que a pessoa fala. O tom, se é mais bem humorado, se está mais tenso, tudo isso, você aperta um botão ou outro ali e os algoritmos criam uma voz sintética. Inclusive a sua, em pouquíssimos segundos que você manda a sua voz de gravação, é possível criar sua própria voz sintética. Então, você imagina essas ferramentas todas nas mãos desses bandidos. Porque eles, obviamente, estão usando.

E aí, fica do lado de cá, de quem é honesto, essa preocupação de como criar ferramentas que primeiro bloqueie, não deem acesso às pessoas maliciosas, mas, uma vez que isso caia nas mãos desses bandidos, a gente tenha um outro tipo de antídoto para fazer com que esses efeitos não sejam tão maliciosos quanto eles desejam.

[ANDRÉ MICELI]

E aí no contexto financeiro, Carlos Aros, essas fraudes vem evoluindo também e aumentando em quantidade. O Brasil, segundo o Cyber Defense Index, da própria MIT Technology Review lá nos Estados Unidos, ele é a capital mundial do phishing. Nenhum país no mundo faz mais phishing do que o Brasil. Esse é um dos recursos, essa é uma das técnicas que são aplicadas em fraudes financeiras. Além delas, muitas outras permitem a criação de esquemas que são cada vez mais complexos e difíceis da gente rastrear.

Os criminosos vão usando algoritmos para automatizar ataques, então em larga escala fica mais fácil que algum funcione. Essa mesma escala, esse aumento da escala, explora vulnerabilidades diferentes em sistemas financeiros, então, os criminosos atacam diferentes servidores, diferentes sistemas, diferentes clientes. E aí, essa velocidade com a com o aumento da precisão, sem dúvida nenhuma, cria uma vantagem significativa para esses criminosos e também dificultam a resposta das instituições. Então, é uma questão que deixa o cenário mais complexo dos dois lados, tanto do lado de quem ataca, que faz isso com mais produtividade, para usar o termo do Rafa, e quem defende, que vai encontrando cada vez mais dificuldade nesse nesse processo.

De que maneira, Aros,  essas instituições podem separar esses recursos do bem e do mal e podem responder esses ataques financeiros baseados Inteligência Artificial? E eu quero saber também se algum príncipe nigeriano já te assediou, Aros?

[CARLOS AROS]

[Risos]
Você sabe, André, que tem alguns estudos que projetam que, até a metade desta década, aqui então até ano que vem, até 2025, dizendo que os prejuízos causados por ciberataques, de maneira indistinta – e a gente está incluindo aqueles que utilizam recursos de IA – devem somar algo que passa os dez trilhões por ano. Dez trilhões de dólares por ano. É um número expressivo, e aí a gente coloca aí nessa conta, dentro desse pacote – e isso é importante dizer quando a gente trata de cybercrime de maneira geral – que não é só o prejuízo causado pelo ataque, pela vulnerabilidade que foi explorada. Acima de tudo, é o gasto que se tem para remediar tudo isso quando as empresas não conseguem criar barreiras efetivas. E aí, é óbvio que essa ideia do ataque personalizado, dessa coisa customizada ganha força com a inteligência artificial, que já há muito tempo, quando a gente trata do tema cibersegurança, a gente fala sobre comportamento, fala essencialmente sobre entender padrões dos usuários, antes de tudo. e que esses padrões começam a alcançar um nível em que a engenharia social passa a ser aplicada.
Então, se a engenharia social usa da compreensão desses padrões para vulnerabilizar os indivíduos, se a gente tem a capacidade de fazer isso em escala, de compreender com riqueza de detalhes esses padrões, de oferecer respostas para cada um deles, que é o que a IA faz, a gente potencializa isso ao enésimo fator. E aí, isso tudo fica muito mais delicado. Então, não é só o número que impressiona no fim do dia, né? Os 10 trilhões, ou a gente ter essa produtividade aumentada, como o Rafa coloca. A gente está falando o seguinte: que numa curva, o que as empresas têm percebido, é que não existe só ataques provenientes daqueles canais, daqueles grupos que já existiam, que já estavam consolidados. Hoje, a gente talvez tenha uma história do “cybercrime as a service”, sabe? O cara vai lá e ele consegue, usando ferramentas de inteligência artificial,  fazer, com algum nível de efetividade, ataques que, de outro modo, ele não conseguiria porque não tem o domínio daquela habilidade. Não tem a mesma eficiência na promoção disso tudo. Então, o que a gente tem, como exercício para as empresas hoje, é a compreensão, em primeiro lugar, de que não basta só o investimento em recursos humanos, em capacitação, em treinamento dessas pessoas, com foco em cibersegurança. As empresas precisam oferecer a compreensão para os usuários e, em todas as frentes, sobre os recursos que estão disponíveis para o bem e para o mal, como você falou.

Então, se a gente fala sobre adoção de inteligência artificial para melhorar a produtividade das pessoas e para que elas consigam desenvolver as tarefas, as atividades delas com o nível de qualidade e produtividade maiores, a gente tem que oferecer para elas também o entendimento de que esses mesmos recursos estão sendo usados para vulnerabilizá-las. As empresas precisam investir em ferramentas mais modernas, em ferramentas que acompanham essa evolução. Há ainda um percentual grande das empresas, que estão paradas em um tempo-espaço que não acompanha essa evolução. Esse, na verdade, tem sido o grande drama dos executivos de tecnologia e de segurança da informação. Por que? Porque esses caras tentam o aumento do budget para acompanhar a evolução também dos riscos e os relatórios todos mostram o aumento disso . Você colocou aí, o Brasil é, de fato, campeão. O Brasil, em todas as categorias de crime, André, de cibercrimes, se não está na primeira, está ocupando alguma das posições, até pelo menos o quinto lugar. Ele está sempre no topo como  um ameaçado, como ambiente vulnerável.
Isso faz com que esses executivos tenham que forçar a mão para aumentar os investimentos. Algumas pesquisas têm mapeado isso e mostrado que os CEOs tem se colocado mais abertos para esses investimentos. Para fazer ampliar a verba para cibersegurança, mas ainda é algo bastante complexo e ela disputa espaço com as verbas, óbvio, do próprio investimento em tecnologia, verbas de marketing. Você tem umas fatias do bolo dos investimentos que vão ser feitos, mas para as empresas, o grande ponto está em oferecer essa percepção de que a ameaça não vem só desses universos que a gente conhece, que são mais fáceis de compreender. Hoje, as subcamadas dentro disso tudo, que é esse mundo que eu estou dizendo, o cara sentado no computador usando alguns recursos de IA, consegue promover estragos que antes, de outro modo, ele não conseguiria porque ele não domina essas ferramentas. Agora, ele vai lá e consegue modelar, consegue entregar com muito mais eficiência esses ataques. As empresas têm um desafio grande.
E aí, André, para fechar, não são só as empresas, é importante a gente dizer. O Brasil lançou aí o plano nacional de segurança cibernética, não sei que bicho que deu isso também porque não avançou em nada, mas lançou. Outros países discutem isso no âmbito mais global. Os Estados Unidos tem, de maneira bem robusta, isso inserido em todos os contextos do governo. Tem lá um paper enorme da casa branca, que trata desse assunto e tudo mais. Então, essa é uma uma questão que, em âmbito governamental, no âmbito do Estado, também se torna bastante complexa. A gente agora viu aí na guerra do Iraque –  na guerra do Iraque não, perdão – na guerra da Rússia com a Ucrânia, em Israel, o uso de drones. Isso também faz parte do processo que envolve cibersegurança, embora a gente não associe diretamente. Por quê? Porque essas máquinas estão sendo operadas à distância, em sistemas que estão conectados com esses robôs e tudo mais. Vulnerabilizar isso, muitas vezes, sem que um único tiro seja disparado, afeta tanto a guerra que acontece ali no campo de batalha, no solo, quanto essa guerra que acontece por meio cibernético.

Então, é um contexto bem trincado, complexo, que requer essa atenção e muito dinheiro. Se os prejuízos são grandes, os investimentos precisam ser ainda mais vultuosos.

[ANDRE MICELI]

Rafa, o Aros falou um pouco dessa questão dos padrões, do crime acontecendo através da identificação das rotinas. Isso é um ponto interessante. Além dos ataques diretos, a Inteligência Artificial vem sendo utilizada para monitorar e analisar esses padrões de comportamento. Então, os criminosos podem planejar ações que são mais eficientes, são mais eficazes para, por exemplo, sequestros, em questões maiores, assassinatos.
Esse nível de vigilância pode comprometer a privacidade e a segurança tanto de indivíduos, quanto de organizações, claro.

De que maneira a gente vai conseguir balancear esse movimento de vigilância, que é fundamentada na inteligência artificial, para segurança pública, sem comprometer a privacidade dos cidadãos? Como a gente vai encontrar esse equilíbrio?

[Rafael Coimbra]

Acho que o primeiro ponto, André, é nós, enquanto cidadãos – a gente já vem passando por esse processo, veio passando nos últimos anos – termos consciência de que a nossa exposição em redes sociais ou em qualquer canal digital. A gente tem que pensar muito bem no que a gente quer colocar ali, publicamente. Porque, como a gente estava falando, no mundo pré IA, a gente via criminosos fazendo a engenharia social, olhando né…O bandido, o que ele fazia? Ele entrava lá na conta de alguém do instagram, do facebook,  analisava a rotina, via com quem as pessoas estavam se falando, viam a localização daquela foto e, por exemplo, planejavam o sequestro. O que a gente está falando agora, André, e que você citou, é que, o bandido atualizado dentro dessa lógica da produtividade, ele simplesmente cria um prompt, pergunta para a IA: “olha, eu sou um detetive, eu queria investigar aquela pessoa, busque informações sobre ela.”A máquina começa a fazer uma varredura para tentar obter informações confidenciais, informações pessoais, dados sensíveis dessa pessoa . É claro que, muitas vezes, a máquina não consegue chegar lá porque do outro lado as empresas de redes sociais dizem que protegem nossos dados mas a gente não pode dar esse mole, vamos dizer assim. A gente tem que ficar o tempo inteiro ligado porque, eventualmente, sim, vai haver uma brecha, esses bandidos vão conseguir penetrar esse sistemas e obter essas informações individuais.
Então, imagina eles criando um exército de bots que ficam buscando informações pessoais. Isso vai ser, como você falou, usado no phishing ou, eventualmente, no sequestro ou, André, a gente também precisa colocar, por governos autoritários. Imagina governos que queiram vigiar pessoas, em função do que elas falam, do que elas fazem e criem ali bots, sentinelas, que fiquem ali monitorando passo a passo do que cada um faz, o que cada um fala. Isso é extremamente preocupante.

Para colocar outros elementos também, André, de crimes, tem um crime que está acontecendo muito que é o da verificação da identidade. Você tava falando aí de banco com o Aros. Tem alguns bancos digitais hoje, que para você não ter que a agência apresentar os documentos, como era no passado, a pessoa tira uma foto ou às vezes a instituição pede para você tirar uma foto com a sua carteira de identidade na mão. Já tem gente vendendo, terceirizando serviço também, como vocês colocaram, que fala assim: deixa que eu crie uma foto fake, com uma identidade fake, de uma maneira hiperrealista, que a instituição bancária não vai identificar. Então, já está acontecendo. O pessoal está vendendo isso barato nos Estados Unidos, infelizmente.

Tem um outro [crime] que eu acho importante a gente falar, que é o do jailbreak. Quem é mais antigo vai lembrar, que na época dos primeiros smartphones, sobretudo os primeiros iPhones, o sistema era fechado. E tinha uma galera que fazia uma quebra para poder instalar aplicativos que não eram autorizados pela Apple. O que a gente está vendo agora, é um jailbreak de IA, ou seja, obviamente que Google, Microsoft, OpenAI, as grandes empresas que estão com esses grandes modelos de linguagem natural, eles estão estabelecendo parâmetros de segurança. O que você pode o que você não pode fazer. Mas, novamente, tem alguém lá do outro lado tentando usar de maneira maliciosa, querendo quebrar essas barreiras. Então tem uma indústria criminosa que criaria uma espécie de API, plugaria um sistema para ou  tentar quebrar a segurança dessas inteligências artificiais honestas, ou também para dão uma volta por cima. Então o cara se passa por alguma empresa ou por alguém honesto, que consegue emular ou capturar uma boa parte daquelas informações e que, por sua vez, se pluga a um sistema malicioso. Tem uma arquitetura por trás disso e eu estou tocando nesse ponto, André, porque a gente tava falando também de regulação, e as regulações, em geral, o que está acontecendo, elas são regulações para o mundo honesto. O que está sendo colocado aqui, de barreiras, de preocupações, sobre tudo, sobre o que pode acontecer com a IA, são para as empresas que vão ter que cumprir aquelas obrigações e, cá entre nós, bandido está pouco se lixando para isso.

Então existe um mundo, vou chamar aqui de um mundo invisível, dessa criminalidade, ou muito pouco detectável, que está embaixo do radar, e uma vez que essas ferramentas caem nas mãos dessas pessoas não há legislação. O cara não está nem aí, ele não vai cumprir regra, ele já não cumpre regra. Então podem vir quantas leis de IA que vierem do mundo inteiro, ele não está nem aí. Então é importante que a gente, enquanto nações, comece a observar o que está circulando nesse submundo, porque é lá que os crimes acontecem e a gente vai precisar de muito mais tecnologia e esforço, do que simplesmente decretos em papel.

[ANDRE MICELI]

Bom, a gente tem phishing, deepfakes, você mencionou agora esse bypass de verificação de identidade, e tem o jailbreak e o doxxing, que é essa história de coletar e divulgar informações pessoais, criar a identificação de padrões de comportamentos.

Carlos Aros, como você vê que esses cinco grandes crimes que, em quantidade, vem sendo potencializados pela Inteligência Artificial, evidentemente existem outros mas acho que esses cinco criam já um cenário bastante complexo para quem precisa se proteger. Como você vê o Brasil nesse contexto aqui, no curto prazo, levando em consideração as regulamentações que, como o Rafa bem colocou, elas não são feitas para tratar essas exceções, elas são feitas para controlar o que se espera que uma pessoa faça com a utilização desses recursos, com as características da nossa população. Cada vez mais idosos usando recursos digitais em profusão, uma população que não é digitalmente letrada, a gente ainda tem um desafio grande nesse sentido. Como é o cenário brasileiro, Carlos Aros?

[CARLOS AROS]

O cenário brasileito é o caos. Ele é o caos primeiro porque a gente tem uma defasagem muito grande no contexto geral, do conhecimento das pessoas sobre tecnologia, de maneira indistinta. E aí, depois, quando a gente fala sobre riscos. Se a gente for pegar, por exemplo, o estrago que o fenômeno das fake news causa aqui no Brasil, não só…Vamos fugir do exemplo da política. Vamos entrar no nível de desinformação que a gente tem a respeito de questões de saúde ou o respeito de prejuízos eventuais para marcas. Ou seja, asfake news são um bom exemplo disso. O que é essencialmente a fake news? É o cara aceitar de pronto aquilo que ele tá recebendo, sem que ele vá buscar por outros caminhos essa informação. E aí isso foi motivo, inclusive, de um grupo de pesquisadores desenvolver uma cartilha, para levar essa cartilha para as escolas, ensino básico. Levar essa cartilha para as escolas para que as crianças sejam educadas naquilo que, lá atrás,  chamava-se educação digital, para que elas consigam entender o caminho da informação dentro do ambiente digital. Fontes, o que é cada plataforma etc. Mas esse tem sido um trabalho de formiguinha, não alcança a maior parte das escolas, não alcança o grupo mais nocivo desse fenômeno, que é dos adultos, né? A gente tem, no caso dos idosos, por exemplo, o pix, que não está aqui mas é uma variação de alguns desses modelos que a gente citou, os golpes do pix se tornaram um fenômeno entre os idosos, com somas bem grandes sendo arrancadas nos últimos anos dos idosos, na mão grande. Uma versão digital da saidinha do banco.

Isso mostra o que? Que nós, do ponto de vista do comportamento, estamos vulneráveis. Quando a gente olha a incapacidade que o brasileiro tem de, ao contratar um prestador de serviço, trocar a senha para fazer a instalação do wi-fi dentro de casa, esse já é um começo. Isso a gente está falando sobre o básico do básico do básico. E aí isso vai escalando. Esse camarada vai para dentro da empresa e ele carrega esse comportamento para lá.

Do ponto de vista de legislação, eu tô muito com o Rafa. Eu acho que assim, não é só definir em uma canetada o que vai ser feito. É fazer com que isso permeie a sociedade e se converta em ação efetiva, se converta em algo que as pessoas vão fazer no dia a dia delas e que vai se tornar prática. Porque não adianta que ela exista, primeiro porque o Brasil é o únivo país do mundo em que você diz “essa lei não pegou”. Esse é um ponto. E aí, segundo, que a gente tem uma distância muito grande desse conjunto de regras, para vida prática da população. E aí, essas coisas ficam muito soltas, ficam perdidas no universo. Então, o cenário brasileiro para as empresas é muito desafiador. Pensando aqui no caso específico das empresas. O governo nem se fala. A começar que ele é o maior detentor de dados e não protege essas informações da maneira como deveria. Se protegese, nós não assistiremos a quantidade enorme de vazamentos acontecendo, de fontes oficiais. Então isso é um ponto. No caso das empresas, o que existe é, primeiro sobre a dificuldade de uma mão-de-obra qualificada, não só em termos técnicos para atividade que ela vai exercer, mas sobretudo, para uma compreensão mais ampla do que é a vida digital.

O camarada acha que porque ele tem um celular e um computador, ele já está letrado digitalmente e não é bem por aí. Então há uma dificuldade nas empresas. Quando esse camarada entra, a empresa gasta uma fortuna fazendo capacitações, formações, campanhas educativas, conscientização etc. E aí, do outro lado, ela tem que trabalhar com o emaranhado de regras, uma burocracia violentíssima, para cumprir com a governança, e tudo isso tem que atender, tem que estar embaixo de uma redoma, que é a plataforma de segurança que estabeleceu para aquela companhia. Dependendo do setor, ainda tem regulações adicionais. Então, se a gente vai falar setor financeiro, setor de seguros, enfim, a gente tem regulações adicionais e muito específicas, que também se adicionam a essa camada de burocracia que já existe como regra geral. E a gente só vem complicando, a gente só vem criando novos expedientes que complicam essa operação, em vez de simplificá-la. E aí, no fim do dia, lá na ponta que a gente vai descobrir que existe uma outra vulnerabilidade, que é o cliente, que é o usuário. Nós discutimos isso em alguns eventos que a gente faz aqui pela pela MIT Technology Review e isso é muito evidente. O quanto as empresas têm que se preocupar também com o lado de fora. O usuário é uma porta – uma porta não, uma janela escancaradíssima, é um portão enorme para vulnerabilidade para o cibercriminoso.

E aí, no contexto geral, o Brasil acaba se tornando isso: um emaranhado de regras, que muitas vezes não cumprem com a finalidade. Uma população que ainda não conseguiu.  mesmo  caminhando para a segunda ou terceira geração digital, não conseguiu ainda letrar-se digitalmente. É uma população que ainda processo o mundo de uma outra forma – e aí, obviamente, essa não é uma questão específica do Brasil – mas ela fica mais complexa à medida que a gente tem um país muito grande, com regiões em que social e economicamente, as diferenças são gritantes.

E aí, a gente tem um outro ponto, que é a disparidade frente ao mundo. E aí, o Brasil acaba para trás em investimentos, acaba para trás nesses rankings todos. O Brasil só fica lá em cima, na frente, nos rankings em que ele é a vítima. Essa é a grande questão e, óbvio, isso cria um contexto em que as autoridades, as empresas e a sociedade, de maneira geral,  precisam estar dentro de uma mesma página. Eu insisto, o Brasil lançou uma política nacional de cibersegurança que, até agora, ninguém viu exatamente o grande objetivo e a implementação das diretrizes. Porque o plano serve para ser executado, não é para você pendurar numa parede e fazer um mural com ele. E a gente precisa caminhar com isso. Nós temos uma discussão sobre IA relacionada a esse nosso papo aqui, que também não avança. Foram feitas sugestões. A Academia Brasileira de Ciências fez sugestões para esse plano nacional de Inteligência Artificial. Ignorou-se, optou-se por escrever uma lei que agora está tramitando no congresso, está parada também por lá, e a gente não avança em aspectos basilares para esse desenvolvimento.

Enquanto isso, a gente continua figurando, muito bem, obrigado, em rankings nos quais nós não deveríamos nos orgulhar de aparecer.

[ANDRE MICELI]

Bom, é isso. Fechado o primeiro capítulo, vamos para o próximo. E eu pergunto ao Rafa Coimbra: no que você vai ficar de olho nessa semana que começa.

[INTRO DO QUADRO]

André, estou de olho na chegada da Temur ou Temo, não sei como se pronuncia, que é mais uma gigante de e-commerce asiático desembarcando no Brasil. Já chegou lá nos Estados Unidos, assustando o pessoal, já está logo atrás da Amazon, como o e-commerce mais usado. Você que está acompanhando essa discussão da taxação, o chamado imposto das blusinhas, pessoal que está comprando ali no AliExpress, produtos que vem de fora e que, até então o limite era de até 50 dólares. Até 50 dólates não tinha imposto nenhum, acima de 50 dólares pagava-se o imposto de 60%. Agora a Câmera dos Deputados acaba de aprovar que haverá uma taxação de 20% em compras até 50 dólares. E independentemente de como vai ficar essa situação, provavelmente, óbvio quem vai pagar preço, no fim das contas, são os consumidores, a gente vai ter mais esse novo competidor, que é a Temo (Tamo). A Temo (Tamo) já está avaliada em 210 bilhões de dólares lá nos Estados Unidos, na Nasdaq, e tem uma coisa interessante, que é o que eu estou chamando atenção aqui, para o Brasil, que é que diferentemente de outros marketplaces, ou de outros produtores, eles trabalham com uma coisa chamada Next Gen Manufacturing, ou seja, em vez de produzir, essas fábricas – eles vendem de tudo um pouco –  em vez dessas fábricas produzirem e depois tentarem vender para o consumidor, tem ali uma espécie de teste AB, de receber muitas informações dos consumidores para entender exatamente o que essas pessoas querem e, no momento em que se começa a vender, e eles percebem que tem tração naquelas vendas. Aí sim as encomendas são feitas e a produção obviamente tem que ser muito rápida. A logística também tem que ser muito eficiente, porque uma vez que o consumidor compra, ele quer receber aquilo no prazo, o mais rápido possível. Então, a gente vai ter uma pressão. Já tinha uma pressão grande por conta das asiáticas. Tem também Mercado Livre, tem a Amazon, tem as nacionais, a magalu etc. Mas tem um concorrente de peso aí que está com muita tecnologia, não só o aplicativo em si, onde você pode encontrar tudo. Eu nunca comprei, não estou fazendo propaganda aqui, não só estou dizendo que o mercado vai ficar aquecido, vai ter mais competição, e tem muita tecnologia por trás dessa briga toda.

[Andre Miceli]

E você, Carlos Aros?

[CARLOS AROS]

Eu estou de olho em algo que foi noticiado pela pela agência Reuters, André, e que me chamou bastante atenção. Segundo a Reuters, o Tik Tok, e não ele mas a ByteDance, está trabalhando numa versão específica do algoritmo para atender aquela restrição que foi imposta pela lei, sancionada pelo Biden nos Estados Unidos. Então, basicamente o que está sendo colocado pela Reuters nessa reportagem que foi divulgada nos Estados Unidos, é que o Tik Tok vai fazer um clone, uma versão 2 do algoritmo, para fazer com que seja possível contornar essa restrição, esse banimento imposto aí pelo governo americano. A ByteDance já disse que não vai abrir mão do algoritmo, não vai entregar o ouro para o governo americano, e vai manter a estrutura fora dos Estados Unidos.

A grande questão é, os Estados Unidos representam um mercado importantíssimo para eles. São 170 milhões de usuários do Tik Tok por lá. E aí, o que eles pretendem é criar essa versão 2.0, que não estaria necessariamente vinculada a plataforma original. Operaria como uma unidade apartada, atendendo essa restrição de desvincular, que o governo americano impôs, e isso serviria para que, já a partir de janeiro de 2025, o Tik Tok não fosse expurgado dos Estados Unidos, por força dessa nova lei. Evidentemente, é preciso entender como isso vai funcionar mas a Reuters diz que já são centenas de programadores trabalhando e fazendo uma espécie de filtro, uma separação nas linhas de código, para fazer com que essa versão US não tenha nenhum tipo de conexão com o código do Tik Tok chinês, e fazendo com que essas informações não estejam vinculadas, e que não exista essa troca entre as duas unidades. O que a ByteDance alega é que a razão dos – e aí, óbvio, com uma dose importante de razão- o fator que garante o sucesso da rede social é o algoritmo, assim como no Instagram, assim como no Facebook, YouTube e afins. E aí, esse código que é usado para fazer as recomendações, esse algoritmo, não vai ser entregue. Eles vão fazer uma versão mais soft, talvez, para os Estados Unidos, e isso facilitaria a venda dessa operação, para desvincular as duas empresas. Eventualmente até em um acordo que agrade os chineses, mantendo o Tik Tok por lá mas sem que, nessa operação de venda, o Tik Tok entregue para o comprador conhecimento a respeito do código fonte mãe.

É um caminho interessante e já estão trabalhando há alguns meses com isso. A Reuters avançou nessa reportagem e não conseguiu ouvir dos Estados Unidos, a percepção do governo sobre. Imagino eu que os americanos estejam esperando um anúncio oficial para se pronunciar e dizer se pode isso, Arnaldo, ou não. Agora, que essa história fica interessante cada vez mais, é um fato. Mostra que mesmo os chineses entendendo que não vão abrir mão e que não devem abrir mão dessa posição deles, eles reconhecem a importância do mercado norte-americano para a plataforma e para o negócio, como um todo. Isso ainda vai dar pano para manga, André Miceli.

[ANDRE MICELI]

É isso. Bom, enquanto isso a gente se despede e já já está de volta para continuar acompanhando essa história toda.
Antes de ir, quero lembrar que esse podcast é um oferecimento do SAS.
Rafa Coimbra, meu amigo, até a semana que vem.

[RAFAEL COIMBRA]

Um abraço, André, Aros e a todos que nos ouvem. Se você curte Inteligência Artificial e ainda não ouviu falar em Slop, ficou curioso, dá um pulo lá no nosso canal no YouTube que eu explico tudo.
Até semana que vem

[ANDRE MICELI]

Carlos Aros, até a semana que vem.

[CARLOS AROS]

Até a semana que vem, André Miceli e Rafa Coimbra. Um abraço para você também que nos acompanha.

[ANDRE MICELI]

Semana que vem tem mais podcast MIT Technology Review Brasil e a gente se encontra por aqui para falar sobre tecnologia, negócios e sociedade. Um grande abraço para você que nos ouve. Tchau, tchau.

[TRILHA SONORA]

Último vídeo

Nossos tópicos