IA sem erros: aprendendo com o passado das redes sociais 
Podcast

IA sem erros: aprendendo com o passado das redes sociais 

Apesar de um dia ter sido a querida do momento, as redes sociais hoje são fontes de críticas por causa do fácil uso para manipular informação.

No podcast MIT Technology Review Brasil desta semana, André Miceli, Carlos Aros e Rafael Coimbra conversam sobre o que podemos aprender com a história da mídia social para termos um uso da Inteligência Artificial mais saudável.

Há uma década, a mídia social era celebrada por provocar revoltas democráticas no mundo. Agora, as histórias sobre essas plataformas estão repletas de comentários sobre desinformação, conspiração empresarial e os riscos para a saúde mental.

Em uma pesquisa de 2022, os americanos culparam as mídias sociais pelo embrutecimento do discurso político, pela disseminação da desinformação e pelo aumento da polarização partidária.

Hoje, o foco é a Inteligência Artificial. Assim como as mídias sociais, ela tem o potencial de mudar o mundo de muitas maneiras, algumas favoráveis à democracia. Mas, ao mesmo tempo, tem o potencial de causar danos à sociedade.

Este podcast é oferecido pelo SAS.


Transcrição:

[TRILHA SONORA]

André Miceli: Olá, eu sou André Miceli e esse é mais um podcast da MIT Technology Review Brasil. Hoje, eu, Rafael Coimbra e Carlos Aros vamos falar sobre como as lições que aprendemos com as redes sociais podem nos ajudar a criar um ambiente mais saudável para Inteligência Artificial. Essa evolução não regulamentada das redes sociais ao longo da última década, vai nos trazendo lições que se aplicam diretamente às empresas de tecnologia de IA.

Antes da gente começar a entender essa história toda, eu quero dizer que esse podcast é um oferecimento do SAS, líder em Analytics e fazer aquele convite semanal para você entrar para nossa comunidade lá em www.mittechreview.com.br/assine.

Rafa Coimbra, a gente vive uma era de publicidade onipresente e a Inteligência Artificial promete levar essa realidade a um novo patamar. Tem o argumento de que a hiperpersonalização nos traz experiências melhores anúncios produtos serviços que estão mais adequados ao nosso perfil e, portanto, são anúncios que fazem mais sentido de serem vistos, mas isso pode trazer consequências. E aí é justamente onde você entra Rafael Coimbra quais podem ser essas consequências para os usuários quando os anúncios se tornarem ainda mais personalizados e potencialmente mais invasivos?

Rafael Coimbra: Tem, André, todo esse lado interessante, essas promessas de que a gente vai receber ofertas personalizadas, serviços personalizados, existe todo um romantismo que está renascendo agora com a chegada das Inteligências Artificiais, sobretudo as generativas, esses modelos tipo ChatGPT, porém a gente tem que lembrar que essa mesma grande promessa, esse mesmo clima romântico nasceu lá atrás, 20 anos atrás, com a internet e mais recentemente quando chegam as redes sociais.

Havia ali um ambiente de novidade de que as tecnologias chegariam para aproximar as pessoas nas redes sociais, que iria conectar as pessoas, os motores de busca tipo Google facilitariam a nossa vida, porque as informações estariam todas ali consolidadas e colocadas da maneira mais eficiente para você. Tudo isso é válido sim, só que o que a gente observou ao longo desses últimos anos foi que por trás desses benefícios havia ali uma série de efeitos colaterais e esses mesmos efeitos colaterais eles têm muita possibilidade de se repetir com as Inteligências Artificiais. Por que? Porque, basicamente, a gente tem esse espírito, novamente, como eu estava falando, romântico de promessas, mas a gente tem essa característica de que em algum momento essas empresas, obviamente, por interesses econômicos, elas vão querer e fazer com que seus lucros cresçam a custas nossos dados.

Então, para fazer esse paralelo, André, que você estava comentando aqui, só especificamente sobre publicidade, o grande modelo de negócios que propiciou essas gigantes que existem hoje, como Facebook, Instagram, o Google, o próprio Twitter, o TikTok, agora todas essas empresas elas têm como pano de fundo um modelo de negócios baseado em publicidade. Elas coletam informações das pessoas e vendem essas informações para marcas que querem entregar publicidade direcionada. É assim que funciona até hoje e é assim que, provavelmente, vai acontecer no mundo da IA. Como você mesmo ressaltou, André, a gente vai ter muito mais informações, as Inteligências Artificiais, elas estão, e a gente está falando aqui de um ano, um ano e pouco só de ChatGPT e ele está crescendo. A cada modelo que vem, ele tem mais capacidade de, vamos dizer assim, guardar uma memória daquela pessoa que está conversando com ele. Você se comunica com essas ferramentas de uma de uma maneira muito mais personalizada e, obviamente, que esse histórico todo que a IA está guardando de você vai ser usado potencialmente para, no futuro, vender essas informações e gerar mais publicidade para tornar complexa, mais ainda, essa questão. Eu chamo atenção da IA generativa multimodal, porque a gente está falando aqui, basicamente, de texto. Então, a Inteligência Artificial vai entendendo o que você está colocando, o que você está querendo, o que você está pesquisando, da mesma maneira que uma rede social ou que um buscador. Mas quando começarem a entrar câmeras, quando começarem a entrar sons e essas tecnologias tiverem com mais sentidos humanos, vamos chamar assim, mais informações vão ser capturadas além de um simples texto.

Então, é muito provável que essas informações também aumentem esse grau de vigilância que é outra característica das redes sociais, da internet moderna como a gente conhece, porque tudo acaba sendo monitorado para o bem ou para o mal. Como eu disse, eu não estou aqui demonizando as tecnologias, mas esses efeitos colaterais, o fato é que no caso das redes sociais, nós levamos anos e anos e anos para entender que aquilo ali também poderia ser usado para o mal, para manipular informações, para viralizar a desinformação.

Existem várias pesquisas que mostram o grau de “viralidade”. Quando existe ali uma chamada apelativa que lide com emoção, com mentira, isso circula nas redes de uma maneira muito mais rápida e se a gente trouxer isso para o lado da Inteligência Artificial é muito provável que as pessoas que usam essas ferramentas para o mal, elas amplifiquem esses efeitos. Então a gente vai ter mais conteúdo gerado para viralizar com a ajuda da Inteligência Artificial. Essas características todas vão gerar, muito provavelmente, mais bagunça, mais desinformação, mais polarização nas redes, porém, o uso dessas ferramentas fará com que a gente entregue, de certa forma, às vezes até inconscientemente — as pessoas não param para prestar atenção muito nisso —, mas essas informações vão sendo coletadas e podem ser usadas para transformar essas grandes empresas em novas empresas, novas Big Techs que têm esse modelo de propaganda como pano de fundo.

Só para lembrar, a gente está falando quase que praticamente dos mesmos atores. A gente tem Google fazendo modelo de IA, a gente tem Facebook fazendo modelo de IA, a própria Microsoft em parceria com a OpenAI, que talvez seja a única diferente nessa história, mas ela está ali, em parceria com uma Big Tech. Então, são os mesmos atores, com os mesmos modelos, basicamente trocando uma ferramenta mais rudimentar, a gente vai olhar para trás para essa internet que a gente construiu até hoje e vai um dia achar isso tudo muito simples, diante desse futuro que está se desdobrando com a Inteligência Artificial.

André Miceli: Aros, sobre esse ponto das empresas, a história das redes sociais mostra que poucas empresas acabam dominando o mercado. A tecnologia vem sendo assim sistematicamente, talvez ali no final dos anos 90 a gente tenha visto uma pulverização de funções de RP e, logo depois, também elas foram consolidadas. Fora isso, tecnologia é sinônimo de oligopólios. Como você acha, Carlos Aros, que esse cenário vai acontecer com a Inteligência Artificial? Quais são as estratégias que poderiam ser adotadas e, se é que faz sentido, o estado se meter nisso? O mercado pode ajudar a construir um ambiente que evita essa monopolização?

Carlos Aros: Bom, tem duas formas de ver essa questão, André. A primeira delas é com um olhar otimista, entendendo que os aprendizados, vou nem dizer aprendizados porque pressupõe que alguém aprendeu algo, mas com o exercício da experiência vivida ao longo dessa última década, pelo menos com as redes sociais, faz com que a gente tenha caminhos, para, como dizia meu pai, “pisar nas pedras e não na água ao atravessar um riacho para não se molhar”. Esse “caminho das pedras” poderia nos dar opções para, por exemplo, proteger mais os usuários, reduzir a dependência de alguns atores únicos, pulverizando isso, fortalecendo o ecossistema e criando um novo modelo de monetização que seja menos “nocivo” para todos e, por aí vai, o Rafa deu vários exemplos importantes desse contexto.

E a outra visão é a visão realista. Ela não é nem pessimista, ela é realista, e ela nos dá que caminho. Primeiro, que as Big Techs que hoje já operam dentro da realidade das redes sociais têm um espaço e um caminho já percorrido no mercado dão uma larga vantagem frente a qualquer outro player que queira se apresentar.

Quando a gente olha a composição das empresas que hoje se destacam como desenvolvedoras de soluções, ferramentas, plataformas, produtos com base em IA, todos eles têm vínculo de alguma forma com essas Big Techs, seja porque em alguma rodada de investimento teve um aporte de uma Big Tech, ou porque a Big Tech, no meio do caminho, chegou e falou: “opa, vem aqui, querido, você pode ser importante para o meu negócio”, ou são fornecedores de ferramentas e recursos para essas Big Techs. Ou seja, há uma dominação, esse mercado já está definido, a gente já sabe quem vai chegar lá. O episódio que nós narramos aqui há alguns meses, acho que outubro, novembro do ano passado, a respeito da OpenAI, nos deu uma clara visão disso: as peças se movimentaram no tabuleiro, e os espaços que ficaram vazios foram prontamente ocupados por nomes que nós já sabemos e que repetimos o tempo todo. A Microsoft, um deles.

Então, o que a gente tem aqui agora é um movimento com outras figuras, mas que também fazem parte do mundo das Big Techs, não necessariamente como rede social, ganhando frente, e isso se dá por uma razão muito simples: esses caras já têm a massa crítica de informações e de dados que conferem a eles poder suficiente para que essas máquinas, essas engrenagens, funcionem melhor do que as outras.

Do outro lado, ainda num contexto muito realista, o que a gente tem é o movimento dos governos buscando algum tipo de regulamentação e enfrentando a seguinte situação: se a regulação for extremamente criteriosa, ela pode matar uma iniciativa que traz benefícios; ao mesmo tempo, se for extremamente branda, essa regulação pode permitir que algo nocivo se desenvolva junto desses benefícios, pressupondo uma destruição do todo. O regulador está num caminho muito difícil, há vários textos, há várias opções sobre a mesa. Aqui no Brasil mesmo, a gente tem um texto, eu já citei aqui, que deve ser discutido em breve no Congresso, de autoria do presidente do Congresso, senador Rodrigo Pacheco, que é um texto com várias lacunas, vários espaços ali em aberto, visando uma regulamentação adiante.

E o regulador tem outro problema: muitos instrumentos que foram definidos há alguns anos aqui no Brasil, por exemplo, o Marco Civil da Internet, hoje precisariam ser parcialmente ajustados em aspectos muito específicos para dar conta das transformações dessa última década. Então, o regulador ele se vê preso em um mundo burocrático, numa insuficiência de informações para que ele consiga basear as decisões. Enquanto isso, a indústria caminha a passos largos, oferecendo respostas muitas vezes para problemas que nem existem. E essa situação ela não é muito diferente do que a gente assistiu com o surgimento ou desenvolvimento dessas grandes plataformas. Quando a gente pensa na finalidade lá na ponta, na interação com o usuário ou nas aplicações que vão estar embarcadas em outras ferramentas, em outras soluções, a gente vê um cenário muito parecido.

Então, eu acho que a visão realista ela nos permite entender que sim, vai haver ainda a manutenção desses monopólios. Os players vão continuar cada um dentro do seu mercado, operando com força total, ainda que existam iniciativas como a da União Europeia que pressupõe lá na linha um talvez o desmantelamento em caso da percepção de que aquilo vai oferecer algum dano concorrencial, e etc.

Essa atualização da lei europeia inclusive é bem interessante. A gente precisa ver como ela vai se dar na prática, quando tiver uma denúncia, quando tiver algum caso gravíssimo. Imagina propor o desmantelamento, sei lá, do Google da Alphabet dentro lá da União Europeia, é algo muito complexo. O regulador ali ele foi audacioso. A gente precisa entender como isso se dá na prática. Então, eu não vejo, André, uma maneira muito simples de resolver essa questão. Não acho que exista interesse ou uma soma de interesses que resulte nisso. Porque da maneira como está, inclusive os players menores, ainda que reclamem, eles estão muito bem, obrigado. Porque eles continuam servindo de sustentação. Eles continuam anexados a esses grandes conglomerados, entregando ferramentas e ganhando um bom dinheiro com isso. Quem perde é aquele que já estava perdendo, que é o outsider, o cara que é o indie de alguma maneira que desenvolve uma solução, uma coisa meio alternativa etc. Mas esse cara já sabe qual é o tamanho do mercado dele. Ele também não deve caminhar para muito mais longe.

Eu acho que a visão realista mostra que sim, a gente corre um severo risco de repetir vários dos erros que foram cometidos com as redes sociais. E aí dizem que errar uma vez é humano, errar duas vezes é algo já um pouco mais complicado.

André Miceli: Bom, outra coisa complicada, Rafa Coimbra, é a questão da desinformação. A disseminação de informações pelas redes sociais já mostrou esse poder. Você mencionou as pesquisas do Sinan Aral, professor e diretor da iniciativa para a Economia Digital no MIT. Tem uma pesquisa muito interessante sobre contágio em geral, contágio no sentido de o quanto uma informação consegue percorrer redes com que velocidade. E essa velocidade tende a ser cinco vezes maior para fake news do que da informação real. E quando a fake news é desmentida, essa velocidade é ainda menor. A gente já entendeu a complexidade de espalhar conteúdo em ambientes digitais, em redes de seres humanos pautados em gadgets e em tecnologia. A Inteligência Artificial naturalmente vai afetar esse cenário. Como você acha que a gente consegue usar isso a nosso favor? Dá para encontrar um equilíbrio entre controlar esses conteúdos nocivos e manter liberdade de expressão?

Rafael Coimbra: André, eu acho que tudo passa por uma educação digital. O fato é: será cada vez mais difícil nós entendermos, percebemos o que é e o que não é real. As novas tecnologias, a cada mês, a cada semana, surgem com uma nova aplicação que mostra com que não só fotos estáticas, mas agora vídeos, estão sendo feitos de uma maneira hiperrealista, de uma forma simples. A partir de um comando de texto, você gera um vídeo muito real e barato. Portanto essa combinação ela é explosiva do ponto de vista da desinformação. Tem gente que vai usar isso para o bem, tem gente que vai usar isso para brincadeira, e tem gente que, obviamente, vai usar isso para gerar algum tipo de viralização com algum tipo de interesse, seja para prejudicar uma pessoa, seja para gerar audiência e atrair a audiência e eventualmente ganhar dinheiro com anúncios, como a gente estava falando anteriormente. Mas é muito óbvio que a gente vai ter uma escalagem da complexidade e da quantidade de desinformação. Isso, André, por sua vez, mostra que o que a gente está vendo é: antes você tinha os humanos que faziam uma parte suja, no sentido de fazer a fake news, fazer uma montagem, gastava um tempo ali para criar, inventar um texto falso ou uma imagem falsa, e depois a rede se encarregava, como você falou, algoritmicamente de jogar mais atenção para conteúdos que geram esse tipo de engajamento, ainda que falsos.

O que a gente está vendo agora é que essa parte humana ela também está sendo substituída pelas máquinas, então o humano não vai mais nem precisar ter o trabalho de criar, inventar uma mentira, porque você manda a máquina criar uma mentira, ela cria uma mentira, você manda ela fazer uma fotomontagem, ela faz uma fotomontagem. A gente, portanto, está automatizando duas partes da desinformação: a parte antiga vai continuar, que é a da distribuição, e a parte nova, que é a da geração.

Isso, obviamente, tem efeitos muito negativos. Eu acho que, por mais que a gente desenvolva ferramentas – isso é obviamente um importante combate –, a gente já há pouco tempo falou dos esforços de se criar uma espécie de uma marca d’água, a gente não chegou ainda a uma solução digital eficaz para combater esse tipo de desinformação.

Mas até que a gente consiga chegar em soluções mais robustas, é importante que as pessoas fiquem ligadas. Elas têm que entender o que se passa nesse mundo, o que está acontecendo de movimentação nesse mercado, para que a gente não seja enganado mais facilmente do que já é. Eu chamo atenção que nesse movimento, André, só pegando o gancho do que o Aros estava falando em termos de regulação, as novas leis elas estão ainda muito preocupadas com os efeitos, alguns efeitos negativos, nesse sentido de invasão de privacidade, por exemplo, biometria da Inteligência Artificial que vai ali coletar determinadas informações.

Como eu estava falando aqui de IA multimodal, existem riscos que estão sendo considerados, e há já um arcabouço legal para regular esse tipo de coleta de dados. Mas eu ainda acho que já que a gente está falando aqui de paralelos e de experiências com redes sociais que não há uma visão clara de que a gente está criando ou recriando novas instituições que vão controlar o que é nossa identidade digital.

Se a gente olhar hoje para as redes, dificilmente, quer dizer, a gente pode até apagar – você quer apagar uma conta em uma rede social, você apaga –, mas concordem comigo que é muito difícil não ter um impacto negativo. É como se você estivesse sumindo do mundo. A gente tem uma presença digital, e você não fazer parte das redes sociais é algo muito ruim, às vezes até para você procurar um emprego ou para se comunicar com alguém: “opa, pera aí, como é que você não tem uma rede social? Como é que eu vou interagir com você?”.

Então essa falsa liberdade teórica, na prática se mostra uma prisão. A gente hoje depende dessas grandes redes para nos posicionarmos como identidade digital, e se a gente for olhar para frente, talvez a gente esteja começando esse novo movimento com o IA. As IAs que a gente começa a interagir. Primeiramente eu estou falando aqui em uma lógica do Vale do Silício, aquela do “mova-se rápido e quebre tudo”, sai quebrando tudo. Essa lógica ela está um pouco se repetindo, porque quem está começando a usar determinadas ferramentas vai acabar, de certa forma, estou exagerando aqui, mas viciado nessas plataformas e dependente dessas plataformas. Depois de um, dois, três anos, quando você quiser retirar os seus dados ou transferir os seus dados de um modelo para o outro, você vai ver que está difícil e vai falar: “caramba, e agora, como é que eu faço? Eu estou preso”. É como se você estivesse preso dentro dessa nova ferramenta de IA. A gente viu isso com as redes sociais, eu estou vendo claramente que a gente está repetindo esse mesmo erro em relação às Inteligências Artificiais.

Então é importante que nesses arcabouços regulatórios, essa parte de concorrência, de transparência, de exigir uma interoperabilidade, o que é isso? Se eu quiser sair dessa ferramenta aqui de IA amanhã para outra, eu quero carregar todo meu histórico de informações, todas as pesquisas que eu fiz, tudo que ela coletou de mim, e o entendimento que ela tem de mim para um concorrente, se eu quiser. A gente está pensando nisso? Eu não estou vendo nada disso em circulação. Estou vendo preocupações mais no campo quase que da ficção científica, os riscos da IA, como se fosse as máquinas controlar a gente, mas na questão prática, que é essa de criar novos monopólios, de dependências, de aprisionamento dos cidadãos via dados e eu estou falando aqui de concorrência, obviamente, eu não estou vendo nada sendo feito eficazmente. É óbvio que a gente tem que ter sempre esse equilíbrio, como o Aros estava apontando, sou desse time também de “cuidado para não matar a inovação”, que regulação demais mata a inovação, mas a gente tem lições aí a serem aprendidas e, nesse caso, eu estou vendo muita coisa passando sem que a gente coloque ali algumas rédeas, ainda que pequenas, para que a gente não repita esses mesmos erros.

André Miceli: Carlos Aros, eu não poderia deixar de te fazer essa pergunta, meu amigo, sobre segurança. Segurança é uma questão dos tempos de redes sociais que certamente vai existir nos tempos de Inteligência Artificial, e a gente tem, certamente, lições para levar de um lado para o outro. Um desses pontos é sobre coleta de dados, essa é uma preocupação recorrente. Eu abri esse episódio perguntando para o Rafa a questão de publicidade, de hiperpersonalização, mas a gente sabe que essa coleta de dados, além disso, serve para várias outras questões. Como a introdução de Inteligência Artificial em larga escala pode intensificar esse problema e quais você acha que podem ser as medidas necessárias para garantir privacidade dos indivíduos e naturalmente a segurança também?

Carlos Aros: Bom, os principais relatórios de segurança do mundo apontam a IA como uma peça-chave para o desenvolvimento de diversas ameaças e, como consequência disso, do aumento gigante dos riscos para pessoas, empresas, estados, etc.

O ponto de partida para essa questão está naquilo que a gente está comentando aqui desde o começo do papo: as plataformas que são alimentadas por Inteligência Artificial, elas já têm, a maior parte delas pelo menos, um banco vasto de informações, um volume enorme de informações, porque elas estão dentro de ecossistemas riquíssimos em dados que já foram cedidos por esses usuários.

Em 2024, é impossível a gente dizer que alguém no mundo não cedeu informações conscientemente ou de maneira inconsciente para essas plataformas, quaisquer. Esse é um comportamento inclusive que vem sendo trabalhado sob o ponto de vista da educação para a cibersegurança, um processo de conscientização, inclusive dentro das empresas, porque essa concessão de informações que acontece indiscriminadamente é um ponto de vulnerabilidade para as organizações e um ponto que pode derrubar qualquer compliance em tempos de lei de proteção de dados. Mas esse ecossistema já está alimentado e essa engrenagem já está funcionando.

O que vai acontecer a partir daqui? O que começa a se entender é que essas informações hoje já ajudam a alimentar esses modelos. Esses modelos hoje entendem melhor os usuários e os usuários, portanto, passam a receber estímulos e entregam mais informações. É um ciclo vicioso, é um processo em que as pessoas estão ali nessa engrenagem e o pressuposto de que: “ah, eu quero acessar tal coisa. Ah, eu quero usar tal serviço” e esse serviço tem lá um chatbot, e esse chatbot me faz ter um atendimento muito melhor do que se eu ficasse horas numa chamada telefônica lá no 0800, eu prefiro esse chatbot, e ali eu começo a ter uma interação. Essa interação ela vai se aprofundando, a mesma coisa com os assistentes pessoais e todos os outros cenários.

O que acontece é que hoje a gente tem um número muito grande de pontos de contato, criando uma espécie de monitoramento constante, ou seja, qualquer informação que surja é rapidamente pescada e dragada por essas plataformas que começam a processar isso e transformar isso em novos estímulos para que mais informações sejam geradas. Essa engrenagem ela já acontece.

Qual é o ponto que as empresas, agora com a publicização da IA, elas começam a trabalhar? O estabelecimento de um nível de confiança, porque o aceite há um tempo, ali nos termos de uso, algo que já virou inclusive piada, né? “Ah, você clicou lá e você nem sabe.” Ninguém lê. Esse processo ele foi criado como uma parte de uma cultura, era um habeas corpus preventivo para a empresa. “Ah, o cara aceitou, ele não leu, bom, mas aí eu coloquei lá. Tava disponível.” No caso da IA, como é uma relação muito mais próxima, está ali num conjunto diário de interação, principalmente, com os chatbots, os assistentes por voz, essa coisa toda, as plataformas começam a estabelecer um processo de confiança para criar no imaginário coletivo a ideia de que não, aqui é um ambiente de conforto, você pode entregar suas informações, está conversando com alguém que sabe muito sobre você. “Olha só, eu sei que você gosta de tal restaurante, estou sugerindo aqui tal”, e isso vai criando uma percepção de confiança e as pessoas elas não saem desse lugar.

Então, do ponto de vista da segurança, não é um processo muito diferente do que a gente viveu até aqui. A diferença é que, a partir de agora, as pessoas entram num looping em que elas estão sendo servidas, e muito bem servidas com informações, com serviços, com possibilidades que antes elas não tinham. E aí, para as empresas, óbvio, esse é o ápice da relação de consumo, em que o cara está muito disposto a te entregar as coisas porque ele está recebendo algo em troca e ele nem percebe que isso está acontecendo. Quem tem assistentes por voz em casa sabe que é muito frequente você invocar ali o assistente com a palavra de comando e sai conversando, interagindo, e você está alimentando um banco de dados que está processando e entendendo mais sobre você e você não sai nunca mais desse negócio.

Então, existe uma monitoração excessiva que já vem de um período anterior à essa explosão da IA. Isso se acentuou. Existe uma coleta de dados excessiva que já vem de um período anterior à IA e ela passou a se acentuar muito grande e existe uma predisposição do usuário, e isso está monitorado por pesquisas, de que se ele vai receber algo como vantagem, ele está pouco se importando que tipo de informação ele está cedendo.

Então, esse é o melhor dos mundos, é o caos perfeito para que as coisas aconteçam. Aí tem uma outra face dessa moeda que nós estamos falando da relação com o usuário que é tudo muito bonito, o cara vai fazer um pedido, a sugestão já aparece pronta, ele quer escrever coisas e está tudo perfeito. No dia a dia, tem um outro lado dessa moeda que é o quanto essas informações que estão aí circulando indiscriminadamente porque eu, vocês, todo mundo que está nos acompanhando, passou a ceder essas informações sobre qualquer pretexto e essas informações têm sido utilizadas para alimentar modelos que hoje dão reforço às táticas e técnicas de engenharia social, então fazendo com que até mesmo pessoas e times que são treinados nesse contexto caiam nessas pegadinhas.

Ou seja, a IA está aumentando a eficiência do cibercrime. E aí, os times de segurança dentro das empresas estão com o cabelo em pé porque treinamentos e mais treinamentos foram feitos ao longo dos anos para mostrar para as pessoas como reagir ao cenário A, ao cenário B, o cenário C e entender o que era risco e tal, mas a IA veio e aprofundou essa realidade, criou um ambiente mais complexo e muito mais próximo das pessoas e agora está todo mundo caindo.

Então, esses dados que circulam, eles servem — eu acho excessivo —, mas eles servem para fazer com que a vida e a relação da pessoa com as máquinas sejam muito melhores, mas ele também está alimentando um submundo da internet em que as ameaças estão se tornando mais eficazes, elas estão se tornando cada vez mais complexas e mais entendedoras dos indivíduos e isso é um problema muito grande.

A gente tem já como perspectiva para as empresas de cibersegurança para os próximos anos um crescimento disso em um nível que a gente não esperava, no caso da engenharia social. A gente estava acostumado a ver ataques mais complexos e mais bem desenhados e etc., mas agora coisa rasteira, aquela coisa simples do dia a dia está se tornando também muito mais eficaz e nós imaginávamos já ter superado isso em uma primeira camada.

Então, são duas realidades que bebem na mesma fonte, os dados que estão circulando por aí porque as pessoas simplesmente estão entregando, sob o pressuposto de que para ter uma melhor experiência com o assistente de voz, o cara fica falando e ele entrega a voz dele, para ter uma melhor experiência com o chatbot, ele fica conversando ali e tal e aquilo vai melhorando e esse exemplo se aplica a n cenários e aí esses dados estão circulando. A gente não sabe se eles estão protegidos, se eles não tão. E a vacina contra tudo isso não é uma vacina que imuniza 100%, é uma vacina que vai imunizar uma parte, talvez menos da metade é a transparência, é entender quais são os processos dessas empresas e qual a finalidade e aí quando você começa entender isso, o usuário passa a ter a possibilidade de escolher se ele quer e entregar e que informações ele quer entregar, mas eu acho que a gente está muito distante disso.

E aí, de novo, não estou dizendo com olhar pessimista não, é realismo. A verdade, realidade nua e crua, é que as pessoas não estão prontas para isso porque as empresas também não têm interesse nisso. Vamos voltar para as redes sociais que foi o nosso comparativo aqui.

Há alguns anos, o Instagram, a Meta, acho que de maneira geral, tinha sido muito cobrada nos Estados Unidos pelo uso excessivo por jovens e aí várias pesquisas, universidades mostrando o impacto sobre os adolescentes etc., etc. Aí a primeira coisa que eles fizeram foi colocar um contador de tempo com um alerta para mostrar quanto tempo aquela pessoa estava passando na rede social. Bom, aquilo não serviu para nada só para mostrar que o que a pessoa já sabia que ela passava horas e horas e horas ali, a empresa falou, não, mas eu dei a possibilidade da pessoa reconhecer se o excesso e poder fazer algo sobre, não há o interesse da rede social em diminuir o uso, o tempo de uso, tempo de permanência. O negócio dela se viabiliza pela garantia de que você vai ficar horas e horas ali arrastando para cima.

O caso da IA e dessas plataformas com base em IA é a mesma coisa, elas só se viabilizam pela quantidade de informações que as pessoas entregam porque de um universo infinito você tira um bocado que é relevante, o resto você joga fora, mas até nesse lixo, nisso que está sendo jogado fora tem coisas que vão servir para finalidades aí que a gente não sabe muito bem quais são e que boa parte delas é negativa para o usuário.

Então, é um cenário complexo, um cenário de alto risco e de novo sobre o qual o regulador não faz a menor ideia de como lidar. Os textos todos são platitudes a respeito disso, tentam pegar inspirações na lei de proteção de dados, código de defesa do consumidor e uma coisa toda e isso está tudo muito bagunçado e aí numa camada acima quando a gente vê o que está sendo construído pelos planos nacionais de cibersegurança a gente tem também uma interrogação muito grande porque as pontas de vulnerabilidade são muitas e basicamente nesse caso cada cidadão é uma porta para um risco gigantesco.

André Miceli: A questão é essa. Apesar da experiência das redes sociais trazer muitos insights para o que vai acontecer, não tem muito para onde correr porque apostar nos legisladores é de um otimismo que beira até a insanidade. Apostar no mercado também não faz muito sentido porque o mercado está ali moendo a carne e precisa fazer as empresas rodarem, tem que dar resultado, tem um acionista, tem a bolsa de valores, os IPOs, um cenário macroeconômico complicado e naturalmente o resultado de curto prazo continua pautando muitas dessas ações. Então, é essa discussão, ela serve muito mais para gerar maturidade em quem usa a Inteligência Artificial, assim como em quem usa as redes sociais para que esses aprendizados possam servir de fato para alguma coisa.

Do ponto de vista prático, em termos de construção de políticas públicas e de escolhas corporativas, a gente sabe que esses dois organismos vão continuar olhando para si mesmos antes de olhar para a população geral, por isso que a gente precisa melhorar o nosso entendimento sobre cada uma dessas ferramentas que podem ser muito interessantes, mas que também podem ser muito perigosas, como temos visto com as redes sociais.

[TRILHA: O QUE MAIS VOCÊ PRECISA SABER]

André Miceli: Agora é hora de virar a chave. Eu pergunto para o meu amigo Rafa Coimbra: Rafa, no que você fica de olho esta semana?

Rafael Coimbra: André, estou de olho no que o presidente, agora reeleito, Vladimir Putin vai fazer em relação ao mundo digital na Rússia. Putin acabou de conquistar mais alguns aninhos no poder, não bastassem os 31 que ele já cumpriu à frente da Rússia. Ele agora volta a ser presidente, sendo reeleito, e as notícias que chegam da Rússia são muito pessimistas no sentido de uma censura digital. Já havia ali uma série de elementos, teve há pouco dias a morte do Navalny, crítico político do Putin, em uma morte bem suspeita em uma prisão, e o fato é que algumas manifestações antes mesmo desse acontecimento e depois dele, agora no período eleitoral, é de que a Rússia tem usado cada vez mais um modelo de cerceamento da liberdade de expressão.

Estamos falando aqui um pouco de monitoramento por parte das empresas, mas obviamente nada chega perto desse tipo de censura estatal. O que está acontecendo agora lá é algo muito parecido, não é o mesmo modelo, com a China. Mas Rússia e China têm similaridades, inclusive, têm parcerias para criar quase que um mundo à parte digital. A ideia da Rússia é criar uma splinternet, uma bolha em que os russos tenham informações só determinadas, ditadas ou controladas pela Rússia. Isso vem se acelerando, mas o que tem acontecido agora é, sobretudo, uma busca por reprimir VPNs, só para lembrar, são aquelas redes virtuais privadas em que você instala um aplicativo, usa determinado endereço e pode burlar as autoridades, não sendo tão vigiado quanto usando seu endereço de IP da internet.

O que acontece é que o governo agora está em uma campanha para proibir publicidade de aplicações de VPN e há quem diga que eles vão proibir as VPNs, qualquer tipo de rede virtual privada. Com isso, o governo acaba controlando ainda mais a vida do cidadão. Isso sem falar nas derrubadas de aplicações. Por exemplo, na China, é um modelo diferente, mas eles têm na Rússia o Telegram, ainda tem WhatsApp, só que toda vez que acontece uma possível manifestação, eles conseguem, agora na Rússia, derrubar. Eles simplesmente mandam tirar do ar WhatsApp, Telegram por algumas horas ou alguns dias até que o clima esfrie, até que o clima antigoverno esfrie. E obviamente, como você tem muitos cidadãos querendo usar essas aplicações para se comunicar, para trabalhar, essas pessoas obviamente são prejudicadas em função de uma determinação governamental.

Eu me preocupo muito porque obviamente essa estrutura toda ajuda a manter o atual poder no poder, estou falando aqui de Putin, todo o seu staff no entorno dele, e muito provavelmente a repressão ou esses elementos vão continuar sendo usados cada vez mais de maneira sofisticada dentro da Rússia.

André Miceli: Putin que publicou um vídeo votando pelo seu computador via blockchain. A Rússia é engraçada. A Rússia na luta pela transparência da democracia. Quando o Rafa estava falando sobre essas múltiplas redes e as bolhas que se criam ao redor desses governos, estava me lembrando daquela frase do Orwell, do George Orwell: “em tempos de engano universal, a verdade é um ato revolucionário”. É impressionante como essas questões se repetem. Carlos Aros, diga lá, no que você vai ficar de olho esta semana.

Carlos Aros: Eu estou de olho nos robô-táxis ou nos táxis robôs, André Miceli. A Zoox que opera lá na Califórnia está também em fase de testes com os carros autônomos, ela anunciou que vai ampliar a área onde está operando com esses testes, também vai adotar alguns momentos com direção noturna e aumentar a velocidade, escolher vias em que os carros podem circular com uma velocidade um pouco maior. Nós publicamos há alguns dias, no nosso site, um artigo que trata desse embrolho envolvendo os táxis robôs porque tem uma questão importante regulatória, uma questão importante de mercado, cada uma dessas empresas e como elas têm brigado disputando o quinhão dessa história, mas tem uma questão envolvendo a segurança e a eficiência dessa tecnologia e essa é a busca, né, que está sendo feita. A Zoox fez o anúncio há poucos dias e diz que existe uma frota agora que foi desenvolvida, projetada por ela mesma para esses carros, eles não têm controles manuais internos, não tem volante, não tem pedal e aquela coisa toda e ela vai continuar operando os carros da Toyota que são adaptados em outras cidades. Tem Seattle, tem Las Vegas e etc.

O grande ponto sobre esta disputa e sobre este mercado é que a Zoox, pertence à Amazon, a Waymo é o player a ser batido nesse contexto e há outros gigantes da tecnologia de alguma maneira também ciscando e tentando encontrar espaço. O caso específico da Cruise no ano passado, em que teve um acidente, a gente chegou a discutir isso e está citado também nesses artigos que nós publicamos recentemente, levantou uma dúvida severa sobre a confiabilidade da tecnologia. A questão é que é um caso versus dezenas, centenas de corridas que são feitas no período. Então, houve um atropelamento, houve uma vítima, mas o que se argumenta é que é um caso em um universo enorme de corridas que são feitas e de veículos circulando.

Mas, de todo modo, o regulador e aqueles que não são favoráveis a esses veículos autônomos circulando por aí têm colocado esses pontos como vulnerabilidades. E aí tem um período para que essas empresas comecem a implementar os seus cronogramas, pelo menos daquilo que se entende como a versão final, os carros completamente sem a possibilidade de um ser humano operar o veículo. Essa geração agora desenvolvida pela Zoox já vai fazer isso, eles não têm controles internos, então em uma emergência quem está dentro do carro não tem muito o que fazer, porque você não tem volante, você não tem pedal, você não pode fazer nada, e aí as discussões começam a ficar um pouco mais complexas.

Lá na Califórnia e nessas outras cidades existe uma condição externa que pressupõe a facilidade para essa circulação desses veículos e aí o resto do mundo, claro, se quiser ter frotas de carros autônomos, vai precisar se adaptar bastante. Os testes que foram feitos com carros ainda em uma fase de automação inicial, nem era o último nível ainda, no primeiro nível, aqui em São Paulo, por exemplo, na Marginal Tietê, já sucumbiram e entregaram rapidamente o controle para o motorista porque eram tantas coisas acontecendo ao mesmo tempo que os sensores enlouqueceram. Então nós estamos ainda longe de conseguir implementar isso no mundo todo, mas lá na Califórnia, a coisa está avançada e a Zoox agora está tentando dar um passo que já foi alcançado pela Waymo há pouco tempo.

André Miceli: Bom, é isso, está na hora. Mas antes de ir, eu quero lembrar que esse podcast, o oferecimento do SAS.

[PROPAGANDA: A plataforma SAS Viya é a forma mais rápida de transformar um bilhão de dados em um ponto de vista. Saiba mais em www.sas.com]

André Miceli: Meu amigo Rafa Coimbra, até a semana que vem!

Rafael Coimbra: Abraço, André, Carlos, e a todos que nos ouvem. Se você gostou desse tema de Inteligência Artificial ou desse outro que falamos sobre autonomia, dá um pulo lá no nosso canal no YouTube, tem as últimas novidades da combinação de robôs e Inteligência Artificial. Até a semana que vem.

André Miceli: Carlos, até a semana que vem.

Carlos Aros: Até a semana que vem, André Miceli, Rafael Coimbra. A gente se encontra aqui no podcast da MIT Technology Review Brasil. Um abraço também para você que nos acompanha.

André Miceli: É isso, semana que vem a gente se encontra por aqui para falar sobre tecnologia, negócios e sociedade. Um grande abraço para você que nos ouve. Tchau, tchau.

[TRILHA SONORA]

Último vídeo

Nossos tópicos