Os modelos abertos de IA são mesmo open source? 
Podcast

Os modelos abertos de IA são mesmo open source? 

E, antes disso, existe um consenso sobre o que significa “IA de código aberto”? 

“Open source” é um termo em inglês que significa código aberto. Isso diz respeito ao código-fonte de um software, que pode ser adaptado para diferentes fins. O termo foi criado pela OSI (Open Source Initiative) que o utiliza sob um ponto de vista essencialmente técnico.

Agora, ele tem aparecido com certa frequência no mercado de Inteligência Artificial. A Meta anunciou, por exemplo, seu compromisso em desenvolver uma IA de código aberto, enquanto Elon Musk disse que está processando a OpenAI devido à escassez de modelos de IA de código aberto.

Neste episódio do podcast da MIT Technology Review Brasil, André Miceli, Carlos Aros e Rafael Coimbra falam sobre a falta de consenso do que é “IA de código aberto” e como isso pode afetar o mercado.

Este podcast é oferecido pelo SAS.

Transcrição:

[TRILHA SONORA – ABERTURA] 

 

[ANDRÉ MICELI] 

Olá, eu sou André Miceli e este é mais um podcast da MIT Technology Review Brasil. Hoje, eu, Rafael Coimbra e Carlos Aros vamos falar sobre uma polêmica que pode mudar o futuro da tecnologia: a indústria tecnológica precisa chegar a um consenso sobre o que significa Inteligência Artificial de código aberto, e a resposta pode determinar quem vai liderar essa próxima onda tecnológica. Antes de começarmos, gostaria de dizer que este podcast é um oferecimento do SAS, líder em Analytics, e convidá-los a entrar para a nossa comunidade em www.mittechreview.com.br/assine.  

Rafael Coimbra, há poucos dias, poucas semanas, na verdade, o Sam Altman, CEO da OpenAI foi ao podcast de Lex Friedman, que é professor do MIT e apresentador de um dos podcasts mais influentes do mundo. O podcast tem crescido muito e é bastante denso, com longas três horas de conversa. Friedman tem uma postura provocativa, fazendo considerações e ponderações que às vezes causam desconforto. Ele perguntou, em dado momento, para Sam Altman se a OpenAI ia mudar de nome, já que ela não é open de fato. Altman respondeu que eles entregaram para a humanidade uma ferramenta superpoderosa de graça, todo mundo pode fazer o que fizer, e que para ele isso é ser open. 

Então, Rafael Coimbra, eu te pergunto: o que você acha dessa história toda? E também me conta como a percepção do uso e do termo código aberto pode afetar a confiança do público e até mesmo a inovação no campo de Inteligência Artificial. 

 

[RAFAEL COIMBRA] 

Há controvérsias, André, porque quando a gente usa essa palavra “código aberto”, “sistema aberto”, “aplicativo aberto”, a gente tem que parar para pensar em que ponto isso ficou aberto. Essa é a grande discussão do momento. Quando nós voltamos ao passado e olhamos os programas de código aberto, como o Linux, entre outros, o que a gente observava é que você tinha, enquanto programador, a origem desses códigos. Você poderia ir lá no início entender como esses códigos foram programados, mexer, alterar, acrescentar. Isso é a essência do que a gente conhecia até então como chamado código aberto.  

Quando entram esses modelos de linguagem em larga escala, de IA generativa, que é basicamente do que a gente está falando, a coisa muda. Porque, como você observou, a OpenAI tinha no seu nome a ideia associada à abertura, lançou o ChatGPT e, em seguida, fechou suas operações ao fazer parcerias comerciais e vender assinaturas. E, de repente, aquele acesso, que não era 100%, mas a gente tinha alguma ideia de como esses modelos estavam sendo feitos, de repente isso meio que some. A empresa se fecha, passa a ser uma empresa, sim, com um interesse comercial além de outras empresas que seguiram caminhos semelhantes. Outras empresas também entram nesse jogo. A Meta, do Facebook e do Instagram, por exemplo, chegou tarde e tentou afirmar que seus modelos eram abertos. O Google, por sua vez, apresentou modelos fechados, como o Gemini, e outros abertos, como o Gema. Tentam, de certa forma, seguir o modelo bem-sucedido do Android, um sistema de código aberto dominante nos smartphones. 

No entanto, surge a pergunta fundamental: em que momento um modelo se torna aberto? As grandes empresas de tecnologia investem tempo e recursos significativos no treinamento de seus modelos de IA, mas disponibilizam esses modelos para uso externo após certo ponto de treinamento. Isso não é verdadeiramente aberto, pois recriar esse processo seria impraticável em termos de tempo e recursos. Assim, embora se utilize o termo “aberto”, na prática, não podemos considerar esses modelos como totalmente abertos. A discussão sobre o consenso nesse ponto continua em aberto. Organizações como a Open Source Initiative, desde o final do século passado, buscam definir o que realmente significa código aberto. Porém, até agora, não há consenso absoluto sobre o que torna um código verdadeiramente aberto. 

Na minha perspectiva, é improvável que alcancemos esse consenso total. Na medida em que os modelos se tornam mais complexos e são pré-determinados pelas grandes empresas, sempre haverá interesses comerciais em jogo, dificultando a ideia de uma abertura total. 

[ANDRÉ MICELI] 

Carlos Aros, se a gente olhar aqui os diferentes agentes que constroem um ecossistema de inovação, ver na academia, associações, grandes empresas, startups, investidores, qual é o poder de cada um? Quem vai resolver ou pode pressionar de alguma maneira guiar, nortear ou vai ignorar essa definição e vai construir sua própria realidade, independentemente da discussão, e todo mundo vai ficar ali ao redor tratando o que é código aberto, mas a realidade vai ignorar essas diferentes percepções, como você acha que esses stakeholders podem ajudar nesse processo de definição? 

 

[CARLOS AROS] 

Bom, o primeiro ponto de partida para isso é o interesse comum, é o objetivo disso tudo, e hoje, quando a gente percebe que até mesmo aqueles que propõem iniciativas de código aberto guardam a chave do cofre, aquele ingrediente secreto, o toque mágico, aquela pitada que faz tudo efetivamente ser tão grande quanto as pessoas esperam que seja. Quando a gente olha esse cenário, a gente descobre que esse ecossistema, como um todo, não está muito interessado em promover a abertura e compartilhar como há alguns anos se fez com outras grandes iniciativas, né? Que tornaram grandes empresas de código aberto expoentes no mercado, que fez um ecossistema enorme girar. A gente tem exemplos muito positivos dentro, até mesmo em um mercado altamente restrito que é o da cibersegurança, por exemplo, iniciativas interessantes de código aberto que construíram a comunidade e fizeram com que a comunidade crescesse, mas ali havia um interesse comum. Todas as pontas, todos esses stakeholders estavam interessados em promover essa abertura, em promover uma conexão, uma colaboração para fazer com que o crescimento fosse compartilhado. Talvez nem todos cresceriam na mesma velocidade, talvez nem todos crescessem com alcançar os mesmos patamares, mas de um modo ou de outro todos estavam ali promovendo a colaboração para cada um ganhar o seu pedaço. 

 Hoje o que a gente tem até como um exercício, talvez de proteção dentro de uma dinâmica em que grandes players que operam com base em IA e que têm modelos ali bem desenvolvidos, estão, vou colocar, entre aspas, sob ataque, porque os mercados estão cada vez mais disputados. Porque esses grandes players estão interessados em preservar o seu share e garantir que um outro não chegue para fazer sombra existe e até mesmo do ar de governos. Vejam, a gente tem uma máquina muito potente com base em algoritmos que é o TikTok. A grande discussão que envolve o TikTok nos Estados Unidos é a quebra desse segredo, o Governo dos Estados Unidos diz que esse modelo essa máquina, essa engrenagem que se alimenta de dados de cidadãos norte-americanos, elas vulnerabilizam a segurança nacional que é uma máquina que pode oferecer recursos para terceiros e que esses terceiros se voltem contra os Estados Unidos, a gente tá falando de uma questão que envolve especialmente uma empresa com uma alta capacidade de desenvolvimento tecnológico, essa empresa tem uma ferramenta que é dela e ela agora está sob ameaça de uma por parte de uma decisão que a legítima também do outro lado de que “olha, me vejam ameaçado aqui. Você tem que corresponder, se você quer tá aqui brincando no meu parquinho, você segue as regras, se não um grande abraço”, então este é um cenário que ganha dimensões bem importantes quando a gente olha o movimento na Europa e a lei que regula as Big Techs, lei de mercado. Tudo isso imputa nessas plataformas, nessas grandes empresas, nesses players todos, uma percepção de preciso defender o meu quadrado e claro uma corrida pela supremacia.  

Aquele que melhor se desenvolver que conseguir chegar lá na frente antes de todo mundo, vai ter largas vantagens e ele quer preservar, todos querem preservar essa vantagem. Então óbvio que numa comunidade em que todo mundo cresce, todo mundo se desenvolve junto. É preciso ter essa colaboração e ter se essa espécie de desprendimento e a gente sabe a importância, nós inclusive já fizemos aqui há alguns episódios falando sobre a comunidade de código aberto, a gente sabe da importância dela para fomentar inclusive os outsiders, aqueles que não estão dentro dessas muralhas construídas por esses grandes players, mas aqui no caso específico da IA, a grande diferença é que a gente tem engrenagens muito grandes operando com base em investimento muito grande de caras que querem se preservar, que querem se proteger e aí aqueles que são contrários a essa ideia e dizem: “olha, quanto mais fechados eles forem pior é para o resultado da comunidade”. E aí surgem figuras como, por exemplo, o nosso amigo Musk que propõe lá, também para fazer pirraça, um processo contra a Open AI para dizer que eles não estão atuando etc. É confuso, tão confuso quanto parece, mas no fim do dia, André, quase nenhum desses grandes players hoje está disposto a renunciar ao que já conquistou para poder dividir e crescer, né? Dividir e conquistar, todos querem conquistar sem ter que dividir nada e isso faz com que essa definição seja complexa sobre que modelo adotar para uma comunidade open source com base em IA. 

 

[ANDRÉ MICELI] 

Rafa, e uma parte importante dessa história, voltando aquele ponto que você trouxe sobre em que momento da jornada de uso de um usuário que uma plataforma passa a ser aberta, como se constrói essa estrutura? Naturalmente a empresa precisa monetizar, precisa se sustentar, precisa dar lucro. Seus investidores só iniciaram essa operação porque entenderam, em um determinado momento, que ela daria um retorno. Então essa estrutura precisa acontecer.  

Nesse momento de desenho, que é o momento em que a definição do que é aberto de fato vai fazer diferença, vai se abrir o código e deixar as outras empresas do ecossistema construírem derivações daquele ambiente, como foi o Linux, por exemplo. Vão se usar APIs que vão expor os serviços para que você crie derivações, e a partir daí se monta uma plataforma que monetiza tanto aquele Kernel, a estrutura principal do software, quanto as os softwares que são derivados a partir dessas APIs.  

Enfim, como você enxerga os desafios e as implicações de se criar licenças que estejam alinhadas com o princípio do código aberto, mas também que considerem os riscos potenciais de Inteligência Artificial? A gente tem debatido muito sobre essas possíveis implicações em relação a ética, em relação a comportamento, a saúde mental, de que maneira vai dar para balancear essa história toda, até no que diz respeito à responsabilização de cada um desses organismos que vão construir esse ecossistema de IA? 

 

[RAFAEL COIMBRA] 

Tem um monte de coisa envolvida nisso que você está abordando, André, dá para a gente fazer uma metáfora aqui. É como se a gente tivesse ali realmente uma grande caixa preta do que está sendo feito na origem. Então, quando a gente não tem acesso aos dados, a como essas máquinas estão sendo treinadas, surgem várias questões que vão desde questões de competição à questões éticas. Então, para dar um exemplo claro concreto do que está acontecendo agora nesses dias, um executivo do YouTube disse que não permitiria a Open AI, a criadora do chat GPT, que agora tem o Sora que é o chat GPT do vídeo, que fazem vídeos hiper-realistas sensacionais. Ele tá dizendo: “Olha, não, não queremos enquanto empresa que vocês usem os vídeos do YouTube para treinar as suas máquinas, a gente não sabe como é que tá sendo treinado isso.”  

Então, veja, tem uma competição, no fundo tem uma competição comercial, um usando o dado do outro. Quais são os dados que são usados no LLama da Meta ou no Gemini do Google? A gente não sabe de onde está vindo dado. Talvez um esteja copiando dado do outro, aí isso, como eu disse, tem comercial, tem a implicação ética, porque, né? Se estiverem usando, por exemplo, o nosso vídeo, a gente tem vídeo, tem o nosso canal no YouTube da Technology Review, e se alguém criar um vídeo em cima do nosso vídeo? A gente não está sendo desrespeitado? Essas questões não são transparentes hoje como se deveria. Então, nesse bolo, nessa que eu tô chamando aqui de caixa preta, tem muita coisa ainda a ser abordada e a discussão, portanto, passar por um outro nível. 

 Então, tem gente tentando fazer uma alternativa. Você está falando de código aberto, tem a tal organização que trabalha e tenta fazer essas definições. Eu acho que isso na prática é quase impossível, mas tem gente que também trabalha com essa alternativa que seria até uma licença, que é a licença de IA irresponsável inglês é RAIL o nome da entidade. E aí eles tentam fazer algo comendo pelas beiradas que é: “olha, vamos tentar entender se esse código aqui ou se esse modelo que essas empresas estão oferecendo são de alguma forma eticamente responsáveis, eles cumprem esses requisitos?”  

Novamente é uma luta porque a gente está falando de organizações. Por mais que você tenha representantes de diversos segmentos, exigir dessas grandes empresas que elas sejam mais abertas é muito difícil, mas é uma tentativa. Eu acho que o que a gente vai acabar, no fim das contas, conseguindo é no máximo ali quase que um selo de qualidade para dizer que aquilo que chega e que é colocado como aberto é algo interessante ou bom para a humanidade.  

Tem um aspecto que é importante também, André, que é importante a gente ressaltar, que é o de ambiente regulatório. O que a gente viu das Big Techs nos últimos anos e vem acompanhando cada vez mais, é que sobretudo na Europa, mas também nos Estados Unidos, existe uma pressão muito forte por parte das autoridades de dar uma enquadrada no poder que essas empresas podem ou não podem fazer comercialmente e eticamente, a responsabilidade dessas empresas sobre o que é produzido hoje de impacto social. Talvez a gente esteja vendo um movimento em que essas Big Techs, que são as mesmas né?  

Estou falando aqui os nomes que a gente já conhece há muitos anos, com exceção da Open AI, que tá chegando agora no mercado. Mas a gente pode estar vendo um fenômeno que vou chamar aqui de “lavagem de código aberto”. Há poucos dias, eu falei aqui do AI Washing, a lavagem da IA, que é muita gente dizendo que trabalha com IA mas, na verdade está trabalhando com programação simples, mas dá aquela sofisticada para dizer que está trabalhando com IA. 

  

Eu acho que uma grande parte pode ser uma estratégia de marketing dessas Big Techs quando elas dizem que elas estão trabalhando com código aberto com uma IA responsável, ou seja lá o que for, é um pouco para dizer para as autoridades: “olha, eu estou sendo transparente. Eu estou sendo aberta. Eu estou envolvendo a comunidade, portanto deixem com que eu me autorregule”, talvez exista esse movimento, é algo para a gente pensar, e eu acho que tem um pouco de marketing também.  

Mas o que a gente vai acompanhar nesse sentido novamente é uma discussão ética que vai estar numa camada acima. Insisto que, enquanto a gente não obtiver informações mais transparentes, mesmo que a empresa não abra e diga “eu não deixo você copiar esse treinamento”, mas quando ela não deixa você enxergar o nascimento desse treinamento, a gente abre margem para várias desconfianças e obviamente não é possível dizer que é 100% aberta, transparente e ética porque eu não sei o que que tá ali na origem, não sei nem se você está copiando, usando o meu conteúdo de uma maneira que eu não permiti. 

 

[ANDRÉ MICELI] 

Carlos Aros, especificamente sobre essa questão da ética, como você vê esse entrelace sobre o debate a respeito de Inteligência Artificial, código aberto e essas questões éticas? Qual deve ser o papel da ética na formulação de diretrizes para uma Inteligência Artificial aberta? 

 

[CARLOS AROS] 

Central, sobretudo porque a gente tem hoje uma orientação, como o Rafa colocou, pouco clara. Cada empresa a serviço do interesse do próprio negócio desenvolve a operação, coloca as coisas para rodar e os usuários lá na frente são impactados por isso, e a gente só vai descobrir os efeitos mais adiante. 

  

O grande ponto aqui, independentemente de um debate sobre código aberto ou não, é qual o norte dessas empresas e de que maneira estão sendo utilizados acessadas as informações dos usuários. Que tipo de vícios e vieses esses modelos passam estabelecer e que tipo de riscos surgem em decorrência disso, ou seja, há um olhar pouco claro sobre essa preocupação com os indivíduos e com a exploração das pessoas lá na ponta. Para além do fato de a gente não entender, e aí quando eu digo que cada um defende o seu quadrado sem olhar ou sem permitir que se crie um espaço para o próximo, é muito em função de como também esses interesses acabam se retroalimentando como uma plataforma cabo impulsionando a outra e o negócio da outra a partir de um ambiente carregado de vícios. 

  

Eu entendo que a gente precisa colocar as coisas, colocar a bola no chão e definir alguns parâmetros claros, talvez não como regulamentação, não com regras escritas em pedra, mas para que mesmo dentro de um ecossistema tão amplo como esse seja possível definir alguns parâmetros que bem a ética o papel central que ela precisa ocupar na construção de algo, que é que invade de maneira tão arrebatadora e tão profunda a vida das pessoas e hoje algumas dessas empresas sobre qualquer pretexto criam grandes narrativas de marketing vendem os benefícios mas não mostram as adversidades não mostram ali não sinalizam o que pode haver de problema e muitas vezes os problemas são até mascarados para que o produto lá na ponta chegue ao mercado. 

  

E eu nem me refiro necessariamente só a inteligência artificial vai substituir não não já superamos essa discussão então falando de impactos mais profundos impactos sociais impactos para o desenvolvimento das pessoas e etc e a gente tem claro que dimensionar tudo isso, eu infelizmente André não acho que essa seja o debate ético esteja presente de maneira tão clara naquilo que é as plataformas vem promovendo que as empresas vêm promovendo ele tá muito esse tipo é um debate quase que silencioso na academia, mas que não dá conta de alcançar todas as dimensões desse mercado. 

 

[ANDRÉ MICELI] 

Bom, essa história ainda rende muito. Algumas das coisas que a gente fala por aqui promete novos episódios e desdobramentos ou acompanhamento. Nesse ponto, especificamente, não existe nenhuma dúvida que a gente ainda vai falar bastante, tem muita coisa acontecendo e essa estruturação, de fato, vai impactar de uma maneira muito importante, não só o mundo da tecnologia, mas a relação entre a tecnologia e a sociedade. A gente ainda vai falar bastante sobre esse tema, mas agora é hora de virar a chave. 

 

[VINHETA – O QUE VEM POR AÍ?] 

 

[ANDRÉ MICELI] 

Rafa Coimbra, me diz no que você vai ficar de olho essa semana. 

 

[RAFAEL COIMBRA] 

Estou de olho, André, na atualização do supercomputador Santos Dumont, que é brasileiro, fica em Petrópolis na região serrana do Rio. É um computador que a comunidade acadêmica acompanha já há muitos anos e de tempos em tempos a gente sabe que tem que dar uma atualizada, né? A gente faz isso em casa na nossa máquina no nosso computador laptop de tantos em tantos anos. A gente dá aquela trocada porque o equipamento vai ficando obsoleto e o Santos Dumont, ele tinha uma capacidade até então instalada de 5.1 Beta flops por segundo. Não me pergunte a tradução disso, mas eu posso dizer que é coisa pra caramba e eles estão não é a pedra muita coisa na verdade, né? O Santos Dumont é um computador, ele funciona como se fosse um somatório de computadores. Então ele tem CPUs e ele tem GPUs. Então tem um nó específico para Inteligência Artificial, por exemplo, mas somando essa capacidade computacional.  

 

Nessa escala, né? E aí a gente está saindo de 5.1 para 17 a Beta flops, é o que se diz ali nesse caso desse supercomputador aqui de mais ou menos ali entre três seis anos, você tem que dar uma atualizada. E isso está acontecendo agora. Quem está bancando esse financiamento é a Petrobras, é um contrato de 19 milhões e meio de dólares, mas obviamente esse computador não é da Petrobras ou ele não é usado especificamente por uma empresa, qualquer um que obviamente colocar ali um projeto de interesse, né? Você passa por uma seleção, mas que eu tô dizendo o seguinte, você é pesquisador, você está ali querendo estudar algo que realmente precise de uma complexidade computacional, você pode submeter esse projeto para que você use essa capacidade do supercomputador Santos Dumont. Então desde um projeto que vai, sei lá, simular um medicamento ou uma simulação climática, que são coisas que a gente volta e meia realmente exige um poder computacional maior do que o que você tem na sua empresa ou no seu centro de pesquisa, isso pode ser colocado ali.  

Está previsto para que essa atualização ela aconteça ao longo desse ano e em 2025, portanto as pessoas vão ter acesso a essa nova capacidade, ainda dá para usar. Mas com esse superpoder a partir do ano que vem fica a dica, eu acho que a gente aqui no Brasil, às vezes esquece, né? Que tem essa possibilidade, você não precisa comprar a gente falou acabou de falar aqui sobre a IA generativa, né? Não é todo mundo que consegue fazer um treinamento de um modelo como um chat GPT, mas a gente tem acesso pontualmente a determinadas potencialidades. Como eu disse antes não tem uma área dedicada aí. Então se você está de olho e querendo simular algo complexo, fica a dica para usar um equipamento que está no Brasil. 

 

[ANDRÉ MICELI] 

Vou fazer uma analogia para ilustrar o que é a diferença de um beta flop. Imagine uma super fábrica e uma pequena oficina. Essa super fábrica consegue fazer alguns quatrilhões, na verdade, cada petaflop é um quatrilhão de tarefas por segundo, e a oficina centenas de tarefas por segundo. 

Os nossos computadores, que já são bem razoáveis se a gente comparar com 15 anos atrás, são essa pequena oficina, centenas de tarefas por segundo. E o supercomputador, para cada peta flop, esse quatrilhão de tarefas, é difícil quantificar o que é um quatrilhão de tarefas, né? Mas a desproporção entre esse computador ou esses computadores com aqueles que a gente tem em casa, com os novos celulares que são já bem razoáveis, é realmente absurda. 

Carlos Aros, no que você fica de olho? 

 

[CARLOS AROS] 

Eu estou de olho numa discussão que desembarca aqui no Brasil, inspirada por debates na Europa e na Ásia, que é a taxação das Big Techs. Há um grande ponto de interrogação no governo federal, que mobilizou uma Força Tarefa composta por diferentes Ministérios e suas respectivas agências, tudo aquilo que está conectado. Por exemplo, a Anatel, no caso do Ministério das Comunicações, e aquela coisa toda. O que eles querem olhar, basicamente, é o tal do “fair share”, que é o pagamento pelo uso compatível da rede de telefonia, uma espécie de Cid para remuneração para que as plataformas remunerem o conteúdo jornalístico. E com isso, o sistema de informação seja novamente recomposta. 

  

A gente assistiu isso na Austrália, por exemplo, a taxação do serviço de vídeo on demand, ou seja, haveria imposto específico para produção de conteúdo em plataformas como o YouTube, por exemplo, ou Netflix, e por aí vai. A ideia da cobrança de um imposto de renda no contexto daquilo que vem sendo colocado para regular a reforma tributária. Então são quatro frentes, há um entendimento de que há espaço para ganhar alguma coisa em cada uma delas, eventualmente perder alguma coisa em cada uma delas, o entendimento segundo algumas pesquisas que têm sido usadas pelo governo. 

  

Basicamente, que leva em conta o PIB per capita, a quantidade de linhas de telefonia etc. O governo entende o seguinte: que a Amazon faturou só no ano de 2022 quase 30 bilhões de dólares no Brasil; o Google faturou pouco mais de 10 bilhões de dólares aqui no Brasil; Spotify pouco mais de 7 bilhões; Microsoft mais de 7 bilhões; e a Meta um pouquinho mais de 4 bilhões de dólares. O governo entende, então, que a partir desses volumes de receitas geradas aqui dentro do Brasil, essas empresas que têm subsidiárias aqui no Brasil, elas estão usando o regulamento debaixo do braço e, por isso, evitando pagar tributos, deixar tributos aqui no Brasil, e que isso não é justo. 

  

Portanto, o governo estabelece esse racional. O jornal Folha de São Paulo traz uma matéria bem interessante assinada pela Patrícia Campos Mello. Ela ouviu figuras do governo, por exemplo, a Anatel, falando sobre o tal do “Cid” e etc. E as visões e posições são muito interessantes, algumas delas propõem inclusive derrubar a chamada neutralidade de rede, que foi aprovada lá atrás no Marco Civil da Internet e que propunha o tratamento igual para todo mundo independentemente do uso da rede etc. Mas hoje, segundo alguns estudos, o nosso volume total de rede é usado 80% por seis empresas. E aí, evidentemente, essas empresas pagam ou têm ali um custo igual às demais. E aí isso acaba não sendo justo. Tem todo um racional, é o início de uma conversa, né? Tem a Feninfra, tem vários players envolvidos nessa discussão, é bem interessante, mas eu não sei se isso agrada as Big Techs.  

 

E diante de tudo que tem acontecido na Europa, a gente viu em alguns países da Ásia, e isso também, eu não sei se as Big Techs estão numa fase tão boa do ponto de vista da relação com os governos. Mas o fato é que o governo federal está estudando e a perspectiva é que até o final do ano, pelo menos alguma coisa seja apresentada para o congresso aprovar já com o objetivo de, a partir de 2025, o governo começar a faturar com o que as Big Techs geram de receita aqui dentro. 

 

[ANDRÉ MICELI] 

Bom, meus amigos, está na hora. Mas antes de ir, eu quero lembrar que este podcast é um oferecimento do SAS. Rafael Coimbra, até semana que vem! 

 

[RAFAEL COIMBRA] 

Um abraço André, Aros e todos que nos ouvem. Se você curtiu esses assuntos que a gente abordou aqui, tem muito material relacionado lá no nosso site, até semana que vem! 

 

[ANDRÉ MICELI] 

Carlos Aros, até semana que vem! 

[CARLOS AROS] 

Até semana que vem, André, Rafa, um grande abraço para vocês. 

 

[ANDRÉ MICELI] 

Lançamos um podcast especial sobre o Energy Summit, o evento que o MIT está coorganizando. Então, vai ter a EMTech Energy, a conferência da MIT Technology Review, Energy Summit na sequência, dois dias para discutir transição energética, ESG e sustentabilidade. 

Temos grandes planos de influenciar o mercado. Estão vindo diversos professores, vão acontecer aulas com professores do MIT no Rio de Janeiro. 

Uma discussão que os governos vão participar, membros de países europeus, sul-americanos, dos EUA… Estamos desenhando um evento cada vez mais global, chamando gente do mundo inteiro para construir os próximos passos da transição energética e da sustentabilidade. Vamos entender como dá para construir um mundo melhor com mais dados, mais processamento e mais demanda de energia. Está lá no Spotify, no seu agregador de podcast favorito, mas nesse caso também está no Youtube. Dá uma conferida que a gente vai seguir falando sobre esse assunto aqui também. 

Semana que vem tem mais podcast da MIT Technology Review Brasil para a gente seguir debatendo tecnologia, negócios e sociedade. Um grande abraço para você que nos ouve, tchau, tchau! 

  

 [TRILHA SONORA – ENCERRAMENTO] 

Último vídeo

Nossos tópicos