Oferecido por
As soluções de Inteligência Artificial ganharam popularidade e muitas pessoas estão usando essas ferramentas não só como um recurso profissional, mas como mentores ou até suporte emocional.
Mas o que podemos fazer para nos proteger desse vício em IA? Quais limites éticos devem ser estabelecidos para impedir que tais soluções de IA substituam as interações humanas?
No podcast MIT Technology Review Brasil desta semana, André Miceli, Carlos Aros e Rafael Coimbra discutem o assunto e refletem sobre como os modelos de hiperpersonalização proporcionados pela IA podem aumentar o risco de dependência digital.
Ouça no seu agregador de Podcast favorito:
—
[Narradora]
Informação especializada, influente e confiável.
Podcast MIT Technology Review Brasil.
[André Miceli]
Olá! Eu sou André Miceli, e esse é mais um podcast da MIT Technology Review Brasil. Hoje, eu, Rafael Coimbra e Carlos Aros vamos falar sobre a addictive intelligence. O fascínio pela Inteligência Artificial pode ser difícil de resistir, e a gente vai entender o que fazer para nos proteger desse possível problema. Vamos ficar viciados na IA? Antes de começar, quero dizer que este podcast é um oferecimento do SAS, líder em Analytics, e também te convidar para entrar na nossa comunidade em www.mittechreview.com.br/assine.
Rafael Coimbra, de onde surgiu essa história da inteligência viciante e quais limites éticos devem ser estabelecidos para impedir que as soluções de IA substituam interações humanas em contextos como terapia, ensino e apoio emocional em geral?
[Rafael Coimbra]
André, isso não veio do nada não. Isso surgiu, primeiro, por parte de pesquisas. Tem gente tentando entender como nos comportamos diante de determinadas tecnologias sedutoras, como a Inteligência Artificial. E saiu também por conta das próprias empresas. Nesses últimos dias, a OpenAI, criadora do ChatGPT, divulgou novidades. Agora você pode conversar de maneira mais natural com a máquina, com o chatbot usando voz humana e eles mesmos colocaram, numa página de riscos da empresa que essa relação mais próxima, mais parecida com se você estivesse conversando com uma pessoa, isso pode ser um risco de vício. A gente pode acabar cada vez mais querer ficar conversando, interagir com as máquinas, não só na parte de socialização, vamos dizer assim, mas também na geração de conteúdos.
Veja, hoje como funciona nas redes sociais? Só para a gente faze um paralelo da evolução desse vício, como ele pode acontecer. Então hoje você entra numa rede social, pode ser o Twitter, Instagram ou TikTok, e os algoritmos entendem rapidamente o que você quer. Você tem uma personalidade, determinados gostos, aquilo é entendido pela máquina de alguma maneira, pelas suas ações, pelo tempo que você passa vendo determinados conteúdos e o computador, o sistema por trás disso tudo te dá mais do que você gosta. Veja o conteúdo foi produzido por uma outra pessoa, por uma empresa, por alguém, e você está conectado àquele conteúdo sedutor. A gente sabe, por experiência própria, que esse conteúdo de redes sociais é viciante, mas, novamente, é um conteúdo pré-pronto. Imagine no futuro você podendo criar em tempo real o que você quer.
Pessoal que é viciado em maratonar séries. Você poderá, eventualmente, no futuro pedir para a máquina criar sua série favorita, no seu estilo favorito, com os atores e atrizes que você imaginar. Isso é algo extremamente potente, poderoso do ponto de vista tecnológico.
Mas volto ao ponto da antropomorfização, André, ou seja, tornar as máquinas parecidas com humanos. Isso realmente é algo que é realmente assustador, porque antigamente você entendia que a máquina era apenas uma máquina. Você interagia com um avatarzinho, uma figurinha bobinha. Mas hoje, não só em termos de voz — a voz sintética está muito precisa, muito impressionante em termos de tom e jeito de falar — mas daqui a pouco também a gente começará a ver esses recursos embutidos em robôs humanóides, com feições humanas e, pasmem, a gente acha que a gente consegue resistir e não vai cair no conto da máquina, mas diversos estudos mostram que sim, a máquina é capaz de nos convencer, de nos bajular — para usar um termo científico que aparece em uma pesquisa — você sabe que é uma máquina, sabe que a máquina está te enganando, se fazendo parecer por um humano, mas você aceita conversar com a máquina. A máquina é muito sedutora, ela vai dizer coisas que você quer, ela não vai te encher o saco, ela não vai te perturbar, ela vai ser sua amiga, eventualmente namorado ou namorada, é uma companhia perfeita de acordo com o que você quer, e isso é perigoso, porque sabemos que o ser humano tem suas fragilidades. Interagir com outras pessoas no mundo normal, natural, real não é tão simples quanto conversar com uma máquina que te agrada o tempo inteiro. E sim, nós tenderemos, enquanto humanidade, a toparr essa ficção. Você saberá que está sendo enganado, mas é aquela velha expressão: “me engana que eu gosto”.
[André Miceli]
O conto da máquina, como o Rafa trouxe, é o novo canto da sereia. Eu fico pensando, Rafa, nessa ideia da série que você deu: o dia em que eu não vou gravar o podcast porque vou estar assistindo Peaky Blinders infinito, Poderoso Chefão em série, e por aí vai. Essa realmente me pegou, cara.
Carlos Aros, essa capacidade de gerar conteúdo altamente ajustado pode criar esses novos níveis de dependência e tornar a Inteligência Artificial um vício muito mais poderoso do que as redes sociais já são. Toda essa relação com a dopamina, que temos aprendido nos últimos anos, pode ficar ainda mais complexa. Pesquisadores e empresas têm tentado, de alguma maneira, se apropriar, se associar o “AI” de Artificial Intelligence como “Apple Intelligence” e como “Addictive Intelligence”, que mencionei no início deste nosso podcast. Mas, apesar da apropriação do termo, é, de fato, algo muito factível de acontecer.
Como você acha que esse modelo de hiperpersonalização, que o Rafa mencionou, proporcionado pela Inteligência Artificial generativa, pode aumentar nosso risco de dependência digital? E quais são as estratégias que podem ser implementadas para evitar que essa tecnologia se torne prejudicial? E aí, não só do ponto de vista ético, mas também do ponto de vista legal, o que podemos fazer para diminuir esse problema?
[Carlos Aros]
Essa é a pergunta de um milhão de dólares, né? Quando a gente faz comparativos com o que a gente já viu em um passado recente, tem um caso que eu não sei se entrou para o quadro de registros da OMS, mas alguns pesquisadores deram até nome para isso: a nomofobia, o vício em redes sociais.
Isso passou a ser estudado, e entendeu-se que quimicamente havia uma série de estímulos que moviam nosso cérebro e que nos arrastavam para dentro desse mundo. Isso foi forjando comportamentos, alterando padrões e levando a um novo modelo de relação das pessoas com essas plataformas, em que existe abstinência, existe uma ansiedade gerada pela ausência de informações ou pela suposta ausência de informações que buscamos ali dentro e etc. Então, tudo isso gera um contexto em que os pesquisadores hoje já conseguem identificar todo esse cenário que o Rafa descreveu comportamental, hoje já conseguimos entender que a relação com essas plataformas altera nossa biologia, altera nosso desenvolvimento. E a gente passa a perceber essas relações com o mundo, e intimamente conosco, de uma maneira completamente diferente.
No caso específico da Inteligência Artificial, estamos descobrindo isso — o Rafa fala da antropomorfização e etc. —, e a gente vem descobrindo isso de maneira muito romantizada quando a gente vê o tratamento no cinema, que as séries dão para esse tema. Mas é absolutamente grave. E aí a gente passa a entender que muito provavelmente a solução, se é que existe uma bala de prata para isso, André, passa por um trabalho de desenvolvimento dos indivíduos, um cuidado anterior com o indivíduo em suas relações consigo mesmo, para que ele passe a poder interagir com esses instrumentos de uma outra maneira.
A gente tem, sei lá, plataformas hoje que replicam a personalidade de pessoas já falecidas. Então, eu vou buscar naquilo ali uma forma de não viver a ausência daquela pessoa, de não enfrentar o luto, de manter uma relação que pelo curso natural da vida teria sido esgotada, eu vou dando sustentação a ela indefinidamente. Todas essas questões passam, primeiro, sob uma revisão do indivíduo, e aí entra o papel fundamental de algumas áreas da psicologia, da psiquiatria, da medicina atuando de maneira mais efetiva para cuidar da saúde mental das pessoas, para que em um segundo momento possamos adotar cuidados e orientações, estabelecer meios para uma utilização da tecnologia. Tudo o que buscamos hoje é dar conta de processos, usando a tecnologia como uma extensão e meios para coisas que a vida naturalmente já se encarregou de resolver. Há séculos, e séculos e séculos, pessoas morrem, e a gente convive com a saudade, com a ausência delas. Esse é um exemplo de uma relação em que a tecnologia vem para suprir um papel, que talvez nós, enquanto indivíduos, não estejamos prontos para lidar com isso.
Lá atrás, com as redes sociais, já tínhamos modelos de continuar usando, guardando as memórias da pessoa dentro da rede social. O tempo todo, a gente busca essa relação, de como vencer a morte, de como burlar essa que é a grande questão: a única certeza que a gente tem da vida é a morte. A inteligência artificial vem cumprindo, de alguma maneira, claro, numa escala muito menor, esse papel. Mas na relação do indivíduo com a máquina na ponta, são vários os aspectos que dizem muito mais sobre as fraquezas do ser humano do que sobre as fortalezas da máquina. E a gente está tentando suprir uma coisa com a outra e, muito provavelmente, o caminho é cuidar primeiro dos indivíduos é ter uma geração que se percebe ausente desses cuidados, e os indicadores todos estão aí para podermos olhar isso, e entender a gravidade dessa questão. E aí em um segundo momento vem o debate sobre regulamentação, o debate sobre como as plataformas vão lidar do ponto de vista educativo, mas o começo de tudo, na minha visão, é o olhar sobre o indivíduo.
[André Miceli]
Pois é, é a nomofobia é interessante porque vem de “no mobile phone phobia”, o medo de ficar sem celular, o desdobramento de estar sem o aparelho, não poder acessar as redes sociais, o vício que traz essa angústia.
Rafa, esse exemplo que o Aros trouxe é bastante perigoso. A gente já discutiu aqui em alguns momentos a questão do fim da morte, o quanto essa emulação de consciência, a partir da Inteligência Artificial, com os insumos que a gente pode passar para um algoritmo — existe até um episódio de Black Mirror que fala sobre isso: uma pessoa que é substituída por um algoritmo e lá no final do episódio a gente descobre que tem uma questão com uma música que o algoritmo não conseguiu entender, porque era um traço que não fazia muito sentido dentro daquele conjunto de variáveis. Quem se comportava de uma determinada maneira tinha uma tendência a não gostar de um tipo de música ou banda, e a pessoa, sabe-se lá por que, em vida, gostava e o algoritmo errou nessa reconstrução.
Então essa relação com amigos, pessoas queridas falecidas e também personalidades — gostaria de saber como, sei lá, Maquiavel descreveria ou recomendaria que um político se comportasse diante de uma determinada situação — isso tudo é muito perigoso, naturalmente. E apesar de poder oferecer conforto a algumas pessoas, traz questões profundas sobre o impacto psicológico e também social dessas portas que podem se abrir e, na minha opinião, inevitavelmente vão se abrir. Eu quero ouvir de você sobre esses riscos psicológicos, mas também dos riscos sociais de usar Inteligência Artificial para replicar amigos, entes queridos e personalidades. Como isso pode afetar a maneira como processamos socialmente luto, memória e a relação com essas personalidades?
[Rafael Coimbra]
André, esse é um ponto importante, porque nós, humanos, somos uma espécie social. Precisamos ter contato com outras pessoas ou pelo menos com algo que pareça pessoas, no caso, estamos falando aqui de simulação da inteligência artificial se fazendo passar por pessoas. Só fazendo um ponto adicional aqui, só para a gente não fazer parecer que tudo isso é ruim, existem pessoas que no mundo real são solitárias. A gente sabe que a população mundial está, na média, ficando mais velha, a expectativa de vida tem aumentado, e esse é um problema recorrente em alguns países, por exemplo, na Ásia, no Japão, como você faz para que pessoas que não têm mais com quem conversar, conversem? Talvez essa seja uma saída interessante. Então só para dar uma aplicação útil para esse tipo de simulação da Inteligência Artificial.
Mas, na maioria dos casos, a gente pode também correr o risco de ficarmos presos em bolhas, sejam essas bolhas do passado, como o Aros acabou de relatar, em que você recria alguém e fica eternamente conversando com aquela pessoa como se ela ainda estivesse viva. Mas também existem bolhas do presente. Já existem diversas pessoas usando a Inteligência Artificial, por exemplo, como coach, como mentores. A geração Z, muitas vezes, prefere ter ali o contato como se fosse uma instrução de crescimento profissional de uma IA, em vez de uma pessoa de verdade que já passou por anos e anos acumulando experiência. E tem gente namorando com a inteligência artificial. Então, no momento em que você tem a possibilidade de interagir com algo que só vai te dar prazer, é muito provável que algumas pessoas acabem se fechando nessas bolhas. Essas bolhas acabam, por uma tendência natural nossa de viés de confirmação, de querer consumir só aquilo que nos atrai, a gente vai ficar, em algum momento, com o cérebro embotado. Essas pessoas que ficarem presas nesse mundo fascinante da IA, quando forem para o mundo real, se é que vão – porque também existe um cenário bem distópico, Black Mirror como você está falando, a pessoa pode ficar presa em um mundo cercada de IA. Quando ela decidir se desplugar desse mundo fascinante de IA e for para o mundo real, ela terá dificuldades reais. A gente já vê isso hoje.
Nós temos uma pesquisadora no MIT chamada Sherry Turkle, recomendo que quem goste desse tema leia todos os livros da Sherry Turkle. Ela tem um livro específico mostrando que o celular, por si só, já está causando efeitos de comunicação. As crianças e adolescentes têm perdas, elas não conseguem, muitas vezes, olhar nos olhos umas das outras, não conseguem falar ou interagir em momentos difíceis, que sabemos que são necessários na vida de qualquer pessoa e acabam não se desenvolvendo do ponto de vista da socialização. Então, existe um risco de, em algum momento, nessa saturação de simulação, a pessoa achar que o mundo é todo lindo, maravilhoso e protegido diante das telas, quando nós sabemos que lá fora, no mundo analógico, biológico, isso não é verdade. Então existe esse risco e a gente tem que prestar muita atenção neles.
[André Miceli]
Carlos Aros, apesar desses avanços que temos visto com as tecnologias, os reguladores e legisladores — e isso não é um privilégio brasileiro — eles ainda estão patinando, até mesmo na compreensão dos danos potenciais que acabam aparecendo dessas novas maneiras de interação. E aí estou falando especificamente dos problemas sociais e psicológicos que podem surgir de isso tudo o que a gente tá falando.
Há uma necessidade de ter uma abordagem multidisciplinar, que envolva tecnologia, psicologia e, claro, as questões legais e do direito. Essa multidisciplinaridade é muito clara. A demanda por ela é muito clara. A gente vai precisar entender isso de uma maneira mais ampla para garantir que as novas regulamentações estejam à altura dos desafios que a Inteligência Artificial vai nos impor. Como você acha que é possível promover uma colaboração eficaz entre tecnólogos, psicólogos e legisladores para que sejam criadas essas regulamentações que podem nos proteger dos perigos dessa inteligência viciante?
[Carlos Aros]
Temos algumas questões que passam pela maneira como as pessoas vem adotando e aí majoritariamente o que a gente tem é um universo de pessoas que se lançam para esse mundo sem que efetivamente tenham conhecimento e estratégias sobre o que estão fazendo ali. O grande ponto está na maneira como essas tecnologias – quaisquer tecnologias – são introduzidas nas vidas das pessoas. Largou lá e o cara vai usar, ele vai caminhar necessariamente por um universo perigoso em que ele vai usar desmedidamente, sem orientação.
E quando pensamos em Inteligência Artificial, é um pouco do que vem acontecendo. A gente tem essas ferramentas mais comerciais, vamos dizer assim, que estão no B2C, que resolvem a vida para a pessoa. Elas trazem muita praticidade, entregam uma solução, um atalho: “ah, baixei isso aqui, é legal porque faz para mim, faz sozinho, etc”. Isso tira do indivíduo a capacidade de aprendizado, de desenvolver conhecimento e senso crítico. É um atalho que não necessariamente está sendo substituído por outro tipo de conhecimento.
A própria relação com o ChatGPT é muito engraçado. Eu gosto de conversar com as pessoas e perguntar como elas estão usando o ChatGPT e eu tenho ficado muito surpreso porque boa parte das pessoas para quem eu pergunto me trazem um relato de que o ChatGPT tem sido usado quase como um buscador do Google, porque ele traz uma resposta mais inteligente do que o buscador, que entrega um link, mas necessariamente as pessoas estão lá fazendo perguntas e colocando o que elas querem para o ChatGPT responder e elas assumem ali como grande verdade. Não é bem esse o objetivo do ChatGPT. O uso está viciado, porque o cara carregou um uso que ele já conhecia, em que ele tinha uma barrinha em que ele digitava coisas e trazia resposta para ele, que é o buscador do Google. O ChatGPT é outra perspectiva, é outro tipo de uso, para que ele seja estratégico, ele não pode ser apenas um buscador, ele tem que trazer outra visão, e é justamente isso que precisamos trabalhar para não cair na questão de a ferramenta se transformar em algo nocivo. Historicamente, talvez eu seja pessimista demais, mas quando olhamos para o uso amplo e irrestrito de boa parte das ferramentas, a gente tem esses vícios construídos porque o ser humano é isso, ele vai buscando caminhos, vai construindo, ninguém paga uma aula para você usar alguma coisa, ele faz do jeito que ele sabe. Vamos pegar o Excel, que está aí há 200 mil anos, pouquíssimas pessoas têm um conhecimento de Excel para explorar tudo o que ele pode oferecer. Se o Excel, que é o Excel não foi amplamente levado para as pessoas, as pessoas já saem usando sem ter esse domínio, o próprio Word, que não é tão incrível quanto o Excel tem um mundo de recursos que também não são usados na plenitude, então a mesma coisa com a Inteligência Artificial. O grande ponto está no quanto somos preparados para isso. E aí, André, não se trata apenas da tecnologia em si, mas é sobre como a gente molda a cabeça das pessoas para que elas passem a ter uma visão mais crítica, para que efetivamente tenha a ideia do copiloto, aquilo está me entregando algo que eu não sou capaz de ter. Porque a pesquisa pela pesquisa, se você quer saber o nome de tal coisa, eu vou conseguir por outro caminho. Agora, buscar de forma estratégica, de maneira analítica, resumos de pontos, uma revisão, ampliar meu raciocínio e buscar outras referências – aí posso usar a Inteligência Artificial, como o ChatGPT, para isso. Mas o grande lance está no mergulho mais profundo e as pessoas não estão fazendo esse mergulho e elas acabam carregando esses vícios, e aí quando vem algo fascinante, como mimetizar o comportamento de alguém que foi muito importante para mim, aí eu vou mergulhar naquilo. Mas será que aquilo está realmente te fazendo bem em outros aspectos? Esse questionamento hoje não é feito. E não é por força de lei que vamos mudar isso.
Eu gosto de insistir nesse ponto porque muita gente acha que a solução para os problemas do mundo é criar uma legislação sobre inteligência artificial, e não é bem por aí. Nós não fizemos leis para o computador pessoal, fomos adotando um outro modelo. Precisamos trabalhar sob uma outra lógica, a da construção do indivíduo. E aí entra o papel das universidades, das escolas, dessa outra formação. Digitalizar o processo de educação, trazer esses recursos de forma crítica. Hoje, já temos trabalhos escolares sendo feitos pelo ChatGPT, mas esse não é o objetivo. Há 15 ou 20 anos, a Wikipedia fazia o trabalho nas escolas. Então, precisamos pensar de outra maneira, desenvolver esse modelo para que as pessoas vejam a tecnologia de uma outra perspectiva.
[André Miceli]
É isso. Hora de virar a chave. E eu pergunto, Rafael Coimbra, no que você vai ficar de olho nesta semana que começa?
—
[Rafael Coimbra]
André, estou de olho nas autoridades regulatórias do mundo inteiro. Na Europa e nos Estados Unidos, tivemos recentemente uma decisão importante do Departamento de Justiça americano dizendo que o Google é monopolista. Uma ação que começou ali em 2020, acusando a empresa de usar práticas anticompetitivas para que o seu buscador ficasse sempre visível, sempre proeminente para as pessoas que usam de diversas plataformas e foi considerado, portanto, uma prática anticompetitiva.
O Google hoje tem cerca de 90% da preferência dos buscadores. O Google diz ali que na verdade está tentando melhorar a experiência dos seus usuários, oferecendo a melhor tecnologia, mas essa desculpa não colou não. Foi uma decisão ali do mérito da questão, ainda haverá uma audiência para definir uma multa, e a gente se haverá outras implicações ou punições adicionais para a empresa.
Na Europa, no Reino Unido, tem uma investigação que começou agora contra a Amazon. A Amazon dentro do segmento de Inteligência Artificial chegou a colocar um dinheiro na empresa Anthropic, colocou US$4 bilhões e aí as autoridades estão dizendo que isso pode ser já uma tentativa de monopólio. A Amazon afirma que a Anthropic é independente, e a própria Anthropic também disse que presta serviços para quem quiser. Sempre tem essa discussão se existe um conluio ou não e lá a questão está escalando para um nível de, talvez, essa participação da Amazon na Anthropic seja barrada pelo Reino Unido.
A gente sabe que em outros países da União Eurpeia, as Big Techs têm sofrido por conta dessas pressões e o mundo, André, parece que tá muito mais bem preparado, olhando para trás, os abusos e excessos que foram cometidos ao longo desses últimos 20/30 anos pelas Big Techs, agora parece que as autoridades já estão de olho, querendo corrigir um pouco desses excessos e já de olho nesse futuro, prevendo esse mundo de Big Techs com Inteligência Artificial.
[André Miceli]
E você, Carlos Aros?
[Carlos Aros]
Estou de olho no movimento aqui do nosso vizinho, a Venezuela. Acompanhamos recentemente o processo eleitoral, que foi confuso e cheio de dúvidas. Houve manifestações de vários países sobre o processo e a falta de transparência. Isso, claro, gera uma série de questionamentos. Mas o ponto central tem sido a postura do presidente Maduro e como isso tem sido lido pelo mundo de maneira geral, porque agora, o inimigo dele é a tecnologia. Ele começou com o Elon Musk, e agora está contra o WhatsApp, o Telegram, o WeChat, falando que as redes sociais querem o mal. Já vimos esse filme, é a história de qualquer ditador. Mas é muito interessante acompanhar isso e temos que acompanhar essa escalada, porque há países que vivem esse modelo de isolamento, alguns encontraram saídas — para os governantes, mas não para a população — e fazem restrições de só poder usar um tipo de recurso. Tem na China uma coisa meio velada de que para o mundo interno a gente tem um modelo e para o mundo externo as informações não chegam, perseguição a influenciadores, tem vários casos. A gente tem alguns artigos contando essas histórias, inclusive no nosso site, influenciadores que desapareceram porque falaram isso ou aquilo em lives.
E agora a Venezuela escolheu a internet porque entendeu que a grande articulação, demorou talvez para o Maduro entender isso, a grande articulação dos opositores se deu por meio desses grupos. A população está se insurgindo e podendo falar e os protestos vem acontecendo, justamente por causa dessa movimentação. Então, o que deve acontecer, muito provavelmente, é um apagão tecnológico na Venezuela, com implicações importantes para a população. E o quanto isso pode servir de inspiração para outros mundo afora. As big techs se tornaram o grande alvo a ser combatido, porque elas criam, apesar de todos os problemas, uma possibilidade de liberdade de expressão, como o Zuckerberg falou, essas praças públicas onde as pessoas podem falar e tudo mais. Não tão públicas como no caso do WhatsApp, mas tão eficientes quanto.
Precisamos acompanhar com atenção esse movimento na Venezuela e o quanto de inspiração esse movimento pode ter em tentativas de regulação da mídia em alguns países, do combate a liberdade de expressão em outros, usados para dizer que tal ferramenta é isso, tal ferramenta é aqui e talvez a gente precise ficar mais vigilante porque esse é um movimento muito perigoso. Hoje um grande caminho para que as pessoas consigam se comunicar é, efetivamente, o das Big Techs, dessas plataformas, o da internet e a medida que isso começa a ser cerceado por um e por outro a gente corre o risco de ter um cerceamento da liberdade de expressão severo, não que exista muito por lá no caso da Venezuela, é importante ressaltar, mas quando a gente começa a cortar esses outros caminhos a coisa fica muito aguda e a Venezuela está fazendo isso debaixo dos olhos do mundo, André Miceli, fiquemos atentos a essa caminhada porque ela sempre acaba impactando ou outros loucos por aí.
[André Miceli]
É isso, meus amigos. Está na hora. Mas antes de encerrar, quero lembrar que este podcast é um oferecimento do SAS. Rafael Coimbra, grande abraço!
[Rafael Coimbra]
Abraço, André, abraço, Aros, e a todos que nos ouvem. Recomendo que, se estiverem no Rio de Janeiro e forem ao Rio Innovation Week, passem lá para nos dar um abraço. Estaremos com muito conteúdo sobre inovação. Até semana que vem!
[André Miceli]
É isso. Quinta e sexta, nos dias 15 e 16, vamos estar lá com o nosso palco da MIT Technology Review. No primeiro dia, com os Innovative Workplaces, as 20 empresas que ganharam o prêmio estarão representadas para debatermos as várias perspectivas da inovação. No dia seguinte, teremos a premiação dos Innovators Under 35 Brasil, em seu segundo ciclo. Vamos anunciar os vencedores do prêmio que já encontrou nomes como Mark Zuckerberg, Sergey Brin e Larry Page. Vamos continuar dando luz à inovação dos jovens brasileiros.
Carlos Aros, grande abraço!
[Carlos Aros]
Grande abraço, André Miceli, Rafa Coimbra, e para você que nos acompanha. E aproveito para recomendar fortemente que você acesse mittechreview.com.br/assine para receber com exclusividade os conteúdos que publicamos. Tem muita coisa boa por lá, como relatórios e edições especiais, para você ficar por dentro do mundo da tecnologia. Um grande abraço, e até semana que vem!
[André Miceli]
Semana que vem tem mais podcast da MIT Technology Review Brasil, onde vamos falar sobre tecnologia, negócios e sociedade. Um grande abraço para você que nos ouve. Tchau, tchau!
[Narradora]
Você ouviu o podcast da MIT Technology Review Brasil, apresentado por TEC Institute.