Antes de falar sobre os novos Spectacles da Snap, uma confissão: eu tenho um longo histórico de colocar coisas estranhas no rosto e gostar disso. Em 2011, experimentei os óculos 3D da Sony e, aparentemente, gostei deles. Mais ou menos. No início de 2013, fiquei encantado com um projeto no Kickstarter que vi na CES, chamado Oculus Rift. Depois, passei boa parte daquele ano com o ridículo Google Glass no rosto e pensei que era o futuro. Microsoft HoloLens? Adorei. Google Cardboard? Totalmente normal. Apple Vision Pro? Um avanço, sem dúvida.
Enfim. A Snap anunciou uma nova versão dos seus Spectacles. Estes são óculos de realidade aumentada que podem finalmente cumprir as promessas de dispositivos como Magic Leap, HoloLens ou até mesmo Google Glass, feitas muitos anos atrás. Tive a chance de testá-los e eles são ótimos! (Mas também: veja a introdução).
Esses Spectacles de quinta geração podem exibir informações visuais e aplicativos diretamente nas lentes transparentes, fazendo com que os objetos apareçam como se estivessem no mundo real. A interface é alimentada pelo novo sistema operacional da empresa, o Snap OS. Diferente de headsets de VR convencionais ou dispositivos de computação espacial, essas lentes de realidade aumentada (AR) não bloqueiam sua visão nem a recriam com câmeras. Não há uma tela cobrindo seu campo de visão. Em vez disso, as imagens parecem flutuar e existir em três dimensões no mundo ao seu redor, pairando no ar ou repousando sobre mesas e pisos.
O CTO da Snap, Bobby Murphy, descreveu o resultado pretendido à MIT Technology Review como “uma computação sobreposta ao mundo, que melhora nossa experiência com as pessoas e os lugares ao nosso redor, em vez de nos isolar ou nos tirar dessa experiência.”
Na minha demonstração, consegui empilhar peças de Lego sobre uma mesa, acertar uma bola de golfe AR num buraco do outro lado da sala (um triplo bogey, no mínimo), pintar flores e trepadeiras pelo teto e pelas paredes usando minhas mãos, e fazer perguntas sobre os objetos que estava olhando, recebendo respostas do chatbot de inteligência artificial da Snap. Havia até uma criaturinha virtual roxa, semelhante a um cachorro, da Niantic, um Peridot, que me seguiu pela sala e até para fora, na varanda.
Mas quando você olha para cima da mesa, vê uma sala normal. A bola de golfe está no chão, não em um campo virtual. O Peridot fica empoleirado na grade da varanda real. O mais importante é que isso significa que você pode manter contato visual com as pessoas ao seu redor na sala.
Para realizar tudo isso, a Snap colocou muita tecnologia na armação dos óculos. Existem dois processadores embutidos, então todo o processamento acontece nos próprios óculos. Câmaras de resfriamento nas laterais fizeram um bom trabalho dissipando o calor na minha demonstração. Quatro câmeras capturam o mundo ao seu redor, bem como o movimento das suas mãos para o rastreamento de gestos.
As imagens são exibidas por meio de microprojetores, semelhantes aos encontrados em projetores pico, que fazem um bom trabalho ao apresentar imagens tridimensionais bem à frente dos seus olhos, sem exigir muita configuração inicial. Isso cria um campo de visão alto e profundo— a Snap afirma que é semelhante a uma tela de 100 polegadas a 3 metros de distância—em um dispositivo relativamente pequeno e leve (226 gramas). Além disso, elas escurecem automaticamente quando você sai para fora, então funcionam bem tanto em ambientes internos quanto externos.
Você controla tudo isso com uma combinação de comandos de voz e gestos manuais, a maioria dos quais veio de forma bem natural para mim. Você pode fazer o gesto de pinça para selecionar objetos e arrastá-los, por exemplo. O chatbot de IA responde a perguntas feitas em linguagem natural (“Que navio é aquele que vejo à distância?”). Algumas interações requerem um smartphone, mas na maior parte os Spectacles são um dispositivo independente.
Não é barato. A Snap não está vendendo os óculos diretamente para os consumidores, mas exige que você concorde em pagar ao menos um ano de uma assinatura de US$ 99 por mês para um programa de desenvolvedores dos Spectacles, que dá acesso ao dispositivo. Fui informado de que a empresa tem uma definição bastante ampla de quem pode desenvolver para a plataforma. A Snap também anunciou uma nova parceria com a OpenAI, aproveitando suas capacidades multimodais, que, segundo ela, ajudará os desenvolvedores a criar experiências com contexto real sobre as coisas que as pessoas veem, ouvem ou dizem.
Dito isso, tudo funcionou surpreendentemente bem. Os objetos tridimensionais mantinham uma sensação de permanência nos espaços onde você os colocava—significando que você podia se mover ao redor e eles ficavam no lugar. O assistente de IA identificou corretamente tudo o que perguntei. Houve algumas falhas aqui e ali—tijolos de Lego colapsando uns nos outros, por exemplo—mas, no geral, era um dispositivo bem sólido.
Entretanto, não é discreto. Ninguém vai confundir esses óculos com um par comum de óculos ou óculos de sol. Um colega descreveu-os como óculos 3D mais robustos, o que parece adequado. Não são o dispositivo mais ridículo que já coloquei no rosto, mas também não me fizeram sentir como um cara descolado. Aqui está uma foto minha experimentando-os. Tire suas próprias conclusões.