Mesmo os robôs mais aptos não são muito eficazes em detectar o toque humano; normalmente, é necessário ter um diploma de ciência da computação ou, pelo menos, um tablet para interagir com eles eficientemente. Isso pode mudar, graças aos modelos que, agora, podem sentir e interpretar o toque sem estarem cobertos por uma pele artificial de alta tecnologia. É um passo significativo para que robôs possam interagir de maneira mais intuitiva com os seres humanos.
Para entender a nova abordagem, liderada pelo Centro Aeroespacial Alemão e publicada recentemente na Science Robotics, considere as duas formas distintas pelas quais nosso próprio corpo sente o toque. Se você segurar a palma da mão esquerda voltada para cima e pressionar levemente o mindinho esquerdo, talvez reconheça esse toque primeiro pela pele da ponta do dedo. Isso faz sentido – você tem milhares de receptores apenas em suas mãos e seus dedos. É comum os roboticistas tentarem replicar essa cobertura de sensores nas máquinas por meio de peles artificiais, mas que podem ser caras e ineficazes para resistir a impactos ou ambientes adversos.
Entretanto, se você pressionar com mais força, poderá perceber uma segunda maneira de sentir o toque: por meio dos nós dos dedos e de outras articulações. Essa sensibilidade – uma sensação de torque, usando o jargão da robótica – é exatamente o que os pesquisadores recriaram em seu sistema novo.
Seu braço robótico contém seis sensores, cada um dos quais pode registrar até mesmo quantidades incrivelmente pequenas de pressão contra qualquer seção do dispositivo. Após medir a magnitude e o ângulo dessa força com precisão, uma série de algoritmos pode mapear onde uma pessoa está tocando o robô e analisar exatamente o que ela está tentando comunicar. Por exemplo, uma pessoa poderia desenhar letras ou números em qualquer lugar da superfície do braço robótico com um dedo, e o robô poderia interpretar direções a partir desses movimentos. Qualquer parte do modelo também pode ser usada como um botão interativo.
Isso significa que cada centímetro quadrado do robô se torna essencialmente uma tela sensível ao toque, mas sem o custo, a fragilidade e a fiação de uma, diz Maged Iskandar, cientista do Centro Aeroespacial Alemão e principal autor do estudo.
“A interação humano-robô, em que uma pessoa pode interagir de perto e comandar uma máquina, ainda não é ideal, porque o ser humano precisa de um dispositivo de entrada”, diz Iskandar. “Se você puder usar o próprio robô como um dispositivo, as interações serão mais fluidas.”
Um sistema como esse poderia oferecer um modo mais econômico e simples de proporcionar não apenas uma sensação de toque, mas também um jeito inédito de se comunicar com os robôs. Isso pode ser particularmente importante para modelos maiores, como os humanoides, que continuam a receber bilhões em investimentos de capital de risco.
Calogero Maria Oddo, roboticista que lidera o Neuro-Robotic Touch Laboratory no BioRobotics Institute, mas que não esteve envolvido no trabalho, diz que o desenvolvimento é significativo, graças a como a pesquisa combina sensores; uso elegante da Matemática, para mapear o toque; e novos métodos de IA, a fim de integrar todos esses elementos. Oddo diz que a adoção comercial poderia ser bastante rápida, já que o investimento necessário recai mais sobre o software do que o hardware, que é muito mais caro.
No entanto, há ressalvas. Por um lado, a novidade não consegue lidar com mais de dois pontos de contato ao mesmo tempo. Em um ambiente bastante controlado, como o chão de uma fábrica, isso pode não ser um problema, contudo, em ambientes nos quais as interações entre humanos e robôs são menos previsíveis, isso pode apresentar limitações. E os tipos de sensores necessários para comunicar o toque a um robô, embora disponíveis comercialmente, também podem custar dezenas de milhares de dólares.
De modo geral, porém, Oddo prevê um futuro em que os sensores baseados na pele e aqueles baseados nas articulações sejam integrados, para dar um senso de toque mais abrangente aos robôs.
“Nós, humanos, e outros animais, integramos as duas soluções”, diz ele. “Espero que os robôs que trabalham no mundo real também usem ambas para interagir com segurança e fluidez com o mundo e aprender.”