Os computadores vão sentir responsabilidade algum dia?
Governança

Os computadores vão sentir responsabilidade algum dia?

As máquinas talvez nunca adquiram o conhecimento tácito dos humanos

Previsões ousadas sobre tecnologia pavimentam o caminho para a humildade. Até gigantes como Albert Einstein têm sua placa publicitária ao longo dessa estrada para a modéstia. Em um exemplo clássico, John von Neumann, pioneiro da arquitetura moderna de computadores, escreveu em 1949: “Parece que alcançamos os limites do que é possível realizar com a tecnologia computacional.” Entre as inúmeras manifestações que desafiaram essa previsão está o modelo de rede neural inspirado no cérebro humano, criado em 1958 pelo psicólogo social Frank Rosenblatt. Ele chamou seu dispositivo, baseado no mainframe IBM 704, de “Perceptron” e o treinou para reconhecer padrões simples. Os perceptrons abriram caminho para o deep learning e a Inteligência Artificial moderna.

Mini Banner - Assine a MIT Technology Review

Em uma previsão igualmente ousada, mas equivocada, os irmãos Hubert e Stuart Dreyfus — professores da Universidade da Califórnia em Berkeley, nos Estados Unidos, com especializações diferentes, em filosofia e engenharia — escreveram em janeiro de 1986 na Technology Review que “há quase nenhuma chance de que cientistas desenvolvam máquinas capazes de tomar decisões inteligentes.” O artigo foi baseado no livro deles, “Mente sobre a máquina”, (“Mind Over Machine”, no original), editado pela Macmillan em fevereiro de 1986, que apresentava um modelo em cinco etapas para a aquisição do “know-how” humano, ou seja, a habilidade prática. Hubert (falecido em 2017) era um crítico de longa data da IA, tendo escrito artigos e livros céticos desde os anos 1960.

Stuart Dreyfus, que ainda é professor em Berkeley, está impressionado com os avanços recentes da IA. “Acho que não me surpreendo com o aprendizado por reforço”, afirma, embora mantenha ceticismo e preocupação com algumas aplicações, especialmente os grandes modelos de linguagem, como o ChatGPT. “Máquinas não têm corpo,” ele observa. E acredita que essa falta de corpo é uma limitação e cria riscos: “Me parece que em qualquer área que envolva possibilidades de vida ou morte, a IA é perigosa, porque não sabe o que significa a morte.”

Segundo o modelo de aquisição de habilidades dos Dreyfus, ocorre uma mudança intrínseca à medida que o know-how humano avança por cinco estágios: novato, iniciante avançado, competente, proficiente e especialista. “Uma diferença crucial entre iniciantes e executores mais competentes é o nível de envolvimento,” explicam os pesquisadores. “Novatos sentem pouca responsabilidade pelo que fazem porque apenas aplicam regras aprendidas.” Se falham, culpam as regras. Já os especialistas sentem responsabilidade por suas decisões porque, à medida que seu know-how se torna profundamente incorporado no cérebro, sistema nervoso e músculos — uma habilidade incorporada —, aprendem a manipular as regras para alcançar seus objetivos. Eles assumem os resultados.

Essa relação inseparável entre tomada inteligente de decisão e responsabilidade é um ingrediente essencial para uma sociedade civilizada e funcional, e alguns dizem que está ausente nos sistemas especialistas atuais. Também falta a capacidade de cuidar, compartilhar preocupações, assumir compromissos, ter e interpretar emoções, todos aspectos da Inteligência Humana que derivam do fato de termos um corpo e nos movermos pelo mundo.

À medida que a IA se infiltra em tantos aspectos da vida, será possível ensinar futuras gerações de sistemas especialistas a sentirem responsabilidade por suas decisões? Responsabilidade, ou cuidado, compromisso, emoção, podem ser derivados de inferências estatísticas ou dos dados problemáticos usados para treinar IA? Talvez, mas mesmo assim a inteligência da máquina não será equivalente à humana, continuará sendo algo diferente, como os irmãos Dreyfus já previram há quase quatro décadas.

Último vídeo

Nossos tópicos