A humanidade está cada vez mais exposta à Inteligência Artificial. Estas tecnologias estão intervindo e tomando decisões sobre a vida humana com base em instruções e dados escolhidos por “mãos humanas transparentes”, que podem ser de qualquer pessoa que faça parte do processo de desenvolvimento. Não há transparência e faz parecer que a IA tem vida própria.
Essa perspectiva apresenta a área como neutra e dá a entender que todo mundo é igual e se comporta da mesma forma, isso porque os desenvolvedores e criadores não visualizam os impactos sociais e éticos a longo prazo sobre diferentes públicos, apenas em seu público alvo. Nesse contexto, a pergunta que não estamos fazendo é: quem está sendo impactado negativamente por essas tecnologias?
Grande parte desses sistemas está sob controle de grandes empresas, governos, entre outros, sem auditorias nos algoritmos e no processo de desenvolvimento e sem transparência dos reais usos dessas criações. Um exemplo recorrente — e que levantou muitos questionamentos em 2021, no Brasil — é o uso de reconhecimento facial na segurança pública. Episódio que trouxe luz ao uso preconceituoso do fenótipo como fator de decisão da prisão e gerou diversas prisões injustas no Brasil, principalmente de pessoas pretas. Outros usos do reconhecimento facial foram questionados, mas pouco se sabe sobre o processo de desenvolvimento, coleta e processamento das empresas que desenvolvem essas tecnologias.
Entretanto, investigando os dados é possível questionar sua veracidade e historicidade. O primeiro teste feito para tentar usar características físicas como fator principal para prisões aconteceu no século XX, criado pelo estatístico eugenista Woodrow Wilson Bledsoe. Assumindo que vivemos em uma sociedade estrutural e institucionalmente preconceituosa, os dados perpetuam esta visão, guardam a história e consequentemente podem ser usados para manipulação da massa. O estudo das implicações sociais e éticas das tecnologias de IA é importante para a antecipação e para a tentativa de mitigação de danos irreversíveis na sociedade.
Sistemas de IA como suporte à tomada de decisão e “análise preditiva” levantam preocupações significativas sobre a falta de responsabilidade, envolvimento da comunidade e auditoria no processo. Técnicas de aprendizado de máquina em redes neurais (simuladas) que extrairão padrões de um determinado conjunto de dados, com ou sem soluções “corretas” fornecidas. Ou seja, supervisionado, semi-supervisionado ou não supervisionado. Com essas técnicas, o “aprendizado” captura padrões nos dados. Estes são rotulados de forma que parece útil para a decisão do sistema, enquanto o programador não sabe realmente quais padrões nos dados o sistema utilizou. Na verdade, os programas estão evoluindo. Então, quando novos dados chegam, ou um novo feedback é dado (“isto estava correto”, “isto estava incorreto”), os padrões usados pelo sistema de aprendizagem mudam. Quando o resultado não é transparente para o usuário ou programadores, ele é opaco, como aponta Cathy O’Neil autora de Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Se o processo é opaco para quem faz, imagine para quem não está participando do desenvolvimento.
Há uma corrida mundial pela ética em IA, baseada na tentativa de manter as tecnologias que estão dando problema, sem realmente entender e investigar as problemáticas de quem sofre com isso. Portanto, se os dados já historicamente carregam preconceitos, o programa reproduzirá esses preconceitos. Por isso, a investigação não deveria ser técnica, voltando à pergunta do início: quem está sendo impactado negativamente por estas tecnologias?
Este artigo foi produzido por Nina da Hora, Cientista da Computação e colunista da MIT Technology Review Brasil.