Precisamos nos concentrar nos danos causados pela IA que já existem
Inteligência artificial

Precisamos nos concentrar nos danos causados pela IA que já existem

Os temores sobre o possível risco existencial futuro estão nos cegando para o fato de que os sistemas de IA já estão prejudicando as pessoas aqui e agora.

Banner indicando a posição do botão de download do artigo em formato pdf

Este é um trecho editado de Unmasking AI: My Mission to Protect What Is Human in a World of Machines, de Joy Buolamwini, publicado em 31 de outubro pela Random House.

——————————————————————————————————-

O termo “risco-x” é usado como uma abreviação para o risco existencial hipotético representado pela Inteligência Artificial. Embora minha pesquisa apoie a ideia de que os sistemas de IA não devam ser integrados aos sistemas de armas devido aos perigos letais, isso não se deve ao fato de eu acreditar que os sistemas de IA, por si só, representem um risco existencial como agentes superinteligentes.

Sistemas de IA que classificam falsamente indivíduos como suspeitos de crimes, robôs usados para policiamento e carros autônomos com sistemas de rastreamento de pedestres defeituosos já podem colocar sua vida em perigo. Infelizmente, não precisamos que os sistemas de IA tenham superinteligência para que tenham resultados fatais para vidas individuais. Os sistemas de Inteligência Artificial existentes que causam danos comprovados são mais perigosos do que sistemas hipotéticos de IA “sencientes”, porque são reais.

Um problema ao minimizar os danos existentes da IA, ao afirmar que os danos existenciais hipotéticos são mais importantes, é que isso desvia o fluxo de recursos valiosos e atenção legislativa. Empresas que afirmam temer riscos existenciais da IA poderiam demonstrar um compromisso genuíno com a proteção da humanidade ao não disponibilizar as ferramentas de IA que afirmam poder pôr fim à humanidade.

Não me oponho a impedir a criação de sistemas de IA fatais. Os governos preocupados com o uso letal da IA podem adotar as proteções há muito defendidas pela Campaign to Stop Killer Robots para proibir sistemas autônomos letais e a desumanização digital. A campanha aborda os usos potencialmente fatais da IA sem dar o salto hiperbólico de que estamos em um caminho para criar sistemas sencientes que destruirão toda a humanidade.

Mini Banner - Assine a MIT Technology Review

Embora seja tentador ver a violência física como o dano final, isso faz com que seja fácil esquecer as formas perniciosas com que nossas sociedades perpetuam a violência estrutural. O sociólogo norueguês Johan Galtung cunhou esse termo para descrever como as instituições e as estruturas sociais impedem que as pessoas satisfaçam suas necessidades fundamentais e, portanto, causam danos. A negação de acesso a assistência médica, moradia e emprego por meio do uso da IA perpetua danos individuais e cicatrizes geracionais. Os sistemas de IA podem nos matar lentamente.

Considerando o que minha pesquisa “Gender Shades” revelou sobre o viés algorítmico de algumas das principais empresas de tecnologia do mundo, minha preocupação é com os problemas imediatos e as vulnerabilidades emergentes com a IA e se poderíamos resolvê-los de forma a ajudar a criar um futuro em que os ônus da IA não recaiam desproporcionalmente sobre os marginalizados e vulneráveis. Os sistemas de IA com inteligência abaixo da média que levam a prisões falsas ou diagnósticos errados que precisam ser resolvidos agora.

Quando penso em risco-x, penso nas pessoas que estão sendo prejudicadas agora e naquelas que correm o risco de serem prejudicadas pelos sistemas de IA. Penso no risco e na realidade de ser “excodificado”. Isso pode acontecer quando um hospital usa IA para triagem e o deixa sem atendimento, ou usa um algoritmo clínico que o impede de receber um transplante de órgão que salva vidas. Você pode ser excodificado quando lhe for negado um empréstimo com base em uma tomada de decisão algorítmica. Você pode ser excodificado quando seu currículo for automaticamente excluído e lhe for negada a oportunidade de concorrer aos empregos restantes que não forem substituídos por sistemas de IA. Você pode ser excodificado quando um algoritmo de triagem de inquilinos lhe nega acesso à moradia. Todos esses exemplos são reais. Ninguém está imune a ser excodificado e aqueles que já são marginalizados correm um risco maior.

É por isso que minha pesquisa não pode ser limitada apenas a pessoas do setor, pesquisadores de IA ou até mesmo influenciadores bem-intencionados. Sim, as conferências acadêmicas são locais importantes. Para muitos acadêmicos, a apresentação de artigos publicados é o ponto alto de uma pesquisa específica. Para mim, apresentar “Gender Shades” na Universidade de Nova York foi uma plataforma de lançamento. Senti-me motivado a colocar minha pesquisa em ação — além de conversar com profissionais de IA, além das apresentações acadêmicas, além de jantares particulares. Alcançar acadêmicos e pessoas do setor simplesmente não é suficiente. Precisamos garantir que as pessoas comuns que correm o risco de sofrer danos causados pela IA façam parte da luta pela justiça algorítmica.

Leia nossa entrevista com Joy Buolamwini aqui.

Último vídeo

Nossos tópicos