fbpx
Se a IA vai nos ajudar em uma crise, nós precisamos de um novo tipo de ética
Inteligência artificial

Se a IA vai nos ajudar em uma crise, nós precisamos de um novo tipo de ética

“Ética de urgência” significa fazer da ética uma parte essencial da IA, ao invés de uma reflexão tardia, diz Jess Whittlestone.

Jess Whittlestone, do Centro de Leverhulme para o Futuro da Inteligência, na Universidade de Cambridge, e seus colegas publicaram um artigo de opinião na Nature Machine Intelligence em junho, argumentando que se a inteligência artificial vai ajudar em uma crise, precisamos de uma maneira nova e mais rápida de criar ética para a IA, o que eles chamam de ética por urgência.

JESS WHITTLESTONE

Para Whittlestone, isso significa antecipar problemas antes que eles aconteçam, encontrar maneiras melhores de incorporar segurança e confiabilidade aos sistemas de IA e enfatizar o conhecimento técnico em todos os níveis de desenvolvimento e uso da tecnologia. No centro dessas recomendações está a ideia de que a ética precisa se tornar simplesmente uma parte de como a IA é feita e usada, em vez de um complemento ou uma reflexão tardia.

Por fim, a IA, quando associada a ética, pode ser implementada mais rapidamente quando necessário, ela argumenta. Pedimos a ela que falasse sobre o que isso significa na entrevista abaixo.

Ela foi editada para maior clareza.

Por que precisamos de um novo tipo de ética para a IA?

Com essa pandemia, de repente estamos em uma situação em que as pessoas estão realmente falando sobre se a IA poderia ser útil, se poderia salvar vidas. Mas a crise deixou claro que não temos procedimentos de ética suficientemente robustos para que a IA seja implantada com segurança, e certamente nenhum que possa ser implementado rapidamente.

O que há de errado com a ética que temos?

Passei os últimos dois anos revisando iniciativas de ética em IA, analisando suas limitações e buscando o que mais precisamos. Em comparação com a ética biomédica, por exemplo, a ética que temos para a IA não é muito prática. Ela se concentra demais nos princípios de alto nível. Todos podemos concordar que a IA deve ser usada para o bem. Mas o que isso realmente significa? E o que acontece quando esses princípios entram em conflito?

Por exemplo, a IA tem potencial para salvar vidas, mas isso pode custar liberdades civis, como a privacidade. Como lidar com essas concessões de uma maneira que seja aceitável para muitas pessoas diferentes? Ainda não descobrimos como lidar com as inevitáveis ​​divergências.

A ética na IA ​​também tende a responder aos problemas existentes, em vez de antecipar novos. A maioria das problemáticas que as pessoas estão discutindo hoje em dia sobre o viés algorítmico, surgiram apenas quando questões de alto nível deram errado, como nas decisões de policiamento e liberdade condicional.

Mas a ética precisa ser proativa e se preparar para o que pode dar errado, e não para o que já deu errado. Obviamente, não podemos prever o futuro. Porém, à medida que esses sistemas se tornam mais poderosos e se acostumam a situações de alto risco, eles serão ainda maiores.Parte inferior do formulário.

Que oportunidades perdemos por não dispormos desses procedimentos?

É fácil exagerar no que seria possível, mas é pouco provável que a IA desempenhasse um grande papel nessa crise. Os sistemas de machine learning não são maduros o suficiente.

Mas há alguns casos em que a IA está sendo testada para diagnóstico médico ou para alocação de recursos entre hospitais. Poderíamos ter sido capazes de usar esses tipos de sistemas de maneira mais ampla, reduzindo parte da carga de assistência médica, se eles tivessem sido projetados desde o início com a ética em mente.

Com a alocação específica de recursos, você está decidindo quais pacientes são de maior prioridade. É necessário construir uma estrutura ética antes de usar a IA para ajudar com esses tipos de decisões.

Então a ética de urgência é simplesmente um apelo para melhorar a ética já existente na IA?

Em partes, sim. O fato de não termos processos práticos e robustos para a ética na IA ​​dificulta as coisas em um cenário de crise. Mas em tempos como esse, você também tem maior necessidade de transparência. As pessoas falam muito sobre a falta de transparência nos sistemas de machine learning como as caixas-pretas. Mas há outro tipo de transparência, referente à forma como os sistemas são usados.

Isso é especialmente importante em uma crise, quando governos e organizações estão tomando decisões urgentes que envolvem certo equilíbrio. De quem você prioriza a saúde? Como você salva vidas sem destruir a economia? Se uma IA está sendo usada na tomada de decisões públicas, a transparência é mais importante do que nunca.

O que precisa mudar?

Precisamos pensar na ética de forma diferente. Ela não deve ser algo que acontece separadamente ou mais tarde, algo que diminua nosso ritmo. Simplesmente, deveria fazer parte de como construímos esses sistemas em primeiro lugar: ética a partir do próprio projeto.

Às vezes sinto que “ética” é a palavra errada. O que estamos dizendo é que pesquisadores e engenheiros de machine learning precisam ser treinados para refletirem sobre as implicações do que estão construindo, estejam eles fazendo pesquisas fundamentais, como projetando um novo algoritmo de reinforcement-learning (em tradução livre, aprendizado por reforço) ou algo mais prático como desenvolvendo um aplicativo de assistência médica. Se o trabalho deles for direcionado para produtos e serviços do mundo real, como será isso? Que tipos de questões isso pode suscitar?

Algumas delas já começaram a aparecer. Estamos trabalhando com alguns pesquisadores de IA que estão no início da carreira, conversando com eles sobre como trazer essa forma de pensar para o trabalho deles. É como um experimento para ver o que acontece. Mas até o NeurIPS [uma importante conferência de IA] agora pede aos pesquisadores que incluam uma declaração no final de suas pesquisas descrevendo os possíveis impactos sociais de seus trabalhos.

Você disse que precisamos de pessoas com conhecimento técnico em todos os níveis de projeto e uso de IA. Por que isso?

Não estou dizendo que o conhecimento técnico seja a essência da ética, mas é uma perspectiva que precisa ser representada. E não quero parecer que estou dizendo que toda a responsabilidade é dos pesquisadores, porque muitas das decisões importantes sobre como a IA é usada são tomadas mais adiante na pirâmide, pela indústria ou pelos governos.

Mas eu me preocupo que as pessoas que estão tomando essas decisões nem sempre entendam completamente como isso pode dar errado. Por isso, você precisa envolver pessoas com conhecimento técnico. Nossas intuições sobre o que a IA pode ou não fazer não são muito confiáveis.

O que você precisa em todos os níveis de desenvolvimento de IA são pessoas que realmente entendam os detalhes do machine learning para trabalharem com outras que entendam a ética. No entanto, a colaboração interdisciplinar é difícil. Pessoas com diferentes áreas de especialização costumam falar sobre as coisas de maneiras diferentes. O que um pesquisador de machine learning quer dizer com privacidade pode ser muito diferente do que um advogado pensa sobre o assunto, e você pode acabar tendo pessoas falando umas por cima das outras. Por isso é importante que esses diferentes grupos se acostumem a trabalharem juntos.

Você luta por uma grande reforma institucional e cultural. O que faz você pensar que as pessoas vão querer fazer isso ao invés de criar conselhos de ética ou comitês de supervisão – que sempre me fazem suspirar um pouco porque tendem a ser ineficazes?

Sim, eu também suspiro. Mas acho que essa crise está forçando as pessoas a verem a importância de soluções práticas. Talvez, em vez de dizer: “Oh, vamos ter esse e aquele conselho de supervisão”, as pessoas dirão: “Precisamos fazer isso e precisamos fazê-lo corretamente”.

Nossos tópicos