O crescimento explosivo da Inteligência Artificial (IA) alimentou a esperança de que ela nos ajudará a resolver muitos dos problemas mais intratáveis do mundo. No entanto, também há muita preocupação com o poder que ela detém e um crescente consenso de que seu uso deve ser orientado para evitar a infração de nossos direitos.
Muitos grupos discutiram e propuseram diretrizes éticas de como a IA deve ser desenvolvida ou implantada: IEEE, uma organização profissional global para engenheiros, publicou um documento de 280 páginas sobre o assunto, e a União Europeia publicou seu próprio conjunto de regras. O Inventário Global das Diretrizes de Ética da AI compilou mais de 160 dessas orientações em todo o mundo.
Infelizmente, a maioria dessas normas é desenvolvida por grupos ou organizações concentradas na América do Norte e na Europa: uma pesquisa publicada pela cientista social Anna Jobin e seus colegas encontrou 21 nos EUA, 19 na União Europeia, 13 no Reino Unido, quatro no Japão, e um de cada um dos Emirados Árabes Unidos, Índia, Cingapura e Coreia do Sul.
Elas refletem os valores das pessoas que as emitem. O fato de a maioria das diretrizes de ética da IA estar sendo escrita em países ocidentais significa, consequentemente, que o campo é dominado por valores ocidentais, como respeito à autonomia e aos direitos dos indivíduos, especialmente porque as poucas regras emitidas em outros países refletem principalmente as do Ocidente.
Aquelas escritas em diferentes países podem ser semelhantes porque alguns valores são realmente universais. No entanto, para que essas diretrizes reflitam verdadeiramente as perspectivas das pessoas em países não ocidentais, elas também precisariam representar os sistemas de valores tradicionais encontrados em cada cultura.
Tanto no Oriente como no Ocidente, as pessoas precisam compartilhar suas ideias e considerar as de outras pessoas para enriquecer suas próprias perspectivas. Como o desenvolvimento e o uso da IA se estendem por todo o globo, a maneira como pensamos sobre isso deve ser informada por todas as principais tradições intelectuais.
Com isso em mente, acredito que as percepções derivadas do ensino budista podem beneficiar qualquer pessoa que trabalhe com a ética da IA em qualquer lugar do mundo, e não apenas em culturas tradicionalmente budistas (que estão principalmente no Oriente e principalmente no Sudeste Asiático).
O budismo propõe uma maneira de pensar sobre a ética com base na suposição de que todos os seres sencientes desejam evitar a dor. Assim, o budismo ensina que uma ação é boa se conduz à libertação do sofrimento.
A implicação desse ensino para a Inteligência Artificial é que qualquer uso ético da IA deve se esforçar para diminuir a dor e o sofrimento. Em outras palavras, por exemplo, a tecnologia de reconhecimento facial deve ser usada apenas se for comprovada que reduz o sofrimento ou promove o bem-estar. Além disso, o objetivo deve ser reduzir o sofrimento para todos — não apenas para aqueles que interagem diretamente com a IA.
É claro que podemos interpretar esse objetivo de forma ampla para incluir o conserto de um sistema ou processo que seja insatisfatório ou mudar qualquer situação para melhor. Usar a tecnologia para discriminar as pessoas ou para vigiá-las e reprimi-las seria claramente antiético. Quando há áreas cinzentas ou a natureza do impacto não é clara, o ônus da prova caberia àqueles que procuram mostrar que uma aplicação específica de IA não causa danos.
Não fazer o mal
Uma ética de IA de inspiração budista também entenderia que viver de acordo com esses princípios requer autocultivo. Isso significa que aqueles que estão envolvidos com IA devem treinar continuamente para se aproximarem do objetivo de eliminar totalmente o sofrimento. Alcançar a meta não é tão importante; o importante é que eles empreendam a prática para alcançá-la. É a prática que conta.
Designers e programadores devem praticar, reconhecendo esse objetivo e definindo etapas específicas que seu trabalho executaria para que seu produto incorporasse o ideal. Ou seja, a IA que eles criam deve visar ajudar o público a eliminar o sofrimento e promover o bem-estar.
Para que tudo isso seja possível, as empresas e agências governamentais que desenvolvem ou usam IA devem prestar contas ao público. A responsabilidade também é um ensinamento budista e, no contexto da ética da IA, requer mecanismos legais e políticos eficazes, bem como independência judicial. Esses componentes são essenciais para que qualquer diretriz de ética de IA funcione conforme o esperado.
Outro conceito-chave no budismo é a compaixão, ou o desejo e o compromisso de eliminar o sofrimento dos outros. A compaixão também requer autocultivo e significa que atos prejudiciais, como exercer o poder de reprimir os outros, não têm lugar na ética budista. Não é necessário ser monge para praticar a ética budista, mas deve-se praticar o autocultivo e a compaixão na vida diária.
Podemos ver que os valores promovidos pelo budismo — incluindo responsabilidade, justiça e compaixão — são principalmente os mesmos encontrados em outras tradições éticas. Isto é esperado; afinal, somos todos seres humanos. A diferença é que o budismo defende esses valores de uma maneira diferente e coloca talvez uma ênfase maior no autocultivo.
O budismo tem muito a oferecer a qualquer pessoa que pense sobre o uso ético da tecnologia, incluindo aqueles interessados em IA. Acredito que o mesmo também se aplica a muitos outros sistemas de valores não ocidentais. As diretrizes de ética da IA devem se basear na rica diversidade de pensamento das muitas culturas do mundo para refletir uma variedade mais ampla de tradições e ideias sobre como abordar os problemas éticos. O futuro da tecnologia seria ainda mais brilhante dessa maneira.
Soraj Hongladarom é professor de filosofia no Centro de Ciência, Tecnologia e Sociedade da Universidade Chulalongkorn em Bangkok, Tailândia.