Tendências nacionais e internacionais em Estratégias de Inteligência Artificial
Governança

Tendências nacionais e internacionais em Estratégias de Inteligência Artificial

Proposta brasileira para governança de IA não contempla todas as dimensões e desafios ligados ao tema e coloca o país em desvantagem no cenário global, protagonizado hoje pela EU.

O Brasil chega atrasado em sua Estratégia Nacional de Inteligência Artificial (EBIA). Ela foi oficialmente lançada através da Portaria nº 4.617, de 6 de abril de 2021, do Ministério da Ciência, Tecnologia e Informação do Governo Federal. O documento traz uma análise conjuntural e uma série de ações estratégicas, divididas em nove eixos.

Esse marco político está longe de ter o pioneirismo de outras estratégias brasileiras, como o Plano Nacional de Internet das Coisas (IoT) e o Marco Civil da Internet, iniciativas importantes para se criar um ambiente regulatório estratégico e atualizado na esfera digital.

Outro diploma relevante para nosso contexto atual é o Projeto de Lei nº 21/2020, recentemente aprovado pelo plenário da Câmara e que estabelece princípios, direitos e deveres para o uso de Inteligência Artificial no Brasil, de autoria do Deputado Eduardo Bismarck. O PL foi aprovado porém, infelizmente, com insuficiente discussão publica prévia sobre o tema.

Considerando que diversas outras estratégias de IA no mundo já estão prontas, já chegamos em atraso. O Brasil poderia ter aproveitado o estágio de maturidade internacional para criar um plano mais robusto. O resultado, entretanto, foi muito aquém do esperado, porque o Brasil não fez adequadamente seu dever de casa. A Estratégia Brasileira de Inteligência Artificial ficou muito abaixo dos outros planos internacionais, inclusive, sequer dentro dos parâmetros mínimos esperados e ignorando as sugestões feitas por organizações durante a consulta pública que foi aberta.

Quando um país desenha o seu plano estratégico de IA, deveria fazê-lo a partir de um mapeamento do estado da arte da matéria, analisando como o seu Estado, com os recursos de que dispõe, com a cultura e instituições que tem, pode se beneficiar ao máximo dessa nova tecnologia, reduzindo os riscos potenciais. Cada país dá o seu tom sobre a sua estratégia de IA, dentro do seu contexto socioeconômico, cultural, regulatório e político.

O plano brasileiro é opaco e difuso. O que foi publicado é uma colagem de análises e temas internacionais sobre IA contendo muito pouco de estratégia. A rigor, a EBIA não fala nada errado, mas fala muito pouco. Afinal, quais são as nossas vulnerabilidades que merecem ser equacionadas? Quais são os diferenciais competitivos do Brasil para serem explorados em IA? Quais os objetivos concretos a serem obtidos com a IA? Quais as formas de financiamento? Nada disso foi explorado pela Estratégia.

Não só o benchmarking foi insuficiente, como não se olhou detidamente para experiências exitosas aqui mesmo no Brasil. Temos boas pistas, por exemplo, no nosso plano estratégico de IoT. O país tem desenvolvimento de ponta no setor agrícola, por exemplo. Também estamos no caminho de desenvolvimento de cidades inteligentes onde investimos cada vez mais. A Estratégia deveria se integrar às iniciativas que deram certo, respondendo, ainda, às perguntas em aberto, por exemplo: de que forma a EBIA poderia se alinhar às estratégias estaduais e municipais de smart cities? Como a IA pode ser incrementada no setor agrícola? Dentre outras.

Além de citações superficiais, não existe um alinhamento claro na EBIA, ou seja, estratégico! O conteúdo publicizado pela Portaria é demasiado genérico. Faltam elementos basilares que façam jus ao qualificativo de “estratégia” do documento, tais como a definição de metas e planos de ação concretos, indicadores de sucesso, designação de responsabilidades entre as instituições envolvidas, previsão de prazos e de revisão periódica e composição de corpos de governança, dentre outros. Tudo isto poderia, efetivamente, nortear o Brasil no caminho de desenvolvimento da IA como tecnologia habilitadora e com enorme potencial transformador.

A política pública anunciada — que agora se orienta pela Portaria nº 4.617/21 — tinha a pretensão de ser um farol, porém, perdeu uma grande oportunidade de tirar o tema da penumbra, dada sua dispersão e abstração.

Enquanto isso, no cenário internacional, a Proposta de abril de 2021 de Regulamento de Inteligência Artificial da União Europeia (AI Act – AIA), caso aprovada, será o primeiro regramento geral com força vinculante a lidar com a tecnologia. O documento baseou-se no White Paper sobre Inteligência Artificial publicado pela Comissão Europeia em fevereiro de 2020, além de ter passado por uma fase de consulta pública até junho de 2020.

O objetivo da Proposta é garantir que a Europa assuma liderança mundial em inovação e desenvolvimento de IA ética, segura e confiável, a partir da harmonização das regras aplicáveis à tecnologia no nível da União e do controle de seus riscos para que seja capaz de gerar benefícios para os cidadãos europeus.

O novo quadro regulatório introduzido pelo AIA pretende: lidar com riscos criados especificamente por aplicações de IA; definir uma lista de sistemas de IA segmentados por grau de risco e definir requisitos para eles, além de definir obrigações específicas para seus usuários e fornecedores; (propor uma avaliação de conformidade prévia à colocação em serviço ou no mercado de uma IA de alto risco; bem como propor uma estrutura de governança de nível europeu e nacional.

O que mais chama atenção na Proposta é a abordagem baseada em riscos. A partir de uma metodologia sólida, o AIA diferencia as utilizações de IA conforme uma escala de risco, cuja variação perpassa a seguinte gradação: baixo ou mínimo; limitado; elevado; e inaceitável ou proibido, sendo os sistemas de scoring social dos indivíduos por parte dos Estados um exemplo de aplicação de IA de risco inaceitável e, portanto, proibida. A ideia é que as pessoas possam confiar que a tecnologia é utilizada de uma forma segura e em cumprimento da lei, incluindo a observância aos direitos fundamentais.

Esta categorização de riscos vem num cenário em que, embora as legislações existentes na União já forneçam algum nível de proteção, os reguladores europeus entendem que é ainda insuficiente para lidar com especificidades que a Inteligência Artificial pode trazer, em especial, em razão de sua utilização em contextos sensíveis em que a explicação das decisões ou predições tomadas não é possível de ser alcançada de forma adequada. A IA pode ser benéfica por diferentes razões, mas precisamos falar e lidar com os seus riscos associados, por exemplo, à direitos fundamentais e ética.

Apesar da Proposta buscar trazer respostas a estas questões, seu texto é passível de críticas em alguns aspectos4, e certamente sofrera alterações e aprimoramentos durante sua fase de tramitação e aprovação. O primeiro deles é o fato de haver diversas exceções à regra geral das IAs proibidas. Um segundo é a dificuldade de comprovação da manipulação ou dano para a proibição de alguns tipos de IA. Além disso, a classificação e avaliação de alto risco ainda apresenta falhas, por falta de esclarecimento e maior detalhamento sobre os critérios e níveis na prática. Por fim, a Proposta preocupa-se com uma abordagem humanocêntrica e fala em garantir a segurança dos indivíduos, mas falha em assegurar que os indivíduos possam contestar de forma eficiente as decisões tomadas pela IA, além de deixar a desejar no quesito da possibilidade de exigir a reversão das decisões, ou uma compensação, quando necessário.

Portanto, é possível observar que, apesar de haver elementos criticáveis em ambos os documentos apreciados, há um contraste entre a realidade brasileira e o cenário internacional, que traz uma proposta robusta para a governança de IA, o que deixa nosso país diversos pontos atrás em relação às outras estratégias e formas de regulações de IA.


Este artigo foi produzido por Eduardo Magrani, Presidente do Instituto Nacional de Proteção de Dados no Brasil, Sócio das áreas de “Privacidade, Tecnologia e Cibersegurança” e “Propriedade Intelectual e Inovação” do Demarest Advogados, e Affiliate no Berkman Klein Center na Universidade de Harvard.

Último vídeo

Nossos tópicos