Inteligência Artificial: a urgência por uma regulação que acompanhe o ritmo da inovação
Inteligência artificial

Inteligência Artificial: a urgência por uma regulação que acompanhe o ritmo da inovação

A Inteligência Artificial (IA) deixou de ser uma promessa futurista para se tornar uma presença constante e, muitas vezes, invisível em nossas vidas. De assistentes virtuais como a Siri e a Alexa, que organizam agendas e respondem perguntas, sistemas generativos como ChatGPT e Gemini, a complexos sistemas de diagnósticos médicos que auxiliam na detecção precoce de doenças, passando por decisões judiciais automatizadas e campanhas políticas hiperpersonalizadas, a IA está moldando não apenas o presente, mas também os contornos do futuro. Enquanto isso, o Direito – que, historicamente, reage à realidade – se vê mais uma vez no papel de correr atrás de um fenômeno tecnológico que transforma profundamente a sociedade. A questão que se impõe é: como regular algo que se atualiza a cada segundo?

Mini Banner - Assine a MIT Technology Review

No Brasil, a tentativa de dar respostas normativas ao uso da IA ainda engatinha. O Projeto de Lei 2338/2023, atualmente em tramitação na Câmara dos Deputados, é o esforço mais significativo até o momento para estabelecer uma estrutura legal sobre o tema. Propõe-se um modelo baseado na identificação de riscos, com a criação de um Sistema Nacional de Regulação e Governança de Inteligência Artificial coordenado pela Autoridade Nacional de Proteção de Dados (ANPD). É um começo promissor, mas ainda permeado por desafios técnicos e conceituais. A proposta incorpora classificações baseadas em risco – uma inspiração clara do modelo europeu – mas ainda carece de clareza sobre como aplicar essas categorias na prática brasileira, onde a infraestrutura tecnológica e os padrões de governança variam substancialmente. Por exemplo, a implementação de sistemas de IA de “alto risco” em hospitais públicos em regiões com infraestrutura tecnológica limitada levanta questões sobre a viabilidade de auditorias e a garantia de transparência.

Curiosamente, alguns estados têm se movimentado com mais celeridade do que o próprio governo federal. Goiás, por exemplo, sancionou a Política Estadual de Fomento à Inovação em Inteligência Artificial, promovendo o uso da IA em áreas como educação, pesquisa científica e setor produtivo. Já o Paraná adotou diretrizes voltadas à ética e à transparência no uso da IA no âmbito da administração pública. Esses movimentos subnacionais, ainda que pontuais, revelam um reconhecimento da importância do tema e uma disposição para enfrentá-lo, ainda que com escopo limitado.

Do ponto de vista global, há um verdadeiro laboratório regulatório em andamento. A União Europeia desponta como a principal protagonista com a promulgação do AI Act, que adota uma abordagem baseada em risco e impõe exigências mais rigorosas para sistemas considerados de “alto risco”. Um exemplo prático seria um algoritimo utilizado para seleção de candidatos a empregos ou para avaliação de crédito. Para tais sistemas, o AI Act exige avaliações de conformidade rigorosas, supervisão humana, gestão de riscos e alta qualidade dos dados de treinamento. O objetivo é garantir segurança, transparência e accountability, sem sufocar a inovação.

Por sua vez, os Estados Unidos e o Reino Unido optam por modelos regulatórios mais flexíveis, setoriais e descentralizados. Essa escolha, como ficou evidente na recusa de ambos em assinar uma declaração global sobre IA em uma recente cúpula em Paris, reflete preocupações com o excesso de regulação e com a competitividade geopolítica frente à China. Nos EUA, a abordagem setorial pode ser vista em casos como o sistema COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), usado em alguns estados para avaliar o risco de reincidência criminal. Estudos revelaram que o algoritmo atribuía pontuações de risco mais altas a réus negros, ilustrando a necessidade de auditorias algorítmicas e a discussão sobre “justiça algorítmica” mesmo em um modelo regulatório menos centralizado

A China, aliás, adota um modelo regulatório pragmático e assertivo, com normas já em vigor para tecnologias específicas como deepfakes e algoritmos generativos. Proíbe, por exemplo, deepfakes não autorizados, exigindo que plataformas identifiquem conteúdo gerado por IA, e as regras para algoritmos de recomendação obrigam as empresas a oferecerem opções para os usuários desativarem a personalização. Isso mostra que, para o governo chinês, o controle sobre a IA é uma questão de soberania e segurança nacional.

No Brasil, há ainda uma questão crucial em aberto: como lidar com os impactos da IA sobre direitos autorais, dados pessoais e responsabilidade civil? Um estudo do centro de pesquisas Reglab apontou que o modelo proposto no PL 2338/2023 para a remuneração de autores em produtos de IA generativa é tecnicamente inviável, dada a dificuldade em mensurar a contribuição de cada obra individual no produto final. Por exemplo, se um artista brasileiro utiliza uma IA para gerar imagens que se assemelham a estilos de outros artistas, quem detém os direitos autorais sobre a nova obra? E se a IA foi treinada com milhões de imagens protegidas por direitos autorais, como se dá a remuneração dos criadores originais?

Essa dificuldade em atribuir autoria e responsabilidade se estende a outros campos. No Poder Judiciário Brasileiro, o sistema “Victor” do Supremo Tribunal Federal (STF) utiliza IA para identificar e classificar recursos extraordinários. Embora traga celeridade, levanta questões sobre a transparência do algoritmo e a responsabilidade em caso de vieses ou erros na triagem. Da mesma forma, na saúde, empresas brasileiras que utilizam IA para diagnóstico por imagem enfrentam o desafio de como a LGPD se aplica ao tratamento de dados sensíveis e quem é responsável em caso de um diagnóstico incorreto gerado pela máquina. Esse dilema é emblemático de uma nova fronteira regulatória: estamos tentando usar ferramentas do século XX para resolver problemas do século XXI.

A rigidez de um marco legal mal calibrado pode ter efeitos devastadores sobre a inovação. Ao mesmo tempo, a ausência de diretrizes claras abre espaço para abusos e violações de direitos fundamentais, como privacidade, não discriminação e liberdade de expressão. A tensão entre esses dois polos exige uma abordagem regulatória baseada em princípios, com mecanismos dinâmicos de adaptação tecnológica e diálogo constante entre stakeholders. Isso pressupõe não apenas uma estrutura legal moderna, mas também um aparato institucional capaz de acompanhar a velocidade das mudanças.

A discussão sobre regulação da IA não é apenas jurídica, é ética, política e, acima de tudo, estratégica. Trata-se de decidir em que tipo de sociedade queremos viver: uma em que algoritmos operam como caixas-pretas ou uma em que transparência, controle e responsabilidade sejam princípios inegociáveis. O futuro da IA – e da democracia – pode depender dessa escolha.

É urgente que o Brasil não apenas observe, mas participe ativamente da construção dessa nova ordem normativa. Isso implica formular um marco regulatório robusto, alinhado às melhores práticas internacionais, mas que também considere as peculiaridades locais e promova a inovação responsável. A governança de dados para IA, garantindo a qualidade e a representatividade dos dados de treinamento, é crucial para evitar vieses e deve ser um pilar dessa regulação. Além disso, a colaboração multissetorial – envolvendo academia, setor privado, sociedade civil e formuladores de políticas – é fundamental para construir um ecossistema regulatório eficaz. Afinal, a IA não é neutra. E sua regulação, tampouco deve ser.

Último vídeo

Nossos tópicos