No final de 2024, participei do maior encontro de chefes de polícia dos Estados Unidos para ver como estão usando a Inteligência Artificial. Encontrei alguns grandes desenvolvimentos, como os policiais usando IA para escrever seus relatórios de ocorrência e agora apurei uma nova história que mostra o quão longe o uso da IA pela polícia se desenvolveu desde então.
Trata-se de um novo método que os departamentos de polícia e as agências federais encontraram para rastrear pessoas: uma ferramenta de IA que usa atributos como tamanho do corpo, gênero, cor e estilo do cabelo, roupas e acessórios, em vez de rostos. Essa ferramenta oferece uma forma de contornar as leis que restringem o uso do reconhecimento facial, as quais estão em ascensão.
Advogados da União Americana pela Liberdade Civil (American Civil Liberties Union , cuja sigla é ACLU, em inglês), depois de conhecerem a ferramenta por meio da MIT Technology Review, disseram que esta foi a primeira vez que viram um sistema de rastreamento como esse sendo utilizado em grande escala nos EUA, e afirmaram que ele tem alto potencial de abuso por agências federais. Eles destacam que a possibilidade de a IA possibilitar uma vigilância mais poderosa é especialmente alarmante em um momento em que a administração Trump está pressionando por mais monitoramento de manifestantes, imigrantes e estudantes.
Os departamentos de polícia nos EUA têm uma independência extraordinária. Há mais de 18.000 departamentos no país, e eles geralmente têm muita discrição sobre em qual tecnologia gastar seus orçamentos. Nos últimos anos, essa tecnologia tem se tornado cada vez mais centrada em IA.
Empresas como Flock e Axon vendem pacotes de sensores — câmeras, leitores de placas de veículos, detectores de disparos, drones — e depois oferecem ferramentas de IA para entender esse oceano de dados (na conferência do ano passado, vi muitos encontros entre inúmeras startups de IA para a polícia e os chefes para quem elas vendem no piso da exposição). Os departamentos dizem que essas tecnologias economizam tempo, facilitam a escassez de policiais e ajudam a reduzir os tempos de resposta.
Esses parecem ser objetivos válidos, mas esse ritmo de adoção levanta uma pergunta óbvia: Quem faz as regras aqui? Quando o uso de IA ultrapassa a eficiência e entra na vigilância, e que tipo de transparência deve ser dada ao público?
Em alguns casos, a tecnologia policial movida a IA já está criando um abismo entre os departamentos e as comunidades que eles servem. Quando a polícia de Chula Vista, Califórnia, foi a primeira no país a conseguir isenções especiais da Administração Federal de Aviação para voar seus drones mais longe do que o normal, eles disseram que os drones seriam usados para resolver crimes e ajudar as pessoas mais rapidamente em emergências. Eles tiveram algum sucesso.
Mas o departamento também foi processado por um meio de comunicação local, alegando que não cumpriu sua promessa de tornar as filmagens dos drones públicas, e os moradores disseram que os drones zumbindo acima deles parecem uma invasão de privacidade. Uma investigação descobriu que esses drones eram usados com mais frequência em bairros pobres, e para questões menores, como música alta.
Jay Stanley, analista sênior de políticas da ACLU, diz que ainda não há uma lei federal abrangente que governe como os departamentos de polícia locais adotam tecnologias como o software de rastreamento sobre o qual escrevi. Os departamentos geralmente têm a liberdade de testá-lo primeiro e ver as comunidades reagem depois do fato. (A Veritone, que fabrica a ferramenta sobre a qual escrevi, disse que não poderia nomear ou me conectar com departamentos que a estão usando, então os detalhes de como ela está sendo implantada pela polícia ainda não estão claros.)
Às vezes, as comunidades tomam uma posição firme; leis locais contra o uso do reconhecimento facial pela polícia foram aprovadas em todo o país. Mas os departamentos, ou as empresas de tecnologia policial de quem compram, podem encontrar maneiras de contornar isso. Stanley diz que o novo software de rastreamento sobre o qual escrevi levanta muitas das mesmas questões do reconhecimento facial, mas escapa da fiscalização porque não usa dados biométricos de forma técnica.
“A comunidade deve ser muito cética em relação a esse tipo de tecnologia e, no mínimo, fazer muitas perguntas,” diz ele. Ele traçou um roteiro do que os departamentos de polícia devem fazer antes de adotarem tecnologias de IA: realizar audiências com o público, obter permissão da comunidade e fazer promessas sobre como os sistemas serão e não serão usados. Ele acrescentou que as empresas que fabricam essa tecnologia também deveriam permitir que ela seja testada por partes independentes.
“Tudo isso está a caminho,” diz ele, e tão rapidamente que os formuladores de políticas e o público têm pouco tempo para acompanhar. Ele acrescenta: “Esses são poderes que queremos que a polícia, as autoridades que nos servem, tenha, e, em caso afirmativo, sob quais condições?”
📉 Impacto da tecnologia na privacidade
Embora a IA possa aumentar a eficiência, ela levanta preocupações sobre vigilância em massa, principalmente em comunidades pobres e sem transparência pública sobre o uso dessas tecnologias pela polícia.
⚖️ Falta de regulamentação e o debate ético
O uso de IA pela polícia está sendo implementado sem uma legislação federal clara, gerando questionamentos sobre a ética e a necessidade de um controle mais rigoroso sobre o uso dessas ferramentas de rastreamento.
🔍 Monitoramento das tecnologias
Segundo organizações da sociedade civil, a nova ferramenta de rastreamento pode ser tão controversa quanto o reconhecimento facial, mas escapa da fiscalização por não usar dados biométricos técnicos, o que torna seu uso mais difícil de regulamentar.