Como as empresas de tecnologia verificam se seus usuários são crianças?
Essa questão ganhou nova urgência recentemente, graças à preocupação crescente com os riscos que podem surgir quando menores de idade conversam com chatbots de Inteligência Artificial. Durante anos, as big techs pediam datas de nascimento, que alguém podia inventar, para evitar violar leis de privacidade infantil, mas elas não eram obrigadas a moderar o conteúdo de acordo com isso. Dois desdobramentos na última semana mostram como as coisas estão mudando rapidamente nos Estados Unidos, e como essa questão está se tornando um novo campo de batalha, inclusive entre pais e defensores da segurança infantil.
Em um lado está o Partido Republicano, que apoiou leis aprovadas em vários estados que exigem que sites com conteúdo adulto verifiquem a idade dos usuários. Críticos dizem que isso dá cobertura para bloquear qualquer coisa considerada “prejudicial a menores”, o que poderia incluir educação sexual. Outros estados, como a Califórnia, estão pressionando as empresas com leis para proteger crianças que conversam com chatbots, exigindo que elas verifiquem a idade. Enquanto isso, o presidente Trump está tentando manter a regulação da IA como uma questão nacional, em vez de permitir que os estados criem suas próprias regras. O apoio a vários projetos de lei no Congresso muda o tempo todo.
Então, o que pode acontecer? O debate está deixando de ser sobre entender se a verificação de idade é necessária. O interesse, agora, é identificar quem será responsável por ela. Essa batata quente nenhuma empresa quer segurar.
Em um post em seu blog, a OpenAI revelou que pretende lançar a previsão automática de idade. Em resumo, a empresa aplicará um modelo que usa fatores como o horário do dia para prever se a pessoa que está conversando tem menos de 18 anos. Para aqueles identificados como adolescentes ou crianças, o ChatGPT aplicará filtros para “reduzir a exposição” a conteúdos como violência gráfica ou encenação sexual. O YouTube lançou algo semelhante no ano passado.
Se você apoia a verificação de idade, mas se preocupa com a privacidade, isso pode parecer uma vitória. Mas há um porém. O sistema não é perfeito, é claro, então pode classificar uma criança como adulta ou vice-versa. Pessoas que forem rotuladas erroneamente como menores de 18 anos podem verificar sua identidade enviando uma selfie ou um documento de identidade governamental a uma empresa chamada Persona.
As verificações por selfie têm problemas. Falham com mais frequência para pessoas negras e para aquelas com certas deficiências. Sameer Hinduja, que codirige o Cyberbullying Research Center, diz que o fato de a Persona precisar manter milhões de documentos de identidade governamentais e grandes quantidades de dados biométricos é outro ponto fraco. “Quando isso é violado, expomos populações enormes de uma só vez”, diz ele.
Hinduja, em vez disso, defende a verificação no nível do dispositivo, em que um responsável especifica a idade da criança ao configurar o telefone dela pela primeira vez. Essa informação, então, é mantida no dispositivo e compartilhada com segurança com aplicativos e sites.
Isso é mais ou menos o que Tim Cook, o CEO da Apple, recentemente defendeu junto a parlamentares dos EUA. Cook estava enfrentando legisladores que queriam exigir que lojas de aplicativos verificassem a idade, o que colocaria sobre a Apple muita responsabilidade legal.
Mais sinais de para onde tudo isso está indo ainda virão nas próximas semanas, após a Comissão Federal de Comércio (Federal Trade Commission, ou FTC), a agência que seria responsável por fiscalizar essas novas leis, realizar um workshop de dia inteiro sobre verificação de idade. O chefe de assuntos governamentais da Apple, Nick Rossi, está entre os convidados, junto a executivos de alto escalão em segurança infantil do Google e da Meta, bem como a uma empresa especializada em marketing para crianças.
A FTC vem se tornando cada vez mais politizada sob Trump. A demissão do único comissário democrata, por ordem do presidente, foi derrubada por um tribunal federal, uma decisão que agora aguarda revisão pela Suprema Corte dos EUA. Em julho, eu escrevi sobre sinais de que a agência está suavizando sua postura em relação a empresas de IA. De fato, em dezembro, a FTC reverteu uma decisão da era Biden contra uma empresa, que permitia que pessoas inundassem a internet com avaliações falsas de produtos, escrevendo que isso entrava em choque com o Plano de Ação para IA (AI Action Plan) do presidente Trump.
O workshop pode lançar luz sobre o quão partidária será a abordagem da FTC em relação à verificação de idade. Estados republicanos favorecem leis que exigem que sites de pornografia verifiquem a idade, mas críticos alertam que isso poderia ser usado para bloquear uma gama muito mais ampla de conteúdos. Bethany Soye, uma deputada estadual republicana que está liderando um esforço para aprovar um projeto de lei desse tipo em seu estado, Dakota do Sul, está programada para falar na reunião da FTC. A União Americana pelas Liberdades Civis (American Civil Liberties Union, ou ACLU), em geral, se opõe a leis que exigem documentos de identidade para visitar sites e, em vez disso, tem defendido uma expansão dos controles parentais existentes.
Enquanto tudo isso é debatido, porém, a IA colocou o mundo da segurança infantil em chamas. Estamos lidando com um aumento na geração de material de abuso sexual infantil, além do aumento das preocupações e dos processos judiciais sobre suicídios e automutilação após conversas com chatbots, e evidências perturbadoras de crianças formando vínculos com companheiros de IA. Posições conflitantes sobre privacidade, política, liberdade de expressão e vigilância vão complicar qualquer esforço para encontrar uma solução.



