Após Gioia ter sua primeira filha com o então marido, ele instalou babás eletrônicas por toda a casa em Massachusetts “para ver o que estávamos fazendo”, diz ela, enquanto ele ia trabalhar. Quando ela as desligava, ele ficava irritado. Assim que o terceiro filho do casal completou sete anos, Gioia e o marido haviam se divorciado, mas ele continuava encontrando formas de monitorar seu comportamento. Em um Natal, ele presenteou a filha mais nova com um relógio inteligente. Gioia mostrou o dispositivo a um amigo com conhecimentos em tecnologia, que descobriu que o relógio tinha um recurso de rastreamento ativado. Esse recurso só podia ser desativado pelo proprietário do relógio, seu ex-marido.
“O que eu deveria dizer à minha filha?”, pergunta Gioia, que usa um pseudônimo nesta reportagem por questões de segurança. “Ela está tão animada, mas não percebe que [aquilo é] um dispositivo de monitoramento para ele ver onde estamos.” No fim, ela decidiu não confiscar o relógio. Em vez disso, disse à filha para deixá-lo em casa sempre que saíssem juntas, justificando que assim ele não se perderia.
Gioia afirma ter informado um tribunal de família sobre esse e muitos outros episódios em que seu ex-marido usou ou pareceu usar tecnologia para persegui-la, mas até agora isso não ajudou a garantir a guarda total dos filhos. A falha do tribunal em reconhecer essas táticas facilitadas pela tecnologia como formas de manter poder e controle a deixou tão frustrada que ela chegou a desejar ter hematomas visíveis. “Eu queria que ele estivesse quebrando meus braços, me socando no rosto”, diz ela, “porque assim as pessoas poderiam ver.”
Diversas pessoas com quem conversei para esta reportagem descreveram o combate ao abuso facilitado por tecnologia como “enxugar gelo”. Quando você aprende a alertar alguém sobre o compartilhamento de localização por smartphone, surgem os carros inteligentes.
Esse sentimento é, infelizmente, comum entre pessoas que vivenciam o que passou a ser conhecido como “Technology-Facilitated Abuse” ou TFA, a sigla em inglês para “abuso facilitado por tecnologia”. Definido pela Rede Nacional para o Fim da Violência Doméstica (National Network for the End of Domestic Violence, no original) como “o uso de ferramentas digitais, plataformas online ou dispositivos eletrônicos para controlar, assediar, monitorar ou prejudicar alguém”. Este tipo de abuso, frequentemente invisível ou discreto, inclui o uso de spyware e câmeras escondidas; o compartilhamento de imagens íntimas sem consentimento nas redes sociais; o acesso e esvaziamento de contas bancárias online do parceiro; e o rastreamento de localização via dispositivos, como fez o ex-marido de Gioia com o relógio da filha.
Como a tecnologia está presente em todos os lugares, o TFA ocorre, na maioria dos casos de violência, entre parceiros íntimos. E aqueles cuja função é proteger vítimas e responsabilizar os agressores enfrentam dificuldades para lidar com esse problema multifacetado. Um estudo australiano de outubro de 2024, baseado em entrevistas detalhadas com vítimas e sobreviventes de TFA, revelou uma “lacuna considerável” na compreensão do fenômeno entre profissionais de linha de frente, como policiais e prestadores de serviços às vítimas. Como resultado, a polícia frequentemente ignorava as denúncias de TFA e não identificava esses casos como exemplos de violência doméstica. O estudo também apontou uma escassez significativa de financiamento para especialistas, isto é, cientistas da computação capacitados a realizar varreduras de segurança nos dispositivos de pessoas que enfrentam esse tipo de abuso.
A falta de entendimento é particularmente preocupante porque acompanhar as múltiplas formas do abuso tecnológico exige conhecimento técnico e vigilância constante. Com a popularização de carros e casas conectados à internet e a normalização do rastreamento de localização, surgem novas oportunidades de usar tecnologia para perseguir e assediar. Durante a apuração desta reportagem, ouvi relatos perturbadores de agressores que trancaram remotamente suas parceiras em suas próprias “casas inteligentes”, às vezes aumentando o aquecimento da casa para causar sofrimento adicional. Uma mulher que havia fugido do parceiro abusivo encontrou uma mensagem ameaçadora ao acessar sua conta da Netflix a quilômetros de distância: “Vadia, estou te observando” escrito no espaço onde deveriam estar os nomes dos perfis da conta.
Apesar da variedade de táticas, uma revisão de estudos focados em TFA realizada em 2022, em diversos países de língua inglesa, mostrou que os resultados se alinham diretamente com a “Roda do Poder e Controle”, uma ferramenta desenvolvida em Duluth, Minnesota, nos anos 1980, que categoriza as diversas formas pelas quais parceiros abusivos exercem poder e controle sobre as vítimas: econômica, emocional, por meio de ameaças, do uso dos filhos, entre outras. Michaela Rogers, autora principal do estudo e professora sênior na Universidade de Sheffield, no Reino Unido, afirma ter observado entre sobreviventes de TFA sintomas como “paranoia, ansiedade, depressão, trauma e TEPT, baixa autoestima… e automutilação”, após vivenciarem abusos que frequentemente invadiam todos os aspectos de suas vidas.
Esse tipo de abuso é exaustivo e difícil de enfrentar sozinho. Prestadores de serviço e defensores das vítimas se esforçam para ajudar, mas muitos não têm habilidades técnicas e não podem impedir que as empresas de tecnologia lancem novos produtos no mercado. Alguns atuam junto a essas empresas para ajudar a criar mecanismos de proteção, mas há limites para o que o setor privado pode fazer para responsabilizar agressores. Para estabelecer proteções reais e aplicar consequências sérias, são necessários marcos legais robustos.
O progresso tem sido lento, mas houve esforços coordenados para enfrentar o TFA em cada um desses níveis nos últimos anos. Alguns estados norte-americanos aprovaram leis que proíbem o uso de tecnologias de carros inteligentes ou rastreadores de localização, como o Apple AirTag, para perseguição e assédio. Empresas de tecnologia, incluindo Apple e Meta, contrataram pessoas com experiência em serviços de apoio a vítimas para orientar o desenvolvimento de proteções em seus produtos, e defensores de vítimas e sobreviventes estão buscando formação mais especializada em tecnologia.
Mas a natureza sempre em transformação da tecnologia torna quase impossível criar uma solução definitiva. Pessoas com quem conversei para esta matéria compararam esse esforço a “enxugar gelo”. Quando se aprende a alertar sobre o compartilhamento de localização em smartphones, surgem os carros inteligentes. Quando se proíbe a perseguição com AirTags, surge uma ferramenta mais nova e eficaz que pode rastrear legalmente seu ex. É por isso que grupos dedicados exclusivamente ao combate ao TFA, como a Clínica para Acabar com o Abuso Tecnológico (CETA, ou Clinic to End Tech Abuse, em inglês), da Cornell Tech, em Nova York, estão trabalhando para criar uma infraestrutura permanente. Um problema que normalmente é visto como um foco secundário para organizações de serviços pode finalmente receber o tratamento que merece como um aspecto onipresente e potencialmente fatal da violência entre parceiros íntimos.
Suporte técnico voluntário
A CETA atendeu seu primeiro cliente há sete anos. Em uma pequena sala branca no campus da Cornell Tech, na Roosevelt Island, dois cientistas da computação se reuniram com uma pessoa cujo agressor estava acessando as fotos de seu iPhone. Ela não sabia como isso estava acontecendo.
“Trabalhamos com nossa cliente por cerca de uma hora e meia”, conta um dos cientistas, Thomas Ristenpart, “e percebemos que provavelmente se tratava de um problema com o recurso de Compartilhamento Familiar do iCloud.”
Na época, a CETA era uma das apenas duas clínicas no país criadas para lidar com TFA (a outra era a Clínica de Controle Coercitivo com Tecnologia Habilitada (em inglês, Technology Enabled Coercive Control Clinic, que fica em Seattle). E a CETA continua na vanguarda do tema.
Imagine um diagrama de Venn, com um círculo representando cientistas da computação e outro, prestadores de serviços a vítimas de violência doméstica. São quase dois círculos separados, com a CETA ocupando apenas uma pequena faixa de interseção. Especialistas em tecnologia tendem a buscar empresas lucrativas ou instituições de pesquisa, em vez de ONGs da área social. Por isso, foi inesperado que dois pesquisadores acadêmicos identificassem o TFA como um problema e decidissem dedicar suas carreiras a combatê-lo. O trabalho gerou resultados, mas a curva de aprendizado foi intensa.
A CETA surgiu do interesse em mapear o “ecossistema de softwares espiões da internet” explorado na violência entre parceiros íntimos, conta Ristenpart. Ele e a cofundadora Nicola Dell imaginaram, inicialmente, que poderiam ajudar desenvolvendo uma ferramenta para escanear celulares em busca de softwares intrusivos. Mas rapidamente perceberam que isso, por si só, não resolveria o problema e poderia até comprometer a segurança das vítimas se feito de maneira descuidada, pois poderia alertar o agressor de que sua vigilância havia sido detectada e estava sendo combatida.
Em vez disso, Dell e Ristenpart passaram a estudar as dinâmicas do controle coercitivo. Conduziram cerca de 14 grupos focais com profissionais que trabalhavam diariamente com vítimas e sobreviventes. Estabeleceram conexões com organizações como o projeto “Anti-Violência” (ou Anti-Violence Project) e os Centros de Justiça Familiar de Nova York para receber indicações de atendimento. Com a pandemia de Covid-19, a CETA passou a operar virtualmente e permaneceu assim. Seus serviços hoje se assemelham a um “suporte técnico remoto”, diz Dell. Um pequeno grupo de voluntários, muitos deles atuando na big tech, recebe as informações iniciais dos clientes e os orienta, por exemplo, sobre como interromper o compartilhamento indesejado de localização em seus dispositivos.
O suporte remoto tem sido suficiente porque, em geral, os agressores não realizam ataques sofisticados que só poderiam ser resolvidos desmontando o dispositivo. “Na maior parte dos casos, as pessoas estão usando ferramentas padrão do jeito que foram projetadas”, afirma Dell. Por exemplo, alguém pode esconder um AirTag em um carrinho de bebê para rastrear sua localização (e a da pessoa que o empurra), ou atuar como administrador de uma conta bancária online compartilhada.
Embora a CETA se destaque como uma organização de apoio centrada em tecnologia para vítimas, grupos de combate à violência doméstica enfrentam o TFA há décadas. Quando Cindy Southworth começou sua carreira na área, nos anos 1990, ouviu relatos de abusadores que faziam rastreamento rudimentar de localização usando o odômetro do carro. A quilometragem podia sugerir, por exemplo, que alguém que disse ir ao mercado, na verdade, havia saído da cidade em busca de apoio. Mais tarde, quando Southworth ingressou na Coalizão contra a Violência Doméstica da Pensilvânia (Pennsylvania Coalition Against Domestic Violence, no original), a comunidade de ativistas passou a analisar o identificador de chamadas como “uma ferramenta incrivelmente poderosa para as vítimas verem quem está ligando”, ela recorda, “mas também uma tecnologia potencialmente perigosa, se o abusador puder vê-lo.”
À medida que a tecnologia evoluiu, as formas de abuso também se sofisticaram. Ao perceber que a comunidade de ativistas “não acompanhava os avanços tecnológicos”, Southworth fundou, em 2000, o projeto Rede de Segurança (Safety Net) da Rede Nacional para Acabar com a Violência Doméstica (National Network to End Domestic Violence), para oferecer um currículo de formação abrangente sobre como “usar a tecnologia para ajudar vítimas” e responsabilizar abusadores por seu uso indevido. Hoje, o projeto disponibiliza recursos online, como kits de ferramentas com orientações sobre estratégias como criar senhas fortes e perguntas de segurança. “Quando você está em um relacionamento com alguém”, explica a diretora Audace Garnett, “essa pessoa pode saber o nome de solteira da sua mãe.”
Proteções da Big Tech
Mais tarde, os esforços de Southworth se estenderam ao aconselhamento de empresas de tecnologia sobre como proteger usuários que passaram por violência entre parceiros íntimos. Em 2020, ela ingressou no Facebook (hoje Meta) como chefe de segurança para mulheres. “O que realmente me atraiu no Facebook foi o trabalho com abuso de imagens íntimas”, afirma, observando que a empresa criou uma das primeiras políticas contra sextorsão em 2012. Hoje, ela trabalha com o conceito de “hashing reativo”, que adiciona “impressões digitais” a imagens já identificadas como não consensuais, de modo que a vítima precise denunciá-las apenas uma vez para que todas as cópias sejam bloqueadas.
Outras áreas de preocupação incluem o “cyberflashing”, em que alguém pode enviar fotos explícitas não solicitadas. A Meta buscou prevenir isso no Instagram ao impedir que contas enviem imagens, vídeos ou mensagens de voz, a menos que sigam a pessoa. Ainda assim, muitas das práticas da Meta relacionadas a abusos potenciais parecem mais reativas do que preventivas. A empresa afirma remover ameaças online que violem suas políticas contra bullying e que promovam “violência offline”. No entanto, no início deste ano, a Meta flexibilizou suas políticas sobre discurso nas plataformas. Agora, usuários estão autorizados a se referir a mulheres como “objetos domésticos”, segundo informou a CNN, e a publicar comentários transfóbicos e homofóbicos que antes eram proibidos.
Um dos principais desafios é que a mesma tecnologia pode ser usada tanto para o bem quanto para o mal: um recurso de rastreamento que representa perigo para alguém perseguido pelo parceiro pode ajudar outra pessoa a monitorar os movimentos de um perseguidor. Quando perguntei às fontes o que as empresas de tecnologia deveriam fazer para mitigar o abuso facilitado por tecnologia, pesquisadores e advogados demonstraram ceticismo. Uma das fontes citou o problema de agressores usarem controles parentais para monitorar adultos em vez de crianças, e que as empresas não vão remover esses recursos importantes para a segurança infantil. Há limites para o que podem fazer quanto ao uso ou mau uso de seus produtos. Garnett, do Safety Net, disse que as empresas deveriam projetar suas tecnologias com a segurança em mente “desde o início”, mas reconheceu que, para muitos produtos consolidados, já é tarde demais. Alguns cientistas da computação apontaram a Apple como exemplo de medidas eficazes de segurança: seu ecossistema fechado bloqueia aplicativos terceiros suspeitos e alerta usuários sobre rastreamento. Mas esses especialistas também reconhecem que nenhuma dessas soluções é infalível.
Nos últimos dez anos, grandes empresas de tecnologia sediadas nos Estados Unidos — incluindo Google, Meta, Airbnb, Apple e Amazon — criaram conselhos consultivos de segurança para lidar com esse dilema. As estratégias adotadas variam. No Uber, por exemplo, os conselheiros oferecem feedback sobre “pontos cegos potenciais” e influenciaram o desenvolvimento de ferramentas de segurança personalizáveis, segundo Liz Dank, responsável pela área de segurança pessoal e das mulheres na empresa. Um dos resultados dessa colaboração é o recurso de verificação por PIN: o passageiro precisa informar ao motorista um número exclusivo gerado pelo aplicativo para iniciar a corrida. Isso garante que ele esteja entrando no carro certo.
A abordagem da Apple incluiu um guia detalhado de 140 páginas chamado “Manual do Usuário para Segurança Pessoal”. Em uma das seções, “Quero escapar ou estou considerando sair de um relacionamento que não parece seguro”, há links para páginas sobre bloqueio, coleta de provas e “etapas de segurança que incluem alertas de rastreamento indesejado.”
Abusadores criativos podem driblar esse tipo de precaução. Recentemente, Elizabeth (para preservar sua privacidade, usamos apenas o primeiro nome) encontrou um AirTag que seu ex-companheiro havia escondido dentro do paralama do carro, preso com um ímã e envolto em fita adesiva. Meses após o lançamento do AirTag, a Apple recebeu tantas denúncias de rastreamento indesejado que introduziu uma medida de segurança permitindo que usuários alertados sobre a presença de um AirTag pudessem localizá-lo por meio de um sinal sonoro. “Foi por isso que ele envolveu em fita adesiva”, conta Elizabeth. “Para abafar o som.”
Legislação corre atrás do prejuízo
Se as empresas de tecnologia não conseguem conter o TFA, a aplicação da lei deveria, mas as respostas variam. “Já vi policiais dizerem a uma vítima: ‘Você não deveria ter enviado aquela foto’”, relata Lisa Fontes, psicóloga e especialista em controle coercitivo, sobre casos de compartilhamento não consensual de imagens íntimas. Quando vítimas levaram à polícia câmeras escondidas, instaladas por seus agressores, Fontes ouviu respostas como: “Você não pode provar que ele comprou [a câmera] ou que realmente estava te espionando. Então não há nada que possamos fazer.”
Locais como o Centro de Justiça Familiar do Queens, em Nova York, procuram resolver essas falhas institucionais. Ao circular pelos corredores labirínticos do espaço, é impossível não esbarrar em advogados, assistentes sociais e gerentes de caso, como ocorreu quando a diretora executiva Susan Jacob guiou a reportagem após a visita à CETA. Isso é proposital. O centro, um entre mais de 100 nos Estados Unidos, oferece múltiplos serviços para pessoas afetadas por violência doméstica e baseada em gênero. Ao sair, a repórter passou por um policial escoltando um homem algemado.
A CETA está em processo de transferir seus atendimentos para esse centro e depois, para unidades nos outros quatro distritos de Nova York. Ter clínicas tecnológicas nesses locais colocará os especialistas lado a lado com advogados que podem estar conduzindo ações judiciais. Provar a identidade de autores de assédio tecnológico anônimo, como postagens em redes sociais ou ligações com números falsos, é complicado, mas a ajuda técnica especializada pode facilitar a construção de casos para mandados de busca e ordens de proteção.
Advogados que lidam com casos envolvendo tecnologia muitas vezes não têm um arcabouço legal que os ampare. Ainda assim, leis em vigor na maioria dos estados dos EUA proíbem o rastreamento remoto e oculto, bem como o compartilhamento não consensual de imagens íntimas. Outras legislações sobre invasão de privacidade, crimes cibernéticos e perseguição podem abranger aspectos do TFA. Em dezembro, o estado de Ohio aprovou uma lei tornando crime o uso de AirTags para perseguição, e a Flórida avalia uma emenda que aumentaria a punição para quem usar dispositivos de rastreamento para “cometer ou facilitar crimes perigosos”. No entanto, acompanhar o ritmo da tecnologia exige leis mais específicas. “A tecnologia vem primeiro”, explica Lindsey Song, diretora associada do projeto de direito de família do centro do Queens. “As pessoas aprendem a usá-la bem. Os abusadores aprendem a usá-la mal. E a legislação e as políticas vêm muito, muito, muito depois.”
A Califórnia lidera os esforços legislativos contra o assédio via veículos inteligentes. Sancionada em setembro de 2024, a Lei do Senado 1394 exige que carros conectados notifiquem o usuário se alguém acessou o sistema remotamente, além de fornecer uma forma para o condutor bloquear esse acesso. “Muitos legisladores ficaram chocados ao saber como esse problema é comum”, afirma Akilah Weber Pierson, senadora estadual que co-redigiu a proposta. “Quando expliquei como sobreviventes estavam sendo perseguidos ou controlados por funções projetadas para conveniência, houve muito apoio.”
No nível federal, a Lei de Conexões Seguras, sancionada em 2022, exige que operadoras de telefonia atendam a solicitações de sobreviventes para se desvincular de planos compartilhados com abusadores. Em 2024, a Comissão Federal de Comunicações começou a avaliar como incluir o abuso via carros inteligentes no escopo da lei. Já em maio, o presidente Trump sancionou uma lei proibindo a publicação online de imagens sexualmente explícitas sem consentimento. Mas houve pouco progresso em outras frentes. O projeto de lei ” Segurança tecnológica para vítimas de violência doméstica, violência no namoro, agressão sexual e perseguição” (no original, Tech Safety for Victims of Domestic Violence, Dating Violence, Sexual Assault, and Stalking) previa a criação de até 15 clínicas de TFA em um programa piloto liderado pelo Departamento de Justiça, por meio do Escritório de Violência contra a Mulher. No entanto, desde sua introdução na Câmara dos Deputados em novembro de 2023, o projeto não avançou.
O abuso tecnológico não é sobre tecnologia
Diante da lentidão das mudanças legislativas, a proteção de sobreviventes de TFA segue majoritariamente nas mãos de quem está na linha de frente. Rahul Chatterjee, professor assistente de ciência da computação na Universidade de Wisconsin–Madison, adotou uma abordagem prática. Em 2021, fundou a Madison Tech Clinic, após trabalhar na CETA como estudante de pós-graduação. Ele e sua equipe estão desenvolvendo uma ferramenta física capaz de detectar câmeras escondidas e outros dispositivos de monitoramento. A proposta é usar componentes baratos como Raspberry Pi e ESP32, para manter o custo acessível.
Chatterjee encontrou produtos à venda online que prometem oferecer esse tipo de proteção, como detectores de frequência de rádio por US$ 20 e aparelhos de luz vermelha que dizem localizar câmeras invisíveis. Mas são soluções falsamente milagrosas, diz ele. “Testamos no laboratório, e não funcionam.”
Com a administração Trump cortando recursos para a educação e pesquisa, quem opera clínicas de tecnologia expressa preocupação com a sustentabilidade dessas iniciativas. Ao menos Dell recebeu um aporte de US$ 800 mil da Fundação MacArthur em 2024, parte do qual pretende usar para lançar novas clínicas inspiradas na CETA. A clínica de tecnologia no Queens recebeu verba inicial da própria CETA para o primeiro ano, mas “está em busca ativa de financiamento para continuar o programa”, diz Jennifer Friedman, advogada da ONG Santuário para Famílias (Sanctuary for Families), responsável pela operação da unidade.