A internet está prestes a se tornar muito mais segura
Computação

A internet está prestes a se tornar muito mais segura

O grande projeto de lei europeu sobre tecnologia está se concretizando. Confira o que você precisa saber.

Se você usa o Google, Instagram, Wikipédia ou YouTube, começará a notar mudanças nos recursos de moderação, transparência e segurança de conteúdo desses sites nos próximos seis meses. 

Por quê? O motivo é uma importante legislação de tecnologia aprovada pela União Europeia (UE) no ano passado, mas que não recebeu atenção suficiente (na minha opinião), sobretudo dos EUA. Estou falando de dois projetos de lei chamados Digital Services Act (DSA) e Digital Markets Act (DMA), com os quais você deveria se familiarizar.  

Eles são bastante revolucionários e estabelecem um padrão de excelência global para a regulamentação tecnológica quando se trata de conteúdo gerado pelo usuário. O DSA lida com a segurança digital e a transparência das empresas de tecnologia, enquanto o DMA trata de medidas antitruste e concorrência na indústria. Vou explicar melhor.  

No início do ano, o DSA atingiu um marco importante. Em 17 de fevereiro de 2023, todas as principais plataformas europeias de tecnologia foram obrigadas a relatar seus tamanhos de base de usuários, e tais dados foram usados para agrupar as empresas em diferentes categorias. As maiores empresas, com mais de 45 milhões de usuários mensais ativos na UE (ou cerca de 10% da sua população), receberam o criativo nome de “Very Large Online Platforms” (ou VLOPs, ou, em tradução livre, Plataformas Online Muito Grandes), ou “Very Large Online Search Engines” (ou VLOSEs, ou, em tradução livre, Mecanismos de Busca Online Muito Grandes), e deverão seguir os mais rigorosos padrões de transparência e regulamentação. As plataformas menores têm muito menos obrigações, aspecto que fazia parte de uma política destinada a incentivar a concorrência e a inovação enquanto responsabilizava as Big Techs. 

“Por exemplo, se você pedir [às pequenas empresas] para contratar 30.000 moderadores, elas não sobreviverão”, disse Henri Verdier, embaixador francês para assuntos digitais, ao conversar comigo no ano passado.  

Então, qual será o papel do DSA? Até a escrita deste artigo, pelo menos 18 companhias já haviam declarado serem VLOPs ou VLOSEs, incluindo a maioria das mais conhecidas como YouTube, TikTok, Instagram, Pinterest, Google e Snapchat. (Se quiser uma lista completa, Martin Husovec, professor de Direito da London School of Economics, no Reino Unido, tem um ótimo documento no Google, que mostra onde se encontram todos as principais empresas junto a um material explicativo.)  

O DSA exigirá que essas empresas avaliem os riscos nas suas plataformas, como a probabilidade da existência de conteúdo ilegal ou manipulação eleitoral, e façam planos para mitigar esses riscos por meio de auditorias independentes para verificar a segurança. As empresas menores (aquelas com menos de 45 milhões de usuários) também deverão cumprir os novos padrões de moderação de conteúdo, que incluem remover conteúdo ilegal “rapidamente” de suas plataformas assim que for identificado, notificar os usuários de tal remoção e aumentar a aplicação das políticas já existentes da empresa.  

Os defensores da legislação alegam que o projeto de lei ajudará a pôr fim à era de autorregulação das empresas de tecnologia. “Não quero que as empresas decidam o que é e o que não é proibido sem qualquer separação de poder, sem qualquer responsabilidade, sem qualquer tipo de relatório, sem qualquer possibilidade de contestação”, afirma Verdier. “É muito perigoso”.  

Dito isso, o projeto de lei deixa claro que as plataformas não são responsáveis pelo conteúdo ilegal gerado pelo usuário, a menos que estejam cientes do conteúdo e não o removam.   

Talvez o mais importante seja que o DSA exige que as empresas aumentem bastante a transparência, tornando obrigatória a emissão de relatórios para avisos de “termos de serviço” e documentos periódicos e auditados sobre moderação de conteúdo. Os legisladores esperam que isso tenha um impacto substancial nas conversas públicas sobre os riscos sociais das grandes plataformas de tecnologia, como discurso de ódio, desinformação e violência. 

O que você vai notar? Você poderá participar das decisões de moderação de conteúdo que as empresas tomam e contestá-las formalmente. O DSA proibirá o shadowbanning (a prática de ocultar ou limitar a visibilidade do conteúdo de um usuário sem aviso prévio), reduzirá a ciberviolência contra as mulheres e proibirá a publicidade direcionada para usuários menores de 18 anos. Também haverá muito mais dados públicos sobre como algoritmos de recomendação, anúncios, conteúdo e gerenciamento de contas funcionam nas plataformas, ajudando a esclarecer como as maiores empresas de tecnologia operam. Tais organizações costumam ser muito hesitantes em compartilhar dados de suas plataformas com o público, até mesmo com pesquisadores acadêmicos.   

O que vem a seguir? Agora, a Comissão Europeia (CE) irá rever os números de usuários relatados pelas empresas e poderá contestar ou solicitar mais informações a elas. Vale ressaltar que sites pornográficos foram omitidos da categoria “Muito Grande”, fato que Husovec considerou “chocante”. Ele acredita que as quantidades de usuários relatadas por esses sites deveriam ser investigadas pela CE. 

Uma vez confirmados os agrupamentos por tamanho, as empresas maiores terão até 1 de setembro de 2023, para se adequar à regulamentação, enquanto as menores terão até 17 de fevereiro de 2024. Muitos especialistas preveem que as empresas implementarão algumas das mudanças para todos os usuários, não apenas para os que vivem na UE. Com a reforma da Seção 230 do Communications Decency Act (CDA) parecendo improvável nos EUA, muitos usuários americanos se beneficiarão de uma internet mais segura que será obrigatória no exterior.   

O que mais estou lendo por aí 

Mais caos, e demissões, no Twitter. 

  • Mais uma vez, Elon Musk teve grande destaque nos noticiários após demitir outras 200 pessoas, ou 10% da equipe restante do Twitter, no primeiro fim de semana de março. Presume-se que esses funcionários faziam parte do grupo “radical” que havia concordado em respeitar as condições agressivas de trabalho impostas por Musk.  
  • A NetBlocks relatou quatro grandes paralisações no funcionamento do seu site desde o início de fevereiro.  

Todos estão tentando entender o alvoroço em relação à Inteligência Artificial generativa.  

  1. A Comissão Federal do Comércio (FTC) dos EUA, órgão norte-americano de proteção aos consumidores, divulgou um comunicado alertando as empresas para não mentirem sobre as capacidades de suas Inteligências Artificiais (IA). Recomendo também a leitura deste artigo da minha colega Melissa Heikkil sobre como usar a IA generativa de forma responsável e esta explicação sobre os 10 riscos jurídicos e empresariais decorrentes da utilização da IA generativa por Matthew Ferraro da Tech Policy Press.  
  1. Os perigos dessa tecnologia já estão chegando aos jornais. Este repórter invadiu a própria conta bancária usando uma voz gerada por IA.   

O ano de 2022 teve mais paralisações da internet do que nos anteriores, dando continuação à tendência de censura autoritária.  

  • No ano passado, conversei com Dan Keyserling, que trabalhou no relatório de 2021, para saber mais sobre como os cortes são usados como armas. Durante nossa entrevista, ele me disse: “os cortes da internet estão se tornando mais frequentes. Mais governos estão experimentando restringir o acesso online como uma ferramenta para afetar o comportamento dos cidadãos. Pode-se dizer que os custos desses cortes estão aumentando, tanto porque os governos estão tornando seus métodos mais sofisticados, mas também porque estamos vivendo mais das nossas vidas online”. 

O que aprendi no início de março 

De acordo com um novo relatório do programa Duke Cyber Policy, corretores de dados estão vendendo informações de saúde mental na internet. O pesquisador solicitou informações sobre saúde mental a 37 corretores de dados e 11 responderam de bom grado. O relatório detalha como esses corretores específicos de dados se ofereceram para vender informações sobre depressão, TDAH e insônia com poucas restrições. Alguns dos dados estavam ligados aos nomes e endereços das pessoas. 

Em uma entrevista para a PBS, o líder do projeto, Justin Sherman, explicou: “há uma série de empresas que não são enquadradas pelos limitados regulamentos existentes sobre privacidade na área da saúde. Então, elas são legalmente livres para coletar e até mesmo compartilhar e vender este tipo de dados. Isso faz com que uma ampla gama de empresas que não costumam ter acesso a eles, como as de publicidade, as gigantes farmacêuticas e até mesmo companhias de planos de saúde, comprem esses dados e façam coisas como veicular anúncios segmentados, definir perfis dos consumidores e até mesmo determinar preços para seus planos com base nessas informações. E os corretores de dados permitem que tais empresas contornem as regulamentações de saúde”.  

No dia 3 de março, o FTC anunciou uma proibição que impedia a empresa de saúde mental online, a BetterHelp, de compartilhar os dados das pessoas com outras empresas.    

Último vídeo

Nossos tópicos