Um escândalo semelhante ao do caso Cambridge Analytica está prestes a acontecer no campo da Inteligência Artificial
Insights to ActInteligência artificial

Um escândalo semelhante ao do caso Cambridge Analytica está prestes a acontecer no campo da Inteligência Artificial

Você consegue imaginar uma fábrica de automóveis lançando um veículo novo no mercado sem componentes de segurança integrados?

Você consegue imaginar uma fábrica de automóveis lançando um veículo novo no mercado sem componentes de segurança integrados? Algo improvável, não é? Mas é quase o que algumas empresas de Inteligência Artificial (IA) estão fazendo, lançando seus “carros de corrida” sem cintos de segurança ou freios totalmente funcionais para resolverem essas coisas e problemas futuros à medida que acidentes acontecem. 

E esta atitude agora está causando problemas para elas. Por exemplo, a OpenAI está enfrentando investigações das autoridades de proteção de dados da Europa e do Canadá pela forma como coleta informações pessoais e as utiliza em seu popular chatbot, o ChatGPT. A Itália baniu temporariamente o modelo de linguagem e a OpenAI tinha até o fim de abril para cumprir o rígido regime de proteção de dados da Europa, o Regulamento Geral sobre a Proteção de Dados (GDPR).  

O ritmo acelerado de desenvolvimento das IAs significa que as autoridades de proteção de informações pessoais precisam estar preparadas para outro escândalo similar ao caso Cambridge Analytica, diz Wojciech Wiewiórowski, o fiscalizador de dados da União Europeia (UE). 

Wiewiórowski é a Autoridade Europeia para a Proteção de Dados (AEPD) e é uma figura influente. Seu papel é responsabilizar a UE por suas próprias práticas de proteção de dados, monitorar o avanço tecnológico e auxiliar na coordenação da aplicação das leis em todos os países da UE. Conversamos com ele sobre as lições que devemos aprender com os avanços da última década na área de tecnologia e o que os americanos precisam entender sobre a filosofia de proteção de dados da UE. Confira o que ele tinha a dizer. 

O que as empresas de tecnologia devem aprender: que seus produtos devem ser projetados desde o início com recursos que assegurem a privacidade. No entanto, “não é fácil convencer as empresas de que elas devem adotar modelos de privacidade logo nas etapas de concepção quando precisam entregar um produto novo muito rápido”, diz ele. O caso da Cambridge Analytica continua sendo a melhor lição sobre o que pode acontecer se as empresas cortarem custos quando se trata de proteção de dados, diz Wiewiórowski. A empresa, que se tornou um dos maiores escândalos de publicidade do Facebook, coletou ilegalmente dados pessoais de dezenas de milhões de americanos de suas contas no Facebook em uma tentativa de influenciar a opinião de eleitores em campanhas políticas. É apenas uma questão de tempo até vermos outro escândalo, acrescenta. 

O que os americanos precisam entender sobre a filosofia de proteção de dados da UE: “A abordagem europeia está relacionada com a finalidade para a qual você usa os dados. Então, quando você muda essa finalidade, especialmente se você faz isso em contradição com as informações fornecidas às pessoas, você está infringindo a lei”, afirma. Veja o caso da Cambridge Analytica. A maior violação legal não foi o fato de a empresa ter coletado aqueles dados, mas ter afirmado estar coletando dados para fins científicos e para uso em questionários, e depois os ter utilizado para outro propósito, principalmente para criar perfis políticos das pessoas. Este é um ponto ressaltado pelas autoridades de proteção de dados na Itália, que proibiram temporariamente o ChatGPT lá. As autoridades disseram que a OpenAI coletou os dados que queria usar ilegalmente e não disse às pessoas como pretendia usá-los. 

A regulamentação sufoca a inovação? Esta é uma afirmação comum entre os tecnólogos. Wiewiórowski diz que a verdadeira pergunta que devemos fazer é: temos certeza de que queremos dar às empresas acesso ilimitado aos nossos dados pessoais? “Não acho que as leis estejam realmente impedindo a inovação. Elas estão tentando torná-la mais civilizada”, diz ele. Afinal, o GDPR protege não apenas os dados pessoais, mas também o comércio e o livre fluxo dessas informações entre países. 

O inferno na Terra para as Big Techs? A Europa não é a única a adotar uma postura firme em relação ao uso das tecnologias. Como comentei em meados de abril, a Casa Branca está considerando criar regulamentos de responsabilidade da IA, e a Comissão Federal de Comércio dos EUA chegou a exigir que as empresas excluam seus algoritmos e quaisquer dados que possam ter sido coletados e usados ilegalmente, como aconteceu com os Vigilantes do Peso, em 2022. Wiewiórowski afirma estar satisfeito em ver o presidente Biden pedir às empresas de tecnologia que assumam mais responsabilidade pela segurança de seus produtos e considera encorajador que o pensamento político dos EUA esteja convergindo com os esforços europeus para prevenir riscos do uso desenfreado de IA e responsabilizar as empresas por danos. “Um dos grandes agentes do mercado de tecnologia disse certa vez: ‘A definição de inferno é a combinação da legislação europeia com uma fiscalização americana’”, diz ele. 

Leia mais sobre o ChatGPT 

A verdadeira história de como o ChatGPT foi desenvolvido, contada pelas pessoas que o criaram 

Como a OpenAI está tentando tornar o ChatGPT mais seguro e menos tendencioso 

O ChatGPT está em toda parte. Mas veja de onde ele surgiu 

O ChatGPT está prestes a causar uma revolução na economia. Precisamos decidir o que isso irá significar 

O ChatGPT vai mudar a educação, não destruí-la 

_____________________________________________________________________ 

Um aprendizado ainda mais profundo 

Aprender a codificar por si só não é suficiente 

A última década presenciou uma série de iniciativas sem fins lucrativos que visavam ensinar programação para crianças. Este ano, o estado da Carolina do Norte (EUA) está considerando tornar a codificação uma exigência de conclusão do ensino médio. O estado segue os passos de outros cinco com políticas semelhantes que consideram fundamentais a codificação e o ensino de informática para se alcançar uma educação completa e bem estruturada: Nevada, Carolina do Sul, Tennessee, Arkansas e Nebraska. Os defensores de tais políticas afirmam que elas expandem as oportunidades educacionais e econômicas para os alunos. 

Mas essa não é uma solução mágica: iniciativas que querem tornar as pessoas mais competentes em tecnologia existem desde a década de 60. No entanto, esses programas, assim como muitos outros que vieram depois, costumavam favorecer principalmente as populações mais privilegiadas na sociedade. Naquela época, assim como hoje, aprender a codificar por si só não era um caminho garantido para um futuro financeiro estável para pessoas de origens economicamente precárias, nem uma solução mágica para as deficiências do sistema educacional. Leia mais no artigo de Joy Lisi Rankin. 

_____________________________________________________________________ 

Bits e Bytes 

Os bastidores da lista secreta de sites que fazem IAs como o ChatGPT parecer inteligente 

Leitura essencial para qualquer pessoa interessada em tornar a IA mais responsável. Temos uma compreensão muito limitada do que está por trás dos vastos conjuntos de dados usados nos sistemas de IA, mas este artigo revela a origem desses dados e que tipos de tendências e preconceitos vêm associados a eles. (The Washington Post) 

Google Brain e DeepMind unem forças 

A Alphabet fundiu suas duas unidades de pesquisa de IA em uma só, agora chamada Google DeepMind. A fusão ocorre à medida que a liderança da Alphabet está cada vez mais preocupada com a perspectiva de concorrentes superá-la na área de IA. A DeepMind tem sido responsável por alguns dos avanços de IA mais impressionantes da última década, e, ao incorporar seus resultados de pesquisa de forma mais abrangente aos produtos do Google, pode possibilitar à empresa uma vantagem competitiva significativa. 

O Google Bard agora pode ser usado para codificar 

O Google lançou um novo recurso que permite que as pessoas usem seu chatbot Bard para gerar e interpretar códigos, além de identificar erros, muito parecido com o GitHub Copilot da Microsoft. 

Alguns dizem que o ChatGPT tem traços de uma AGI (Inteligência Artificial Geral). Outros consideram isso uma ilusão 

Pesquisadores da Microsoft causaram alvoroço quando divulgaram um artigo argumentando que o ChatGPT mostrava sinais de ser uma AGI (Inteligência Artificial Geral. Este é um bom resumo das diferentes maneiras pelas quais os pesquisadores estão tentando entender a inteligência nas máquinas e o quão desafiador isso é. (Wired) 

Último vídeo

Nossos tópicos