Em sua Conferência Mundial de Desenvolvedores (WWDC), a Apple revelou pela primeira vez sua visão para sobrecarregar sua linha de produtos com Inteligência Artificial. O principal recurso, que será executado em praticamente toda a sua linha de produtos, é o Apple Intelligence, um conjunto de recursos baseados em IA que promete fornecer serviços personalizados de IA, mantendo os dados confidenciais seguros.
A novidade representa o maior avanço da Apple no uso de nossos dados privados para ajudar a IA a realizar tarefas para nós. Para garantir que ela possa fazer isso sem sacrificar a privacidade, a empresa diz que criou uma nova maneira de lidar com dados confidenciais na nuvem.
A Apple afirma que seu sistema voltado para a privacidade tentará primeiro realizar as tarefas de IA localmente no próprio dispositivo. Se algum dado for trocado com serviços em nuvem, ele será criptografado e excluído posteriormente. A empresa também diz que o processo, que ela chama de Private Cloud Compute, estará sujeito à verificação por pesquisadores de segurança independentes.
O argumento oferece um contraste implícito com empresas como Alphabet, Amazon ou Meta, que coletam e armazenam enormes quantidades de dados pessoais. A Apple diz que todos os dados pessoais repassados à nuvem serão usados apenas para a tarefa de IA em questão e não serão retidos ou acessíveis à empresa, nem mesmo para depuração ou controle de qualidade, depois que o modelo concluir a solicitação.
Simplificando, a Apple está dizendo que as pessoas podem confiar que ela analisará dados incrivelmente confidenciais – fotos, mensagens e e-mails que contêm detalhes íntimos de nossas vidas – e fornecerá serviços automatizados com base no que encontrar, sem realmente armazenar os dados on-line ou torná-los vulneráveis.
A empresa mostrou alguns exemplos de como isso funcionará nas próximas versões do iOS. Em vez de percorrer suas mensagens para encontrar aquele podcast que seu amigo lhe enviou, por exemplo, você poderia simplesmente pedir à Siri para encontrá-lo e reproduzi-lo para você. Craig Federighi, vice-presidente sênior de engenharia de software da Apple, apresentou outro cenário: um e-mail chega adiando uma reunião de trabalho, mas sua filha está participando de uma peça de teatro naquela noite. Seu telefone agora pode encontrar o PDF com informações sobre a apresentação, prever o tráfego local e informar se ele chegará a tempo. Esses recursos se estenderão para além dos aplicativos criados pela Apple, permitindo que os desenvolvedores também utilizem a IA da Apple.
Como a empresa lucra mais com hardware e serviços do que com anúncios, a Apple tem menos incentivos do que algumas outras empresas para coletar dados pessoais on-line, o que lhe permite posicionar o iPhone como o dispositivo mais privado. Mesmo assim, a Apple já se viu na mira dos defensores da privacidade. Falhas de segurança levaram a vazamentos de fotos explícitas do iCloud em 2014. Em 2019, descobriu-se que os contratados estavam ouvindo gravações íntimas da Siri para controle de qualidade. Estão em andamento disputas sobre como a Apple lida com solicitações de dados de autoridades policiais.
A primeira linha de defesa contra violações de privacidade, de acordo com a Apple, é evitar a computação em nuvem para tarefas de IA sempre que possível. “A pedra angular do sistema de inteligência pessoal é o processamento no dispositivo”, diz Federighi, o que significa que muitos dos modelos de IA serão executados em iPhones e Macs, e não na nuvem. “Ele está ciente de seus dados pessoais sem coletá-los.”
Isso apresenta alguns obstáculos técnicos. Dois anos após o boom da IA, o ping de modelos, mesmo para tarefas simples, ainda requer enormes quantidades de poder de computação. É difícil fazer isso com os chips usados em telefones e laptops, e é por isso que apenas os menores modelos de IA do Google podem ser executados nos telefones da empresa, e todo o resto é feito por meio da nuvem. A Apple diz que sua capacidade de lidar com cálculos de IA no dispositivo se deve a anos de pesquisa em design de chips, o que levou aos chips M1 que começaram a ser lançados em 2020.
No entanto, mesmo os chips mais avançados da Apple não conseguem lidar com todo o espectro de tarefas que a empresa promete realizar com a IA. Se você pedir à Siri para fazer algo complicado, ela pode precisar passar essa solicitação, juntamente com seus dados, para modelos que estão disponíveis apenas nos servidores da Apple. Essa etapa, segundo especialistas em segurança, introduz uma série de vulnerabilidades que podem expor suas informações a agentes mal-intencionados externos ou, pelo menos, à própria Apple.
“Eu sempre aviso às pessoas que, assim que seus dados saem do dispositivo, eles se tornam muito mais vulneráveis”, diz Albert Fox Cahn, diretor executivo do Surveillance Technology Oversight Project e profissional residente no Information Law Institute da NYU Law School.
A Apple afirma ter atenuado esse risco com seu novo sistema de Computador em Nuvem Privada. “Pela primeira vez, o Private Cloud Compute estende a segurança e a privacidade líderes do setor dos dispositivos Apple para a nuvem”, escreveram os especialistas em segurança da Apple em seu anúncio, afirmando que os dados pessoais “não são acessíveis a ninguém além do usuário – nem mesmo à Apple”. Como isso funciona?
Historicamente, a Apple tem incentivado as pessoas a optarem pela criptografia de ponta a ponta (o mesmo tipo de tecnologia usada em aplicativos de mensagens como o Signal) para proteger dados confidenciais do iCloud. Porém isso não funciona para a IA. Ao contrário dos aplicativos de mensagens, em que uma empresa como o WhatsApp não precisa ver o conteúdo de suas mensagens para entregá-las aos seus amigos, os modelos de IA da Apple precisam de acesso não criptografado aos dados subjacentes para gerar respostas. É aqui que entra em ação o processo de privacidade da Apple. Primeiro, diz a Apple, os dados serão usados apenas para a tarefa em questão. Em segundo lugar, esse processo será verificado por pesquisadores independentes.
Não é preciso dizer que a arquitetura desse sistema é complicada, mas você pode imaginá-la como um protocolo de criptografia. Se o seu telefone determinar que precisa da ajuda de um modelo de IA maior, ele enviará uma solicitação contendo o prompt que está usando e o modelo específico e, em seguida, colocará um bloqueio nessa solicitação. Somente o modelo de IA específico a ser usado terá a chave adequada.
Quando perguntado pela MIT Technology Review se os usuários serão notificados quando uma determinada solicitação for enviada para modelos de IA baseados em nuvem em vez de ser tratada no dispositivo, um porta-voz da Apple disse que haverá transparência para os usuários, mas que não há mais detalhes disponíveis.
Dawn Song, codiretor do UC Berkeley Center on Responsible Decentralized Intelligence e especialista em computação privada, diz que os novos desenvolvimentos da Apple são encorajadores. “A lista de metas que eles anunciaram é bem pensada”, diz ela. “É claro que haverá alguns desafios para atingir essas metas.”
Cahn diz que, a julgar pelo que a Apple divulgou até agora, o sistema parece muito mais protetor da privacidade do que outros produtos de IA disponíveis atualmente. Dito isso, o refrão comum em seu espaço é “Confie, mas verifique”. Em outras palavras, não saberemos o quanto esses sistemas mantêm nossos dados seguros até que pesquisadores independentes possam verificar suas alegações, como a Apple promete que fará, e a empresa responda às suas descobertas.
“Abrir-se à análise independente de pesquisadores é um grande passo”, diz ele. “Mas isso não determina como você responderá quando os pesquisadores lhe disserem coisas que você não quer ouvir.” A Apple não respondeu às perguntas da MIT Technology Review sobre como a empresa avaliará o feedback dos pesquisadores.
A barganha entre privacidade e IA
A Apple não é a única empresa que aposta que muitos de nós concederão aos modelos de IA acesso praticamente irrestrito aos nossos dados privados se isso significar que eles poderão automatizar tarefas tediosas. Sam Altman, da OpenAI, descreveu sua ferramenta de IA dos sonhos para a MIT Technology Review como uma “que sabe absolutamente tudo sobre toda a minha vida, todos os e-mails, todas as conversas que já tive”. Em sua própria conferência para desenvolvedores, em maio, o Google anunciou o Project Astra, um projeto ambicioso para criar um “agente de IA universal que seja útil na vida cotidiana”.
É uma barganha que forçará muitos de nós a considerar, pela primeira vez, qual papel queremos que os modelos de IA desempenhem na forma como interagimos com nossos dados e dispositivos. Quando o ChatGPT entrou em cena pela primeira vez, essa não era uma pergunta que precisávamos fazer. Era simplesmente um gerador de texto que podia nos escrever um cartão de aniversário ou um poema, e as questões que ele levantava – como a origem dos dados de treinamento ou os preconceitos que perpetuava – não pareciam tão pessoais.
Agora, menos de dois anos depois, a Big Tech está fazendo apostas de bilhões de dólares para que confiemos na segurança desses sistemas o suficiente para entregar nossas informações privadas. Ainda não está claro se sabemos o suficiente para tomar essa decisão, ou se somos capazes de optar por não participar, mesmo que queiramos. “Eu me preocupo com o fato de que veremos essa corrida armamentista de IA empurrando cada vez mais nossos dados para as mãos de outras pessoas”, diz Cahn.
Em breve, a Apple lançará versões beta de seus recursos de Inteligência da Apple, começando neste outono com o iPhone 15 e o novo macOS Sequoia, que pode ser executado em Macs e iPads com chips M1 ou mais recentes. Tim Cook, CEO da Apple, diz: “Acreditamos que a inteligência da Apple será indispensável”.
—
Por:James O’Donnel James é repórter em inteligência artificial da
MIT Technology Review, especializado em análise de promessas e riscos de tecnologias como veículos autônomos, robôs cirúrgicos e chatbots.