O que a assessora de tecnologia da gestão Biden tem a dizer sobre IA
Inteligência artificial

O que a assessora de tecnologia da gestão Biden tem a dizer sobre IA

Discutimos os riscos da IA, a imigração, a Lei CHIPS e a erosão da confiança na ciência.

Banner indicando a posição do botão de download do artigo em formato pdf

O governo do presidente norte-americano Joe Biden terminará dentro de dois meses e, provavelmente, Arati Prabhakar, a principal mente da ciência e tecnologia em seu gabinete, partirá com ele. Brabhakar atua como diretora do Escritório de Políticas de Ciência e Tecnologia da Casa Branca desde 2022 e foi a primeira a demonstrar o ChatGPT ao presidente no Salão Oval. Prabhakar foi fundamental na aprovação da ordem executiva do presidente sobre IA em 2023, que estabelece diretrizes para que as empresas de tecnologia tornem a IA mais segura e transparente (embora isso dependa da participação voluntária).

Donald Trump ainda não apresentou uma tese clara sobre como lidará com a IA, mas muitas pessoas na nova administração vão querer ver essa ordem executiva anulada. Trump disse isso em julho, endossando a plataforma do Partido Republicano de 2024, segundo a qual a ordem executiva “impede a inovação da IA e impõe ideias radicais de esquerda no desenvolvimento dessa tecnologia”. O capitalista de risco Marc Andreessen disse que apoiaria essa medida.

No entanto, quem complicará essa narrativa será Elon Musk, que há anos vem expressando temores sobre cenários apocalípticos e tem apoiado algumas regulamentações que visam promover a segurança da IA.

Enquanto Prabhakar se prepara para o fim do governo, conversei com ela e pedi que refletisse sobre as realizações de IA do presidente Biden e como os riscos de IA, as políticas de imigração, a Lei CHIPS e muito mais poderiam mudar sob Trump.

Esta conversa foi editada para fins de extensão e clareza.

Toda vez que um novo modelo de IA é lançado, há preocupações sobre como ele pode ser mal utilizado. Quando você se lembra das preocupações hipotéticas de segurança de apenas dois anos atrás, quais delas se tornaram realidade?

Identificamos uma série de riscos quando os modelos de linguagem de grande porte entraram em cena, e o que se manifestou de forma horrível foram os deepfakes e o abuso sexual baseado em imagens. Trabalhamos com nossos colegas do Gender Policy Council para instar o setor a tomar medidas imediatas, o que alguns deles estão fazendo. Há uma série de coisas que podem ser feitas – por exemplo, os processadores de pagamento podem realmente garantir que as pessoas estejam aderindo aos seus termos de uso. No entanto, eles não querem apoiar [o abuso sexual baseado em imagens] e podem tomar mais medidas para garantir que não o façam. Há uma legislação pendente, mas isso ainda levará algum tempo.

Houve riscos que não se mostraram tão preocupantes quanto você previu?

No início, os desenvolvedores de inteligência artificial expressaram muita preocupação em relação às armas biológicas. Quando as pessoas fizeram uma avaliação comparativa séria sobre o quanto isso era mais arriscado em comparação com alguém que apenas fazia pesquisas no Google, descobriu-se que o risco é um pouco pior, mas é marginal. Se você não estiver pensando em como os humanos mal-intencionados podem cometer crimes, então os chatbots parecem incrivelmente alarmantes. Mas você realmente tem que perguntar: em comparação com o quê?

Recentemente, [a cantora] Taylor Swift foi alvo de uma campanha cruel de pornografia deepfake não consensual. Essas ferramentas e políticas podem nos ajudar a impedir que isso aconteça novamente.

Para muitas pessoas, há um ceticismo instintivo sobre o fato de o Departamento de Defesa ou as agências policiais investirem totalmente em IA. Gostaria de saber quais medidas você acha que essas agências precisam tomar para criar confiança.

Se os consumidores não tiverem confiança de que as ferramentas de IA estão respeitando sua privacidade, não estão incorporando preconceito e discriminação, não estão causando problemas de segurança, então todas as possibilidades maravilhosas não se irão se materializar. Em nenhum lugar isso é mais verdadeiro do que na segurança nacional e na aplicação da lei.

Vou lhe dar um ótimo exemplo. A tecnologia de reconhecimento facial é uma área em que houve usos horríveis e inadequados. Recentemente, pegaram um vídeo granulado de uma loja de conveniência e identificaram um homem negro que nunca esteve naquele estado, e que foi preso injustamente. (Nota: Prabhakar está se referindo a esta história). Encarceramentos baseados em um uso inadequado da tecnologia de reconhecimento facial precisam acabar.

Em contraste com isso, quando passo pela segurança no aeroporto, o sistema tira sua foto e a compara com seu documento de identidade para se certificar de que você é a pessoa que diz ser. Essa é uma função muito restrita e específica. Trata-se de um aplicativo muito restrito e específico que compara minha imagem com minha identidade, e a placa me diz – sei disso através dos nossos colegas do DHS [Departamento de Segurança Interna] – que eles vão excluir a imagem. Esse é um uso eficiente e responsável desse tipo de tecnologia automatizada. Apropriado e respeitoso – é para isso que temos que ir.

Você ficou surpresa com o veto ao projeto de lei sobre segurança de IA na Califórnia?

Não fiquei. Acompanhei o debate e sabia que havia opiniões fortes de ambos os lados. Acho que o que os oponentes do projeto de lei expressaram, e acho que foi correto, é que ele era simplesmente impraticável, porque era uma expressão de desejo sobre como avaliar a segurança. Só que, na verdade, nós simplesmente não sabemos como fazer essas coisas. Ninguém sabe. Não é um segredo, é um mistério.

Para mim, isso realmente nos lembra que, embora desejemos saber o quanto um modelo é seguro, eficaz e confiável, nós temos uma capacidade muito limitada para responder a essas perguntas. Essas são questões de pesquisa muito profundas e um ótimo exemplo do tipo de P&D (Pesquisa e Desenvolvimento) público que agora precisa ser feito em um nível muito mais profundo.

Vamos falar sobre talentos. Grande parte do recente Memorando de Segurança Nacional sobre IA foi sobre como ajudar os talentos certos a virem do exterior para os EUA para trabalhar com IA. Você acha que estamos lidando com isso da maneira correta?

É uma questão extremamente importante. Essa é a história americana definitiva, isto é, pessoas vieram para cá ao longo dos séculos para construir este país, e isso é tão verdadeiro agora nos campos de ciência e tecnologia como sempre foi. Estamos vivendo em um mundo diferente. Cheguei no país ainda criança porque meus pais vieram da Índia para cá no início da década de 1960 e, naquele período, as oportunidades [de emigrar para] muitas outras partes do mundo eram muito limitadas.

Uma boa notícia é que agora há muito mais oportunidades. A outra notícia é que temos uma competição estratégica muito importante com a República Popular da China, e isso torna mais complicado descobrir como continuar a ter uma porta aberta para as pessoas que vêm em busca das vantagens dos Estados Unidos e, ao mesmo tempo, garantir que continuemos a proteger ativos importantes, como nossa propriedade intelectual.

Você acha que os debates polêmicos sobre imigração, especialmente na época das eleições, podem prejudicar a capacidade dos EUA de trazer os talentos certos para o país?

Como estamos parados como país em relação à imigração, o que está envolvido nisso é nossa capacidade de lidar com a imigração para as áreas STEM [Sigla para Ciência, Tecnologia, Engenharia e Matemática]. É um dano colateral.

A Lei CHIPS foi bem-sucedida?

Sou uma pessoa que trabalha com semicondutores desde o início de minha pós-graduação. Fiquei surpresa e encantada quando, depois de quatro décadas, decidimos fazer algo a respeito do fato de que a capacidade de fabricação de semicondutores estava perigosamente concentrada em apenas uma parte do mundo [Taiwan]. Portanto, foi extremamente importante que, com a liderança do presidente, finalmente tomássemos uma atitude. Além disso, acho que o Departamento de Comércio tem feito um excelente trabalho para liberar esses incentivos na fabricação.

Mini Banner - Assine a MIT Technology Review

Até o momento, um dos principais beneficiários da Lei CHIPS tem sido a Intel. Há várias discussões se a empresa conseguirá, de fato, criar uma cadeia de suprimentos de chips domésticos da maneira pretendida pela Lei CHIPS. É arriscado colocar muitos ovos em uma única cesta para um único fabricante?

Acho que a coisa mais importante que vejo em termos do setor com a Lei CHIPS é que hoje não temos apenas a Intel, mas a TSMC, a Samsung, a SK Hynix e a Micron. Essas são as cinco empresas cujos produtos e processos estão nos nós mais avançados da tecnologia de semicondutores. Todas elas estão sendo construídas nos EUA. Nenhuma outra parte do mundo terá todas essas cinco empresas. Um setor é maior do que uma empresa. Acho que quando você olha para o agregado, isso é um sinal para mim de que estamos em um caminho muito diferente.

Você é a principal assessora do presidente para ciência e tecnologia. Gostaria de lhe perguntar sobre a autoridade cultural que a ciência tem, ou não tem, atualmente. RFK Jr. é a escolha para secretário de saúde e, de certa forma, ele capta a frustração que os americanos têm em relação ao sistema de saúde. Em outros aspectos, Jr. tem opiniões que só podem ser descritas como anticientíficas. Como você reflete sobre a autoridade que a ciência tem agora?

Acho que é importante reconhecer que vivemos em uma época em que a confiança nas instituições diminuiu de forma generalizada, embora a confiança na ciência permaneça relativamente alta em comparação com o que aconteceu em outras áreas. Mas isso faz parte desse fenômeno mais amplo, e acho que a comunidade científica tem algumas funções [a desempenhar] aqui. Apesar de os Estados Unidos terem a melhor pesquisa biomédica que o mundo já viu, não temos resultados robustos na área da saúde. Três dúzias de países têm expectativa de vida mais longa do que os Estados Unidos. Isso não está certo, e essa desconexão entre o avanço da ciência e a mudança na vida das pessoas simplesmente não é sustentável. O pacto que a ciência, a tecnologia e a P&D fazem com o povo americano é que, se fizermos esses investimentos públicos, eles melhorarão a vida das pessoas e, quando isso não acontece, a confiança é abalada.

É justo dizer que essa lacuna – entre o conhecimento especializado que temos nos EUA e os resultados ruins na área da saúde – explica parte do aumento do pensamento conspiratório e da descrença na ciência?

Essa lacuna deixa, de fato, espaço para isso. Além disso, há uma rejeição bastante problemática dos fatos. É preocupante se você for um pesquisador, pois sabe que o que está sendo dito não é verdade. O que realmente me incomoda é que essa rejeição muda a vida das pessoas, e isso é extremamente perigoso e prejudicial. Pense em como seria se perdêssemos a imunidade de rebanho em algumas doenças para as quais temos níveis razoavelmente altos de vacinação. Antes de domarmos as doenças com as vacinas que temos, o mundo era um lugar perigoso.

Último vídeo

Nossos tópicos