Quatro lições de 2023 que nos dizem para onde a regulamentação de IA está indo
Governança

Quatro lições de 2023 que nos dizem para onde a regulamentação de IA está indo

O que devemos esperar nos próximos 12 meses na política de Inteligência Artificial

Nos EUA e em outros países, 2023 foi um ano de grande sucesso para a Inteligência Artificial e sua regulamentação, e o próximo ano certamente trará ainda mais ação. Em 5 de janeiro, publiquei um artigo com meus colegas Melissa Heikkilä e Zeyi Yang que descreve o que devemos esperar nos próximos 12 meses na política de IA em todo o mundo. 

De forma mais ampla, é provável que as estratégias que surgiram no ano passado continuem, se expandam e comecem a ser implementadas. Por exemplo, seguindo a ordem executiva do presidente Biden, várias agências do governo dos EUA podem delinear novas práticas recomendadas, mas capacitar as empresas de IA a se policiarem. Já do outro lado do oceano, empresas e órgãos reguladores começarão a lidar com a Lei de IA da Europa (AI Act) e sua abordagem baseada em riscos. Certamente não será algo simples, e é provável que haja muita discussão sobre como essas novas leis e políticas realmente funcionam na prática. 

Enquanto escrevia este artigo, dediquei algum tempo para refletir sobre como chegamos até aqui. Acho que as histórias sobre o crescimento das tecnologias são dignas de um exame reflexivo — elas podem nos ajudar a entender melhor o que pode acontecer em seguida. E como repórter, tenho visto padrões surgirem nessas histórias ao longo do tempo — seja com blockchain, mídia social, carros autônomos ou qualquer outra inovação de rápido desenvolvimento e que mude o mundo. A tecnologia geralmente se move muito mais rápido do que a regulamentação, e os legisladores são cada vez mais desafiados a se manterem atualizados com a própria tecnologia e, ao mesmo tempo, a criarem novas maneiras de elaborar leis sustentáveis e à prova de futuro. 

Pensando especificamente nos EUA, não sei se o que estamos vivenciando até agora não tem precedentes, embora certamente a velocidade com que a IA generativa foi lançada em nossas vidas tenha sido surpreendente. No ano passado, a política de IA foi marcada por grandes movimentos de poder das Big Techs, aprimoramento de habilidades e bipartidarismo no Congresso (pelo menos nesse espaço!), competição geopolítica e rápida implantação de tecnologias nascentes em tempo real.  

Então, o que aprendemos? E o que está por vir? Há muito o que tentar acompanhar em termos de política, mas eu dividi o que você precisa saber em quatro conclusões. 

1. Os Estados Unidos não estão planejando acabar com as grandes empresas de tecnologia.  Mas os legisladores planejam envolver o setor de IA. 

O CEO da OpenAI, Sam Altman, começou sua turnê pelo Congresso em maio passado, seis meses após o lançamento bombástico do ChatGPT. Ele se reuniu com legisladores em jantares privados e testemunhou sobre as ameaças existenciais que sua própria tecnologia poderia representar para a humanidade. De muitas maneiras, isso definiu o tom de como estamos falando sobre IA nos EUA, e foi seguido pelo discurso de Biden sobre IA, fóruns de insights no Congresso para ajudar os legisladores a se atualizarem e o lançamento de mais modelos de linguagem grandes. (Notavelmente, a lista de convidados para esses fóruns de insights sobre IA foi muito voltada para o setor). 

À medida que os legisladores dos EUA começaram a realmente lidar com a IA, ela se tornou uma área rara (ainda que pequena) de bipartidarismo no Capitólio, com legisladores de ambos os partidos pedindo mais proteções para a tecnologia. Ao mesmo tempo, a atividade em nível estadual e nos tribunais aumentou, principalmente em relação às proteções do usuário, como verificação de idade e moderação de conteúdo 

Como escrevi na história: “Por meio dessa atividade, começou a surgir uma espécie de política de IA nos EUA: uma política amigável ao setor de IA, com ênfase nas práticas recomendadas, dependência de diferentes agências para criar suas próprias regras e uma abordagem diferenciada de regulamentação de cada setor da economia.” O ponto culminante de tudo isso foi a ordem executiva de Biden no final de outubro, que delineou uma abordagem distribuída para a política de IA, na qual diferentes agências elaboram suas próprias regras. Isso (talvez sem surpresa) dependerá muito da adesão das empresas de IA 

No próximo ano, podemos esperar que algumas novas regulamentações se baseiem em tudo isso. Como escrevemos em nosso artigo de hoje, o Congresso está procurando elaborar novas leis e considerará os projetos de lei existentes sobre algoritmos de recomendação, privacidade de dados e transparência que complementarão a ordem executiva de Biden. Os estados também estarão considerando suas próprias regulamentações. 

2. Não vai ser fácil lidar com os danos e riscos apresentados pela IA.

Embora os riscos existenciais tenham sido as principais manchetes no ano passado, os defensores dos direitos humanos e os pesquisadores frequentemente chamaram a atenção para os danos que a IA já existente no mercado está causando no momento, como a perpetuação da imprecisão e do preconceito. Eles advertiram que a divulgação dos riscos existenciais tiraria o foco de realidades perigosas, como as IAs médicas que diagnosticam de forma desproporcional problemas de saúde em pacientes negros e pardos. 

À medida que os debates sobre o quanto deveríamos nos preocupar com a guerra dos robôs que se aproximava se infiltraram nas conversas à mesa de jantar e nas salas de aula, as agências e os órgãos reguladores locais começaram a fazer declarações e emitir comunicados sobre a IA, como a declaração conjunta em abril de quatro agências federais, incluindo a FTC e a CFPB, que alertaram que a IA tem o “potencial de perpetuar preconceitos ilegais, automatizar a discriminação ilegal e produzir outros resultados prejudiciais”. No entanto, a forma como esses resultados serão monitorados ou evitados está longe de ser clara neste momento. 

Quanto ao próprio setor de tecnologia, é provável que os participantes continuem a discutir com os legisladores sobre o risco dos sistemas de IA. As discussões de última hora sobre a Lei de IA da União Europeia ficaram penduradas em uma briga sobre modelos de fundação, e esse debate provavelmente continuará em diferentes arenas este ano, assim como os debates sobre quais usos de IA devem ser considerados de alto risco e quem é responsável por gerenciar esses riscos. 

3. A IA é a próxima fronteira para o nacionalismo tecnológico e a concorrência global.

O ano passado também deixou claro que a abordagem dos EUA em relação à IA é moldada pelo desejo de alcançar e manter uma vantagem tecnológica sobre a China. Enquanto isso, os dois países continuam a intensificar sua guerra comercial por causa dos semicondutores, que fornecem o hardware necessário para os modelos de IA.   

Além de manter uma vantagem em termos de proezas tecnológicas, os EUA querem ser líderes em regulamentação tecnológica e competir com uma Europa que não gosta de regulamentação. A ordem executiva de Biden foi lançada estrategicamente poucos dias antes da Cúpula de IA do Reino Unido e antes das negociações finais sobre a Lei de IA da União Europeia. 

4. Observe atentamente o que acontece nas eleições dos EUA e em todo o mundo.

É claro que os EUA terão uma grande eleição em 2024, mas muitos outros países também terão. Em meu último Technocrat de 2023, falamos sobre como a IA generativa e outras tecnologias de mídia criaram uma grande preocupação com um ataque de informações enganosas e imprecisas. Estou particularmente interessado em observar como as plataformas de mídia social e os políticos lidam com a nova ameaça de desinformação política como resultado da IA generativa. Como escrevi em um artigo há alguns meses, os pesquisadores já estão observando um impacto negativo 

Pelo menos uma coisa é certa: o rápido lançamento da IA generativa para os usuários em 2023 afetará as eleições de 2024, provavelmente de forma dramática e sem precedentes. É difícil prever realmente o que pode acontecer, dada a rapidez com que a tecnologia está mudando e a rapidez com que os usuários a estão empurrando em direções diferentes e inesperadas. Portanto, mesmo que os governos ou as empresas de mídia social, entre outros, tentem fortalecer as proteções ou criar novas políticas, a forma como a IA generativa for realmente usada em 2024 será fundamental para moldar as regulamentações futuras.  

Não importa o que aconteça, com certeza será uma jornada interessante! 

Último vídeo

Nossos tópicos