Nas semanas finais de 2025, a batalha para regular a Inteligência Artificial nos Estados Unidos atingiu um ponto de ebulição. Em 11 de dezembro, depois que o Congresso falhou duas vezes em aprovar uma lei que proibisse leis estaduais sobre o tema, o presidente Donald Trump assinou uma ampla ordem executiva que busca deixar de mãos atadas os estados para que não regulem a indústria em expansão.
Em vez disso, ele prometeu trabalhar com o Congresso para estabelecer uma política nacional, “minimamente onerosa”, que posicionaria os EUA para vencer a corrida global de IA. A medida marcou uma vitória parcial para os titãs da tecnologia, que vêm reunindo cofres de guerra de vários milhões de dólares para se opor a regulações da tecnologia, argumentando que uma colcha de retalhos de leis estaduais sufocaria a inovação.
Em 2026, o campo de batalha mudará para os tribunais. Embora alguns estados possam recuar em aprovar leis de IA, outros avançarão, impulsionados pela crescente pressão pública para proteger crianças de chatbots e conter data centers ávidos por energia. Enquanto isso, super Comitês de Ação Política (Political Action Committee, ou PACs) rivais, financiados por magnatas da tecnologia e defensores da segurança em IA, despejarão dezenas de milhões nas eleições para eleger legisladores que defendam suas visões para a regulação.
A ordem executiva de Trump orienta o Departamento de Justiça a estabelecer uma força-tarefa que processe estados cujas leis de IA entrem em conflito com sua visão de regulação pouco intrusiva. Ela também orienta o Departamento de Comércio a privar os estados de financiamento federal de banda larga se suas leis de IA forem “onerosas”. Na prática, a ordem pode mirar um punhado de legislações em estados democratas, diz James Grimmelmann, professor de direito na Cornell Law School. “A ordem executiva será usada para contestar um número menor de disposições, principalmente relacionadas à transparência e ao viés em IA, que tendem a ser questões mais liberais”, diz Grimmelmann.
Por enquanto, muitos estados não estão recuando. Em 19 de dezembro, a governadora de Nova York, Kathy Hochul, sancionou a lei de Segurança e Educação em IA Responsável (Responsible AI Safety and Education, ou RAISE), uma legislação histórica que exige que empresas de IA publiquem os protocolos usados para garantir o desenvolvimento seguro de seus modelos e informem incidentes críticos de segurança. Em 1º de janeiro, a Califórnia lançou a primeira lei de segurança de IA de fronteira do país, a SB 53, na qual a RAISE Act baseada, com o objetivo de evitar danos catastróficos como armas biológicas ou ciberataques. Embora ambas as leis tenham sido enfraquecidas em relação a versões anteriores para sobreviver ao intenso lobby da indústria, elas firmaram um raro, ainda que frágil, compromisso entre gigantes da tecnologia e defensores da segurança em IA.
Se Trump mirar essas leis conquistadas a duras penas, estados democratas como Califórnia e Nova York provavelmente levarão a disputa aos tribunais. Estados republicanos como a Flórida, com defensores da regulação, podem seguir o mesmo caminho. O presidente pode enfrentar uma batalha difícil. “O governo Trump está se desgastando com algumas de suas tentativas de, na prática, impedir previamente [legislação] por meio de ação executiva”, diz Margot Kaminski, professora de direito na University of Colorado Law School, nos Estados Unidos. “Está em terreno muito instável.”
Mas estados republicanos que estão ansiosos para ficar fora do radar de Trump, ou que não podem se dar ao luxo de perder o financiamento federal de banda larga para suas extensas comunidades rurais, podem recuar de aprovar ou fazer cumprir leis de IA. Ganhe ou perca no tribunal, o caos e a incerteza podem esfriar a elaboração de leis estaduais. Paradoxalmente, os estados democratas que Trump quer conter, munidos de grandes orçamentos e fortalecidos pela repercussão de enfrentar a administração, podem ser os menos propensos a ceder.
Em vez de leis estaduais, Trump promete criar uma política federal com o Congresso. Mas o órgão, travado e polarizado, não vai entregar um projeto de lei neste ano. Em julho, o Senado derrubou uma moratória sobre legislações estaduais de IA que havia sido inserida em um projeto de lei tributária e, em novembro, a Câmara descartou uma tentativa repetida de defesa. Na verdade, a tentativa de Trump de pressionar o Congresso com uma ordem executiva pode azedar qualquer apetite por um acordo bipartidário.
Ela “tornou mais difícil aprovar uma política responsável de IA ao endurecer muitas posições, transformando isso em uma questão muito mais partidária”, diz Brad Carson, um ex-deputado democrata de Oklahoma que está construindo uma rede de super PACs apoiando candidatos que apoiam a regulação de IA. “Ela endureceu os democratas e criou falhas incríveis entre os republicanos”, diz ele.
Enquanto entusiastas de IA no círculo de Trump, defendem a desregulamentação, entre eles David Sacks, Presidente do Conselho Consultivo do Presidente para a Ciência e Tecnologia dos Estados Unidos, os incendiários populistas do movimento Make America Great Again, ou MAGA, como Steve Bannon, alertam para uma superinteligência fora de controle e desemprego em massa. Em resposta à ordem executiva de Trump, procuradores-gerais estaduais republicanos assinaram uma carta bipartidária instando a Comissão Federal de Comunicações (Federal Communications Commission, ou FCC) a não se sobrepor às leis estaduais de IA.
Com os americanos cada vez mais ansiosos sobre como a IA poderia prejudicar a saúde mental, os empregos e o meio ambiente, a demanda pública por regulação está crescendo. Se o Congresso permanecer paralisado, os estados serão os únicos agindo para manter a indústria sob controle. Em 2025, legisladores estaduais apresentaram mais de mil projetos de lei de IA e quase 40 estados promulgaram mais de cem leis, de acordo com a Conferência Nacional de Legislaturas Estaduais (National Conference of State Legislatures).
Esforços para proteger crianças de chatbots podem inspirar um raro consenso. Em 7 de janeiro, o Google e a Character Technologies, uma startup por trás do Character.AI, chegaram a um acordo em vários processos com famílias de adolescentes que tiraram a própria vida após interagir com o bot de companhia. Apenas um dia depois, o procurador-geral do Kentucky processou a Character Technologies, alegando que os chatbots levaram crianças ao suicídio e a outras formas de automutilação.
A OpenAI e a Meta enfrentam uma enxurrada de processos semelhantes. Espere que mais se acumulem neste ano. Sem leis de IA em vigor, ainda não se sabe como a responsabilidade por produtos e doutrinas de liberdade de expressão se aplicam a esses perigos inéditos. “É uma questão em aberto o que os tribunais farão”, diz Grimmelmann.
Enquanto o litígio se intensifica, os estados avançarão para aprovar leis de segurança infantil, que estão isentas da proibição proposta por Trump às leis estaduais de IA. Em 9 de janeiro, a OpenAI fechou um acordo com um antigo adversário, o grupo de defesa da segurança infantil Common Sense Media, para apoiar uma iniciativa de votação na Califórnia chamada Lei de IA Segurança para Pais e Filhos (Parents & Kids Safe AI Act), estabelecendo barreiras de proteção sobre como chatbots interagem com crianças. A medida propõe exigir que essas empresas verifiquem a idade dos usuários, ofereçam controles parentais e se submetam a auditorias independentes de segurança infantil. Se aprovada, pode ser um modelo para estados em todo o país que buscam reprimir chatbots.
Impulsionados por uma reação generalizada contra data centers, os estados também tentarão regular os recursos necessários para operar a IA. Isso significa projetos de lei que exijam que eles informem sobre seu uso de energia e água e arquem com suas próprias contas de eletricidade. Se a IA começar a substituir empregos em grande escala, grupos trabalhistas podem propor proibições dela em profissões específicas. Alguns estados, preocupados com os riscos catastróficos, podem aprovar projetos de lei de segurança que espelhem a SB 53 e o RAISE Act.
Enquanto isso, titãs da tecnologia continuarão a usar seus bolsos fundos para esmagar regulações de IA. Liderando o futuro (Leading the Future), um super PAC apoiado pelo presidente da OpenAI, Greg Brockman, e pela empresa de capital de risco Andreessen Horowitz, tentará eleger para o Congresso e para legislaturas estaduais candidatos que endossem o desenvolvimento irrestrito de IA. Eles seguirão a cartilha do setor de cripto para eleger aliados e escrever as regras. Para contrapor isso, super PACs financiados pela Public First, uma organização comandada por Carson e pelo ex-deputado republicano Chris Stewart, de Utah, apoiarão candidatos que defendem a regulação de IA. Talvez até vejamos um punhado deles concorrendo com plataformas populistas anti-IA.
Em 2026, o processo lento e confuso da democracia americana seguirá em frente. E as regras escritas nas capitais estaduais podem decidir como a tecnologia mais disruptiva da nossa geração se desenvolverá muito além das fronteiras dos Estados Unidos, pelos próximos anos.




