Se as autoridades reguladoras não agirem agora, a expansão da Inteligência Artificial (IA) Generativa concentrará ainda mais o poder na mão das Big Techs. Esse é o argumento central de um novo relatório do instituto de pesquisa AI Now. E faz sentido. Para entender o porquê, considere que o atual crescimento da IA depende de duas coisas: grandes quantidades de dados e poder computacional suficiente para processá-los.
A disponibilidade desses recursos está restrita principalmente a empresas de grande porte. E embora algumas das inovações mais empolgantes, como o chatbot ChatGPT da OpenAI e a Stable Diffusion, a IA de geração de imagens da Stability.AI, sejam criadas por startups, elas dependem de acordos com as Big Techs que lhes concedem acesso a seus vastos dados e recursos de computação.
“Algumas grandes empresas de tecnologia estão prontas para consolidar o poder por meio da IA, em vez de promover sua democratização”, diz Sarah Myers West, diretora-executiva do AI Now Institute, uma organização de pesquisa sem fins lucrativos.
Atualmente, as grandes empresas de tecnologia têm um controle absoluto sobre a IA. Mas Myers West acredita que estamos realmente em um momento crucial. É o início de um novo ciclo de euforia tecnológica e isso significa que legisladores e reguladores têm uma oportunidade única de garantir que a próxima década da tecnologia de IA seja mais democrática e justa.
O que diferencia esse momento tecnológico dos anteriores é que temos uma melhor compreensão de todas as maneiras catastróficas pelas quais a IA pode levar a cenários terríveis. E os reguladores de todos os lugares estão prestando muita atenção.
A China acaba de divulgar um projeto de lei sobre IA generativa pedindo mais transparência e fiscalização. Já a União Europeia (UE) está em negociações para aprovar uma legislação sobre Inteligência Artificial, que exigirá que as empresas de tecnologia sejam mais transparentes sobre como funcionam esses sistemas. Além disso, a UE está planejando um projeto de lei para responsabilizá-las por eventuais danos decorrentes dessa tecnologia.
Os EUA tradicionalmente relutam em fiscalizar seu setor tecnológico. Mas isso está mudando. O governo Biden está buscando formas de supervisionar modelos de IA como o ChatGPT, por exemplo, exigindo que empresas de tecnologia realizem auditorias e avaliações de impacto ou exigindo que os sistemas de IA atendam a certos padrões antes de serem lançados. É uma das medidas mais concretas que o governo tomou para reduzir os danos da IA.
Enquanto isso, a presidente da Comissão Federal de Comércio dos EUA (FTC, pela sigla em inglês), Lina Khan, também ressaltou a vantagem que as Big Techs têm em relação ao uso de dados e poder computacional e prometeu tomar medidas para assegurar um ambiente de concorrência justa no setor de IA. A agência também sinalizou a possibilidade de conduzir investigações antitruste e reprimir práticas comerciais enganosas.
Esse novo foco no setor de IA é parcialmente influenciado pelo fato de que muitos membros do AI Now Institute, incluindo Myers West, já trabalharam ou colaboraram com a FTC.
Myers West diz que sua passagem pela FTC a ensinou que a regulamentação da IA não precisa começar do zero. Em vez de esperar por regulamentações específicas de IA, como a Lei de IA da UE, que levará anos para entrar em vigor, os reguladores devem intensificar a aplicação das leis existentes relacionadas à proteção de dados e à concorrência.
Como a IA como a conhecemos hoje depende em sua maioria de grandes quantidades de dados, a política de dados também é uma política de IA, diz Myers West.
Um exemplo disso é o ChatGPT que tem enfrentado uma intensa fiscalização por parte das autoridades de proteção de dados europeias e canadenses e foi bloqueado na Itália por supostamente extrair informações pessoais da web ilegalmente e usá-las de forma indevida.
A demanda por medidas regulatórias não vem apenas de autoridades governamentais. Algo inusitado aconteceu. Após décadas lutando contra a regulamentação com unhas e dentes, hoje, a maioria das empresas de tecnologia, incluindo a OpenAI, afirma apoiá-la.
A grande questão pela qual ainda não se tem um consenso é como isso deve ser feito. Embora as empresas de tecnologia afirmem que apoiam a regulamentação, elas ainda adotam uma postura de “realizar o lançamento no mercado primeiro, fazer perguntas depois” quando se trata de lançar produtos com tecnologia de IA. De modo geral, elas se apressam para lançar modelos de IA que geram imagens e textos como produtos, mesmo que esses modelos tenham grandes falhas: eles inventam bobagens, perpetuam preconceitos nocivos, infringem direitos autorais e contêm vulnerabilidades de segurança.
A iniciativa da Casa Branca de responder à questão sobre responsabilidade da IA com medidas pós-lançamento, como auditorias algorítmicas, não é suficiente para mitigar os danos da tecnologia, argumenta o relatório da AI Now. É necessária uma ação mais contundente e mais rápida para garantir que as empresas primeiro provem que seus modelos são seguros para serem lançados ao público, diz Myers West.
“Devemos ter muito cuidado com resoluções que não responsabilizem as empresas. Existem muitas abordagens de regulamentação que essencialmente transferem o ônus no público e nas autoridades de regulamentação para erradicar os danos causados pela IA”, diz ela.
E o mais importante, diz Myers West, as agências regulatórias precisam agir rapidamente.
“É preciso haver consequências para quando [empresas de tecnologia] violam a lei”.
Um aprendizado mais profundo
Como a Inteligência Artificial está ajudando os historiadores a entender melhor o nosso passado
Esse é um artigo legal. Os historiadores começaram a usar o machine learning para examinar documentos históricos manchados por séculos passados em arquivos mofados. Eles estão usando essas técnicas para restaurar textos antigos e fazendo descobertas significativas ao longo do caminho.
Conectando os pontos: os historiadores dizem que a aplicação da ciência da computação moderna ao passado distante ajuda a traçar conexões mais amplas ao longo dos séculos do que seria possível de outra forma. Mas existe o risco de que esses softwares apliquem suas próprias distorções na história, introduzindo preconceitos ou falsificações diretas no registro histórico. Leia mais de Moira Donovan.
Bits e bytes
Google está reformulando seu mecanismo de busca para competir com rivais de IA
Ameaçado pelo relativo sucesso da Microsoft com o Bing auxiliado pela IA, o Google está simultaneamente construindo um novo mecanismo que usa grandes modelos de linguagem e atualizando o seu já existente com recursos de IA. A empresa espera que a nova ferramenta de busca ofereça aos usuários uma experiência mais personalizada. (The New York Times)
Elon Musk criou uma nova empresa de IA para rivalizar com a OpenAI
Nos últimos meses, Musk tem tentado contratar pesquisadores para ingressar em seu novo empreendimento de IA, a X.AI. Musk foi um dos cofundadores da OpenAI, mas foi demitido em 2018 após um conflito de poder com o CEO Sam Altman. Musk acusou o chatbot ChatGPT da OpenAI de ser politicamente tendencioso e diz que quer criar modelos de IA que busquem a “verdade”. O que isso significa? Seu palpite é tão bom quanto o meu. (The Wall Street Journal)
Stability.AI corre o risco de falir
A Stability.AI, a empresa criadora do modelo de IA de geração de imagens de código aberto Stable Diffusion, acaba de lançar uma nova versão do modelo cujos resultados são um pouco mais fotorrealistas. Mas os negócios não vão bem. Ela está gastando dinheiro rapidamente e tendo dificuldade em gerar receita. Consequentemente, a equipe está perdendo a confiança no CEO. (Semafor)
Conheça o pior programa de IA do mundo
O bot no Chess.com, retratado como um homem búlgaro de gola alta com sobrancelhas e barba espessas, e com uma calvície sutil, foi projetado para ser absolutamente péssimo no xadrez. Enquanto outros bots de IA são programados para impressionar as pessoas, Martin é um lembrete de que mesmo sistemas de IA idiotas ainda podem nos surpreender, encantar e nos ensinar. (The Atlantic)