Muitas pessoas que trabalham com IA conhecem a história do Mechanical Turk. Era uma máquina de jogar xadrez construída em 1770 e era tão boa que seus oponentes foram levados a acreditar que ela era sobrenaturalmente poderosa. Na realidade, a máquina tinha espaço para que um humano se escondesse nela e a controlasse. A farsa durou 84 anos. São três gerações!
A história é rica em exemplos de pessoas que tentaram dar vida a objetos inanimados e de pessoas que venderam truques e truques como “mágica”. Mas esse desejo muito humano de acreditar na consciência das máquinas nunca correspondeu à realidade.
Criar consciência em sistemas de Inteligência Artificial é o sonho de muitos tecnólogos. Modelos de linguagem grande são o exemplo mais recente de nossa busca por máquinas inteligentes, e algumas pessoas (de forma controversa) afirmam ter visto lampejos de consciência em conversas com elas. A questão é: a consciência das máquinas é um tema muito debatido. Muitos especialistas dizem que ela está fadada a permanecer na ficção científica para sempre, mas outros argumentam que ela está bem próxima.
Para a última edição da MIT Technology Review, a neurocientista Grace Huckins explora o que a pesquisa sobre consciência em humanos pode nos ensinar sobre IA e os problemas morais que a consciência da IA levantaria. Leia mais aqui.
Não entendemos completamente a consciência humana, mas os neurocientistas têm algumas pistas sobre como ela se manifesta no cérebro, escreve Grace. Para dizer o óbvio, os sistemas de IA não têm cérebro, portanto, é impossível usar os métodos tradicionais de medição da atividade cerebral para detectar sinais de vida. Mas os neurocientistas têm várias teorias diferentes sobre como seria a consciência nos sistemas de IA. Alguns a tratam como uma característica do “software” do cérebro, enquanto outros a vinculam mais diretamente ao hardware físico.
Houve até tentativas de criar testes para a consciência da IA. Susan Schneider, diretora do Center for the Future Mind da Florida Atlantic University, e o físico Edwin Turner, de Princeton, desenvolveram um teste que exige que um agente de IA seja isolado de qualquer informação sobre consciência que possa ter adquirido durante o treinamento antes de ser testado. Essa etapa é importante para que o agente não possa simplesmente repetir as declarações humanas que ele captou sobre a consciência durante o treinamento, como faria um grande modelo de linguagem.
Em seguida, o testador faz perguntas à IA que ela só deve ser capaz de responder se estiver consciente. Ela consegue entender o enredo do filme Freaky Friday, em que mãe e filha trocam de corpos, com suas consciências dissociadas de seus corpos físicos? Ele pode compreender o conceito de sonho — ou até mesmo relatar o próprio sonho? Ele pode conceber a reencarnação ou uma vida após a morte?
É claro que esse teste não é infalível. Ele exige que o sujeito seja capaz de usar a linguagem, portanto, bebês e animais — seres manifestamente conscientes — não passariam no teste. E os modelos de IA baseados em linguagem terão sido expostos ao conceito de consciência na grande quantidade de dados da Internet com os quais foram treinados.
Então, como saberemos realmente se um sistema de IA é consciente? Um grupo de neurocientistas, filósofos e pesquisadores de IA, incluindo o ganhador do Prêmio Turing, Yoshua Bengio, publicou um documento que propõe maneiras práticas de detectar a consciência da IA com base em uma variedade de teorias de diferentes campos. Eles propõem uma espécie de boletim de notas para diferentes marcadores, como a busca flexível de objetivos e a interação com um ambiente externo, o que indicaria a consciência da IA — se as teorias forem verdadeiras. Nenhum dos sistemas atuais preenche todos os requisitos, e não está claro se algum dia o farão.
Aqui está o que sabemos. Os modelos de linguagem grandes são extremamente bons em prever qual deve ser a próxima palavra em uma frase. Eles também são muito bons em fazer conexões entre as coisas — às vezes de maneiras que nos surpreendem e tornam fácil acreditar na ilusão de que esses programas de computador podem ter lampejos de algo mais. Mas sabemos muito pouco sobre o funcionamento interno dos modelos de linguagem de IA. Até que saibamos mais sobre como e por que exatamente esses sistemas chegam às conclusões que chegam, é difícil dizer que os resultados dos modelos não são apenas matemática sofisticada.
Aprendizado aprofundado
Como a IA pode turbinar a pesquisa sobre baterias
Precisamos de baterias melhores se quisermos que os veículos elétricos atinjam seu potencial de tirar das ruas os carros movidos a combustíveis fósseis. O problema é que há um milhão de materiais potenciais diferentes e combinações de materiais que poderíamos usar para fabricar essas baterias. É muito trabalhoso e caro fazer várias rodadas de tentativa e erro.
Entra a IA: a startup Aionics está usando ferramentas de IA para ajudar os pesquisadores a encontrarem melhores produtos químicos para baterias com mais rapidez. Ela usa o machine learning para classificar a ampla gama de opções de materiais e sugerir combinações. A IA generativa também pode ajudar os pesquisadores a projetar novos materiais mais rapidamente. Leia mais sobre a tecnologia que pode resolver a crise climática.
Bits e Bytes
Grandes empresas de tecnologia lutam para transformar o hype da IA em lucros
A Microsoft supostamente perdeu dinheiro em um de seus primeiros produtos de IA generativa. E ela não está sozinha: os outros gigantes da tecnologia também estão lutando para encontrar uma maneira de capitalizar seu investimento maciço em IA generativa, que é extremamente cara para treinar e operar. (The Wall Street Journal)
Como a IA reduz o mundo a estereótipos
O Rest of World analisou 3.000 imagens geradas por IA de diferentes países e culturas e descobriu que elas retratam o mundo de uma forma profundamente estereotipada. Não há surpresas, mas essa peça visual mostra claramente como os preconceitos estão profundamente arraigados nos sistemas de IA. (Rest of World)
Até mesmo pessoas do Google estão questionando a utilidade do chatbot Bard
Fico feliz em saber que não sou só eu! Em mensagens que vazaram de um bate-papo oficial do Discord somente para convidados, os gerentes de produto e designers do Google compartilham seu ceticismo sobre a utilidade do chatbot de IA da empresa, o Bard, considerando que o sistema inventa coisas. Os membros do Google parecem achar que ele é melhor para usos criativos, brainstorming ou codificação — e, mesmo assim, ele precisa de muita supervisão. (Bloomberg)
Os EUA estão pensando em aumentar seu bloqueio tecnológico de IA contra a China
Preocupados com a perspectiva da China conquistar a supremacia da IA, os EUA vêm limitando seu acesso aos chips de computador necessários para alimentar a IA. Agora, os EUA estão considerando aumentar seu bloqueio e restringir o acesso da China a uma ampla categoria de programas de IA de uso geral, e não apenas a peças físicas. (The Atlantic)
Como uma rede de consultores de IA apoiada por bilionários assumiu o controle de Washington
O pouco conhecido Horizon Institute for Public Service, uma organização sem fins lucrativos criada em 2022, está financiando salários de pessoas que trabalham nos principais escritórios, agências e think tanks do Senado. O grupo está pressionando para colocar o risco existencial representado pela IA no topo da agenda de Washington, o que poderia beneficiar as empresas de IA com vínculos com a rede. (Politico)
Google se oferece para pagar os honorários advocatícios de seus clientes em ações judiciais de IA generativa
O Google juntou-se à Microsoft e à Getty Images e prometeu arcar com os custos legais se seus clientes forem processados por causa dos resultados de seus modelos de IA generativa ou dos dados de treinamento que eles usam. Essa é uma medida inteligente da Big Tech, pois pode ajudar a persuadir as organizações que estão hesitando em adotar as ferramentas de IA dessas empresas até que haja mais clareza jurídica sobre direitos autorais e IA. (Google)