Oferecido por
Então, o que podemos esperar neste ano? Todos os sinais apontam para uma imensa pressão sobre as empresas de Inteligência Artificial para mostrar que a IA generativa pode gerar dinheiro e que o Vale do Silício pode produzir o “aplicativo matador” para esse setor. Big Techs, as maiores líderes de torcida da IA generativa, estão apostando alto em chatbots personalizados, que permitirão que qualquer pessoa se torne um engenheiro de aplicativos de IA generativa, sem a necessidade de habilidades de codificação.
As coisas já estão avançando rapidamente: a OpenAI lançou sua loja de aplicativos, GPT Store, em janeiro. Também veremos novos desenvolvimentos interessantes em vídeos gerados por IA, muito mais desinformação eleitoral baseada em IA e robôs que fazem várias tarefas ao mesmo tempo. Recentemente, meu colega Will Douglas Heaven e eu compartilhamos nossas quatro previsões para a IA em 2024.
Este ano também será outro grande ano para a regulamentação em todo o mundo. Em 2023, a primeira lei abrangente de IA foi acordada na União Europeia, audiências no Senado e ordens executivas foram realizadas nos EUA, e a China introduziu regras específicas para coisas como algoritmos de recomendação. Se no ano passado os legisladores concordaram com uma visão, 2024 será o ano em que as políticas começarão a se transformar em ações concretas. Juntamente com meus colegas Tate Ryan-Mosley e Zeyi Yang, escrevi um artigo que mostra o que esperar da regulamentação de IA no próximo ano. Leia-o aqui.
Mas, mesmo com a revolução da IA generativa se desenvolvendo em um ritmo alucinante, ainda há algumas grandes questões não resolvidas que precisam ser respondidas com urgência, escreve Will. Ele destaca problemas relacionados a preconceitos, direitos autorais e o alto custo da criação de IA, entre outras questões.
Meu acréscimo à lista seria a enorme vulnerabilidade de segurança dos modelos generativos. Os grandes modelos de linguagem, a tecnologia de IA que alimenta aplicativos como o ChatGPT, são muito fáceis de serem hackeados. Por exemplo, os assistentes de IA ou chatbots que podem navegar na Internet são muito suscetíveis a um ataque chamado injeção indireta de prompt, que permite que pessoas de fora controlem o bot inserindo prompts invisíveis que fazem com que os bots se comportem da maneira que o invasor deseja.
Isso poderia torná-los ferramentas poderosas para phishing e golpes, como escrevi em abril. Os pesquisadores também conseguiram envenenar os conjuntos de dados de IA com dados corrompidos, o que pode quebrar os modelos de IA para sempre. (É claro que nem sempre é um agente mal-intencionado que está tentando fazer isso. Usando uma nova ferramenta chamada Nightshade, os artistas podem adicionar alterações invisíveis aos pixels de sua arte antes de publicá-la online, de modo que, se ela for inserida em um conjunto de treinamento de IA, o modelo final poderá aparecer de forma caótica e imprevisível).
Apesar dessas vulnerabilidades, as empresas de tecnologia estão em uma corrida para lançar produtos com tecnologia de IA, como assistentes ou chatbots que podem navegar na web. É bastante fácil para os hackers manipularem os sistemas de IA envenenando-os com dados duvidosos, portanto, é apenas uma questão de tempo até que vejamos um sistema de IA sendo invadido dessa forma. É por isso que fiquei satisfeito em ver o NIST, a agência de padrões de tecnologia dos EUA, aumentar a conscientização sobre esses problemas e oferecer técnicas de mitigação em uma nova orientação publicada no final da semana passada. Infelizmente, no momento não há uma correção confiável para esses problemas de segurança, e são necessárias muito mais pesquisas para entendê-los melhor.
O papel da IA em nossas sociedades e vidas só aumentará à medida que as empresas de tecnologia a integrarem ao software do qual todos nós dependemos diariamente, apesar dessas falhas. À medida que a regulamentação se atualiza, manter uma mente aberta e crítica quando se trata de IA é mais importante do que nunca.