Quase metade das empresas brasileiras já iniciou a implementação da IA generativa
Data decisioning por SASInteligência artificial

Quase metade das empresas brasileiras já iniciou a implementação da IA generativa

No entanto, os desafios enfrentados no processo evidenciam a importância de certificar que os principais tomadores de decisão tenham conhecimentos mais aprofundados antes de elaborar uma estratégia ampla de GenAI para os negócios.

O que você encontrará neste artigo:

Benefícios e desafios da implementação
Estratégia e ROI da IA generativa
Segurança, ética e governança

Banner indicando a posição do botão de download do artigo em formato pdf

A Inteligência Artificial generativa está transformando o espaço de trabalho – e a sociedade – em um ritmo vertiginoso, introduzindo uma nova forma de interação entre humanos e tecnologia. No Brasil, empresas utilizam a IA a partir de diferentes abordagens para otimizar operações, melhorar a experiência dos clientes e criar novos produtos e funcionalidades. Entre os segmentos que já exploram essas possibilidades destacam-se marketing, vendas, TI, financeiro, produção, RH e departamentos jurídicos. Essas aplicações estão ganhando força à medida em que as corporações buscam automatizar processos, reduzir custos e inovar em seus serviços.

Como sempre acontece quando surge uma nova tecnologia, existem desafios e oportunidades envolvidas, além de questões relacionadas às melhores práticas de uso, ética e segurança. O SAS, líder em dados e IA, tem como uma de suas principais ações investir em pesquisa e desenvolvimento de novas tecnologias que possam ajudar as empresas a alcançarem resultados mais estratégicos. Para isso, a empresa atua de forma pioneira com as diferentes viabilidades da Inteligência Artificial. Neste ano, a empresa desenvolveu um relatório a partir de um levantamento com 100 organizações brasileiras a fim de avaliar os planos atuais delas para a implementação da IA generativa, identificando ainda como a tecnologia se integra a planejamentos estratégicos e quais são os problemas específicos enfrentados ao longo do processo.

Cenário atual

O estudo indica que no Brasil quase metade das empresas – 46% – já iniciou a implementação da IA generativa, incluindo 8% que integraram totalmente a tecnologia em escala corporativa. A maioria (77%) vem investindo em IA generativa para 2024/25. Praticamente uma em cada cinco planeja implementar a GenAI em nível corporativo e 69% estão em processo ou planejam iniciar projetos para criar seus próprios LLMs internamente.

Essa parcela que já aderiu à GenAI desfruta de grandes benefícios: 93% relataram melhor experiência e satisfação dos funcionários, 87% afirmaram que os custos operacionais foram reduzidos e 76% disseram que a retenção de clientes aumentou. E olhando para os funcionários de forma mais individualizada, 21% da força de trabalho atualmente usa essas ferramentas para gerar texto, imagem ou vídeo pelo menos uma vez por dia.

“A IA generativa é uma tecnologia disruptiva que veio para ficar, facilitar e tornar conversacional coisas que antes demandavam conhecimentos específicos. A adoção ao redor do mundo tende a aumentar. Não é um hype momentâneo; já passamos dessa fase. Hoje, as empresas estão buscando maturidade e entendimento das melhores formas de utilizar a tecnologia”, aponta Lyse Nogueira, Customer Advisor no SAS Brasil.

André Novo, country manager do SAS no Brasil, ressalta que não é o caso de implementar uma estratégia específica interna nas empresas para trabalhar com IA generativa, e sim pensar como a estratégia de negócios como um todo da empresa pode ser impulsionada pela IA generativa. “A tecnologia não vai mudar tudo o que estamos fazendo, e sim impulsionar o que já é feito, tornando os processos melhores e mais produtivos. O problema vem antes da tecnologia, e não o contrário”. Mas mesmo num cenário animador, ainda existem grandes obstáculos, especialmente no que diz respeito à implementação. Em organizações com projetos de GenAI, 33% consideram um desafio integrar a tecnologia aos sistemas existentes e 39% se deparam com custos excessivos. “Esses pontos devem ser resolvidos de forma mais eficaz no estágio inicial, de preferência antes que a IA generativa seja implementada e, os recursos substanciais, investidos”, diz.

Mini Banner - Assine a MIT Technology Review

O especialista pontua que qualquer tecnologia, assim que surge, tem um custo de implementação maior. “Desenvolver um modelo LLM (sistemas de IA que compreendem e geram linguagem humana por meio do processamento de grandes quantidades de dados) não é simples. Tem um custo associado que impacta muito no retorno sobre o investimento”. Nesse sentido, ele traz um exemplo: desde o princípio, as pessoas viam potencial no chatbot, uma ferramenta relativamente simples. Empresas que já utilizam o chatbot há algum tempo já reduziram bastante seus custos. Por isso, a redução adicional que a IA e, depois, a GenAI poderá trazer agora acabará não sendo tão grande. “Se você atrela o custo alto de adoção de uma tecnologia numa área onde boa parte dos ganhos possíveis já foi obtida, há pouco para ganhar. O caminho é entender como essa tecnologia pode, nessa nova etapa, trazer receita e aumentar a produtividade em outras áreas. Esse é o estágio que o mercado está agora: começar a entender como isso vai melhorar o ROI”.

O desafio citado por Novo comprova-se na pesquisa do SAS, que identificou que quase todos os tomadores de decisões seniores de tecnologia (97%) reconhecem que não compreendem totalmente a GenAI ou seu eventual impacto nos processos de negócios e mais de um terço (39%) prevê – ou já teve – dificuldades para comprovar que a GenAI gera ROI significativo. Por isso a importância de certificar que os principais tomadores de decisão tenham conhecimentos mais aprofundados antes de elaborar uma estratégia ampla de IA generativa – o que exige tempo e, normalmente, o auxílio de especialistas externos. Além disso, para que esse trabalho das empresas brasileiras com a IA seja mais produtivo, é fundamental identificar o melhor caso de uso para IA generativa para conseguir ROI com agilidade. Muitas organizações que se propõem a implementar a IA imediatamente pensam em limpar os dados que já possuem – contudo, uma abordagem mais interessante seria identificar casos de uso de alto impacto para a tecnologia e, assim, entregar retorno sobre o investimento o quanto antes.

Segurança, ética e governança

Algumas das principais preocupações das empresas ainda giram em torno de como usar a IA de forma segura e ética. Nesse contexto, mais da metade (53%) tem uma política de uso em vigor que deve ser seguida pela equipe – o que revela que, mesmo quando a governança é irregular, os líderes estão se esforçando para padronizar o uso da GenAI. Para Lyse, quando falamos em governança, para além do contexto todo de IA, o importante é ter práticas claras. “É fundamental que exista uma política clara quanto ao uso, isto é, como pode ou não usar. Ter um guia bem definido é o primeiro passo para garantir que todo mundo esteja na mesma página. Não é questão de bom senso; o óbvio precisa ser dito. É necessária uma declaração nítida e clara enquanto empresa para sua adoção e permissão de uso”, defende.

O levantamento do SAS descobriu que a governança é, de fato, um ponto sensível, pois 98% das empresas não têm uma estrutura de governança abrangente para GenAI e apenas uma em 20 organizações (5%) oferece um alto nível de treinamento sobre governança e monitoramento da IA generativa. Vale mencionar ainda que menos de uma em 20 organizações tem um sistema confiável para medir vieses (4%) e risco de privacidade (4%) em LLMs e mais de oito em cada dez organizações (84%) não são capazes de monitorar continuamente os sistemas de GenAI, o que deixa evidente que, para o Brasil avançar nesse caminho, essas são questões que devem ser olhadas com atenção.

Uma das estratégias é, por exemplo, apostar em ferramentas de gestão de dados, que são essenciais para garantir que os LLMs sejam alimentados com dados e prompts de qualidade – dados estes que sejam auditáveis e rastreáveis. Essas ferramentas oferecem privacidade e segurança ao usuário a partir de medidas como minimização, anonimização e criptografia de dados, garantindo a preservação de informações sigilosas. Além disso, fluxos de trabalho podem ser automatizados para a rota mais curta e direta para criar ou ajustar um LLM. Com isso, é possível ainda minimizar possíveis vieses nos dados brutos que alimentam os LLMs, uma vez que as ferramentas conseguem detectar discrepâncias e fontes tendenciosas nos dados brutos usados para treinar grandes modelos de linguagem.

Último vídeo

Nossos tópicos