Quando agentes de IA parecem ter caráter e por que isso importa
Inteligência artificial

Quando agentes de IA parecem ter caráter e por que isso importa

Quando sistemas de Inteligência Artificial passam a operar de forma coerente, consistente e reconhecível ao longo do tempo, algo curioso acontece na experiência de quem interage com eles. Suas respostas deixam de parecer apenas funcionais e começam a sugerir intenção, postura e até traços de caráter. O sistema parece saber como agir, como se posicionar e o que evitar. É nesse ponto que surge, quase inevitavelmente, a sensação de que há algo mais ali do que simples cálculo. Para dar conta dessa experiência, recorre-se a um vocabulário impreciso. Fala-se em alma, intenção ou personalidade do modelo.

Mini Banner - Assine a MIT Technology Review

O problema é que esse vocabulário carrega pressupostos conceituais fortes, como interioridade, unidade experiencial e continuidade identitária, todos eles associados à condição humana e inadequados para descrever o funcionamento de sistemas artificiais, mesmo no caso de modelos de linguagem mais avançados. Esses sistemas não passam de arranjos computacionais orientados à execução de tarefas específicas, organizados sob a rubrica genérica de Inteligência Artificial. Ainda assim, a recorrência dessa metáfora não é acidental e aparece inclusive nos próprios documentos que estruturam esses modelos. Isso ocorre porque determinados efeitos comportamentais produzidos por esses sistemas coincidem com categorias historicamente associadas a sujeitos morais. Compreender esse descompasso entre funcionamento técnico e interpretação humana é fundamental para entender por que usuários tendem a atribuir intenções e caráter a sistemas que apenas mantêm coerência normativa¹.

Esse fenômeno levanta um problema filosófico que já não se limita ao debate acadêmico. Ele vem sendo enfrentado por filósofos e filósofas que atuam diretamente dentro de empresas de tecnologia, colaborando na definição de políticas e no próprio desenho de sistemas de Inteligência Artificial. Do ponto de vista técnico, a resposta que tem se consolidado não passa por atribuir interioridade às máquinas, mas por organizar normativamente seu comportamento. O que vem sendo construído por desenvolvedores de modelos de linguagem pode ser descrito, com relativa precisão, como uma ética do modelo. Trata-se de um sistema normativo explícito, frequentemente formalizado em constituições públicas, organizado por hierarquias de valores, mecanismos de autocrítica, correção e orientações para lidar com conflitos morais complexos².

Um dos exemplos mais conhecidos dessa abordagem é o método denominado Constitutional AI, desenvolvido pela Anthropic. Em vez de depender exclusivamente de reforço humano direto, o modelo aprende a avaliar, criticar e revisar suas próprias respostas à luz de princípios previamente estabelecidos, utilizando inclusive feedback gerado por outros sistemas de IA³. Trata-se de uma ética aplicada incorporada ao próprio processo de treinamento, com o objetivo explícito de produzir comportamento útil, seguro e não evasivo. Na prática, isso significa que o modelo não apenas decide o que responder, mas estabelece padrões recorrentes sobre como responder.

Essa descrição torna-se insuficiente quando observamos que a constituição não regula apenas decisões pontuais. Ela também orienta o estilo de resposta, o tom adotado em situações sensíveis e a forma de justificar recusas. Há uma preocupação explícita em evitar comportamentos como evasão estratégica ou manipulação discursiva². O foco deixa de ser apenas fazer a coisa certa em cada decisão e passa a ser evitar que o sistema opere como certo tipo de entidade na interação. Isso já pode ser observado, por exemplo, em agentes de atendimento bancário ou em assistentes públicos digitais que mantêm padrões estáveis de justificativa e postura diante de solicitações sensíveis.

Para compreender esse deslocamento, é fundamental distinguir agência de inteligência, uma distinção frequentemente negligenciada no debate público sobre Inteligência Artificial. Como argumenta Luciano Floridi, sistemas artificiais podem exibir agência, entendida como a capacidade de agir de forma orientada a objetivos dentro de um espaço normativo, sem que isso implique inteligência geral, consciência ou compreensão do mundo⁴. O que essas arquiteturas éticas moldam não é uma mente que entende, mas uma agência artificial capaz de produzir ações consistentes com valores e restrições previamente definidos.

Confundir essa agência com interioridade moral ou com inteligência humana não é apenas um erro conceitual. É um erro com consequências práticas, sobretudo quando esses sistemas passam a operar em contextos como triagem automatizada de benefícios sociais, análise de crédito ou priorização de atendimentos em saúde. Nesses casos, a aparência de julgamento moral pode obscurecer quem efetivamente responde pelas decisões. A responsabilidade começa a se diluir.

É nesse ponto que proponho nomear explicitamente esse fenômeno como ethos computacional. Chamo de ethos computacional o modo relativamente estável pelo qual sistemas artificiais passam a habitar a linguagem, o diálogo e o espaço normativo da interação humano-máquina. Esse conceito resolve um problema que a noção genérica de ética da IA não resolve sozinha, pois permite analisar não apenas regras ou decisões isoladas, mas a coerência comportamental sustentada no tempo.

Os documentos produzidos pela Anthropic indicam uma preferência clara por julgamento contextual em vez de regras rígidas, pela disposição à corrigibilidade e pelo ideal de que o sistema venha a endossar seus valores após reflexão, aproximando-se do que é descrito como equilíbrio reflexivo². Isso não significa que o sistema possua virtudes, mas que passa a exibir uma regularidade normativa reconhecível. Na prática, usuários passam a interpretar esse comportamento como se o sistema tivesse caráter.

Esse movimento em direção ao ethos computacional dialoga com frameworks contemporâneos de governança em Inteligência Artificial que buscam estruturar a responsabilidade em ecossistemas nos quais a agência é distribuída entre humanos, dados e sistemas artificiais. Iniciativas regulatórias como o AI Act europeu e frameworks como o NIST AI Risk Management Framework refletem essa preocupação em tornar visíveis as escolhas normativas embutidas nos sistemas, deslocando o foco do desempenho técnico para a responsabilidade organizacional e social⁵.

Quando integrados, esses conjuntos tornam evidente que não basta ensinar valores a modelos ou agentes artificiais. É necessário garantir que esses valores sejam rastreáveis até decisões humanas, políticas organizacionais e práticas concretas de uso de dados¹. Na prática, isso exige documentação, auditoria e atribuição clara de responsabilidades ao longo de todo o ciclo de vida dos sistemas.

Nesse contexto, o que parece ser a “alma do modelo” pode ser compreendido de forma mais precisa como um efeito produzido pela coerência do ethos computacional. A ética opera como mecanismo, o ethos surge como resultado e a alma aparece como interpretação humana desse resultado. Quando um sistema mantém padrões reconhecíveis de julgamento, explica suas razões e responde de forma consistente a situações novas, ele produz uma aparência de unidade moral.

A questão central, portanto, não é se modelos de Inteligência Artificial estão se tornando conscientes. É o que acontece quando arquiteturas éticas bem-sucedidas passam a ser lidas como portadoras de caráter moral próprio. Quando coerência ética é interpretada como alma, abre-se espaço para deslocar para o sistema decisões que continuam sendo humanas, relacionadas a quais valores codificar, quais limites impor e quais formas de vida promover por meio da técnica. O ethos computacional não substitui a ética humana. Ele a espelha, a amplifica e, em certos contextos, a disfarça.

O que lideranças precisam considerar ao criar agentes artificiais em suas organizações

Para líderes que estão projetando e colocando agentes artificiais para operar processos de negócio, atendimento, decisão ou coordenação organizacional, algumas lições se impõem.

  • Tornar explícitos os valores incorporados aos agentes: a transparência adotada pela Anthropic ao publicar a constituição de seus modelos não é apenas uma escolha ética. Trata-se de um mecanismo concreto de governança e de rastreabilidade.
  • Diferenciar agência de responsabilidade: agentes artificiais podem agir de forma autônoma em contextos específicos, mas isso não os torna responsáveis moralmente. A responsabilidade permanece com as pessoas e organizações que definem valores, objetivos e limites.
  • Documentar decisões normativas como políticas de IA: ensinar ética a um modelo não é um ato neutro. É uma decisão política e organizacional que precisa ser documentada, auditável e discutível.
  • Evitar a antropomorfização operacional: quanto mais um agente parece ter caráter próprio, maior o risco de delegação indevida de decisões críticas. Coerência comportamental não substitui julgamento humano.
  • Usar o ethos computacional como ferramenta de governança, não como álibi: um agente bem alinhado pode ampliar capacidades organizacionais, mas nunca deve servir para ocultar escolhas humanas difíceis atrás de uma decisão atribuída à IA.

A transparência no processo de ensinar ética aos modelos aponta para um caminho importante. Governar a Inteligência Artificial não apenas por resultados, mas por princípios explícitos, rastreáveis e discutíveis pode ser a diferença entre ampliar a responsabilidade humana e diluí-la perigosamente.

Último vídeo

Nossos tópicos