Deep Data: o lado invisível da Inteligência Artificial
Inteligência artificial

Deep Data: o lado invisível da Inteligência Artificial

A IA está nos ensinando a decidir mais rápido, mas estamos deixando de pensar com profundidade.

Imagine um iceberg. A parte visível representa os dados que usamos diariamente em dashboards, relatórios, KPIs, previsões. Eles estão ali representados como informações, acessíveis, aparentes, organizadas, porém, aquilo que emerge dali pode ser raso. Assim como um iceberg, a maior parte da estrutura está escondida abaixo da superfície, mas serve como infraestrutura da informação. Isso é Deep Data.

Mini Banner - Assine a MIT Technology Review

Essa a abordagem reconhece que os dados não são apenas registros objetivos, mas expressões culturais, intencionais e situadas. Trata-se de um modelo que integra significado, contexto, interpretação e valores humanos às práticas de coleta, análise e uso de dados. Considera também a profundidade dessas informações. Afinal, tudo aquilo que está oculto, é difícil de acessar, interpretar ou quantificar, como nuances culturais, vieses implícitos, abordagens técnicas, lacunas informacionais e efeitos colaterais. Ela revela não apenas o que os dados mostram, mas nos permite questionar o que eles silenciam.

Deep Data é uma prática analítica que reconhece que os dados não são neutros nem suficientes por si: exigem interpretação humana para revelar o que escondem, silenciam ou distorcem.

Essa é uma nova forma como tratamos a informação nas organizações e na sociedade. Em vez de confiar apenas em dados automatizados e visualmente organizados, uma ação no Deep Data propõe a construção de uma consciência analítica mais profunda, em que os dados são questionados e compreendidos em suas camadas mais complexas: como foram produzidos, por quem, com que ausências, com que efeitos e defeitos.

O mito do dado neutro

Durante anos, fomos ensinados a tratar os dados como verdades absolutas. Um mito que o estabelece o dado como algo neutro. No entanto, com o avanço das tecnologias de IA, estamos percebendo com mais clareza que os dados carregam as intenções de quem os gera, coleta e interpreta. Dados não são neutros. São moldados por interesses, por escolhas e por ausências, e as análises que resultam deles podem ser diretamente afetadas. Como mostrou Darrell Huff no clássico “Como mentir com estatística” 2, aplicar modelos matemáticos ou regras estatísticas a dados fora de contexto pode gerar resultados convincentes, mas profundamente enganosos. Uma análise Deep Data nasce justamente como uma resposta a esse risco: essa prática nos convida a enxergar o que está sendo distorcido, esquecido ou exagerado pelas análises superficiais.

O Deep Data propõe uma nova consciência sobre isso. Nos convida a mergulhar além da superfície dos dashboards, questionando: de onde vieram esses dados? O que está ficando de fora? Quem decide o que importa? E o que está sendo automatizado sem que ninguém perceba? Se fossemos colocar a inteligências artificial no divã, Deep Data seria aquilo que não acessamos diretamente, em uma simples análise inicial.

O Deep Data propõe uma nova consciência sobre isso. Nos convida a mergulhar além da superfície dos dashboards, questionando: de onde vieram esses dados? O que está ficando de fora? Quem decide o que importa? E o que está sendo automatizado sem que ninguém perceba? Se fossemos colocar a inteligências artificial no divã, Deep Data seria aquilo que não acessamos diretamente, em uma simples análise inicial.

Geralmente os dados são consumidos em uma camada superficial. Nela estão os dashboards, o palco onde os dados se apresentam como organizados, precisos e operacionais. Mas essa organização é também uma simplificação. Debaixo de cada gráfico bonito, existe um processo de seleção, enquadramento, modelagem e, muitas vezes, omissão. Dashboards não mostram aquilo que não foi coletado, o que foi descartado por não se encaixar nos filtros ou o que é complexo demais para ser reduzido a um indicador.

O problema é que, com o tempo, começamos a confundir aquilo que o dashboard mostra com a realidade em si. Como se a parte visível do iceberg fosse o todo. Inspecionar o Deep Data chama atenção para o invisível: os dados ausentes, os significados ambíguos, os contextos esquecidos. Ele nos lembra que todo dado vem de uma decisão humana anterior e que, por trás de cada visualização, existe um mundo complexo que precisa ser interpretado, e não apenas lido.

O impacto na carreira dos analistas e cientistas de dados

A ascensão da Inteligência Artificial generativa está mudando radicalmente o papel dos profissionais de dados. Ferramentas antes vistas como complexas e exclusivas de especialistas agora são operadas por sistemas automatizados capazes de gerar códigos, análises e visualizações em segundos. Isso não significa o fim da profissão, mas o fim de uma era: a do cientista de dados como fundamentalmente um executor técnico.

O novo profissional de dados precisa superar a técnica. Ele será cada vez mais um mediador entre a inteligência artificial e o mundo real, alguém capaz de compreender o que os dados significam, quais lacunas carregam, que impactos geram e quais decisões orientam, aquele que coloca os dados no divã. O domínio técnico continua importante, mas não é mais suficiente. O que diferencia será a capacidade de formular boas perguntas, interpretar ambiguidade, aplicar princípios éticos e traduzir informações em sentido.

O perfil do cientista de dados muda, ele precisa ser um profissional com repertório multidisciplinar, que também aplica pensamento analítico, consciência crítica, sensibilidade cultural e capacidade narrativa. Essa transição já está em curso nas organizações mais maduras, e se acelera à medida que o uso de IA se espalha. Em vez de operadores de ferramentas e desenvolvedores de modelagens complexas, cientistas e analistas de dados atuam com curadores de conhecimento, tradutores de sistemas complexos, designers de perguntas relevantes.

A pergunta que será permanente não é apenas “o que os dados mostram?”, mas “o que está faltando aqui que ainda não foi visto?”.

A urgência de uma governança analítica

Hoje, grande parte das decisões em empresas já é influenciada por modelos de IA. Mas poucos sabem como esses modelos funcionam ou de onde vieram os dados que os alimentam. Isso cria um risco: automatizar a ignorância. Reproduzimos vieses, excluímos pessoas, validamos padrões sem perceber.

Governança analítica precisa incluir garantias que os dados sejam usados de forma transparente, segura e contextualizada. Não estou falando aqui da abordagem técnica da segurança, armazenamento e tratamento dos dos dados, que são realizadas na governança de dados já estabelecidas pela área de Tecnologia da Informação, e sim de uma camada além. O Deep Data é uma base fundamental para essa governança, ao mostrar que dados não são apenas ativos técnicos, mas também expressões culturais.

De acordo com o estudo “Responsible AI in the Global Context: Maturity Model and Survey” (Reuel, Connolly et al., 2024) 3, que avaliou mil organizações em diversos setores e países, embora 72% das empresas relatem possuir políticas de ética em IA, apenas 29% implementam mecanismos operacionais eficazes para mitigar riscos como viés algorítmico, uso de dados sensíveis e opacidade de modelos. O estudo revela ainda que poucas empresas sabem de fato de onde vieram os dados utilizados nos sistemas de IA que aplicam. Isso mostra que, sem uma abordagem profunda como a proposta pelo Deep Data, a governança de IA se torna frágil, simbólica e muitas vezes ineficaz.

Empresas que querem usar IA de forma estratégica não podem depender apenas de “dados rasos”. Elas precisam entender o que os dados significam, para quem, e em que contexto. Isso muda tudo: desde o design dos produtos até a forma como se toma uma decisão em uma reunião.

O Deep Data está nas entrelinhas, nas ausências, nas conexões que a IA sozinha não enxerga. Ele transforma os dados de ferramentas técnicas em recursos de sentido, que não devem ficar restritos aos especialistas.

Legalidade, ética e responsabilidade na abordagem Deep Data

Na medida em que a IA se torna mais autônoma e os sistemas decisórios se tornam mais opacos, cresce a demanda por normas claras, responsabilidade compartilhada e respeito aos direitos digitais. O Deep Data ajuda a instaurar essa nova realidade ao tornar visíveis as relações ocultas entre dado e decisão.

As leis de proteção de dados (como a LGPD e o GDPR), as diretrizes de IA responsável da OCDE e as exigências crescentes de compliance exigem uma abordagem mais sofisticada e consciente sobre o uso de dados. O Deep Data torna-se, assim, um aliado crítico para:

  • garantir explicação de modelos automatizados;
  • mapear impactos discriminatórios;
  • proteger identidades sensíveis;
  • promover responsabilidade entre humanos e sistemas.

Em um estudo recente publicado na Scientific Reports (2024) 4, pesquisadores utilizaram o framework de explicabilidade XAI baseado em valores de Shapley para prestar contas sobre decisões automatizadas em modelos de crédito bancário. Eles identificaram que determinadas variáveis, que apesar de aparentemente neutras, estavam contribuindo de forma desproporcional para rejeitar empréstimos a grupos minoritários. Ao aplicar técnicas de Deep Data, que incluem revisão contextual e auditoria de vieses nos dados de entrada, foi possível reduzir o impacto de variáveis enviesadas e melhorar a equidade das decisões automatizadas. Esse exemplo ilustra como uma abordagem profunda revela distorções invisíveis que dashboards e relatórios tradicionais não conseguem capturar, e demonstra que a capacidade de operar com uma abordagem crítica ao Deep Data é também condição mínima de legalidade e legitimidade.

Um geração nativa de IA que precisa saber perguntar

Quando Daniel Kahneman nos alertou sobre os perigos do pensamento rápido e automático, ele estava descrevendo um comportamento que hoje é reproduzido em escala pelas inteligências artificiais. Ao mesmo tempo que ajudam a acelerar decisões, essas tecnologias também amplificam nossos vieses, omissões e ruídos cognitivos. São desvios silenciosos que afetam a qualidade do nosso julgamento. No livro “Ruído” 5, Kahneman mostra como decisões tomadas com base em dados objetivos ainda assim podem ser profundamente incoerentes, dependendo do contexto, da emoção ou até da hora do dia.

No mundo dos negócios orientado por IA, o problema se agrava. Quando terceirizamos o raciocínio às máquinas, sem questionar a origem, a qualidade e a profundidade dos dados, não apenas aceleramos o julgamento, também corremos o risco de padronizar o erro. A superficialidade dos sistemas se encontra com a pressa humana, criando um ambiente onde tudo parece certo porque foi automatizado. É mais fácil, mas não necessariamente é o correto.

Nesse cenário, perguntar se torna um ato radical. Perguntar o que foi excluído, quem se beneficia, o que está sendo ignorado. Essa abordagem ao Deep Data surge como uma lente que permite enxergar além da resposta fácil e do dado óbvio. É um convite para resgatar o espaço do pensamento lento, reflexivo, consciente, oiu seja, aquele que pergunta antes de decidir.

O futuro não será dos que mais automatizam, afinal, automatizar tornou-se acessível e até trivial com a chegada da inteligência artificial generativa. O verdadeiro diferencial estará em quem consegue interpretar, conectar, dar sentido. Compreender, de fato, exige tempo, profundidade e, sobretudo, perguntas relevantes. E essas perguntas não emergem apenas de grandes volumes de dados, mas da capacidade singular dos cérebros humanos de combinar intuição, contexto, memória e sensibilidade. São conexões sinápticas únicas, tecidas por experiências e subjetividades que, até hoje, permanecem inexplicáveis pela ciência. É esse tipo de processamento profundo, orgânico e criativo que nenhuma máquina pode reproduzir. Uma prática analítica relacionada ao Deep Data é, portanto, um convite para resgatar essa capacidade humana de ver além dos padrões, de desconfiar do óbvio e de formular as perguntas que realmente importam.

Deep Data pode ser definida como uma mudança de atitude. Não se trata de mais uma ferramenta ou metodologia, mas de uma forma de ver o mundo. É um comportamento que reconhece que, por trás de cada dado, existe uma história, uma escolha, um contexto. É sobre abandonar a ilusão da neutralidade e abraçar a complexidade. É sobre enxergar o iceberg inteiro e saber que as partes submersas exigem interpretação, escuta e consciência. Navegar por mares automatizados não requer apenas velocidade ou automação, mas profundidade, discernimento e responsabilidade.

Essa é minha proposta com o conceito de Deep Data: devolver aos humanos o poder de pensar com os dados, e não apenas por meio deles. A questão não é mais se temos dados suficientes. É se temos coragem de perguntar o que eles escondem.

Referências:
1 Ricardo Cappra é cientista de dados, filósofo e fundador do Cappra Institute.

2 HUFF, Darrell. Como mentir com estatística. Rio de Janeiro, Editora Intrínseca, 2019.

3 REUEL et al. Responsible AI in the Global Context: Maturity Model and Survey. arXiv, 2024. Disponível em: https://arxiv.org/abs/2410.09985. Acesso em: 28 jul. 2025.

4 NWAFOR, Chioma Ngozi; NWAFOR, Obumneme; BRAHMA, Sanjukta. Enhancing transparency and fairness in automated credit decisions: an explainable novel hybrid machine learning approach. Scientific Reports, Londres, v. 14, art. n. 25174, 24 out. 2024. Disponível em: https://doi.org/10.1038/s41598-024-75026-8. Acesso em: 28 jul. 2025.

5 KAHNEMAN, Daniel. Ruído: uma falha no julgamento humano. Rio de janeiro, Editora Objetiva, 2021.

Último vídeo

Nossos tópicos