Como se diferenciam e se complementam a Ciência de Dados, o Aprendizado de Máquina e a Inteligência Artificial
Inteligência artificial

Como se diferenciam e se complementam a Ciência de Dados, o Aprendizado de Máquina e a Inteligência Artificial

O tema sobre as diferenças e interseções entre Ciência de Dados, Aprendizado de Máquina e Inteligência Artificial pode ser confuso e polêmico. Contudo, é importante saber onde os temas diferem e compartilham caraterísticas e entender como podem ser aplicados em problemas reais.

O que você encontrará neste artigo:

Conceitos fundamentais e relações entre IA, ML e Ciência de Dados
Ciência de Dados: análise, modelagem e uso estratégico
Interseções, aplicações e cuidados éticos

Existem visões distintas, não apenas sobre o tema em si, mas sobre as disciplinas que estão relacionadas a eles. Qual tema engloba qual? Quais possuem interseção? Qual o tamanho dessas interseções? Este artigo não tem a pretensão de estabelecer, de forma definitiva essas diferenças e interseções. Mas, apresentar uma análise mais detalhada sobre o assunto, baseada em uma determinada corrente de autores. Provavelmente os termos continuarão a ser utilizados de forma intercambiada e, talvez, isso nem faça muita diferença. Contudo, é importante saber onde os temas diferem e compartilham caraterísticas. No entanto, o mais importante é entender como eles podem ser aplicados em problemas reais, sejam corporativos – aumentando a eficiência operacional das organizações -, sejam sociais – melhorando a sociedade como um todo.

Apesar de estarem sob o mesmo domínio de conhecimento e conectados de certa forma, cada tema possui especificidades, principalmente em suas aplicações e conceitos. Grande parte dos autores concorda que o aprendizado de máquina é um subconjunto da Inteligência Artificial. Por outro lado, a ciência de dados é um conjunto distinto, em que há uma interseção grande, tanto com o aprendizado de máquina, quanto com a Inteligência Artificial.

Um exemplo de como esses temas são geralmente intercambiados é que, hoje em dia, tudo é IA. No celular, no game, no RH, no carro, no banco, tudo tem um pouco de Inteligência Artificial. Contudo, muitas vezes, a inteligência, ou a lógica, por trás desses sistemas e dispositivos não é, necessariamente, uma IA. Um sistema de alerta baseado em regras, ou um outro de tomada de ações baseado em um diagrama de árvore, nenhum deles é IA. Assim como sistemas especialistas, que existem há décadas. A lista é extensa.

Dessa forma, “Inteligência Artificial” passou a ser um termo corriqueiro em nossa sociedade. De forma simplista, o conceito significa habilitar máquinas a raciocinar replicando a inteligência humana. Mas, isso não significa, em absoluto, os robôs que irão pensar de forma autônoma e dominar o mundo subjugando a raça humana. Seu objetivo é ensinar equipamentos, dispositivos ou sistemas a partir da experiencia pregressa. Essa experiencia, normalmente, vem na forma de dados. Por isso, alimentar esse processo com informações fidedignas e possuir um mecanismo de autoajuste é fundamental para que o aprendizado ocorra corretamente.

Para isso, os especialistas nesta tecnologia contam com modelos estatísticos e matemáticos, técnicas de aprendizado profundo e linguagem de processamento natural para treinar máquinas e sistemas em tarefas especificas. O objetivo da Inteligência Artificial está muito voltado para a automação de tarefas repetitivas por meio de sistemas inteligentes, além de executar em larga escala tarefas dependentes da interação humana. Esse aprendizado progressivo permite que algoritmos treinem máquinas e sistemas para executar virtualmente qualquer função desejada.

Alguns autores a consideram como uma subdisciplina da ciência da computação. Seu foco está em construir sistemas com inteligência flexível e capaz de resolver problemas complexos, a partir da análise de dados, aprendendo a partir dos resultados gerados e, tomando decisões replicáveis e em escala. Essa corrente se apoia muito no fato de que os modelos que alimentam a IA são, no fundo, programas de computadores.

A ciência cognitiva foi incorporada nessa vertente fazendo com que a IA tenha um objetivo claro: permitir que dispositivos pensem como humanos. Esse conceito é aplicado em carros autônomos, máquinas de monitoramento, sensores de identificação de falhas, aplicações de prevenção e manutenção, dentre muitas outras atividades. Dispositivos equipados com IA podem ser projetados para reunir e processar grandes quantidades de dados, se ajustar às novas entradas de informações, e de forma autônoma, tomar uma ação ou gerar um conhecimento aplicável. Exemplos de aplicações de IA vão desde recomendações personalizadas de produtos e serviços, a diagnósticos médicos, reconhecimento facial, visão computacional. Mais recentemente, atua na criação e sumarização de conteúdo, tanto de textos quanto de imagens e vídeos.

O aprendizado de máquina é um subconjunto da IA e bastante utilizado em ciência de dados. A partir da habilidade de um sistema, sem a intervenção humana, busca processar um conjunto de dados, identificar padrões e definir mecanismos de raciocínio com base nas descobertas alcançadas. Nele, tanto as equações, quanto os parâmetros dos modelos são encontrados pelos algoritmos durante o processo de treinamento. Por vezes, ambos podem ser predefinidos – de series temporais ou econométricos -, mas os parâmetros são ajustados e definidos automaticamente. Nesse caso, mesmo conhecendo os dados de entrada, os valores de saída só serão descobertos após a execução dos algoritmos e o término do treinamento.

Esse processo difere por exemplo de outras ciências exatas, como a física experimental – baseada em observações – ou a física teórica – baseada em modelos e abstrações, onde as equações e seus parâmetros são definidos de forma explicita, permitindo que uma vez conhecido os dados de entrada, os valores de saída são inferidos de forma direta.

Várias técnicas compreendem o aprendizado de máquina, que consiste em três categorias: supervisionado, semi-supervisionado e não-supervisionado. No primeiro, há uma variável alvo a ser classificada ou estimada, como por exemplo eventos de compra, fraude, inadimplência ou perda financeira. No segundo, essa variável alvo não existe, como por exemplo, a segmentação de clientes, a análise de cestas de mercado ou a identificação de anomalias. No último, algumas observações possuem o alvo, e outras não, como por exemplo, eventos de fraude e risco.

Contudo, em todas essas técnicas, o aprendizado vem na forma de treinamento, em que os modelos buscam encontrar padrões nas observações históricas, como associações, sequências, agrupamentos, correlações etc. Caso o alvo a ser predito exista, o treinamento visa encontrar uma correlação entre as variáveis descritoras (informações associadas ao evento) e o alvo.

Por outro lado, se o alvo não existe, o treinamento visa encontrar relações entre as variáveis descritoras. No caso semi-supervisionado, o treinamento é feito com amostras rotuladas (com alvo) e não rotuladas (sem alvo). Os rótulos existentes podem ser propagados para os rótulos ausentes ou os rótulos ausentes podem ser inferidos a partir dos rótulos existentes.

Mini Banner - Assine a MIT Technology Review

Há, ainda, uma categoria recente, denominada aprendizado por reforço. Esta técnica não utiliza um evento ou alvo histórico para direcionar o aprendizado. Ela é baseada em recompensar ou penalizar as respostas do modelo ao longo do tempo de forma a ajustar o aprendizado de acordo com um cenário específico. Esse processo é semelhante ao aprendizado humano, em que as ações corretas são recompensadas, enquanto ações incorretas são penalizadas de forma a corrigi-las no futuro. O aprendizado de máquina é um caminho eficiente para que Inteligência Artificial aprenda a partir dos dados e incorpore processos cognitivos aos dispositivos.

A Ciência de Dados se concentra na descoberta de conhecimento a partir da análise de dados, onde as atividades de extração, preparação e visualização estão fortemente inseridas nesse contexto. De modo geral, está focada na geração de novos conhecimentos, revelando situações e cenários não vistos anteriormente, e na resolução de problemas. É uma disciplina baseada em evidência analítica, utilizando dados estruturados e não estruturados para apoiar as organizações em seus processos de tomada de decisão.

A Ciência de Dados é uma disciplina bastante abrangente, fortemente focada no armazenamento e na modelagem de dados de forma constante. O conhecimento extraído por aplicações dessa natureza é utilizado para direcionar as decisões e ações das organizações, de acordo com seus objetivos. Aplicações de ciência de dados apoiam as organizações em estratégias de marketing, processos de venda, melhorias operacionais, definição de expansão, cadeia de suprimentos, dentre outras ações. Difícil pensar em uma ação de negócio ou uma indústria que não se beneficie dela.

Um dos domínios que a ciência de dados influencia fortemente é a inteligência de negócios. Os especialistas utilizam ferramentas, aplicações e algoritmos como método de análise dos dados existentes. Estas podem vir na forma de simples relatórios que auxiliam a realização de inferências, denominado de métodos descritivos, ou na forma de modelos complexos, conhecidos como métodos preditivos e prescritivos. Por exemplo, eles podem analisar dados históricos com o objetivo de construir modelos para projeções de valores futuros em um determinado horizonte, como vendas, consumo, estoque, produção, ou qualquer valor contínuo relacionado com o negócio. Esses modelos são normalmente relacionados com series temporais.

Outra categoria de modelos está relacionada com classificação ou estimação. Esses algoritmos se alimentam de dados pregressos para realizar classificações de eventos futuros, como ocorrência de fraude, insolvência e abandono. Há, ainda, as estimações de valores futuros, como perdas, consumo e receita. Ambos são métodos preditivos.

Outro exemplo é a de otimização. Estes modelos buscam soluções ótimas considerando um problema específico, normalmente definido por conjuntos de parâmetros, restrições e variáveis de decisão. Esses algoritmos buscam uma solução ótima visando maximizar ou minimizar uma função objetivo, como por exemplo, maximizar receita ou lucro, ou minimizar tempo, custo ou distância. Estes são os métodos prescritivos.

Nessa etapa de modelagem é que as interseções entre os temas começam a surgir. Cientistas de dados utilizam, com frequência, os conceitos e algoritmos de aprendizado de máquina para construir os modelos descritos anteriormente e, por consequência, as aplicações de IA. Apesar de grande parte das técnicas associadas com os métodos descritivos estarem relacionadas com inferência estatística e análise de dados, os métodos preditivos e prescritivos estão fortemente relacionados com aprendizado de máquina.

Algoritmos como gradiente boosting, random forest, redes neurais artificiais, máquinas de vetores de suporte, frequentemente utilizados em classificação e estimação, são exemplos clássicos de técnicas de aprendizado de máquina na categoria dos modelos preditivos. Algoritmos estatísticos como regressões, modelos aditivos, generalizados e árvores de decisão, normalmente complementam esse portfólio. Mesmo algoritmos não supervisionados voltados para a descoberta de padrões, dentro da categoria dos modelos descritivos, fazem uso de técnicas tradicionais como agrupamentos por k-médias ou regras de associação, mas, também, usam métodos de aprendizado de máquina, como mapas autoajustáveis de Kohonen e descrição de dados por vetores de suporte. Já os algoritmos de otimização, na categoria dos modelos prescritivos, estão presentes nas atividades dos cientistas de dados de duas formas.

Primeiro como uma ferramenta para a busca de soluções ótimas em problemas bem determinados, como otimização de preços, busca por rotas de veículos, planejamento de força de trabalho, dentre outros. Segundo, e talvez a forma mais recorrentemente utilizada, no aprimoramento dos algoritmos de aprendizado de máquina, uma vez que eles utilizam técnicas de otimização – como algoritmos genéticos, gradientes descendentes, método do hipercubo latino – para buscar os melhores hiper parâmetros dos modelos durante as etapas de treinamento.

Em resumo, a Ciência de Dados foca na coleta e limpeza de dados, nas análises estatísticas e matemáticas, na visualização dos dados, e no conhecimento do negócio. O Aprendizado de Máquina foca na criação dos algoritmos, no treinamento e na avaliação dos modelos, na engenharia das características, e nas técnicas de otimização. A Inteligência Artificial foca na aplicação do aprendizado de máquina avançado em questões específicas e na modelagem cognitiva.

É extremamente importante que essas diferenças e similaridades sejam bem compreendidas, sobretudo considerando a evolução e os impactos da aplicação da IA na sociedade e nas organizações. Os modelos de aprendizado de máquina refletem os padrões existentes nos dados, que por sua vez podem possuir um viés histórico de conotação negativa, refletindo um preconceito. As aplicações de IA que se utilizam desses algoritmos podem replicar esse preconceito nas tomadas de decisão. Isso se torna ainda mais relevante ao se contemplar os algoritmos multimodais, que aprendem com dados estruturados e não estruturados como textos, imagens e vídeos.

Com a quantidade de informações sem verificação, principalmente na internet, a possiblidade de um efeito cascata negativo na propagação de um conhecimento irreal ou enviesado é muito grande. A ética na Inteligência Artificial se tornará uma disciplina cada vez mais fundamental para reger e mediar essas aplicações.

Último vídeo

Nossos tópicos