Inteligência Artificial é um dos assuntos mais abordados quando se fala em tecnologias disruptivas, principalmente quanto ao seu potencial para resolver diversos problemas da atualidade. Mas quando pensamos em IA, difícil não se lembrar de filmes como AI, Eu, Robô, Blade Runner, Ex-Machina, a série russa Better than us e até a Skynet de Exterminador do Futuro. Mas a realidade não é tão ruim como o cinema costuma retratar.
Particularmente, o primeiro caso de sucesso do uso de IA do qual me lembro foi um simples jogo de xadrez, no qual o Deep Blue, um computador da IBM, derrotou Garry Kasparov, campeão mundial considerado por muitos o melhor enxadrista de todos os tempos. Na verdade, o algoritmo usado pelo Deep Blue não era tão complexo. Era uma variação de um algoritmo proposto pelo matemático Claude Chanon em seu artigo “XXII. Programming a Computer for Playing Chess” de 1950, que avaliava todos os movimentos possíveis e as possíveis respostas dos oponentes, de forma contínua repetitiva. Isso claro, era limitado pela velocidade de processamento e pelo tempo disponível para o próximo movimento. Ou seja, se a capacidade de processamento fosse maior, aumentava-se a quantidade de análises feitas pelo algoritmo do Deep Blue e, consequentemente, suas chances de vitória. Essa foi a diferença para o jogo de 1996, quando Deep Blue perdeu, e o de 1997, ano da vitória da máquina. O poder de processamento praticamente tinha dobrado de um ano para outro.
Definição e pilares da IA
Em uma definição simplista, IA seria um sistema capaz de apresentar traços da inteligência humana, como raciocinar, aprender com a experiência ou interagir com humanos em linguagem natural. Uma ótima definição foi dada por Mariana de Siqueira em seu artigo “A inteligência artificial no judiciário brasileiro”, transcrita abaixo:
“IAs são instrumentos tecnológicos peculiares de tomada de decisão, estruturados a partir de base de dados e de aprendizado de máquina e que demandam a existência de hardware, software, processamento de linguagem natural e de algoritmo para que funcionem.”
Importante destacar que o poder de processamento por si só não é suficiente para criar uma solução de Inteligência Artificial. São necessários pelo menos dois outros ingredientes: informações abundantes e o algoritmo adequado. Para que a IA seja realmente efetiva, precisamos de uma maneira de capturar e acumular informações sobre o problema com o qual a Inteligência Artificial está interagindo. Entram como fortes aliados o Big Data, informações estruturadas e não-estruturadas, Internet, dados proprietários. Além do poder de processamento e informações, precisamos encontrar os algoritmos e técnicas corretas para processar as informações de entrada, a fim de construir o resultado certo. Esta é a parte mais complexa de uma solução de IA efetiva.
Tipos de IA e o dilema ético
Há que se diferenciar os dois tipos de IA: restrita (ou fraca) e a geral (ou forte).
A IA restrita é quando um sistema exibe traços de inteligência semelhantes a humanos em um campo ou tarefa específica. Um chatbot, por exemplo, que pode responder perguntas sobre determinado assunto para o qual foi treinado, seria um bom exemplo.
Geralmente, a IA geral é o que nós vemos nos filmes, um sistema completo, praticamente indistinguível de um ser humano. Infelizmente (ou não) ainda não é possível criar uma IA geral, como aquele menino do filme IA, David Swinton, Arisa, de Better than us ou os replicantes do filme Blade Runner. Embora Alan Turing já tenha pensado em uma IA Geral quando criou o chamado Teste de Turing para verificar a capacidade de uma máquina ter um comportamento inteligente equivalente a um ser humano, a ponto de ser indistinguível de um ser humano real, existem questões éticas que ainda precisam ser tratadas. Por exemplo, imagine um carro autônomo, que use IA na condução segura. Esse carro pode ter que tomar decisões complexas que envolvem escolher quem deve viver. Ele pode ter que decidir entre preservar a vida de seu dono ou de uma criança que está atravessando a rua inadvertidamente atrás de uma bola. Que decisão deve ser tomada? Sacrificar o motorista, desviando da criança e batendo em um muro, ou sacrificar a criança e preservar o dono do carro? Essa situação é conhecida como o “dilema ético dos carros autônomos” e é constantemente debatida. Creio que nem as famosas “Três Leis da Robótica” de Isaac Asimov, elaboradas há mais de 50 anos, teriam como ajudar nesse dilema.
Dora Kaufman explica em seu artigo “A ética e a inteligência artificial” que a questão ética é uma preocupação constante e alguns estudiosos sugerem a criação de um conselho global de ética digital para tratar o assunto. Outra questão interessante, segundo Kaufman, foi colocada pelo filósofo americano Ned Block, transcrita a seguir:
“se as máquinas aprendem com o comportamento humano, e esse nem sempre está alinhado com valores éticos, como prever o que elas farão?”
Esse fato pôde ser observado com o chatbot Tay da Microsoft que, em menos de 24 horas, se transformou de um inocente amigo virtual de adolescentes para um defensor nazista de sexo incestuoso, comportamento adquirido pela interação com os jovens. Talvez, o uso da Teoria da Disponibilidade explicada em um artigo da MIT Technology Review possa ajudar a resolver esse problema.
IA no Setor Público
O tema IA tem ganhado extrema relevância também no setor público, no qual várias implementações têm sido discutidas para agilizar a engessada máquina administrativa. O Governo Federal, inclusive, fez uma consulta pública sobre a Estratégia Brasileira de Inteligência Artificial e sua aplicação no setor público. A consulta recebeu várias contribuições em relação a pontos como benefícios do uso de IA em órgãos públicos, áreas prioritárias, uso de IA para ajuda na tomada de decisão, e questões éticas.
Se por um lado há ainda grandes obstáculos para chegarmos à criação de uma IA geral, por outro lado os especialistas estão cada vez melhores em criar soluções que utilizam a IA restrita, principalmente porque já temos poder de processamento suficiente, muitos dados disponíveis e, por último, mas não menos importante, o conjunto certo de técnicas e algoritmos.
Fato é que hoje há muitas soluções de IA restrita em uso em várias empresas e também em órgãos públicos. Nos órgãos de controle, por exemplo, há o uso de robôs pelos Tribunais de Contas, como o chatbot de atendimento do Tribunal de Contas do Estado de São Paulo e o Zello, do Tribunal de Consta da União. Na página da consulta pública sobre IA há vários outros exemplos em órgãos públicos, como os robôs Alice, Monica e Sofia do TCU; Bem-te-vi do Tribunal Superior do Trabalho; Victor do Supremo Tribunal Federal; e Elis do Tribunal de Justiça de Pernambuco.
A interação com robôs durante a pandemia cresceu até 200%, segundo artigo publicado no jornal Folha de São Paulo, e isso também aconteceu no setor público, onde a digitalização de serviços acabou sendo impulsionada em órgãos como o Poupatempo e o Governo Federal, com sua plataforma Gov.br.
Uma iniciativa digna de nota é que no âmbito do Comitê de Tecnologia, Governança e Segurança da Informação dos Tribunais de Contas foi criado um grupo de trabalho específico para tratar do tema Inteligência Artificial. O objetivo desse grupo de trabalho é identificar oportunidades de uso da IA e compartilhar soluções que já estejam em uso, como já vem acontecendo com o robô Alice do TCU/CGU, que já está em uso em vários Tribunais de Contas estaduais.
O caminho é longo, mas bastante promissor. E a junção de forças e compartilhamento de soluções e ideias é uma ótima iniciativa que em breve dará muitos frutos.
Por Fabio Correa Xavier
CIO do Tribunal de Contas do Estado de São Paulo. Mestre em Ciência da Computação (USP). MBA em Gestão Estratégica de Negócios (IBMEC). Professor e palestrante.