Os pesquisadores de IA costumam dizer que o bom machine learning é, na realidade, muito mais uma arte do que ciência. O mesmo pode ser dito quando pensamos em relações públicas eficazes. Escolher as palavras certas para dar um tom positivo ou ressignificar a conversa sobre IA é uma tarefa delicada: quando bem feita, pode fortalecer a imagem da marca de alguém, mas se mal feita, pode desencadear uma reação ainda maior.
Os gigantes da tecnologia saberiam fazer essa escolha. Nos últimos anos, eles tiveram que aprender essa arte rapidamente, pois enfrentaram a crescente desconfiança do público em relação a suas ações e intensificaram as críticas sobre suas pesquisas e tecnologias de IA.
Por isso, eles desenvolveram um novo vocabulário para usar quando quiserem mostrar ao público que se preocupam profundamente com o desenvolvimento de IA de maneira responsável — mas querem ter certeza de que não haja uma análise muito profunda sobre o que fazem. Aqui está um guia para decodificar sua linguagem e desafiar as suposições e valores embutidos.
Adversário (s) – Um engenheiro solitário capaz de interromper seu poderoso sistema de IA de geração de receita. Veja as definições de robustez e proteção.
Alinhamento (s) – O desafio de projetar sistemas de IA que façam o que mandamos e valorizem o que valorizamos. Intencionalmente abstrato. Evite usar exemplos reais de efeitos não intencionais e prejudiciais. Veja a definição de segurança.
Auditoria (s) - Uma avaliação que você paga a alguém para fazer em sua empresa ou sistema de IA para que você pareça mais transparente sem precisar mudar nada. Veja a definição de avaliação de impacto.
Avaliação de impacto (fra) – uma revisão que você mesmo faz de sua empresa ou sistema de IA para mostrar sua disposição de considerar suas desvantagens sem alterar nada. Veja a definição de auditoria.
Benéfico (adjetivo) – Uma descrição geral do que você está tentando construir. Convenientemente mal definida . Veja a definição de valor.
Comitê de ética (fra) – um grupo de consultores sem poder real, convocado para criar a aparência de que sua empresa escuta ativamente. Exemplos: Conselho de ética de IA do Google (cancelado), Oversight Board do Facebook (ainda de pé).
Compliance/conformidade (s) – O ato de cumprir a lei. Tudo o que não é ilegal, pode fazer.
Concessão de privacidade (fra) – O nobre sacrifício do controle individual sobre as informações pessoais para benefícios do grupo, como avanços no sistema de saúde impulsionados por IA, que também são altamente lucrativos.
Confiável (adj) – Uma avaliação de um sistema de IA que pode ser fabricado com publicidade coordenada suficiente.
Democratizar (v) – Escalonar uma tecnologia a todo custo. Uma justificativa para concentrar recursos. Veja a definição de escala.
Design centrado no ser humano (fra) – Um processo que envolve o uso de “personas” para imaginar o que um usuário médio pode querer do seu sistema de IA. Pode envolver a solicitação de feedback de usuários reais. Só se houver tempo. Veja a definição de as partes interessadas.
Diversidade, equidade e inclusão (fra) – O ato de contratar engenheiros e pesquisadores de grupos marginalizados para que você possa exibi-los ao público. Se eles desafiarem o status quo, demita-os.
Eficiência (s) – O uso de menos dados, memória, equipe ou energia para construir um sistema de IA.
Escala (s) – O resultado final que qualquer bom sistema de IA deve se esforçar para alcançar na prática.
Expandir (verbo) – Aumentar a produtividade dos trabalhadores de escritório. Efeito colateral: automatizar empregos de operários. Triste, mas inevitável.
Explicável (adj) – Para descrever um sistema de IA que você, o desenvolvedor e o usuário podem entender. Muito mais difícil de explicar para as pessoas que são usadas por ele. Provavelmente não vale o esforço. Veja interpretável.
Framework (s) – Um conjunto de diretrizes para a tomada de decisões. Uma boa maneira de parecer consciente e ponderado enquanto atrasa a tomada de decisões reais.
Generalizável (adj) – O sinal de um bom modelo de IA. Um que continua a funcionar em condições variáveis. Veja a definição de o mundo real.
Governança (s) – Burocracia.
Humano no processo (fra) – Qualquer pessoa que faça parte de um sistema de IA. As responsabilidades vão desde falsificar os recursos do sistema até repelir acusações de automação.
IA responsável (s) – Um apelido para qualquer trabalho em sua empresa que possa ser interpretado pelo público como um esforço sincero para mitigar os danos de seus sistemas de IA.
Inteligência artificial geral (frase) - Um deus de IA hipotético que provavelmente está muito distante no futuro, mas também pode ser iminente. Pode ser muito bom ou muito ruim, o que for mais retoricamente útil. Obviamente, você está construindo um bom. O que é caro. Portanto, você precisa de mais dinheiro. Veja a definição de os riscos de longo prazo.
Integridade (s) – Problemas que prejudicam o desempenho técnico do seu modelo ou a capacidade de escala da sua empresa. Não confunda com questões que fazem mal à sociedade e tampouco com honestidade.
Interdisciplinar (adj) – Termo usado para designar qualquer equipe ou projeto envolvendo pessoas que não codificam: usuários pesquisadores, gerentes de produto, filósofos morais. Principalmente filósofos morais.
Interpretável (adj) – Descrição de um sistema de IA cuja computação você, o desenvolvedor, pode seguir passo a passo para entender como chegou à resposta. Na verdade, provavelmente é apenas uma regressão linear. IA soa melhor.
Justiça (s) – Uma noção complicada de imparcialidade usada para descrever algoritmos imparciais. Pode ser definido de várias maneiras com base em sua preferência.
Mundo real (fra) – O oposto do mundo simulado. Um ambiente físico dinâmico cheio de surpresas inesperadas no qual os modelos de IA são treinados para sobreviver. Não deve ser confundido com humanos e sociedade.
Para o bem (fra) – Como em “IA para o bem” ou “Dados para o bem“. Uma iniciativa totalmente tangencial ao seu negócio principal que o ajuda a gerar boas publicidades.
Parceiros (s) – Outros grupos de elite que compartilham sua visão de mundo e podem trabalhar com você para manter o status quo. Veja a definição de as partes interessadas.
Partes interessadas (s) – Acionistas, reguladores, usuários. As pessoas no poder que você deseja manter felizes.
Por design (fra) – No sentido de desde a concepção, como em “justiça por design” ou “responsabilidade desde o design. “ Uma frase para sinalizar que você está pensando muito sobre coisas importantes desde o início.
Precisão (s) – correção técnica. A medida mais importante de sucesso na avaliação do desempenho de um modelo de IA. Veja a definição de validação.
Previsão (s) – A capacidade de perscrutar o futuro. Basicamente impossível: portanto, uma explicação perfeitamente razoável do porquê você não pode eliminar a possibilidade de consequências indesejadas do seu sistema de IA.
Princípios (s) – você os tem. Lembre-os as pessoas.
Princípios de ética (fra) – Um conjunto de obviedades usados para sinalizar suas boas intenções. Mantenha-o em alto nível. Quanto mais vaga a linguagem, melhor. Veja a definição de IA responsável.
Progresso (s) – Avanço científico e tecnológico. Um bem inerente.
Proteção (s) – O ato de proteger dados valiosos ou confidenciais e modelos de IA de serem violados por malfeitores. Veja a definição de o adversário.
Redistribuição de riqueza (fra) – Uma ideia útil para mostrar quando as pessoas o julgam por usar muitos recursos e ganhar muito dinheiro. Como funcionaria a redistribuição de riqueza? Renda básica universal, é claro. Também não é algo que você possa descobrir sozinho. Exigiria regulamentação. Veja a definição de regulamento.
Regulamento (s) - O que você pede quando quer transferir a responsabilidade de mitigar a IA prejudicial aos legisladores. Não deve ser confundido com políticas que dificultariam seu crescimento.
Renda básica universal (fra) – A ideia de que pagar a todos um salário fixo resolverá a enorme turbulência econômica causada quando a automação leva à perda generalizada de empregos. Popularizado pelo candidato presidencial de 2020, Andrew Yang. Veja a definição de redistribuição de riqueza.
Responsabilidade (substantivo) – O ato de responsabilizar outra pessoa pelas consequências quando o seu sistema de IA falha.
Reter publicação (fra) – O ato benevolente de escolher não abrir o código-fonte do seu sistema porque ele pode cair nas mãos de uma pessoa mal-intencionada. Melhor limitar o acesso a parceiros que podem pagar.
Riscos de longo prazo (s) – Coisas ruins que podem ter efeitos catastróficos em um futuro distante. Provavelmente nunca acontecerá, mas é mais importante estudá-los e evitá-los do que fazer alguma coisa sobre os danos imediatos dos sistemas de IA existentes.
Rotuladores de dados (fra) – As pessoas que supostamente realizam o trabalho por trás da interface Mechanical Turk da Amazon para fazer uma limpeza de dados por um preço baixo. Não tenho certeza de quem eles são. Nunca os conheci.
Robustez (s) – A capacidade de um modelo de IA de funcionar de forma consistente e precisa sob tentativas perversas de alimentá-lo com dados corrompidos.
Segurança (s) – O desafio de construir sistemas de IA que não se desviem das intenções do desenvolvedor. Não deve ser confundido com a construção de sistemas de IA que não falham. Veja a definição de alinhamento.
Transparência (s) – revelando seus dados e código. Ruim para informações confidenciais e proprietárias. Portanto, muito difícil; francamente, até mesmo impossível. Não deve ser confundido com uma comunicação clara sobre como seu sistema realmente funciona.
Validação (s) – O processo de testar um modelo de IA em dados diferentes dos dados em que foi treinado, para verificar se ainda é preciso.
Valor (s) – Um benefício intangível oferecido aos usuários que gera muito dinheiro para você.