Em dezembro de 1947, três físicos dos Laboratórios Bell Telephone, John Bardeen, William Shockley e Walter Brattain, construíram um dispositivo eletrônico compacto usando fios finos de ouro e um pedaço de germânio, um material conhecido como semicondutor. Sua invenção, posteriormente chamada de transistor (pelo qual receberam o Prêmio Nobel em 1956), podia amplificar e comutar sinais elétricos, marcando uma grande mudança em relação aos volumosos e frágeis tubos de vácuo que até então alimentavam a eletrônica.
Seus inventores não estavam atrás de um produto específico. Eles estavam fazendo perguntas fundamentais sobre o comportamento dos elétrons em semicondutores, experimentando com estados de superfície e mobilidade dos elétrons em cristais de germânio. Após meses de tentativas e refinamentos, combinaram percepções teóricas da mecânica quântica com experimentação prática em física do estado sólido, um trabalho que muitos poderiam ter descartado como excessivamente básico, acadêmico ou não lucrativo.
Os esforços deles culminaram em um momento que agora marca o início da era da informação. Os transistores geralmente não recebem o crédito que merecem, mas são a base de todos os smartphones, computadores, satélites, aparelhos de ressonância magnética, sistemas de GPS e plataformas de inteligência artificial que usamos hoje. Com sua capacidade de modular (e direcionar) a corrente elétrica a velocidades impressionantes, os transistores tornam a computação e a eletrônica modernas e futuras possíveis.
Essa descoberta não surgiu de um plano de negócios ou uma proposta de produto. Ela surgiu de uma pesquisa aberta, movida pela curiosidade, e de um desenvolvimento viabilizador, apoiado por uma instituição que viu valor em explorar o desconhecido. Foram necessários anos de tentativa e erro, colaborações entre disciplinas e uma crença profunda de que entender a natureza, mesmo sem uma recompensa garantida, valia o esforço.
Após a primeira demonstração bem-sucedida no final de 1947, a invenção do transistor permaneceu confidencial enquanto os Laboratórios Bell registravam pedidos de patente e continuavam o desenvolvimento. Foi anunciada publicamente em uma conferência de imprensa em 30 de junho de 1948, na cidade de Nova York. A explicação científica seguiu em um artigo seminal publicado na revista Physical Review.
Como funcionam? No seu núcleo, os transistores são feitos de semicondutores, materiais como germânio e, mais tarde, silício, que podem conduzir ou resistir à eletricidade dependendo de manipulações sutis em sua estrutura e carga. Em um transistor típico, uma pequena voltagem aplicada a uma parte do dispositivo (o gate) permite ou bloqueia a corrente elétrica que flui através de outra parte (o canal). É esse mecanismo simples de controle, ampliado bilhões de vezes, que permite que seu telefone execute aplicativos, seu laptop renderize imagens e seu motor de busca retorne respostas em milissegundos.
Embora os primeiros dispositivos utilizassem germânio, os pesquisadores logo descobriram que o silício, mais estável termicamente, resistente à umidade e muito mais abundante, era mais adequado para a produção industrial. No final da década de 1950, a transição para o silício já estava em andamento, tornando possível o desenvolvimento de circuitos integrados e, eventualmente, dos microprocessadores que alimentam o mundo digital de hoje.
Um chip moderno do tamanho de uma unha humana agora contém dezenas de bilhões de transistores de silício, cada um medido em nanômetros, menores do que muitos vírus. Esses minúsculos interruptores ligam e desligam bilhões de vezes por segundo, controlando o fluxo de sinais elétricos envolvidos em computação, armazenamento de dados, processamento de áudio e vídeo e Inteligência Artificial. Eles formam a infraestrutura fundamental por trás de quase todos os dispositivos digitais em uso hoje.
A indústria global de semicondutores agora vale mais de meio trilhão de dólares. Dispositivos que começaram como protótipos experimentais em um laboratório de física agora sustentam economias, segurança nacional, saúde, educação e comunicação global. Mas a história de origem do transistor carrega uma lição mais profunda, uma lição que corremos o risco de esquecer.
Grande parte do conhecimento fundamental que impulsionou a tecnologia dos transistores veio de pesquisas universitárias financiadas pelo governo federal. Quase um quarto da pesquisa sobre transistores nos Laboratórios Bell na década de 1950 foi apoiada pelo governo federal. Grande parte do restante foi subsidiada pela receita do monopólio da AT&T sobre o sistema telefônico dos EUA, que fluía para P&D industrial.
Inspirado pelo relatório de 1945 “Science: The Endless Frontier”, escrito por Vannevar Bush a pedido do presidente Truman, o governo dos EUA iniciou uma tradição duradoura de investir em pesquisa básica. Esses investimentos trouxeram retornos constantes em muitos domínios científicos, da energia nuclear aos lasers, e das tecnologias médicas à Inteligência Artificial. Treinadas em pesquisa fundamental, gerações de estudantes saíram dos laboratórios universitários com o conhecimento e as habilidades necessários para levar a tecnologia existente além de suas capacidades conhecidas.
E, ainda assim, o financiamento para a ciência básica, e para a educação daqueles que podem segui-la, está sob pressão crescente. O novo orçamento federal proposto pela Casa Branca inclui cortes profundos no Departamento de Energia e na National Science Foundation (embora o Congresso possa se desviar dessas recomendações). Já os National Institutes of Health (Institutos Nacionais de Saúde) cancelaram ou pausaram mais de 1,9 bilhão de dólares em bolsas, enquanto os programas de educação STEM da NSF sofreram mais de 700 milhões de dólares em encerramentos.
Essas perdas forçaram algumas universidades a congelar as admissões de estudantes de pós-graduação, cancelar estágios e reduzir oportunidades de pesquisa de verão, tornando mais difícil para os jovens seguir carreiras científicas e de engenharia. Em uma era dominada por métricas de curto prazo e retornos rápidos, pode ser difícil justificar pesquisas cujas aplicações podem não se materializar por décadas. Mas são precisamente esses tipos de esforços que devemos apoiar se quisermos garantir o nosso futuro tecnológico.
Considere John McCarthy, o matemático e cientista da computação que cunhou o termo “inteligência artificial”. No final da década de 1950, enquanto estava no MIT, ele liderou um dos primeiros grupos de IA e desenvolveu o Lisp, uma linguagem de programação ainda usada hoje em computação científica e aplicações de IA. Na época, a IA prática parecia distante. Mas aquele trabalho fundamental inicial lançou as bases para o mundo movido por IA que temos hoje.
Após o entusiasmo inicial das décadas de 1950 até os anos 1970, o interesse por redes neurais, uma das principais arquiteturas de IA hoje, inspirada no cérebro humano, declinou durante os chamados “invernos da IA” do final dos anos 1990 e início dos anos 2000. Dados limitados, poder computacional inadequado e lacunas teóricas dificultavam o avanço da área. Ainda assim, pesquisadores como Geoffrey Hinton e John Hopfield perseveraram. Hopfield, agora laureado com o Nobel de Física em 2024, apresentou pela primeira vez seu modelo inovador de rede neural em 1982, em um artigo publicado nos Anais da Academia Nacional de Ciências dos Estados Unidos. Seu trabalho revelou as profundas conexões entre computação coletiva e o comportamento de sistemas magnéticos desordenados. Junto com os trabalhos de colegas, incluindo Hinton, que recebeu o Nobel no mesmo ano, essa pesquisa fundamental lançou as bases para a explosão das tecnologias de aprendizagem profunda (deep learning) que vemos hoje.
Uma das razões pelas quais as redes neurais prosperam atualmente é a unidade de processamento gráfico, ou GPU, originalmente projetada para jogos, mas agora essencial para as operações intensivas em matrizes da IA. Esses chips dependem, por sua vez, de décadas de pesquisa fundamental em ciência dos materiais e física do estado sólido: materiais de alta constante dielétrica, ligas de silício sob tensão e outros avanços que tornaram possível produzir os transistores mais eficientes possíveis. Estamos agora entrando em outra fronteira, explorando memristores, materiais de mudança de fase e bidimensionais, e dispositivos spintrônicos.
Se você está lendo isto em um telefone ou laptop, está segurando o resultado de uma aposta que alguém fez um dia movido pela curiosidade. Essa mesma curiosidade ainda está viva em universidades e laboratórios de pesquisa hoje, em trabalhos muitas vezes pouco glamorosos, às vezes obscuros, que silenciosamente lançam as bases para revoluções que infiltrarão alguns dos aspectos mais essenciais de nossas vidas daqui a 50 anos. Na principal revista de física onde sou editor, meus colaboradores e eu vemos o trabalho meticuloso e a dedicação por trás de cada artigo que lidamos. Nossa economia moderna, com gigantes como Nvidia, Microsoft, Apple, Amazon e Alphabet, seria inimaginável sem o humilde transistor e a paixão pelo conhecimento que alimenta a curiosidade incansável de cientistas como aqueles que o tornaram possível.
O próximo transistor pode nem se parecer com um interruptor. Ele pode surgir de novos tipos de materiais (como quânticos, híbridos orgânico-inorgânicos ou hierárquicos) ou de ferramentas que ainda não imaginamos. Mas precisará dos mesmos ingredientes: conhecimento fundamental sólido, recursos e liberdade para perseguir questões abertas movidas pela curiosidade, colaboração e, mais importante, apoio financeiro de alguém que acredita que vale a pena o risco.