top of page

A aposta perfeita: o que aprendi com Jensen Huang sobre como a NVIDIA virou o motor da IA

Jensen Huang conta como a NVIDIA apostou alto, criou CUDA e dominou data centers — e o que vem a seguir na corrida da IA.


O papo começa com uma confissão: depois de anos estudando a NVIDIA à distância, é diferente estar no epicentro. No Acquired, Ben Gilbert e David Rosenthal sentam diante de Jensen Huang e, dali em diante, a história deixa de ser sobre chips para virar um manual de sobrevivência — e de ousadia calculada — em tecnologia. Eu saí com a sensação de que “apertar enter” só é coragem quando você já simulou o futuro.

A cena de 1997 é cinematográfica. A NVIDIA tinha seis meses de caixa, nenhum espaço para errar e um chip gigante prestes a nascer: o RIVA 128. Em vez do caminho clássico — prototipa, depura, refaz — Jensen compra um emulador de uma empresa que estava fechando as portas e decide testar tudo em software. Driver, pipeline, jogos, DirectX: quadro a quadro, minuto a minuto. O plano não era arriscado; era eliminar o risco. “Se a gente só tem uma chance, ela tem que ser perfeita.” O tape-out vai direto para produção, a equipe liga marketing e relações com desenvolvedores como se o silício já estivesse rodando — e ele roda. O que parece bravata é, na verdade, um princípio: puxe todos os riscos do futuro para o presente, emule o amanhã, e só então aposte a empresa.

Essa lógica reaparece quando ele narra o nascimento do CUDA. Antes de CUDA, veio Cg; antes de Cg, a inquietação de que a GPU podia ser mais do que pixels. O estalo com AlexNet foi o catalisador: se redes profundas superam 30 anos de visão computacional “de mão dada” com causalidade, talvez tenhamos esbarrado num aproximador universal de funções. A pergunta que Jensen repete é quase infantil de tão poderosa: por que isso funciona — e dá para escalar? O resto foi engenharia de produto e cultura: toda GPU roda CUDA, todas compatíveis entre si, milhões de placas iguais como plataforma e não como peça. O ecossistema não se constrói com um press release; ele se sustenta quando o desenvolvedor sabe que seu código vive por décadas.

A outra virada — tão estratégica quanto invisível de fora — foi mental: um dia o computador da NVIDIA não precisaria mais estar grudado ao monitor. GeForce Now nasceu dessa separação, ainda lutando com a velocidade da luz; logo depois vieram as GPUs em data centers corporativos e, então, os supercomputadores DGX. Quando a IA explodiu, a empresa já tinha aprendido a montar computadores que são, na prática, data centers. É aí que Mellanox entra como a melhor aquisição “não-óbvia” que eu já ouvi um CEO explicar. AI não é hyperscale de múltiplos usuários sob um servidor; é um único job orquestrado através de milhares de GPUs. Ethernet genérica patina; InfiniBand brilha. Comprar a Mellanox não foi diversificação: foi soldar a peça que faltava para treinar modelos distribuídos no limite do hardware.

Se a engenharia parece um empilhamento lógico, a organização que entrega isso não copia manuais. Jensen descreve a NVIDIA como uma pilha computacional viva: arquitetura, chip, software, bibliotecas — e gente responsável por módulos, independente de títulos. Informação circula em tempo real, decisões acontecem diante de novatos e vice-presidentes ao mesmo tempo, e a frase que gruda é “a missão é o chefe”. O efeito colateral é pressão alta sobre líderes; o benefício é velocidade sem telefone sem fio. Dá para sentir que esse desenho organizacional foi polido em décadas de lançar “duas WWDCs por ano” sem ser a Apple.

Há momentos em que a conversa escapa do quadro técnico e entra no humano. A anedota com Don Valentine (“se você perder meu dinheiro, eu te mato”) vem carregada de gratidão por investidores que ficaram nos 80% de drawdown. Para Jensen, o medo que nunca passou foi decepcionar os funcionários que apostaram o próprio futuro no sonho da empresa. E o conselho que parece pequeno — não deixe o Outlook controlar seu dia — revela a disciplina de quem decide o que é prioridade antes de o calendário decidir por ele.

Também há sobriedade no tema quente: segurança e impacto no trabalho. Na visão de Jensen, IA segura é, por muito tempo, IA com humano no loop — testada, validada, com direitos de criadores respeitados e aplicações críticas (como robótica e direção) seguindo práticas de segurança funcional. Sobre empregos, ele se alinha ao “paradoxo da produtividade”: primeiro vem a prosperidade, depois a expansão. Empresas que produzem mais, em geral, contratam para fazer mais. O risco individual existe, mas a disputa real será entre humanos que usam IA e os que não usam. O conselho é direto: aprenda a usar — já.

O fio que costura tudo isso é a leitura das “não-oportunidades” de hoje como mercados de bilhões amanhã. Carro como software? Plataforma. Supercomputação democratizada? Plataforma. IA como manufatura de inteligência? Plataforma. Ao separar-se de ser “só” uma fabricante de chips e abraçar o papel de infraestrutura e de sistema, a NVIDIA multiplicou o TAM por mil. E, curiosamente, as lições são transferíveis: simule o futuro antes de chamá-lo de aposta; construa compatibilidade radical; conecte-se aos pesquisadores cedo; posicione-se perto do pomar certo, mesmo que a maçã não tenha caído; trate sua empresa como uma pilha integrada, não como um organograma de manual.

Saí da entrevista com uma imagem persistente: a de engenheiros em 1997, parados numa sala, olhando para um Windows que pintava a tela a cada minuto — e um fundador dizendo “vai ser perfeito” não porque desejava, mas porque já tinha feito o amanhã caber no hoje. É assim que se atravessa uma era tecnológica: não correndo riscos cegos, e sim diminuindo-os até que apostar tudo pareça, paradoxalmente, o caminho mais seguro.


— Chip Spark.


Para quem quiser mergulhar na conversa original, abaixo estou deixando o link do podcast na íntegra. Dá o play sem medo: está ótimo, bem produzido e recheado de insights e histórias que complementam o que comentei aqui.

Jensen Huang NVIDIA IA



Comentários


bottom of page