NVIDIA DGX Spark e DGX Station: supercomputação de mesa para modelos de IA de até 1 trilhão de parâmetros

admin
5 Jan, 2026
O mundo da inteligência artificial acaba de dar um salto gigante: agora, a potência de um data center cabe literalmente ao lado da sua mesa. Durante a CES 2026, a NVIDIA revelou os novos supercomputadores DGX Spark e DGX Station, projetados para que desenvolvedores e pesquisadores rodem os modelos de IA mais avançados do mundo de forma local e eficiente.A apresentação aconteceu no Hotel Fontainebleau, em Las Vegas, nos Estados Unidos. Jensen Huang, CEO da NVIDIA, subiu ao palco para mais de duas mil pessoas presentes no evento. A equipe do Adrenaline também esteve presente acompanhando a conferência.Jensen Huang, CEO da NVIDIA. Imagem: Wikerson Landim/Adrenaline.DGX Spark e o DGX Station: o futuro dos data centersImagine que, antes, para construir um prédio (treinar uma IA gigante), você precisava alugar uma frota de caminhões e guindastes de uma empresa distante (nuvem). O DGX Spark e o Station são como ter o seu próprio kit de ferramentas mágicas de alta tecnologia na sua garagem: elas ocupam pouco espaço, mas têm a força de um canteiro de obras inteiro, permitindo que você construa e teste suas ideias na hora que quiser, sem precisar esperar o transporte chegar.O DGX Spark e o DGX Station são supercomputadores de mesa (deskside) que eliminam a dependência exclusiva da nuvem para o desenvolvimento de modelos complexos. Eles são equipados com a arquitetura NVIDIA Grace Blackwell, que oferece performance de nível petaflop e uma memória unificada massiva.NVIDIA DGX Spark: focado em desenvolvedores e cientistas de dados, permite rodar modelos de até 100 bilhões de parâmetros.NVIDIA DGX Station: uma solução mais robusta para empresas e laboratórios de ponta, capaz de processar modelos monumentais de até 1 trilhão de parâmetros.Performance local: por que isso importa?Até pouco tempo, modelos de grande escala exigiam infraestruturas imensas de data centers. Com o DGX Spark e Station, a NVIDIA traz essa capacidade para o ambiente local, permitindo iterações mais rápidas e maior controle sobre a propriedade intelectual.Inovação em compressão: NVFP4A arquitetura Blackwell introduz o formato de dados NVFP4. De forma simples, essa tecnologia permite comprimir modelos de IA em até 70%, aumentando o desempenho sem que a inteligência do modelo seja prejudicada.Para criadores de conteúdo, isso se traduz em velocidade: o DGX Spark pode ser até 8 vezes mais rápido em cargas de trabalho de geração de vídeo do que um MacBook Pro topo de linha com chip M4 Max.Demanda por computação de IA só cresce. Imagem: Wikerson Landim/Adrenaline.Apoio ao ecossistema open-sourceA NVIDIA está colaborando intensamente com a comunidade de código aberto. Graças a otimizações com bibliotecas como a llama.cpp, houve um ganho médio de 35% de performance ao rodar modelos de última geração.O DGX Station, equipado com o superchip GB300 Grace Blackwell Ultra e 775GB de memória coerente, suporta os modelos mais pesados do mercado, como:DeepSeek-V3.2Mistral Large 3Meta Llama 4 MaverickOpenAI gpt-oss-120bAplicações no mundo real: da robótica à mobilidadeA potência dessas máquinas não fica restrita apenas ao código. Elas estão sendo usadas como o “cérebro” para diversas inovações:Agentes de IA corporificados: em parceria com a Hugging Face, o DGX Spark alimenta o robô Reachy Mini, permitindo que ele veja, ouça e responda com movimentos expressivos de forma totalmente local.Mobilidade urbana: o veículo TRINITY utiliza o DGX Spark para processar modelos de visão e linguagem em tempo real, funcionando como um “cérebro sobre rodas”.Segurança empresarial: gigantes como IBM e JetBrains destacam que o processamento local garante que o código-fonte e os dados sensíveis permaneçam seguros e sob controle total da organização.Quando o DGX estará disponível?Se você está pronto para elevar seu desenvolvimento de IA, as opções de compra já começaram a aparecer:DGX Spark: já disponível através de parceiros como Acer, ASUS, Dell, HP, Lenovo e outros.DGX Station: a disponibilidade está prevista para o segundo trimestre de 2026, por meio de parceiros selecionados como Supermicro e Gigabyte.Conteúdo Relacionado Ainda sem dataNVIDIA enfim prepara suporte nativo para o GeForce Now em Linux