NVIDIA lança a arquitetura de armazenamento BlueField-4 STX
17 Mar, 2026
A IA agentiva exige uma nova camada de armazenamento e a NVIDIA acaba de apresentar sua resposta para esse gargalo. Anunciado durante a GTC 2026, em San Jose, o NVIDIA BlueField-4 STX é uma arquitetura de referência modular desenvolvida para permitir que empresas, provedores de nuvem e laboratórios de IA implantem infraestrutura de armazenamento acelerada, capaz de sustentar o raciocínio de contexto prolongado exigido por agentes de IA modernos. A novidade chega diante do crescimento dos modelos de linguagem e dos sistemas autônomos, em que é possível observar os limites atuais dos Data Centers tradicionais, que são projetados para armazenamento de uso geral, mas despreparados para a latência e o volume de contexto que a IA agentiva demanda. O problema que o STX resolve Sistemas de IA agentiva operam em múltiplas etapas, ferramentas e sessões. Para manter coerência e velocidade ao longo dessas interações, eles precisam de acesso em tempo real a dados e a uma memória de trabalho contextual robusta. À medida que a janela de contexto cresce, os caminhos de dados tradicionais tornam-se gargalos: a inferência desacelera e a utilização das GPUs cai O ponto crítico está no chamado KV cache (key-value cache), a estrutura de dados usada pelos grandes modelos de linguagem para armazenar vetores gerados durante o processamento de cada prompt. Nos sistemas convencionais, recuperar esse cache exige que os dados passem pela CPU e pelo sistema operacional do servidor, um trajeto que consome tempo e recursos. O STX foi projetado para eliminar essa ineficiência. Como a arquitetura funciona O BlueField-4 STX combina em uma única arquitetura modular os seguintes componentes: o novo processador NVIDIA BlueField-4 otimizado para armazenamento, que une a CPU NVIDIA Vera ao SuperNIC ConnectX-9; as switches Ethernet NVIDIA Spectrum-X; o software NVIDIA DOCA; e o NVIDIA AI Enterprise. O Spectrum-X e o ConnectX-9 suportam uma tecnologia chamada RDMA (Remote Direct Memory Access), que permite ao servidor buscar dados no armazenamento sem passar pela CPU ou pelo sistema operacional, acelerando significativamente o fluxo de tráfego entre GPUs e o armazenamento em flash. A arquitetura inteira é acelerada pela plataforma NVIDIA Vera Rubin, e representa a extensão da estratégia da empresa para além do processamento e da rede, chegando agora à camada de armazenamento. A plataforma CMX: memória de contexto em escala de rack A primeira implementação em escala de rack do STX é a plataforma NVIDIA CMX (Context Memory Storage). Desenvolvida para ampliar a memória das GPUs com uma camada de contexto de alto desempenho, o CMX armazena o KV cache dos modelos em flash de alta velocidade, mantendo-o acessível sem a necessidade de rodadas de ida e volta ao armazenamento convencional. Na prática, o CMX atua como uma ponte entre a memória das GPUs e o armazenamento tradicional, especificamente otimizada para os padrões de acesso de sistemas de inferência e agentes escaláveis. Os números apresentados pela NVIDIA apontam para até 5 vezes mais taxa de transferência de tokens em comparação com arquiteturas de armazenamento convencionais, eficiência energética 4 vezes superior frente às arquiteturas tradicionais baseadas em CPU para armazenamento de alto desempenho, e capacidade de processar o dobro de páginas por segundo para dados de IA corporativos. Os sistemas de IA que processam grandes volumes de contexto e aprendem continuamente exigem uma nova classe de armazenamento. O NVIDIA STX reinventa a pilha de armazenamento, oferecendo uma base modular para uma infraestrutura nativa de IA que mantém as fábricas de IA operando com desempenho máximo Jensen Huang, fundador e CEO da NVIDIA Ecossistema amplo de parceiros O STX não é um produto que a NVIDIA comercializa diretamente: é uma arquitetura de referência distribuída ao ecossistema de parceiros, que a utilizam para desenvolver seus próprios sistemas de armazenamento voltados à IA. Entre os provedores de armazenamento co-desenvolvendo infraestrutura baseada no STX estão Cloudian, DDN, Dell Technologies, Everpure (anteriormente Pure Storage), Hitachi Vantara, HPE, IBM, MinIO, NetApp, Nutanix, VAST Data e WEKA. Os parceiros de fabricação responsáveis por construir os sistemas físicos incluem AIC, Supermicro e Quanta Cloud Technology (QCT). No lado dos early adopters (provedores de nuvem e laboratórios de IA que planejam adotar o STX especificamente para armazenamento de memória de contexto), estão CoreWeave, Crusoe, IREN, Lambda, Mistral AI, Nebius, Oracle Cloud Infrastructure (OCI) e Vultr. Vale destacar a posição da IBM no anúncio: a empresa aparece tanto como parceira de armazenamento quanto como usuária da arquitetura. A NVIDIA confirmou separadamente que selecionou o IBM Storage Scale System 6000 como base de armazenamento de alto desempenho para sua própria infraestrutura de análise nativa em GPU. Disponibilidade e o que esperar As plataformas baseadas em STX estarão disponíveis por meio dos parceiros no segundo semestre de 2026. A NVIDIA não especificou preços nem configurações exatas e os detalhes finais de cada solução dependerão de cada fabricante e fornecedor de armazenamento envolvido. Vale uma ressalva técnica importante: os ganhos de desempenho divulgados pela empresa — 5x em tokens, 4x em eficiência energética e 2x na ingestão de dados — são medidos em relação a arquiteturas tradicionais baseadas em CPU para armazenamento de alto desempenho. Portanto, a empresa não especificou publicamente a configuração exata usada como linha de base nessas comparações, o que torna prudente aguardar validações independentes antes de tomar decisões de infraestrutura com base nesses números. Leia também: - NVIDIA anuncia DLSS 5 com luzes e materiais mais realistas - MSI diz que NVIDIA está fornecendo cerca de 20% menos de GPUs do que o mercado precisa - Futuras GPUs da NVIDIA podem revolucionar o Path Tracing com avanço de até 1 milhão de vezes STX muda o papel do armazenamento nas fábricas de IA Por décadas, o armazenamento foi tratado como um componente secundário na cadeia de infraestrutura, algo que o setor dimensionava depois de definir o processamento. O BlueField-4 STX vem como uma mudança de postura: à medida que modelos de IA passam a operar com janelas de contexto cada vez maiores e fluxos de raciocínio contínuos, o armazenamento precisa ser co-projetado junto com a computação, não adicionado depois. Com mais de 20 parceiros relevantes já alinhados ao lançamento, a NVIDIA está, na prática, tentando definir o padrão do que será a camada de armazenamento nas próximas gerações de fábricas de IA antes mesmo de os sistemas chegarem ao mercado. Fonte(s): NVIDIA - Categorias Participe do grupo de ofertas do Adrenaline Confira as principais ofertas de hardware, componentes e outros eletrônicos que encontramos pela internet. Placa de vídeo, placa-mãe, memória RAM e tudo que você precisa para montar o seu PC. Ao participar do nosso grupo, você recebe promoções diariamente e tem acesso antecipado a cupons de desconto. Entre no grupo e aproveite as promoções