Durante o GTC 2026, a Nvidia revelou o BlueField-4 STX, uma arquitetura de referência modular que promete revolucionar a forma como os agentes de IA lidam com o armazenamento de contexto. Esta inovação insere uma camada de memória dedicada entre GPUs e armazenamento tradicional, oferecendo uma melhoria de desempenho significativa: até 5 vezes mais throughput de tokens, 4 vezes mais eficiência energética e 2 vezes mais velocidade de ingestão de dados em comparação com sistemas baseados em CPU convencionais.
O STX foi desenvolvido para resolver o gargalo no armazenamento de cache de dados chave-valor (KV cache). Este cache é crucial para que modelos de linguagem mantenham uma memória de trabalho coerente, evitando a recomputação desnecessária durante cada etapa de inferência. Com o crescimento das janelas de contexto e o aumento das etapas de processamento, o tamanho desse cache também cresce, tornando-se um desafio para soluções de armazenamento tradicionais que não conseguem acompanhar o ritmo das GPUs.
O STX não é um produto vendido diretamente pela Nvidia, mas sim uma arquitetura de referência que está sendo distribuída para o ecossistema de parceiros de armazenamento da empresa. A arquitetura coloca uma camada de memória de contexto entre a GPU e o disco, utilizando o novo processador BlueField-4 otimizado para armazenamento e a plataforma de software DOCA da Nvidia.
A primeira implementação em escala de rack é a plataforma de armazenamento de memória de contexto Nvidia CMX. Esta solução estende a memória da GPU com uma camada de alto desempenho, especificamente projetada para armazenar e recuperar dados de cache KV gerados por modelos de linguagem durante a inferência. A CMX elimina a necessidade de uma viagem de ida e volta através de armazenamento de propósito geral, garantindo maior agilidade para agentes de IA.
A Nvidia está expandindo suas parcerias, incluindo um componente novo na plataforma DOCA, chamado DOCA Memo. Este componente oferece aos provedores de armazenamento a capacidade de otimizar o armazenamento para fábricas de IA agenticas. A lista de parceiros da Nvidia inclui tanto grandes fornecedores de armazenamento quanto provedores de nuvem nativos de IA, como Cloudian, DDN, Dell Technologies, IBM e outros.
O lançamento do STX destaca a crescente importância da camada de armazenamento na infraestrutura de IA empresarial. Sistemas de armazenamento NAS e de objetos tradicionais não foram projetados para atender aos requisitos de latência de inferência do cache KV. As plataformas baseadas em STX, disponíveis a partir da segunda metade de 2026, são a resposta da Nvidia para otimizar o desempenho das cargas de trabalho agenticas de IA em larga escala.
Empresas que planejam atualizações de infraestrutura para IA devem considerar opções baseadas em STX, que estarão disponíveis através das relações de fornecedores existentes. Com a promessa de melhorias significativas em throughput, eficiência energética e velocidade de ingestão de dados, o STX representa um avanço crucial para o futuro da IA empresarial.
Darth Maul desafia imperiais e Jedi em animação eletrizante com arte inovadora.
Marina Sirtis questiona o futuro de Star Trek: Legacy enquanto fãs aguardam ansiosos.
Driscoll enfrenta seu passado sombrio enquanto Xavier trama resgatar Teri. Descubra os conflitos em Paradise.
Thriller de Drew Kirsch falha em se destacar, mesmo com Joe Cole e Rita Ora…
KPop Demon Hunters ganha Oscars de Melhor Animação e Canção, marcando a representatividade asiática.
KPop Demon Hunters ganha dois Oscars em 2026, mas discursos interrompidos geram polêmica.