Durante o NVIDIA GTC 2026, a Intel anunciou que o Intel Xeon 6 está sendo utilizado como processador nos sistemas NVIDIA DGX Rubin NVL8. Isso destaca o papel do Xeon em fornecer continuidade arquitetural e escalabilidade para sistemas de IA acelerados por GPU, à medida que as cargas de trabalho migram para inferência massiva em tempo real.
“A IA está migrando do treinamento em larga escala para a inferência em tempo real, em todos os lugares — impulsionada por agentes de IA e sistemas de raciocínio. Nesta nova era, a CPU host é crítica para a operação. Ela governa a orquestração, o acesso à memória, a segurança dos modelos e o desempenho (throughput) em sistemas acelerados por GPU. O Intel Xeon 6 oferece desempenho líder, eficiência e compatibilidade com o amplo ecossistema de software x86 no qual os clientes confiam para escalar cargas de inferência.”
Disse Jeff McVeigh, vice-presidente corporativo e gerente geral de Data Center Strategic Programs da Intel.
Por que isso importa: À medida que as organizações continuam a implementar sistemas de IA, a inferência passa a ser definida não apenas pelo desempenho das GPUs, mas também pelo desempenho do sistema liderado pela CPU. A CPU host molda a eficiência geral do cluster e o custo total de propriedade (TCO). Ela também é responsável por funções críticas, como gerenciamento de memória, orquestração de tarefas e distribuição de cargas de trabalho, garantindo a segurança, confiabilidade e continuidade operacional essenciais para a infraestrutura moderna de IA.
Com base nesses requisitos em nível de sistema, os processadores Intel Xeon são utilizados como CPU host nos sistemas DGX Rubin NVL8 devido à sua capacidade de suportar altas velocidades de memória, desempenho equilibrado em diferentes cargas de trabalho, menor custo total de propriedade (TCO) e um ecossistema de software maduro e comprovado no ambiente corporativo. Além disso, as robustas capacidades de PCIe e I/O da Intel fortalecem ainda mais o papel do Xeon como uma plataforma de alta largura de banda e baixa latência em diversos cenários.
- Desempenho eficiente por watt
- Suporte otimizado em toda a pilha de software de IA, incluindo novo suporte ao NVIDIA Dynamo, que permite inferência heterogênea entre CPU e futuras GPUs
- Confiabilidade comprovada em ambientes críticos
- Orquestração superior de sistemas heterogêneos acelerados por GPU
Essa escolha reforça o Intel Xeon como um pilar da infraestrutura moderna de IA, permitindo implantações escaláveis em data centers, nuvem e edge. À medida que a inferência de IA cresce, a computação confidencial de ponta a ponta torna-se essencial — ao longo de todo o caminho de dados entre CPU e GPU. As Intel Trust Domain Extensions (TDX) adicionam isolamento e atestação baseados em hardware, reforçando ainda mais o Xeon como base segura para clusters modernos de IA.
Sobre a nova colaboração entre Intel e NVIDIA: Os Sistemas NVIDIA DGX Rubin NVL8 integram processadores Intel Xeon 6, com base na arquitetura já estabelecida com o Intel Xeon 6776P nas plataformas atuais baseadas na arquitetura NVIDIA Blackwell, incluindo os sistemas DGX B300. Ao evoluir essa base comprovada, a Intel mantém o desempenho, a experiência e a expertise em nível de sistema nos novos DGX Rubin NVL8.
A Intel projetou o Xeon para ajudar esses sistemas a extrair o máximo de suas GPUs, utilizando recursos como o Priority Core Turbo para manter o fluxo contínuo de dados. Com forte desempenho em single-thread para orquestração, escalonamento e movimentação de dados, o Xeon garante operação fluida e eficiente, mesmo com o aumento da complexidade das cargas de inferência.
Principais recursos do Intel Xeon 6
- Até 8 TB de memória de sistema para suportar modelos de grande porte e caches KV crescentes
- Até 3x mais largura de banda de memória geração a geração com a tecnologia MRDIMM
- Pistas PCIe 5.0 líderes do setor para suportar aceleradores de IA e outros dispositivos
- Computação confidencial em todo o caminho de dados CPU–GPU com Encrypted Bounce Buffer
- Isolamento baseado em hardware para proteger dados e modelos de IA em uso

COMENTÁRIOS