CES 2026에서 엔비디아(NVDA)는 단순한 하드웨어 공개를 넘어 인공지능(AI) 시스템의 구조, 확장 방식, 데이터 처리 패러다임 변화까지 아우르는 근본적인 전환을 예고했다. 그 중심에는 차세대 AI 플랫폼 '베라 루빈(Vera Rubin)'이 있으며, 핵심 기술 중 하나로 주목받은 것이 바로 '콘텍스트 저장(context storage)' 시스템이다.
베라 루빈은 단일 GPU가 아닌 여섯 개 칩이 통합적으로 작동하는 새롭게 재설계된 시스템이다. 존 마오(John Mao) 바스트데이터(Vast Data)의 글로벌 기술 제휴 부사장은 “단순히 새로운 GPU가 아니라 완전히 새로운 스택을 구성하는 복합 시스템”이라며, “이는 KV 캐시(Key-Value Cache)의 저장 방식과 모델 확장, 길어진 추론 과정에서 발생하는 요구를 해결하기 위한 혁신”이라고 밝혔다.
기존까지는 KV 캐시가 GPU와 고대역폭 메모리 근처에 국한되어 있었고, NVMe SSD를 활용한 저장도 물리적 한계가 뒤따랐다. 장시간 대화형 추론, 복잡한 멀티턴(Multi-turn) 작업에서 발생하는 방대한 콘텍스트 데이터를 처리하기엔 부족했다. 이에 엔비디아와 바스트데이터는 이러한 제약을 넘어서는 전방위적 재구축에 착수한 것이다.
마오 부사장은 “과거에는 캐시가 GPU 내부에 국한됐지만, 이제는 초고속 네트워크를 활용해 외부에서 무한 확장 가능한 NVMe 스토리지 풀을 공동으로 활용할 수 있다”며, “이는 새로운 AI 시스템에서 콘텍스트를 유연하게 저장하고 확장하는 데 있어 필수적인 패러다임 전환”이라고 강조했다.
이를 뒷받침하는 인프라도 함께 등장했다. 엔비디아는 CES 2026에서 스펙트럼-X(Spectrum-X)와 블루필드-4(BlueField-4) 데이터 처리 유닛(DPU)을 공개하며 AI 시스템 간 스토리지 연결성과 확장성을 획기적으로 개선할 수 있는 기술을 선보였다. 이로 인해 각각의 서버에만 의존했던 기존 구조를 탈피하고, AI 맥락 정보를 네트워크 너머로 효율적으로 분산, 공유할 수 있는 기반이 마련됐다.
이번 발표는 단순히 새로운 제품군이나 부품을 소개하는 수준을 넘어, 대규모 AI 모델이 요구하는 '장기 추론'과 '지속적 학습'의 현실화를 위한 기술적 진화를 보여줬다는 점에서 의미가 크다. 특히 생성형 AI와 에이전트 기반 AI의 발전이 가속화되는 가운데, KV 캐시를 포함한 콘텍스트 저장이 차지하는 중요성은 더욱 부각되고 있다.
엔비디아는 이처럼 AI 시스템의 기본 구성 단위를 재정의하며, 하드웨어와 스토리지, 네트워크, 소프트웨어 스택 전반에서 새로운 표준을 수립하고 있다. 업계 관계자들은 이를 두고 AI 인프라 전반에 걸친 대전환의 시작으로 평가하고 있다. AI의 미래는 곧 맥락의 저장과 추론 속도에서 결정된다는 공감대가 CES 현장을 지배한 셈이다.





