인공지능(Infrastructure for AI)에 대한 필요성과 경제적인 측면은 점점 더 중요해지고 있다. 이를 해결하기 위해 엔비디아(Nvidia)는 베라 루빈(Vera Rubin)을 통해 AI 공장의 가치를 새롭게 정의하려 한다.
데이터 센터 운영자들은 AI 인프라를 보다 효율적으로 만들고, 수익성 있는 엔진으로 전환하기 위해 압박을 받고 있다. 이에 대한 해법으로 엔비디아는 애자일 AI 시대를 위한 아키텍처를 제시하며 도전을 받고 있다. 멀티 랙의 베라 루빈 플랫폼은 토큰 비용을 크게 낮추고 새로운 비즈니스 모델을 열어줄 것으로 예상된다.
엔비디아의 DGX 부문 부사장 찰리 보일(Charlie Boyle)에 따르면, 베라 루빈은 기존의 그레이스 블랙웰(Grace Blackwell)보다 35배 빠르며, 이로 인해 고객들에게 새로운 가능성을 제공할 수 있다고 밝혔다. 그는 "생각할 수 있다면 만들 수 있다"며 이 기술의 잠재력을 강조했다.
그는 또한 엔비디아의 GTC AI 컨퍼런스에서 베라 루빈 플랫폼이 어떻게 토큰 경제학과 전력 효율성에 있어 미래 인프라의 비용 구조를 재조명할 수 있는지를 논의했다.
엔비디아의 전략의 핵심은 DSX AI Factory 참조 디자인이다. 이는 불필요한 에너지 낭비를 없애기 위해 동적 전력 조달을 도입했다. 엔비디아의 맥스-Q(Max-Q) 디자인 철학은 전체 AI 공장에 걸쳐 이 동적 전력 조달을 가능케 하여, 기존 전력 소비량의 30%를 추가 AI 인프라로 배치하게 만든다.
보일은 베라 루빈이 단순히 빠른 칩 이상의 의미를 가지며, 전체 시스템이 조정된 상태에서 설계되고 있음을 강조했다. 엔비디아는 컴퓨팅, 네트워크, 스토리지 및 전원 관리를 모두 같이 설계하여 기존 소프트웨어의 호환성을 유지하면서 전체 스택의 활용도를 높이고 있다. 이런 시스템 수준의 접근이 엔비디아가 급속한 연간 주기를 유지할 수 있게 하는 기반이라고 했다.
베라 루빈 플랫폼은 또한 에이전틱 워크플로우를 위한 저장소로의 전환을 반영한다. 새로운 블루필드-4 STX 참조 아키텍처는 데이터 처리를 데이터가 실제로 위치한 곳에 더 가까이 가져오며, 안전 및 접근 제어가 직접 파이프라인에 통합되도록 한다.
보일에 따르면, 과거에는 파트너들이 시장에 내놓기까지 1년 이상 걸렸지만, 지금은 모든 파트너가 신속하게 시장에 도달하고 있다고 말했다. 이러한 협력은 엔비디아의 강력한 친밀도를 반영하며 매달 수 기가와트의 인프라가 거래소에서 출하되고 있다고 덧붙였다.
