엔비디아(NVDA)가 차세대 인공지능(AI) 칩셋 '루빈(Rubin)'을 CES 2026에서 공식 공개하며 업계의 기대를 한몸에 받고 있다. 루빈은 전작 블랙웰(Blackwell) 대비 추론 성능을 5배 향상시켰으며, 총 3360억개의 트랜지스터와 50페타플롭스 규모의 성능을 갖춰 AI 슈퍼컴퓨팅의 새로운 기준을 제시했다.
루빈 아키텍처는 전력 효율성과 연산처리를 극대화하기 위해 새로운 트랜스포머 엔진과 하드웨어 기반 적응 압축 기능이 적용됐다. 이 기능을 통해 AI 모델 실행 시 데이터량을 줄여 처리 속도를 높이는 것이 특징이다. 트레이닝 성능 또한 35페타플롭스에 달해 블랙웰 대비 2.5배 이상 향상됐다. 젠슨 황(Jensen Huang) 엔비디아 CEO는 "루빈은 AI 수요가 폭증하는 시기에 최적화된 제품으로, 6종의 신규 칩이 긴밀히 연결된 설계 덕분에 AI 컴퓨팅의 새 프론티어를 향한 도약이 될 것"이라고 강조했다.
엔비디아는 이번 CES에서 루빈과 함께 고성능 AI 서버 통합 솔루션 '베라 루빈 NVL72'도 함께 선보였다. 이는 루빈 GPU 72개와 88코어 기반의 신형 CPU '베라(Vera)' 36개로 구성되며, 총 220조개의 트랜지스터를 탑재했다. 해당 시스템의 대역폭은 초당 260테라비트로 전체 인터넷을 상회하는 수준이며, 실시간 하드웨어 상태 점검과 장애 허용 기능을 통해 운영 안정성도 한층 강화됐다.
데이터 전송을 담당하는 NVLink 6 스위치, 이더넷 연결을 위한 스펙트럼-6, 그리고 서버 CPU 부하를 줄여주는 수퍼NIC '커넥트X-9' 등 3종의 고성능 네트워크 칩이 함께 탑재돼 GPU 간 데이터 공유와 AI 연산 효율도 개선됐다. 특히 커넥트X-9는 기존 서버 CPU 대신 네트워크 연산을 전담함으로써 AI 워크로드에 더 많은 자원을 할당할 수 있도록 설계됐다.
스토리지 부문에서는 새로운 데이터처리 유닛(DPU) '블루필드-4(BlueField-4)' 기반의 '인퍼런스 컨텍스트 메모리 스토리지 플랫폼'이 추가돼 대형 언어 모델(LLM)의 반복 작업을 최소화하고 연산 효율을 높이는 데 기여했다. 이는 키-값 캐시 방식으로 동일 연산 결과를 재사용함으로써 AI 하드웨어 효율을 극대화한다.
루빈 기반 시스템은 하반기부터 순차적으로 출하될 예정이며, 72개의 칩을 탑재한 NVL72 외에도 루빈 칩 8개로 구성된 소형 서버 'DGX 루빈 NVL8'도 함께 출시된다. 이 두 가지 시스템은 엔비디아의 차세대 AI 클러스터 설계인 'DGX 슈퍼포드'의 표준 모델로 사용될 계획이다. AI 인프라 통합 운영을 위한 미션 컨트롤 플랫폼도 함께 제공될 예정이다.
AI 컴퓨팅 성능 향상과 인프라 통합이라는 두 과제를 동시에 해결하려는 엔비디아의 전략이 명확한 가운데, 루빈 시리즈는 2026년 AI 하드웨어 시장의 핵심 키워드로 자리매김할 것으로 보인다.




