레드햇이 엔비디아의 최신 AI GPU 플랫폼인 '베라 루빈' 출시와 동시에 이를 지원하겠다고 공식 발표했다. AI 모델의 규모가 기하급수적으로 확대되고 있는 상황에서, 기업의 IT 인프라가 이를 따라가지 못하는 현상이 심화되자 레드햇은 대응 전략을 전면 재정비한 셈이다. 특히 이번 협업은 하드웨어 출시 첫날부터 소프트웨어 통합을 목표로 할 만큼 양사의 긴밀한 공조가 눈에 띈다.
레드햇은 엔비디아의 차세대 AI 인프라인 베라 루빈 플랫폼에 대해 자사 핵심 제품인 레드햇 엔터프라이즈 리눅스(RHEL)를 통해 즉시 지원할 계획이다. 이 칩은 3,360억 개의 트랜지스터와 50페타플롭스의 연산 성능을 갖춘 고성능 GPU로, 블랙웰 GPU 대비 학습 속도가 250%까지 향상된 것이 특징이다. 또한 베라 루빈은 엔비디아의 그레이스 CPU 아키텍처 기반으로 설계되어, 수조 개의 매개변수를 처리하는 차세대 모델에도 대응할 수 있도록 제작됐다.
레드햇 최고기술책임자 크리스 라이트에 따르면, 엔비디아의 하드웨어 출시 주기가 연간 단위로 빨라지면서 기존 몇 년 주기의 업그레이드 사이클이 무너진 것이 협업을 앞당긴 배경이라고 설명했다. 그는 "이번 협력은 양사가 과거부터 이어온 엔지니어링 협력을 한층 강화한 것"이라며 "엔비디아의 하드웨어에 레드햇의 소프트웨어 스택을 완벽히 결합하는 데 주력하고 있다"고 밝혔다.
레드햇은 하드웨어 통합은 물론, 쿠버네티스 기반 클러스터 운영 플랫폼인 오픈시프트(OpenShift), 추론과 모델 배포, AI 에이전트 실행을 위한 소프트웨어 레이어까지 포괄적으로 지원할 방침이다. 아울러 엔비디아의 오픈RM 드라이버, CUDA 툴킷도 RHEL 저장소를 통해 바로 이용할 수 있도록 제공하며, AI 전 주기에 걸친 암호화 보호를 보장하는 엔비디아의 ‘컴피덴셜 컴퓨팅’ 프레임워크도 적용될 예정이다.
엔비디아는 향후 AI 모델의 파라미터 수가 현재의 1조 개에서 오는 연말까지 10조 개 수준으로 확대될 것으로 전망하고 있다. 이에 따라 모델의 추론뿐 아니라 복잡한 작업을 해결하는 데 필요한 '추론 모델' 수요도 급증하고 있다. 엔비디아 기업용 AI 제품 부문 부사장 저스틴 보이타노는 "이러한 AI 에이전트를 활용하는 추론 모델들이 연간 5배에 달하는 토큰 사용량 증가를 유발하고 있다"고 분석했다. 그는 이어 "이로 인해 컴퓨팅 수요는 사실상 감당 불가능한 수준에 도달했다"고 진단했다.
베라 루빈 플랫폼은 보안 측면에서도 혁신적인 변화를 담고 있다. 특히 ‘랙스케일 컴피덴셜 컴퓨팅’ 기능을 통해 CPU는 물론 GPU와 네트워크 인터커넥트 전반에 하드웨어 수준의 암호화 보호를 확대한다. 이는 신뢰 실행 환경(TEE)을 GPU에까지 확장하면서 하나의 통합된 보안 도메인을 구성하는 형태다. 보이타노는 "오늘날 모델 개발자들은 자신이 운영하지 않는 데이터센터에 모델을 넘기는 것을 꺼린다"며 "이번 보안 기능은 그런 우려를 해소하고 국가기관 및 대형 금융사가 내부 데이터센터에서 첨단 AI를 안전하게 활용할 수 있도록 할 것"이라고 말했다.
베라 루빈의 도입은 이른바 '네오클라우드' 사업자, 초대형 금융기관, 그리고 AI 기반 사설 인프라를 구축하는 공공기관을 중심으로 빠르게 확산될 전망이다. 레드햇은 이번 협업이 단순한 선제 대응을 넘어, 대규모 AI 혁신을 겨냥한 전략적 전환점이 될 것으로 기대하고 있다.
<저작권자 ⓒ TokenPost, 무단전재 및 재배포 금지>