엔비디아, 오픈AI에 144조 '초대형 베팅'…AI 중심 데이터센터 시대 연다

| 김민준 기자

엔비디아(NVDA)가 최대 1,000억 달러(약 144조 원)를 오픈AI에 투자해 차세대 데이터센터 인프라 구축에 나선다. 인공지능(AI) 분야의 양대 축으로 꼽히는 두 기업의 초대형 협업은 기술적 경쟁에서 협력으로의 중대한 전환점을 의미하며, 시장 판도에 중대한 영향을 줄 전망이다.

오픈AI는 이번 투자금을 활용해 최소 10기가와트 규모의 컴퓨팅 인프라를 추가 확보할 계획이다. 이 정도 규모는 수십만 가구의 전력을 감당할 수 있는 수준으로, AI 연산 수요 증가에 대응하는 대형 데이터센터 건설의 밑그림이다. 양사는 관련 시스템 배치를 ‘기가와트 단위로 순차적으로’ 진행하며, 초기 단계는 2026년 하반기까지 완료를 목표로 한다.

이번 인프라 확장은 엔비디아가 곧 공개할 통합형 칩 ‘베라 루빈(Vera Rubin)’을 기반으로 진행된다. 이 칩은 GPU와 CPU를 일체형으로 설계한 제품으로, 각각의 처리 장치는 초당 최대 1.8테라비트 속도로 상호 연결된다. GPU 측면에서는 ‘루빈 아키텍처’를 채택해 추론 연산 특성에 맞춰 두 가지 버전으로 분화, 고효율 처리를 가능케 한다.

엔비디아가 최근 선공개한 ‘루빈 CPX’ GPU는 특히 사용자 명령 이후 발생하는 초기 연산을 최적화한 제품이다. 128GB의 GDDR7 메모리와 어텐션 메커니즘 및 영상처리에 특화된 회로 구성을 갖췄으며, 고성능 언어모델 운용에 적합한 사양으로 평가받고 있다. 오픈AI가 실제 데이터센터에서 이를 어느 수준까지 도입할지는 아직 공개되지 않았으나, 엔비디아가 선보인 ‘Vera Rubin NVL144 CPX’ 시스템이 유력한 후보로 꼽힌다. 이 시스템은 288개의 GPU와 36개의 CPU를 구성하고 있으며, 8엑사플롭스(ExaFLOPS)의 연산 능력을 제공한다.

이번 협력의 핵심은 단지 하드웨어 공급을 넘어서 공동 R&D 로드맵 수립에 있다. 엔비디아와 오픈AI는 AI 모델 구조 설계와 컴퓨팅 인프라 최적화를 공동 추진하겠다고 밝혔으며, 이는 마치 지난해 아마존웹서비스(AWS)가 40억 달러(약 5조 7,600억 원)를 투자한 앤트로픽과 유사한 전략으로 풀이된다.

엔비디아의 젠슨 황(Jensen Huang) CEO는 “초기 DGX 슈퍼컴퓨터에서 챗GPT에 이르기까지 지난 10년간 오픈AI와는 밀접하게 함께 성장해왔다”며 “이번 투자는 새로운 시대의 지능형 컴퓨팅을 현실화할 분수령”이라고 강조했다. 양사는 이미 투자 및 협력방향을 담은 ‘의향서(LOI)’를 교환했으며, 조만간 최종 계약서 체결에 나설 예정이다.

이번 발표 이후 엔비디아 주가는 약 4% 상승해 투자자 기대감을 반영했다. AI 컴퓨팅 경쟁이 급속히 심화되는 가운데, 엔비디아와 오픈AI의 연합은 그 중심축에 서게 될 가능성이 커지고 있다.