오픈AI가 브로드컴(AVGO)과 대규모 인공지능 인프라 구축을 위한 전략적 협력에 나섰다. 이번 협약에 따라 양사는 향후 4년간 약 10기가와트 규모의 AI 전용 데이터센터 하드웨어를 공동 개발하고 배치할 계획이다. 발표 직후 브로드컴의 주가는 9% 이상 급등하며 시장의 뜨거운 관심을 입증했다.
오픈AI는 본 프로젝트에서 사용하는 AI 프로세서를 직접 설계했으며, 이 과정에는 자사 신경망 모델을 활용한 최적화 기술이 적용됐다. 오픈AI의 사장 그렉 브록만은 팟캐스트를 통해 “인간이 이미 손을 본 설계를 기반으로 AI에 연산을 부여하면, 모델은 공간을 줄이고 효율을 높이는 자체 해답을 제시한다”고 설명했다. 기존 범용 GPU와 달리 맞춤형 칩은 필요 없는 모듈을 제거함으로써 전력을 줄이고 공간 활용도를 극대화할 수 있다는 것이다.
이 칩은 오픈AI의 자체 설계 서버랙에 장착돼 운용될 예정이며, 브로드컴의 PCIe 및 이더넷 네트워킹 장비가 함께 탑재된다. 특히 이더넷 스위치는 최근 공개된 AI 최적화 제품 'TH6-다비슨(TH6-Davisson)'이 유력한데, 브로드컴에 따르면 경쟁 제품 대비 두 배 이상인 초당 102.4테라비트의 전송 속도를 구현할 수 있다. 레이저 송신기가 수리가 용이하도록 교체형 구조로 설계된 점도 강점으로 꼽힌다.
통상적으로 사용되는 외장형 광모듈 대신 TH6-다비슨은 내장형 트랜시버를 통합, 부품 수와 비용을 줄이면서도 성능 확보가 가능하다. 다만 오픈AI는 어떤 브로드컴 PCIe 제품이 최종 선정됐는지에 대해선 구체적인 언급을 하지 않았다.
오픈AI의 최고경영자 샘 알트먼(Sam Altman)은 브로드컴과의 공동 작업이 벌써 18개월 이상 이어져 왔다고 밝히며, “칩부터 랙, 네트워크까지 전체 스택을 최적화함으로써 훨씬 빠르고 저렴한 AI 모델 구축이 가능해졌다”고 강조했다. 양사는 협력의 결실로 오는 2026년 하반기 첫 서버랙 배치를 앞두고 있으며, 전체 시스템은 2029년까지 단계적으로 가동될 예정이다.
이번 프로젝트의 총액은 공개되지 않았지만, 앞서 엔비디아(NVDA)의 젠슨 황 CEO는 올해 8월 “1기가와트 규모 AI 데이터센터 구축에 약 5,000억 원~6,000억 원($50억~$60억)이 소요된다”고 밝힌 바 있다. 이 수치를 단순 적용할 경우, 전체 구축 비용은 최대 약 86조 원까지 이를 수 있으며, 이는 브로드컴이 이번 계약을 통해 수조 원대 매출을 기대할 수 있게 된다는 뜻이기도 하다.
AI 인프라 경쟁이 고조되는 가운데, 오픈AI와 브로드컴의 장기적 협업은 자사 기술을 독자 설계하고, 비용과 성능을 동시에 개선하려는 흐름을 상징한다. 데이터센터 전력 소비가 날로 증가하는 상황에서 10기가와트 규모는 수백만 가구 전기를 충당할 수 있는 수준으로, AI 산업 전반에 미치는 파장도 적지 않을 전망이다.