엔비디아(NVDA)와 오픈AI(OpenAI)가 인공지능(AI) 시장의 핵심 주도권을 여전히 쥐고 있다는 평가가 제기됐다. 현재 구글(GOOGL)의 젬미니(Gemini) 모델과 자체 텐서처리장치(TPU)에 강한 기대감이 쏠리고 있지만, AI 산업 내 비용 및 수익 구조, 아키텍처 제약, 공급망 병목 등 현실적 한계가 그 돌파력을 제한할 것으로 보인다.
실리콘앵글이 제시한 분석에 따르면, 엔비디아의 GB300 칩과 후속작인 루빈(Rubin)은 AI 경제학 전반을 다시 정의할 제품들로, 고성능·고확장성이 요구되는 AI 팩토리에 최적화됐다는 진단이다. 특히 대규모 언어모델 학습과 추론이 통신 중심, 대역폭 지향으로 진화하고 있는 만큼, GPU 기반의 시스템이 TPU 대비 기술적 우위를 지속할 가능성이 크다고 평가된다. 이는 구글이 TPU를 확산시키려 해도 결국 GPU 기반 제품과 병행 전략을 펼칠 수밖에 없는 이유다.
또한 연구는 현재 TPU 시장 내 과도한 기대가 실질적 시장 교란보다는 공급 부족에 따른 임시 대응이라는 점에 주목했다. AI 가속기 핵심 공급망인 TSMC의 CoWoS(Chip-on-Wafer-on-Substrate) 패키징 용량 자체가 부족하고, 엔비디아는 2027년까지 이 생산량의 60% 이상을 선점하고 있다는 분석이다. 이로써 엔비디아는 GPU 중심 AI 생태계에서 비용 우위와 공급망 우위를 동시에 확보한 셈이다.
소프트웨어와 플랫폼 측면에서도 오픈AI의 선전이 눈에 띈다. 월간 활성 사용자 수의 성장보다 더욱 핵심적인 지표인 ‘사용자 체류 시간(user minutes)’ 측면에서 챗GPT(ChatGPT)는 여전히 젬미니 대비 우위를 유지하고 있으며, 기업 도입률 또한 40%까지 빠르게 확대되고 있다는 점이 주목된다. 오픈AI는 API, 앱 생태계, 엔터프라이즈 지원에서 두각을 나타내고 있으며, 엔비디아와의 밀착 관계를 바탕으로 향후 GPU 자원 우선 배정이라는 전략적 이점까지 확보할 가능성이 제기된다.
반면 구글은 AI 시대 진입을 위해 검색 광고 중심의 자신들의 비즈니스 모델을 근본적으로 바꿔야 하는 과제를 안고 있다. 기존 검색은 클릭당 낮은 비용과 높은 수익을 만들어내는 초효율적 구조였지만, AI 기반의 보조형 인터페이스는 상호작용당 10배 이상의 컴퓨팅 자원을 요구하면서 원가 구조가 급격히 상승하게 된다. 여기에 신뢰 기반 결과 제공이라는 새로운 사용자 기대와 수익 전환 모델이 빠르게 수정되지 않는 한, 고마진 상품 검색 등 핵심 수익 부문에서 이탈이 가속화될 수 있다는 우려도 커진다.
결국 AI 생태계의 향방은 기술력보다 플랫폼 통합역량, 경제성, 그리고 신뢰 기반 수익 모델이 좌우할 전망이다. 분석은 엔비디아가 이미 볼륨과 비용 면에서 반도체 사업 특유의 학습곡선 효과를 실현하고 있으며, 오픈AI는 이를 소프트웨어·서비스 영역으로 확장시키는 데 가장 앞서 있는 기업이라고 평가했다. 두 기업의 전방위 협력은 AI 팩토리 중심의 차세대 플랫폼 개편에서 강력한 선순환 구조를 형성할 가능성이 크다는 결론이다.




