퀄컴(QCOM)이 자사의 역량을 데이터센터 AI 시장으로 확장하며 AI200과 AI250이라는 두 가지 새로운 가속기 칩을 공개했다. 이번 발표에 투자자들의 반응은 즉각적이었다. 발표 당일 퀄컴 주가는 한때 15% 이상 급등했고, 장 마감 기준 약 11% 상승한 상황이다. AI 가속기 시장에서의 경쟁이 치열해지는 가운데, 퀄컴은 고성능·전력 효율을 겸비한 경제적인 추론 전용 칩을 앞세워 엔비디아(NVDA)를 직접 겨냥하고 있다.
AI200과 AI250은 서버에 장착 가능한 가속기 카드 형태로 출시되며, 추론 중심의 워크로드에 효율적으로 대응하도록 설계됐다. 퀄컴은 이 칩들이 와트당 성능, 달러당 성능 측면에서 경쟁 제품 대비 우위를 갖췄다고 설명한다. 두 제품은 퀄컴의 고유 신경망 엔진인 '헥사곤(Hexagon)' 아키텍처 기반으로 개발됐으며, 이는 이미 스냅드래곤 8 엘리트 Gen 5 칩에 탑재된 검증된 기술이다. 해당 칩은 3나노 공정을 바탕으로 한 제품으로, 서로 다른 세 가지 형태의 20개 코어를 이용해 초당 220 토큰을 처리할 수 있다.
이번 AI 칩은 AI 추론 처리 속도를 좌우하는 메모리 구성과 성능 면에서도 주목할 만하다. AI200은 768GB의 LPDDR 메모리를 탑재해 모바일 지향 메모리의 저전력 특성은 그대로 유지하되 서버 메모리 대비 대역폭은 낮다. 반면 상위 버전인 AI250은 최대 10배 더 빠른 메모리 대역폭을 제공할 예정인데, 여기에는 HBM 메모리 사용이 유력하게 거론되고 있다.
보안 기능에서도 경쟁력을 확보했다. AI200과 AI250 모두 '기밀 컴퓨팅(confidential computing)' 기술을 지원하며, 이는 칩 메모리를 다중 암호화 구역으로 구분해 각 애플리케이션이 접근 가능한 영역을 독립적으로 분리하는 방식이다. 이 기술은 엔비디아의 블랙웰 울트라(BW Ultra)에도 적용된 것으로, AI 모델 실행 중의 데이터 프라이버시 보호를 강화하는 데 필수적 기술로 주목받고 있다.
또한 퀄컴은 이 칩들을 워터쿨링 기반 연산 랙에 통합된 형태로 제공할 계획이다. 해당 랙은 PCIe로 내부 부품을 연결하고, 이더넷을 통해 시스템 간 연결을 구성하는 구조다. 여기에 퀄컴이 자체 개발 중인 데이터센터용 CPU가 포함될 가능성이 제기된다. 실제로 엔비디아는 DGX AI 서버 랙에 자사 CPU를 통합하고 있으며, 퀄컴 역시 유사한 전략을 꾀하는 것으로 보인다.
AI200은 2026년, AI250은 2027년 출시 예정이며, 퀄컴은 이번 제품을 시작으로 매년 데이터센터 AI 칩 라인업을 정기적으로 갱신할 방침이다. AI 및 클라우드 컴퓨팅 등 주요 테크 산업의 중심축으로 부상 중인 데이터센터 시장에서, 퀄컴이 AI 추론 경제성을 무기로 얼마나 점유율을 확대할 수 있을지 귀추가 주목된다.




