메타가 아마존웹서비스의 자체 개발 중앙처리장치(CPU) ‘그래비톤5’를 수천만 개 도입하기로 하면서, 인공지능 인프라 경쟁이 그래픽처리장치(GPU) 중심에서 에이전트형 인공지능을 떠받치는 종합 연산 체계 확보 경쟁으로 넓어지고 있다.
메타와 아마존웹서비스(AWS)는 24일(현지시간) 메타가 인공지능 에이전트 구축을 위해 그래비톤5를 대규모로 도입하기로 했다고 밝혔다. 미국 경제매체 CNBC는 메타가 이번 계약으로 AWS의 5대 그래비톤 고객사에 포함됐으며 계약 기간은 최소 3년 이상이라고 전했다. 나페아 브샤라 AWS 부사장은 로이터통신에 이번 계약 규모가 수십억 달러에 이른다고 설명했다. 그래비톤5는 3나노미터 공정으로 생산된 칩으로, 이전 세대보다 성능은 최대 25% 높아졌고 전력 사용량은 기존 연산 방식 대비 60% 적다. 여기에 192개 코어와 5배 확대된 캐시 메모리를 갖춰 데이터 처리 속도와 대역폭을 끌어올린 것이 특징이다.
이번 결정은 메타가 단순히 거대 인공지능 모델을 학습시키는 데서 그치지 않고, 실제 서비스 현장에서 수많은 인공지능 에이전트를 동시에 운영하는 단계로 옮겨가고 있음을 보여준다. 일반적으로 대규모 인공지능 학습과 추론에는 GPU가 핵심 역할을 하지만, 여러 작업을 나누고 순서를 조정하며 시스템 전체를 관리하는 데에는 CPU 비중도 커진다. 메타 인프라를 총괄하는 산토시 자나르단은 연산 자원을 여러 종류로 분산 확보하는 일이 회사의 인공지능 목표를 위한 전략적 필수 과제라고 설명했다. 그는 그래비톤 도입으로 에이전트형 인공지능 운영에 필요한 CPU 중심 작업을 더 효율적으로 처리할 수 있게 됐다고 밝혔다.
메타의 최근 행보를 보면 특정 업체에 의존하지 않고 칩과 인프라 공급선을 넓히려는 전략이 뚜렷하다. 메타는 지난 2월 엔비디아와 인공지능 칩 공급 계약을 맺으면서 GPU 수백만 개와 함께 ‘그레이스’ CPU도 데이터센터에 들이기로 했다. 이와 별도로 AMD와 구글에서도 칩을 공급받거나 임대하기로 했고, 코어위브와 네비우스와는 수백억 달러 규모의 인공지능 인프라 사용 계약을 체결했다. 여기에 자체 개발 칩인 ‘메타 훈련·추론 가속기(MTIA)’를 데이터센터에 배치하겠다는 계획도 내놓은 상태다. 이는 인공지능 경쟁이 이제 성능 좋은 단일 반도체를 확보하는 문제를 넘어, 학습·추론·제어·배치까지 아우르는 전체 시스템 구성 능력으로 옮겨가고 있다는 뜻으로 읽힌다.
다만 공격적인 인프라 투자와 함께 비용 구조 재편도 동시에 진행되고 있다. 메타는 최근 인공지능 기술 발전에 맞춰 인력 구조조정에 착수했으며, 전날 전체 인력의 10%에 해당하는 8천 명을 감원하고 채용 예정이던 6천 개 일자리도 없애겠다고 발표했다. 대규모 반도체와 데이터센터 투자에 자금을 집중하는 대신, 기존 인력과 사업 구조는 더 날렵하게 바꾸려는 움직임으로 해석된다. 이 같은 흐름은 앞으로 빅테크 기업들이 고성능 칩 확보와 비용 절감을 함께 추진하는 방식으로 이어질 가능성이 크며, 인공지능 산업의 승부처도 모델 자체보다 이를 안정적으로 돌릴 수 있는 인프라 운영 역량으로 더 빠르게 이동할 가능성이 있다.

