구글이 차세대 인공지능(AI) 모델 ‘제미나이3(Gemini 3)’를 공개하면서, AI 산업의 시선이 다시 한 번 구글로 향하고 있다. 제미나이3는 텍스트뿐 아니라 이미지, 영상, 코드, 문서까지 동시에 처리하는 이른바 멀티모달 기능과, 복잡한 문제를 단계별로 분석해 답을 도출하는 추론 능력이 크게 향상됐다는 평가를 받고 있다. 단순히 질문에 답하는 수준을 넘어, 여러 자료를 한꺼번에 받아 요약·비교하고, 보고서나 발표 자료의 초안을 만들어 주는 등 실제 업무를 보조하는 ‘에이전트형 AI’에 한 걸음 더 다가섰다는 분석이 뒤따른다.
구글은 제미나이3를 검색과 지메일, 유튜브, 워크스페이스, 구글 클라우드 등 자사 핵심 서비스 전반에 빠르게 통합하고 있다. 검색에서는 설명형 답변과 복합 질의 처리가 강화되고, 워크스페이스에서는 문서 작성과 정리, 메일 초안 작성, 스프레드시트 분석까지 제미나이3가 관여하는 영역이 넓어지는 모양새다. 시장에서는 “구글이 한동안 오픈AI와 마이크로소프트에 밀렸던 생성형 AI 경쟁에서 다시 전면에 복귀했다”는 평가가 나온다.
주가로 드러난 알파벳과 엔비디아의 온도차
이 같은 기대는 곧바로 주가에 반영됐다. 알파벳(구글 모회사) 주가는 제미나이3 발표 전후로 강세를 보이며 연중 최고가를 갈아치웠고, 시가총액은 4조 달러에 근접한 수준까지 올라섰다. 그동안 “AI 시대의 최대 수혜주는 엔비디아”라는 인식이 강했다면, 이제는 “칩부터 모델, 서비스까지 한 번에 쥔 구글 역시 다시 평가해야 한다”는 기류가 뚜렷해진 모습이다.
반면 엔비디아 주가는 여전히 높은 수준을 유지하고 있음에도, 변동성은 커졌다. 제미나이3가 엔비디아의 GPU가 아니라 구글이 직접 설계한 TPU 위에서 학습·구동된다는 점이 알려지면서, “장기적으로 빅테크들이 엔비디아 의존도를 줄이려 할 것”이라는 우려가 시장에 스며들었다. 그동안 데이터센터용 GPU를 사실상 독점 공급하며 AI 붐의 최대 수혜주로 주목받았던 엔비디아는, 여전히 높은 실적과 이익률을 기록하고 있지만 “지금의 주가가 미래 기대를 지나치게 앞당겨 반영한 것은 아닌지”라는 버블 논쟁의 한가운데 서게 됐다.
GPU와 TPU, 태생부터 다른 두 엔진
GPU와 TPU의 차이를 이해하는 것은 앞으로의 판도를 가늠하는 데 중요하다. GPU는 원래 게임과 영상에서 그래픽을 처리하기 위해 만들어진 칩이다. 화면의 수많은 픽셀을 동시에 계산해야 해 작은 연산 코어를 수천 개 이상 병렬로 붙여놓는 구조를 채택했는데, 이 구조가 대량의 행렬 연산을 수행해야 하는 딥러닝과도 잘 맞아떨어졌다. 그 결과 GPU는 그래픽, 과학 계산, 시뮬레이션, 인공지능까지 다양한 분야에 두루 쓰이는 범용 가속기로 성장했다.
엔비디아는 CUDA라는 개발 플랫폼을 통해 이 범용성을 생태계로 확장했다. 주요 딥러닝 프레임워크와 연구 코드, 각종 라이브러리가 GPU를 기준으로 최적화되면서, 많은 개발자와 연구자에게 “AI를 한다는 것은 곧 엔비디아 GPU를 쓴다는 뜻”이라는 인식이 자리잡았다. 개인 개발자가 자신의 PC에 그래픽카드를 꽂아 실험을 하거나, 스타트업이 클라우드에서 GPU 인스턴스를 빌려 쓰는 것도 어렵지 않다. GPU는 말 그대로 AI 시대의 기본 엔진이 된 셈이다.
반면 TPU는 태생부터 다르다. TPU는 구글이 딥러닝을 위해 직접 설계한 전용 칩으로, 그래픽이나 범용 고성능 연산보다는 행렬 곱셈과 텐서 연산에 초점을 맞췄다. 칩 내부에는 대형 행렬 연산 유닛이 격자 형태로 배치돼 있고, 데이터를 일정한 흐름으로 밀어넣으며 계산하는 구조를 통해 전력 대비 처리량을 극대화하도록 설계됐다. 구글은 이 TPU를 수천 개 단위로 묶어 하나의 거대한 연산 클러스터를 구성하고, 여기서 제미나이 시리즈를 비롯한 초거대 언어모델을 학습시키고 있다.
현재 TPU는 구글 클라우드를 통해 ‘Cloud TPU’ 형태로 외부 고객에게도 제공되고 있다. 초창기에는 텐서플로 전용에 가까웠지만, 최근에는 JAX와 일부 파이토치 워크로드도 지원하며 개발 환경을 넓혀가는 중이다. 다만 칩을 별도로 구매해 어디서나 사용하는 GPU와 달리, TPU는 기본적으로 구글 클라우드라는 울타리 안에서 빌려 쓰는 구조다. 이 점 역시 “누구나 쓸 수 있는 만능 엔진”인 GPU와 “구글과 특정 고객을 중심으로 한 딥러닝 특화 엔진”인 TPU의 차이를 보여준다.
칩에서 모델, 서비스까지 이어지는 전략의 차이
이번 제미나이3 발표에서 중요한 것은, 구글이 단지 성능 좋은 모델 하나를 내놓은 것이 아니라는 점이다. 구글은 TPU라는 자체 칩 위에 제미나이3를 올려 학습하고, 이를 다시 검색과 유튜브, 워크스페이스, 클라우드 서비스에 얹어 매출과 이익으로 연결하는 구조를 지향하고 있다. 칩, 모델, 서비스가 하나의 사슬로 이어지는 수직 통합 전략이다.
이 전략의 의미는 적지 않다. 지금까지 엔비디아는 칩을 설계·판매하는 회사이고, 그 위에서 돌아가는 AI 서비스의 성과는 구글이나 마이크로소프트, 메타, 수많은 스타트업의 몫이었다. 구글은 이 구조에서 한 발 더 나아가, 칩 단계부터 스스로 설계함으로써 전력과 설비 비용을 통제하고, 모델과 서비스까지 한 번에 최적화할 수 있는 여지를 확보하려 한다. 제미나이3는 이 전략이 실제로 상용 서비스에 적용될 수 있음을 보여주는 상징적인 사례로 받아들여진다.
향방을 가를 변수들
앞으로의 향방을 단순히 “GPU와 TPU 중 누가 이기느냐”의 구도로 보는 것은 과도한 단순화라는 지적이 많다. GPU는 이미 막대한 개발자 생태계를 확보한 만큼, 당분간 AI 인프라의 기본 선택지 지위를 유지할 가능성이 크다. 연구자와 스타트업, 일반 개발자에게 가장 익숙하고 접근성이 높은 도구인 것도 사실이다. 반대로, 제미나이3처럼 파라미터 수천억, 조 단위 모델을 장기간 학습시키고, 전 세계 사용자의 검색과 영상, 업무 트래픽을 동시에 처리해야 하는 초대형 서비스 영역에서는 전력 효율과 총비용을 줄이기 위한 전용 칩의 필요성이 커지고 있다.
이 때문에 구글뿐 아니라 마이크로소프트, 아마존, 메타, 애플 등 주요 빅테크가 저마다 전용 AI 가속기 개발에 나서고 있고, 일부는 엔비디아 GPU와 자체 칩을 함께 사용하는 방식으로 전략을 조정하고 있다. 주식시장에서는 이를 두고 “엔비디아 독주 체제가 완전히 끝난 것은 아니지만, 균열이 생기기 시작했다”는 해석과, “독점적 지위는 유지하되 성장 속도가 다소 둔화되는 구간”이라는 해석이 엇갈린다.
결국 AI 산업의 승부는 GPU와 TPU 중 어느 한쪽이 다른 쪽을 완전히 대체하느냐가 아니라, 어느 회사가 칩에서 모델을 거쳐 서비스까지 얼마나 효율적으로 엮어 내느냐에 달려 있다는 게 업계의 중론이다. 엔비디아는 여전히 AI 시대의 기본 엔진을 쥐고 있고, 구글은 제미나이3와 TPU를 앞세워 칩부터 서비스까지 이어지는 수직 통합 모델을 강화하고 있다. 제미나이3의 등장은 이 새로운 경쟁 구도의 출발점에 가깝다. 더 똑똑해진 AI 모델과, 그 뒤에서 돌아가는 GPU와 TPU, 그리고 이를 둘러싼 기업 전략과 주식시장의 평가가 앞으로 몇 년간 AI 판도의 방향을 결정할 것으로 보인다.
<저작권자 ⓒ TokenPost, 무단전재 및 재배포 금지>