구글(GOOGL)이 자사의 대표 AI 언어 모델 시리즈 ‘제미니(Gemini) 2.5’에 새로운 보급형 모델을 추가하고, 주요 모델에 대한 가격 정책을 전면 조정했다. 이번 발표는 제미니 2.5 시리즈 전반의 경쟁력을 강화하는 동시에, 다양한 기업과 개발자 요구를 반영한 맞춤형 AI 접근성 확대 전략으로 해석된다.
이번에 새로 도입된 ‘제미니 2.5 플래시-라이트(Gemini 2.5 Flash-Lite)’는 이전 버전 대비 속도와 비용 효율성을 크게 높인 것이 특징이다. 입력 프롬프트에 대한 응답 시간은 줄이면서, 처리 비용은 대폭 낮춰 다량의 실시간 요청을 처리해야 하는 기업 환경에 적합하도록 설계됐다. 구글 측은 이 모델이 기존 ‘제미니 2.0 플래시-라이트’ 대비 코딩, 수학, 과학, 추론 등 다양한 분야에서 품질 향상을 이뤄냈다고 밝혔다.
간판 모델인 ‘제미니 2.5 프로(Pro)’와 ‘제미니 2.5 플래시(Flash)’는 이번 업데이트를 통해 프리뷰(사전 이용) 단계를 끝내고 정식 출시됐다. 특히 ‘제미니 2.5 프로’는 내부 벤치마크에서 오픈AI의 동급 모델인 ‘o3-미니’를 수학 및 코딩 기준으로 능가한 것으로 확인됐다. 두 모델 모두 멀티모달 기능을 갖추고 있으며, 프롬프트당 최대 100만 토큰을 처리할 수 있는 등 광범위한 지원을 제공한다.
제미니 2.5 시리즈는 구글이 자체 개발한 AI 칩 ‘TPUv5p’를 활용해 훈련된 최초의 제품군으로, 이 칩은 각 서버 클러스터당 8,960개에 달하는 규모로 구성되어 있다. 이를 통해 연산 효율을 극대화하며, 하드웨어 사용량을 최소화하는 ‘전문가 혼합(Mixture-of-Experst)’ 구조도 채택했다. 해당 구조는 사용자 요청이 들어올 경우 여러 신경망 중 최적의 하나만 가동하는 방식으로 작동된다.
가격 정책 면에서도 큰 변화가 이뤄졌다. ‘제미니 2.5 플래시-라이트’는 입력 100만 토큰당 10센트, 출력 기준 40센트로 책정돼, ‘프로’ 버전 대비 90% 이상 저렴한 수준이다. 반면, ‘플래시’ 모델은 출력 단가가 기존 $3.50에서 $2.50로 인하됐으나, 입력 단가는 15센트에서 30센트로 인상됐다. 또 다른 변화는 ‘생각 모드(Thinking Mode)’에 대한 별도 과금이 폐지됐다는 점이다. 이 모드는 응답 품질 향상을 위한 연산 자원 증강 기능으로, 그간 추가 비용이 부과돼 왔다.
이번 제미니 2.5 업데이트는 구글이 생성형 AI 시장에서 입지를 더욱 공고히 하기 위한 실질적 조치로 풀이된다. 모델 성능뿐 아니라 가격 측면에서도 세분화 전략을 강화함으로써, 제한된 예산을 가진 중소 개발자부터 고성능이 요구되는 엔터프라이즈 고객까지 폭넓은 수요를 흡수하려는 포석이다.