구글이 인공지능(AI) 언어모델 ‘제미나이3’ 제품군의 경량 모델을 출시하면서, AI 서비스의 가격과 속도 경쟁에 본격적으로 뛰어들었다. 이번 신제품은 기존 고성능 모델과 유사한 성능을 유지하면서도 훨씬 적은 비용과 빠른 응답 속도를 앞세운 것이 특징이다.
구글은 12월 17일(현지시간), 제미나이3 시리즈의 새로운 모델 ‘플래시’를 공개했다. 이 모델은 동일 계열의 상위 AI 모델 ‘프로’와 ‘딥싱크’에 비해 가볍고 빠른 응답이 가능하도록 제작됐다. 특히 경량화 기술인 ‘모델 증류(distillation)’ 기법을 통해 프로 모델의 핵심 성능을 압축해내면서, 처리 속도는 물론 서비스 비용도 낮춘 것이 핵심이다.
제미나이3 플래시는 실제 성능 지표에서도 주목할 만한 결과를 나타냈다. 일반 지식과 문제 해결 역량을 측정하는 MMLU-Pro, SWE-벤치, GPQA 등 다양한 벤치마크에서 상위 모델과 큰 차이 없는 점수를 기록했고, 일부 항목은 오히려 상위를 능가하기도 했다. 예컨대 일반 지식 문제에서 제미나이3 플래시는 81.2점을 받아 프로 모델(81%)보다 소폭 앞섰고, 코딩 성능 항목인 SWE-벤치에서도 78%를 기록해 프로보다 높은 수치를 보였다.
이 모델은 구글 검색 등 일반 사용자 서비스뿐 아니라 기업 고객을 위한 API(응용프로그램연결 인터페이스)에도 적용된다. 특히 기업 측면에서는 주목할 만한 비용 절감 효과도 있다. 플래시 모델은 토큰당 0.5~3달러의 요금으로 이용 가능한데, 이는 같은 계열 상위 모델 대비 4분의 1 수준이다. ‘토큰’은 AI가 정보를 처리하기 위해 문장을 잘게 나눈 단위로, 하루 1조 개 이상의 토큰 사용량을 기록 중이라는 점에서 처리 속도와 비용의 효율성은 더욱 중요해지고 있다.
이러한 전략은 최근 생성형 AI 시장의 빠른 성장을 의식한 구글의 대응으로 해석된다. 고성능 모델이 주는 기술적 우위를 확보하되, 경량 모델을 통해 사용자 접근성을 높이겠다는 의도다. 특히 성능 손실 없이 빠른 처리와 비용 절감을 동시에 추구하는 점에서, 챗봇·검색·코딩 자동화 등 다양한 서비스 분야에 폭넓게 활용될 가능성이 크다.
이 같은 흐름은 향후 AI 업계 전반에서 ‘대형 모델’에서 ‘맞춤형 경량 모델’로의 전환을 가속화할 수 있다는 점에서 주목된다. 고정된 성능 중심 경쟁보다, 다양한 수요에 맞춘 유연한 제품군 전략이 차세대 AI 시장의 주류로 자리잡을 가능성이 커지고 있다.
<저작권자 ⓒ TokenPost, 무단전재 및 재배포 금지>