구글(GOOGL)이 차세대 경량 언어모델인 ‘제미니 3 플래시(Gemini 3 Flash)’를 공식 출시하며 인공지능(AI) 시장의 속도 경쟁에 다시 불을 붙였다. 구글은 이번 신모델이 기존 제미니 2.5 플래시 대비 뛰어난 응답 속도와 향상된 멀티모달 추론 능력을 자랑한다고 설명했다. 기존 제미니 3 프로와 동일한 핵심 엔진을 바탕으로 하되, 비용과 지연 시간을 대폭 줄여 실시간 에이전트 기반 애플리케이션에도 최적화된 것이 특징이다.
제미니 3 플래시는 구글의 제미니 앱을 시작으로 다양한 제품군에 기본 탑재된다. 구체적으로는 Google AI Studio, Gemini CLI, Vertex AI, 그리고 최근 선보인 에이전트 중심 개발 플랫폼인 Google Antigravity 등에서도 사용 가능하다. 특히 제미니 앱에서는 기존 제미니 2.5 플래시를 완전히 대체하면서 글로벌 사용자 누구나 향상된 성능을 무료로 경험할 수 있게 된다.
응답 속도와 멀티모달 이해력에서 전 모델을 뛰어넘은 제미니 3 플래시는, 텍스트뿐 아니라 이미지와 동영상 등 다양한 형식의 데이터를 보다 빠르고 깊이 있게 처리할 수 있다. 실제로 사용자는 영상 또는 사진 해석 요청을 단 몇 초 안에 실현할 수 있으며, 별도의 코딩 지식 없이도 AI에 앱 개발을 요청해 작업 가능한 프로토타입을 받아볼 수 있다.
개발자 지원 측면에서도 제미니 3 플래시는 강화된 기능을 제공한다. 특히 실시간 반응성이 요구되는 고객 지원, 게임 내 AI 어시스턴트 등 고속처리가 핵심인 서비스에 핵심 경쟁력으로 작용할 수 있다. 구글 측은 실제 운용 테스트에서 제미니 2.5 프로보다 3배 빠른 반응 속도를 보이며 비용은 대폭 절감됐다고 전했다. 특히 학문적 추론력 지표인 GPQA 다이아몬드에서 90.4%, ‘인류의 마지막 시험’이라 불리는 Humanity’s Last Exam에서도 33.7%의 성과를 기록해, 경량화 모델임에도 고성능을 인증받았다.
가격 경쟁력도 주목할 만하다. 구글은 이번 모델의 API 및 Vertex AI 이용 요금을 100만 입력 토큰당 50센트, 출력 토큰당 3달러(각각 약 720원, 4,320원)로 책정했다. 반복적 토큰 사용 시 최대 90%까지 비용 절감 효과가 있는 ‘컨텍스트 캐싱’ 기능도 기본 제공된다.
제미니 3 플래시는 구글 검색에서도 ‘AI 모드’의 기본 엔진으로 채택돼 에이전트 기반 응답 품질을 한층 끌어올린다. 구글 제미니 부문 부사장 조시 우드워드(Josh Woodward)는 “사용자의 질문 취지를 더 정확히 이해하고, 실시간 정보 기반의 깊이 있는 요약과 구체적인 추천을 제공한다”며 “이제 검색은 단순한 정보 조회를 넘어, 즉각적인 행동으로의 연결을 가능하게 한다”고 강조했다.
구글은 이번 신모델을 통해 AI 기술의 속도, 효율성, 그리고 접근성 모두를 개선하며 차세대 AI 활용의 표준을 다시 정의하려 하고 있다. 제미니 3 플래시의 등장으로 초거대 AI 경쟁에서 구글이 다시 한번 주도권 확보에 나설 수 있을지 주목된다.




