구글(GOOGL)의 AI 연구조직 딥마인드가 초소형 언어모델 ‘젬마 3 270M’을 공개하며 또 한 번 경량 AI 모델 경쟁에서 앞서나갔다. 파라미터 수가 단 2억7천만 개에 불과한 이 모델은 고성능 AI 모델이 요구되기 힘든 저전력 기기나 오프라인 환경에서 활용할 수 있도록 설계됐다. 구글은 해당 모델이 일반 웹 브라우저나 라즈베리 파이 같은 소형 컴퓨터, 심지어 “토스터기에서도 작동할 수 있다”고 자신했다.
젬마 3 270M은 기존의 대형 언어모델과 달리 경량화에 초점을 맞추면서도, 특정 도메인에 대한 복잡한 작업을 수행할 수 있는 유연성을 갖췄다. 이는 모델 구조가 프롬프트에 대한 반응도 빠르고, 파인튜닝 역시 손쉽게 가능하기 때문이다. 실제로 구글은 젬마 3 270M이 1억7천만 개의 임베딩 파라미터와 1억 개의 트랜스포머 블록 파라미터로 구성되어 있으며, 희귀하거나 특수한 토큰을 처리하는 데도 효과적으로 작동한다고 밝혔다.
모델 성능을 평가하는 IFEval 기준, 사용자 지시에 대한 이해 능력을 측정한 결과에서 젬마 3 270M은 51.2%라는 점수를 기록했다. 이는 유사한 크기의 경쟁 모델인 알리바바 ‘Qwen 2.5 0.5B’이나 ‘SmolLM2 135M’를 크게 웃도는 수치다. 다만, 리퀴드AI가 최근 출시한 LFM2-350M이 65.12%란 수치를 달성했다는 점을 감안하면 성능 면에서 업계 최고 수준이라고 보기는 어렵다는 분석도 나온다.
실제 성능 이상으로 주목받는 점은 에너지 효율성이다. 구글의 자체 실험에 따르면, 픽셀 9 프로 스마트폰에 양자화된 INT4 버전의 젬마 3 270M을 구동했을 때, 25개의 대화 응답을 처리하는 동안 배터리 소모는 0.75%에 불과했다. 이는 개인정보 보호와 오프라인 기능이 중요한 애플리케이션에서 모델의 실사용 가능성을 강화하는 요인으로 꼽힌다.
구글 측은 “AI 모델의 성능을 단순히 크기로 판단해선 안 된다”며, 창작 활동, 감성 분석, 구조적 텍스트 생성, 질의 자동 분기 등 특정 목적에 적합한 경량 모델의 필요성을 강조했다. 특히 젬마 3 270M은 멀티 입력을 종합한 콘텐츠 생성능력도 갖췄다. 예를 들어, 요정 고양이, 마법의 숲, 반전 요소 등이 포함된 어린이 bedtime story를 부모가 지정해 입력하면, 오프라인 환경에서도 원활하게 스토리를 생성해내는 것으로 데모 영상에서 시연됐다.
이 경량 모델은 개발자 친화적 도구로 구축돼 있다. 허깅페이스(Hugging Face), JAX, UnSlot 등 주요 AI 플랫폼에서 파인튜닝 및 배포를 위한 레시피와 가이드까지 제공된다. 구글은 젬마 3 270M을 허깅페이스, 카글(Kaggle), 도커(Docker), 올라마(Ollama), LM Studio 등을 통해 사전학습 및 지시학습 버전으로 모두 개방했으며, 코드 기반 활용 및 제품화도 적극 장려하고 있다.
젬마 3 270M은 구글이 추진 중인 온디바이스 AI 전략의 핵심 축으로, LLM 중심의 클라우드 종속에서 벗어나 다양한 디바이스 환경의 AI 프런티어를 겨냥한 포석으로 해석된다. AI 질량 경쟁이 정점에 달한 상황에서 ‘작지만 강한’ 모델이 어떻게 시장 지형을 바꿀 수 있을지 관심이 집중된다.