구글(GOOGL)의 인공지능 연구 조직 딥마인드(DeepMind)가 초소형 AI 모델 ‘Gemma 3 270M’을 공개하며, 경량 AI의 새 지평을 열었다. 이 모델은 파라미터 수가 2억 7천만 개에 불과하지만, 스마트폰을 포함한 가볍고 제한된 하드웨어에서도 오류 없이 실행될 수 있도록 설계됐다. 특히 인터넷 연결 없이도 작업을 수행할 수 있는 점에서 현장용 AI, 프라이버시가 중요한 애플리케이션 등 다양한 용도에서 주목받고 있다.
‘Gemma 3 270M’은 성능과 경량성을 동시에 구현했다는 데서 업계의 관심이 집중된다. 내부 테스트에 따르면, 픽셀9 프로(Pixel 9 Pro) 시스템온칩(SOC)에서 25회의 대화 세션을 실행하는 데 배터리의 0.75%만 소모됐을 정도로 전력 소비가 적었다. 또, 웹 브라우저는 물론 싱글보드 컴퓨터인 라즈베리 파이(Raspberry Pi)에서도 동작이 가능해, 전문가들은 이를 ‘초경량 모델의 새로운 기준’으로 평가하고 있다.
이 모델은 수치 성능 면에서도 경쟁력이 있다. ‘IFEval’ 벤치마크 테스트에서 51.2%의 점수를 기록하며, 동일 급의 경량 모델인 SmolLM2 135M 인스트럭트 모델이나 Qwen 2.5 0.5B 이상 모델보다 뛰어난 결과를 보였다. 이는 일부 10억 파라미터 대 모델에 근접한 수준이며, 구글은 최소 자원으로도 고성능을 구현할 수 있다는 점에서 의미 있는 진전이라고 강조했다.
구성 면에서는 1억 7,000만 개의 단어 임베딩 파라미터와 1억 개의 트랜스포머 블록 기반 파라미터로 구성됐으며, 즉시 사용 가능한 지시문 수행 성능을 갖췄다. 또한, INT4 정밀도 양자화 학습(Quantization-Aware Training)을 통해 정밀도를 유지하면서도 모델 크기를 소형화해, 저사양 기기에서도 충분한 활용이 가능하다.
‘Gemma 3 270M’는 대형 언어모델의 대체제가 아닌, 목적 기반 소형 모델로 전략적 접근을 택한 사례다. 감정 분석, 개체 추출, 쿼리 라우팅, 정책 준수 점검 등 특정 업무에 특화된 모델을 구축할 때, 대형 모델보다 빠르고 저렴한 성능을 구현할 수 있다는 것이 구글의 판단이다. 실제로 SK텔레콤과 협력한 Adaptive ML이 다국어 콘텐츠 필터링 용도로 Gemma 기반 모델을 활용해, 대형 독점 시스템보다 뛰어난 결과를 냈다는 것도 좋은 사례로 들 수 있다.
제품 홍보를 넘어선 구체적인 활용 사례도 함께 소개됐다. 구글은 ‘자장가 이야기 생성기(Bedtime Story Generator)’라는 데모 앱을 통해 모델의 창의성과 경량성을 강조했다. 이 앱은 사용자로부터 등장인물, 배경, 전개 방식, 감정 분위기, 길이 등을 입력받아 오프라인 환경에서 이야기를 생성한다. 웹 브라우저에서만 실행되며, 자녀를 위한 창의적인 콘텐츠 생성용으로 충분한 성능을 보여줬다는 평가다.
오픈소스 면에서도 실용적인 범용성을 제공한다. ‘Gemma 이용 약관’ 하에 공개된 이 모델은 재사용, 수정, 파생 모델 생성 및 배포가 가능하다. 단, 구글의 금지 사용 정책에 저촉되지 않도록 주의해야 하며, 상업적 사용을 원하는 기업은 이용 약관 이행 책임과 함께 사용자에게 관련 조건을 고지해야 한다. 이를 통해 구글은 사용자가 생성한 콘텐츠에 대한 권리를 주장하지 않고, 개발자 또는 기업이 콘텐츠 활용에 있어 전면적인 권한을 가질 수 있도록 했다.
구글은 ‘Gemma 3 270M’을 단순히 경량 모델로만 보지 않는다. 이미 2억 회 이상 다운로드된 ‘Gemmaverse’ 생태계를 기반으로 스마트폰, 클라우드, 데스크톱 전역에 최적화된 AI 라인업을 확대하고 있으며, 이 경량 모델은 새로운 프라이버시 중심 AI의 초석으로 자리잡을 전망이다.