구글은 자사의 인공지능 모델 개발 경합에서 또 한 번 우위를 점하며, '젬마 4'라는 최신 모델군을 공개했다. 이전의 '제미니 3' 설계를 기반으로 한 이 모델들은 복잡한 추론 작업을 처리할 수 있도록 설계되었으며, 워크스테이션과 스마트폰처럼 저전력 장치에서 자율 AI 에이전트로 실행된다. 클레망 파라베와 올리비에 라콤브가 이끄는 구글 딥마인드 연구진은 '젬마 4'를 통해 매개변수당 더 많은 지능을 이끌어내어 큰 성능을 발휘할 수 있게 되었다. 이 모델은 31B Dense 모델이 탑재된 산업표준인 Arena AI Text 리더보드에서 현재 세 번째로 순위에 올라있다.
젬마 4는 효과적인 2B, 4B 모델과 26B 혼합 전문가 모델, 31B 밀도 모델의 네 가지 변형으로 제공된다. 경량 하드웨어를 겨냥한 작은 "Effective" 모델들은 안드로이드 스마트폰이나 Raspberry Pi 같은 기기에서의 최적 활용을 목표로 개발되었다. 특히 26B 모델은 인퍼런스 작업에서 38억 개의 매개변수만 활성화함으로써, 높은 성능을 유지하면서도 대형 모델의 깊은 정보 기반을 희생하지 않는다.
구글은 이러한 모델들이 자율 에이전트를 구동하기에 적합하다고 설명했다. 이전의 젬마 시리즈가 개발자에게 다른 소프트웨어와 상호작용할 수 있는 설계를 요구했다면, 젬마 4는 함수 호출 및 구조적 JSON 출력에 대한 기본 지원을 제공, 타사 툴과의 상호작용 및 다단계 계획 실행에 유용하다.
더불어 이들 모델들은 이미지 및 비디오뿐만 아니라 E2B와 E4B 모델에서는 네이티브 오디오 입력을 지원해, 기기 자체에서 실시간 음성 이해가 가능하다. 또한, 모델들의 컨텍스트 윈도우는 최대 128K에서 256K로 확대되어 개발자들이 단일 프롬프트로 방대한 코드베이스나 문서 집합을 업로드할 수 있다.
구글은 Apache 2.0 라이선스를 통해 이 모델들을 제공, 상업적 제한을 완화하여 엔터프라이즈 애플리케이션을 개발하는 개발자에게 적합하다고 강조했다. 이 모델들은 구글 클라우드를 통해 직접 접근 가능하며, Hugging Face, Kaggle, Ollama에서도 오픈 가중치와 함께 이용할 수 있다.
한편, 컨스텔레이션 리서치의 홀거 뮐러는 "구글은 젬마 4 패밀리로 AI 개방형 모델을 선도해, 다양한 장치 형태에서 기능적 및 수직적 사용 사례를 개선하는 AI 개발자 생태계를 구성하는 데 도움이 될 것"이라고 말했다.

