마이크로소프트(MSFT)가 소형 언어모델(LLM) 시장의 새로운 이정표를 세웠다. 1일(현지시간) 마이크로소프트는 '파이(Phi)' 계열 AI 모델의 최신 버전으로, *추론 능력*을 대폭 강화한 세 가지 소형 AI 모델 ‘Phi-4 리즈닝’, ‘Phi-4 리즈닝 플러스’, 그리고 ‘Phi-4 미니 리즈닝’을 공개했다. 이들 모델은 기존 대비 작은 연산 자원으로도 *복잡한 문제를 해석하고 해결하는* 능력을 갖춰, 대형 모델을 능가하는 성취를 보인 것으로 평가받았다.
특히 'Phi-4 리즈닝'은 140억 개의 파라미터로 구성된 오픈 웨이트 모델로, 복잡한 수학∙과학 문제에서도 GPT-4와 같은 최신 대형모델 못지않은 성과를 낼 수 있다는 게 마이크로소프트의 설명이다. 강화학습 방식을 접목한 'Phi-4 리즈닝 플러스'는 동일한 규모지만 학습 시 최대 1.5배 더 많은 토큰을 활용해 정답률을 높이도록 설계됐다. 반면 'Phi-4 미니 리즈닝'은 단 38억 개 파라미터 수준으로 모바일 기기나 교육용 디바이스 등에서 구동 가능한 초경량형으로, 수학적 사고력 향상을 핵심 목표로 특화돼 있다.
이 모델들이 주목받는 이유는 *크기 대비 성능의 효율성*에 있다. 마이크로소프트는 블로그를 통해 “이들 모델은 경량화된 폼팩터에서 강력한 추론력을 발휘할 수 있도록 증류 기술(distillation), 고품질 데이터, 강화학습을 통해 정교하게 훈련됐다”며, “고성능 GPU 없이도 데스크톱 GPU나 스마트폰 수준의 연산 환경에서 실행 가능하다”고 설명했다.
새로운 Phi-4 시리즈는 기존 Phi-3 모델의 다중 모달(멀티모달) 기능에 이어, 보다 섬세하고 구체적인 추론 작업을 수행하도록 설계됐다. 특히 Phi-4 리즈닝은 OpenAI의 'o3-mini'데이터와 함께 웹 기반 훈련 데이터로 학습됐으며, Phi-4 미니는 Deepseek-R1의 합성 AI 데이터셋을 기반으로 100만 개 이상의 수학문제를 훈련해, 중학교 수준부터 박사급 난이도에 이르기까지 폭넓은 문제 해결 능력을 갖췄다.
마이크로소프트는 “Phi-4 리즈닝과 리즈닝 플러스는 OpenAI o1-mini나 라마(LLaMA) 기반 DeepSeek1-Distill-70B 보다도 복잡한 수학 및 과학 문제 해결에서 높은 성능을 기록했다”며, “심지어 6710억 개 파라미터를 가진 DeepSeek-R1 본 모델에 대해서도 AIME 2025 테스트에서 우위를 보였다”고 밝혔다. AIME는 미국 국제수학올림피아드 진출자 선발을 위한 수준 높은 공식 3시간 평가다.
이처럼 마이크로소프트는 *소형 AI 모델의 한계를 기초연구와 신기술로 뛰어넘고 있다는 평가*를 받는다. Phi-4 시리즈는 현재 애저 AI 파운드리와 허깅페이스(Hugging Face) 플랫폼에서 자유롭게 활용할 수 있다. *고속 응답성과 실행의 경제성*을 모두 갖춘 이들 모델은 앞으로 엣지 컴퓨팅 환경이나 교육 분야, 전장∙모바일 기기 등 다방면에서 쓰일 것으로 기대된다.