중국 AI 스타트업 미니맥스(MiniMax)가 새로운 초대형 언어 모델 ‘MiniMax-M1’을 공개하며 오픈소스 AI 시장에 강력한 존재감을 드러냈다. 미니맥스-M1은 100만 토큰의 컨텍스트 창과 혁신적인 강화학습 기술을 기반으로, 누구나 상업적 이용과 커스터마이징이 가능한 *Apache 2.0 라이선스* 하에서 배포된다.
이번에 공개된 모델은 긴 문맥 파악 능력, 도구 활용력, 연산 효율성 등에서 기존 오픈소스 모델들과 비교해 차별화된 성능을 보여준다. 특히 입력과 출력 합산 기준으로 *최대 100만 토큰*을 처리할 수 있는 컨텍스트 창은, 현재 상용화된 모델 중에서도 최상위 수준이다. 이는 오픈AI의 GPT-4o가 제공하는 12만 8,000 토큰보다 압도적으로 높은 설정이며, 구글의 제미니 2.5 프로와 맞먹는 수준이다.
모델은 효율성을 극대화한 RL 알고리즘 ‘CISPO’로 학습됐고, *MoE(혼합 전문가)* 아키텍처와 고속 추론을 위한 ‘라이트닝 어텐션’ 메커니즘을 도입해 연산 비용을 획기적으로 줄였다. 기술 보고서에 따르면 미니맥스-M1은 디프식 R1 모델 대비 연산량을 *100,000 토큰 기준 약 75%* 절감했다. 해당 모델은 ‘MiniMaxWeek’로 명명된 특별 발표의 첫 번째 출발점으로, 추가 제품 공개가 예고됐다.
미니맥스-M1은 성능 면에서도 뛰어난 지표를 보여주고 있다. 수학 문제 해결을 위한 벤치마크 AIME 2024에서 *86.0%*의 정확도를 기록했고, 코딩 및 장문 이해 평가에서도 LiveCodeBench *65.0%*, SWE-Bench Verified *56.0%*, TAU-Bench *62.8%*, OpenAI MRCR *73.4%*의 성과를 나타냈다. 이는 DeepSeek-R1, 알리바바의 Qwen3 시리즈보다도 우위에 있는 결과다.
모델은 두 가지 버전으로 제공되며, 이름은 처리 가능한 출력 길이에 따라 MiniMax-M1-40k, MiniMax-M1-80k로 구분된다. 전체 아키텍처는 4560억 개의 매개변수로 구성됐으며, 활성화되는 매개변수는 토큰당 약 459억 개다. 특히 주목할 만한 점은 이 거대 규모 모델이 *약 53만 4,700달러(약 7억 6,800만 원)*라는 비교적 저렴한 비용으로 학습됐다는 점이다. 이는 오픈AI GPT-4가 *1억 달러(약 1,440억 원)* 이상이 소요된 것과 비교하면 파격적인 수치다.
배포 측면에서도 미니맥스는 실용성을 고려했다. 고성능 LLM 서빙을 위한 vLLM 백엔드를 추천하며, 루프 처리와 메모리 효율성에서 최적화를 달성했다. 챗봇 API는 구조화된 함수 호출 기능은 물론, 온라인 검색, 이미지·영상 생성, 음성 합성, 음성 복제 기능까지 지원해 실제 에이전트형 애플리케이션에 직접 활용 가능한 수준으로 설계됐다.
기업의 AI 운영 책임자와 IT 인프라 관리자에게 미니맥스-M1은 여러 측면에서 실질적인 혜택을 제공할 수 있다. 예를 들어 사내 문서나 로그 기록처럼 수십만 토큰에 이르는 데이터를 전처리 없이 직접 다룰 수 있다는 점은 작업 효율을 크게 높인다. 또한 Transformer 기반 라이브러리 호환성과 오픈소스 라이선스를 통해 인프라에 유연하게 통합할 수 있으며, 퍼블릭 클라우드를 쓰지 않고도 자체 서버에 모델을 배포해 *데이터 보안성*도 확보할 수 있다.
현재까지의 평가로 미뤄보아 미니맥스-M1은 폐쇄형 모델과의 성능 격차를 줄이면서도, *오픈소스 AI가 제공할 수 있는 실용성과 확장성*이라는 관점에서 업계의 관심을 끌기에 충분하다. 특히, 첨단 기술을 합리적인 비용으로 구현한 사례로 AI 개발자 및 기업들이 주목해야 할 선택지로 부상하고 있다.
향후 ‘MiniMaxWeek’를 통해 추가로 공개될 제품에 따라, 미니맥스의 전략이 오픈소스 AI 시장의 방향성을 어떻게 재편할지 귀추가 주목된다.