토픽

맨위로 가기
  • 공유 공유
  • 댓글 댓글
  • 추천 추천
  • 스크랩 스크랩
  • 인쇄 인쇄
  • 글자크기 글자크기
링크 복사 완료 링크가 복사되었습니다.

알리바바, 초고성능 오픈소스 AI 'Qwen3' 공개…클로드·Kimi2 능가

프로필
김민준 기자
댓글 0
좋아요 비화설화 0

알리바바가 새로운 오픈소스 AI 모델 Qwen3-235B-2507을 선보이며 상용 AI와 경쟁 가능한 성능을 입증했다. 업계는 클로드 오퍼스4와 Kimi2를 능가하는 효율성과 유연성을 주목하고 있다.

 알리바바, 초고성능 오픈소스 AI 'Qwen3' 공개…클로드·Kimi2 능가 / TokenPost.ai

알리바바, 초고성능 오픈소스 AI 'Qwen3' 공개…클로드·Kimi2 능가 / TokenPost.ai

알리바바가 차세대 오픈소스 생성형 AI 모델 ‘Qwen3-235B-A22B-2507’을 공개하며 글로벌 AI 시장에 다시 한번 존재감을 드러냈다. 이번 업데이트는 중국 AI 스타트업 문샷(Moonshot)이 선보였던 ‘Kimi-2’를 성능 면에서 제치며 서구권 AI 전문가들에게 강한 인상을 남기고 있다. 특히 오픈소스임에도 상용 활용이 가능한 Apache 2.0 라이선스를 채택해, 기업들의 도입 장벽을 대폭 낮췄다는 평가다.

Qwen3-235B-A22B-2507은 수학·과학 문제 해결, 추론, 작문 등에서 강점을 보이며, 기존의 대형 언어 모델들보다 향상된 정확성과 사용자 지향적 응답을 제공한다. 특히 다양한 언어와 지역 방언에 대한 멀티링구얼 지원이 강화되었고, 코드 생성 역량도 이전 모델 대비 괄목할 만한 향상을 이뤘다. 인스트럭션 중심의 구조를 채택해 사용자의 지침을 보다 충실히 따른다는 점도 눈에 띈다.

흥미로운 점은 알리바바가 기존에 도입했던 ‘하이브리드 추론 모드’를 포기하고, 앞으로는 추론용 모델과 명령 수행용 모델을 별도로 개발하기로 했다는 것이다. 사용자의 선택에 따라 추론 기능의 온오프를 할 수 있었던 하이브리드 모델은 유연한 반면 일관성에 대한 의문이 따랐다. 이에 알리바바는 모델 성능의 초점을 명확히 하기로 결정했고, 이번에 공개된 2507 모델은 오직 명령 수행에 최적화된 구조로 설계됐다.

특히 기업 활용도를 높이기 위한 ‘FP8’ 버전도 주목받고 있다. 이 모델은 8비트 부동소수점 연산을 통해 메모리 사용량과 연산 자원을 크게 줄이면서도, 성능 저하 없이 빠른 응답 속도를 제공한다. 이를 통해 고가의 하드웨어나 대규모 서버 없이도 Qwen3 모델을 클라우드 또는 로컬 환경에서 효율적으로 운영할 수 있게 됐다. FP8 버전은 추론 속도를 두 배로 끌어올리면서도, GPU 메모리 사용량을 약 88GB에서 30GB로 줄이고, 전력 소모도 절반 가까이 줄이는 등 인프라 비용 절감 효과가 크다.

Qwen3-235B-A22B-2507은 2,350억 개의 매개변수를 가진 믹스드 오브 엑스퍼트(MoE) 아키텍처를 적용해 추론 시 점진적으로 일부 전문가 네트워크만 활성화하는 방식으로 고효율을 실현했다. 이번 모델은 또다시 독립형 개발 환경, 오픈AI 호환 API, 프라이빗 로라(LoRA)나 QLoRA 기반의 파인튜닝 등 유연한 배포 환경을 지원한다. 보안감사 및 컴플라이언스를 위한 로컬 프로세싱 기능도 강화돼 기업들이 민감한 데이터를 외부에 노출하지 않고도 고성능 모델을 활용할 수 있도록 설계됐다.

알리바바는 이번 발표와 함께 ‘Qwen-Agent’라는 경량화 프레임워크도 선보였다. 이는 복잡한 툴 호출 로직을 자동화해, 다단계 의사결정과 같은 고차원적 작업을 수행하는 에이전트 구축을 지원하는 기능이다. 실제 벤치마크 결과에서도 이 모델은 리테일이나 금융 분야의 작업 시나리오에서 다중 결정 경로 실행에 강점을 보이고 있다.

업계 반응은 뜨겁다. AI 교육 플랫폼 블루셸AI의 창립자인 폴 쿠버트는 Qwen3의 벤치마크 자료를 분석하며 “Kimi2와 OpenAI의 클로드 오퍼스4를 능가하는 성능”이라 평했다. 머신러닝 플랫폼 허깅페이스의 제품 책임자 제프 부디에 역시 “FP8 체크포인트와 초소형 배포 옵션을 포함해 비즈니스가 원하는 모든 기능을 갖췄다”며 적극적인 반응을 보였다.

알리바바는 이미 추론 전용 모델 개발과 멀티모달 기능 확장 등 차세대 모델 개발에도 착수한 상태다. 특히 4,800억 매개변수를 갖춘 ‘Qwen3-Coder’ 버전이 암시됨에 따라 개발자와 엔터프라이즈 고객의 관심도 더욱 커질 전망이다.

이번 Qwen3-235B-A22B-2507 모델은 단순한 성능 향상을 넘어, 오픈소스 언어 모델이 기업 현장에서 실제로 상용화 가능한 단계에 진입했음을 상징한다. 낮은 운영 비용, 뛰어난 추론 성능, 그리고 유연한 배포 방식까지 갖춘 이 모델은, 기존의 닫힌 구조의 상용 모델에 대응할 수 있는 강력한 대안으로 떠오르고 있다.

<저작권자 ⓒ TokenPost, 무단전재 및 재배포 금지>

광고문의 기사제보 보도자료

많이 본 기사

관련된 다른 기사

댓글

댓글

0

추천

0

스크랩

스크랩

데일리 스탬프

0

말풍선 꼬리

매일 스탬프를 찍을 수 있어요!

데일리 스탬프를 찍은 회원이 없습니다.
첫 스탬프를 찍어 보세요!

댓글 0

댓글 문구 추천

좋은기사 감사해요 후속기사 원해요 탁월한 분석이에요

0/1000

댓글 문구 추천

좋은기사 감사해요 후속기사 원해요 탁월한 분석이에요
1