日 사카나AI, AI 모델 '집단지능' 실현…단일 LLM보다 30% 정확도 높여

| 김민준 기자

일본의 인공지능 스타트업 사카나AI(Sakana AI)가 복수의 대형언어모델(LLM)을 협업 체계로 운영해 단일 모델보다 최대 30% 이상 높은 성능을 발휘할 수 있는 새로운 기술을 공개했다. 이들은 ‘트리퀘스트(TreeQuest)’라 명명된 오픈소스 알고리즘을 활용해, 다양한 AI 모델들을 과제별로 전략적으로 조율하고 배치함으로써 기업용 AI 시스템에 새로운 가능성을 제시했다.

이 기술의 핵심은 ‘적응형 분기 몬테카를로 트리 탐색’(Adaptive Branching Monte Carlo Tree Search, AB-MCTS) 기법이다. 이는 문제 해결 단계에서 AI 모델이 어느 시점에 어떤 전략을 취할지를 확률적으로 판단하는 알고리즘으로, 단일 모델에 의존하지 않고 다양한 모델의 장점을 유기적으로 결합한다. 예를 들어 어떤 모델이 정답에 근접한 아이디어를 생성하면 이를 다른 모델이 발전시키는 식으로, 각 모델의 편향과 강점을 조화롭게 이용한다.

기존 LLM은 모델 자체를 확장하거나(Bigger is Better) 더 많은 데이터를 학습시키는 훈련 중심의 확장에 집중해왔다. 이에 반해, 사카나AI는 ‘추론 단계 확장’ 즉, 이미 훈련된 모델을 대상으로 더 많은 계산 리소스를 배분함으로써 지능을 강화하는 방식에 주목했다. 이는 반복 샘플링과 강화학습 기반의 장문 추론 기법을 결합해, 주어진 문제에 대해 다양한 아이디어를 생성하고 이 중 최선의 해답을 선택하는 구조로 작동한다.

이 시스템은 OpenAI의 o4-mini, 구글의 제미니 2.5 프로(Gemini 2.5 Pro), 딥식R1(DeepSeek-R1) 등 최첨단 LLM을 협업하도록 설계됐으며, 이 모델군은 인공지능 추론 성능 관련 주요 벤치마크인 ARC-AGI-2에서 단일 모델 대비 평균 30% 이상의 정확도를 달성하는 데 성공했다. 특히 개별 모델이 단독으론 풀 수 없었던 문제를 공동으로 해결해내는 사례도 발생, 집단지성이 작동하는 방식에서 진정한 전략적 시너지가 확인됐다.

AB-MCTS는 과제 해결 중에도 지속적으로 가장 성과가 좋은 모델을 파악하고, 후속 단계에 더 많은 리소스를 집중하는 방식으로 효율성과 정확성을 동시에 꾀한다. 이러한 방식은 단순 다수결 기반의 앙상블 기법이나 단선적인 모델 선택 방식을 넘어선 고차원 전략이라는 평가를 받고 있다. 무엇보다 AI 모델마다 발생 확률이 다른 ‘환각 현상(hallucination)’을 상호 보완해줄 수 있어, 실무용 AI 시스템에 보다 신뢰할 수 있는 결과를 제공하는 것이 강점이다.

기업 현장에선 이를 복잡한 알고리즘 디자인, 웹서비스 반응 속도 개선, 머신러닝 모델 정밀도 최적화 등 다양한 반복 기반 작업에 적용할 수 있을 것으로 보인다. 특히 AB-MCTS는 단 한 번의 해답이 아닌 ‘시도와 실패’의 과정을 거쳐 점진적으로 솔루션을 발전시키는 데 탁월한 구조를 갖추고 있다.

사카나AI는 이 혁신적인 알고리즘을 오픈소스 프레임워크인 ‘트리퀘스트’로 공개하며, 상업적 이용이 가능한 아파치 2.0 라이선스로 배포했다. 이는 AI 개발자들과 기업들이 자신들의 도메인에 맞는 방식으로 다중 모델 집단지능 구조를 유연하게 구현할 수 있도록 지원한다. 향후 기업용 AI 상용화의 주요 흐름 중 하나로, 다모델 협업 기반의 추론 구조가 자리잡을 것이란 전망도 나온다.