삼성전자의 연구진이 소형 인공지능(AI) 모델로 업계 상식에 도전장을 내밀었다. 캐나다 몬트리올의 삼성리서치 AI 랩이 개발한 'Tiny Recursive Model(TRM)'은 매개 변수 수가 700만 개에 불과하지만, 복잡한 추론 퍼즐에서 구글(GOOGL)의 '제미니 2.5 프로' 등 거대 언어모델(LLM)을 압도하는 성능을 입증해 주목받고 있다.
TRM은 이름 그대로 '재귀 추론(recursive reasoning)' 구조에 기반을 두고 설계됐다. 단순히 많은 파라미터를 이용한 무차별 연산이 아닌, 문제를 풀고 답을 평가한 뒤 다시 개선하는 과정을 반복하면서 정답에 다가간다. 이는 퍼즐처럼 구조화된 문제 해결에 특화된 전략으로, 코드 내에서 기억 공간인 '스크래치패드(scratchpad)'를 활용해 현재 해답과 중간 계산 결과를 보존하며 반복적으로 답안을 갱신한다.
TRM의 성과는 숫자로도 증명된다. 어려운 수준의 스도쿠 문제를 푸는 'Sudoku-Extreme' 벤치마크에서 87%의 정확도를 기록했으며, 복잡한 미로를 탐색하는 'Maze-Hard' 테스트에서 85%의 정답률을 보였다. 가장 인상적인 성과는 일반지능 수준을 검증하는 'ARC-AGI' 벤치마크에서 나타났다. 특히 'ARC-AGI-2'에서는 구글, 오픈AI, 앤트로픽(Anthropic PBC) 등 빅테크의 최신 모델들이 5% 미만의 정답률을 보인 반면, TRM은 8%로 압도적인 성능을 보였다.
무엇보다 TRM은 연산 자원이 거의 들지 않는다는 점에서 인공지능 생태계에 중요한 함의를 제공한다. 수십억 개 이상의 파라미터를 가진 대형 언어모델과 달리, TRM은 일반적인 하드웨어에서도 수일 내 실행이 가능하다. 연구를 이끈 알렉시아 졸리커 마르티노(Alexia Jolicoeur-Martineau) 박사는 블로그를 통해 "TRM은 전체 비용이 약 500달러(약 72만 원) 수준으로 비교적 저렴하게 구동되며, 수많은 중소 연구기관과 AI 스타트업들이 이를 통해 혁신에 참여할 수 있다"고 밝혔다.
다만 TRM은 현재 텍스트 생성이나 이미지 제작 등 다목적 활용이 불가능하다. 구조화된 격자 기반 태스크에만 최적화돼 있어, 기존 LLM의 용도를 대체하지는 못한다는 점에서 한계도 존재한다. 연구진은 향후 TRM의 재귀 학습 구조를 다양한 도메인에 확장 적용하는 후속 프로젝트를 진행할 계획이다.
이번 연구는 단순히 소형 모델의 효율성을 입증한 데 그치지 않고, 시장에서 ‘작을수록 강하다’는 새로운 설계 패러다임을 제시하며 AI 산업의 새로운 전기를 예고하고 있다.