인공지능 스타트업 리퀴드 AI(Liquid AI)가 초소형이면서도 고성능을 자랑하는 새로운 AI 모델 ‘나노스(Nanos)’ 시리즈를 공개했다. 이 모델은 파라미터 수가 3억 5,000만~26억 개 사이에 불과하지만, 오픈AI의 GPT-4o급 성능에 근접하면서도 모든 연산을 단말기 내부에서 처리할 수 있어 주목받고 있다. 사용자는 클라우드 접속 없이 스마트폰이나 노트북 등에서 직접 AI 기능을 구현할 수 있으며, 개인정보 보호 측면에서도 혁신적인 해법이 될 전망이다.
리퀴드 AI의 CEO 라민 하사니(Ramin Hasani)는 “모든 데이터를 데이터센터로 전송하는 기존 방식 대신, ‘지능 그 자체를 단말로 보내는’ 패러다임 전환을 이루었다”며 “이러한 접근은 속도, 사생활 보호, 네트워크 회복력, 비용 효율성 면에서 탁월하다”고 강조했다.
이번에 공개된 7종의 나노스 모델은 특정 작업에 최적화되어 있으며, 일본어-영어 번역 모델 ‘LFM2-350M-ENJP-MT’ 와 이메일 청구서에서 데이터를 추출해 JSON 형식으로 구조화하는 ‘LFM-350M-Extract’ 등이 포함돼 있다. 모두 스마트폰 수준의 기기에서도 구동 가능하며, 동급 대비 최대 500배 이상 큰 일반 오픈소스 모델과도 대등하거나 능가하는 성능을 보인다.
주목할 만한 점은 일본어 번역 모델이 GPT-4o에 필적하는 정확도를 확보했다는 것이다. 리퀴드 AI는 위키피디아 기사와 뉴스문 등 다양한 유형의 텍스트를 교육 데이터로 활용했으며, 공인 벤치마크인 llm-jp-eval을 통해 성능을 검증했다.
리퀴드 AI는 1.2억 파라미터 버전도 개발해 문서 기반 질문 응답이나 복잡한 함수 연산 등을 처리할 수 있는 모델 ‘LFM2-1.2B-Extract’를 선보였다. 이 모델은 구글의 ‘제마(Gemma) 3 27B’보다 성능이 우수하며, 스마트폰 내 구동도 가능하다.
이런 초소형 AI 모델은 단말 기반 지능 시스템이나 경량 AI 에이전트를 구축하려는 개발자들에게 중요한 전환점이 된다. 기존의 거대 LLM 하나에 모든 기능을 의존하는 대신, 여러 소형 모델이 사용자의 요구에 맞춰 특정한 작업만 처리하여 전력 효율과 응답 속도에서 새로운 기준을 제시한다.
리퀴드는 이러한 모델을 ‘리퀴드 나노스’라고 명명하고, “한계 없이 확장 가능한 AI 인프라의 핵심”이라 자평했다. 최고기술책임자 마티아스 레히너(Mathias Lechner)는 “리퀴드 나노스는 프론티어 모델 수준의 정밀성과 성능을 제공하면서도 추론 비용은 제로에 가깝다”며, 자사 고객이 클라우드 대규모 환경은 물론 저전력 임베디드 기기에서도 안정적으로 배포하고 있다고 전했다.
이번 모델은 전통적인 GPT 기반 아키텍처와 달리 ‘리퀴드 뉴럴 네트워크’라는 독자적인 방식으로 구축돼 독자성과 성능에서 차별화를 이뤄냈다. 이 아키텍처는 더 적은 자원으로도 높은 정밀도와 범용성을 확보할 수 있도록 설계됐다.
리퀴드의 모델은 리퀴드 엣지 AI 플랫폼 LEAP을 통해 배포되며, 아이폰·안드로이드 스마트폰과 노트북에서도 쉽게 통합이 가능하다. 또한, 허깅페이스(Hugging Face)를 통해 소규모 사업자, 연구자, 개발자에게 폭넓은 라이선스를 제공하며 개방적인 접근을 허용하고 있다.
AMD의 CTO 마크 페이퍼마스터(Mark Papermaster)는 리퀴드의 모델에 대해 “에너지 효율적이면서도 프론티어급 AI 성능을 PC에 탑재하게 해 줄 결정적인 이정표”라며, 온디바이스 기반 AI가 지속 가능성과 확장성의 열쇠가 될 것이라 평가했다.
리퀴드 AI는 이번 출시를 통해 AI 기술의 접근성과 다양성을 동시에 제고하며, 차세대 AI 생태계를 위한 기술적 전환점을 제시한 셈이다. AI의 미래가 단일 거대 모델이 아닌, 수많은 특화된 소형 지능의 조합이라는 방향성을 명확히 보여주고 있다.