인공지능 개발 도구를 만드는 스타트업 래딕스아크(RadixArk)가 1억달러, 약 14억6060만원이 아닌 약 1460억6000만원 규모의 시드 투자를 유치했다. 오픈소스 기반으로 ‘학습’과 ‘추론’ 효율을 동시에 높이는 기술을 내세우면서, AI 인프라 시장의 새로운 기대주로 부상하는 모습이다.
현지시각 5일 월스트리트저널 보도에 따르면 이번 투자 라운드는 엔비디아($NVDA)의 벤처 투자 조직 엔벤처스(NVentures)와 스파크캐피털이 주도했다. 여기에 AMD($AMD), 데이터브릭스, 브로드컴($AVGO) 최고경영자 호크 탄(Hock Tan) 등이 참여했다. 이번 투자 이후 래딕스아크의 기업가치는 4억달러, 약 5842억4000만원으로 평가됐다.
래딕스아크는 SGLang과 마일스(Miles)라는 두 개의 오픈소스 프로젝트를 기반으로 상용 AI 개발 도구를 만들고 있다. 이 가운데 SGLang은 회사 설립 전부터 핵심 팀이 개발에 참여했던 기술이며, 마일스는 지난해 11월 공개됐다.
마일스는 강화학습 프로젝트를 더 효율적으로 진행할 수 있게 돕는 소프트웨어다. 강화학습은 대규모언어모델, 즉 LLM을 훈련할 때 널리 쓰이는 방식으로, 모델이 시행착오를 거치며 성능을 끌어올리는 구조다.
래딕스아크에 따르면 마일스는 1조개 파라미터 규모의 LLM도 단일 고성능 그래픽카드 메모리에 들어갈 수 있는 형태로 압축할 수 있다. 이런 방식은 모델 학습에 필요한 하드웨어 부담을 크게 낮춰 전체 훈련 비용 절감으로 이어질 수 있다.
여기에 마일스는 ‘비동기 공진화 프레임워크’인 MrlX도 포함하고 있다. 이 기능은 여러 AI 에이전트를 같은 시뮬레이션 환경에 두고 동시에 학습시키는 구조다. 각 에이전트가 서로의 행동과 결과를 학습하면서 추론 능력을 더 빠르게 다듬을 수 있다는 설명이다.
훈련이 끝난 뒤에는 SGLang이 추론 단계에서 역할을 맡는다. SGLang은 AI 모델이 실제 사용자 요청에 응답하는 ‘추론 환경’을 구축하는 데 필요한 구성 요소를 제공한다. 회사 측은 이 기술이 합산 40만개 이상의 그래픽카드로 이뤄진 AI 클러스터에서도 사용되고 있다고 밝혔다.
특히 주목되는 부분은 ‘KV 캐시’ 재사용 기능이다. LLM은 사용자의 지시를 해석하는 과정에서 대량의 임시 데이터를 생성하는데, 이 데이터는 KV 캐시라는 구조에 저장된다. 일반적으로는 요청이 끝날 때마다 이를 비우지만, SGLang은 일부 데이터를 다음 요청에서도 다시 활용할 수 있게 한다.
이 방식은 매번 처음부터 데이터를 새로 만들 필요를 줄여 인프라 오버헤드를 낮춘다. 동시에 응답 속도 개선 효과도 기대할 수 있다. AI 서비스 기업 입장에서는 서버 비용과 지연 시간을 함께 줄일 수 있는 셈이다.
SGLang에는 이 밖에도 성능 최적화 기능이 여럿 포함됐다. ‘추측 디코딩’ 방식으로 일부 작업을 더 가벼운 모델에 넘겨 하드웨어 부담을 줄이고, 서로 다른 아키텍처의 칩에 연산을 분산해 처리할 수도 있다. 특정 환경에서는 이런 구조가 모델 성능을 큰 폭으로 끌어올릴 수 있다.
래딕스아크는 앞으로 마일스와 SGLang을 바탕으로 ‘매니지드 인프라’와 각종 개발 도구를 상용 제품으로 내놓을 계획이다. 고객이 클라우드에서 AI 모델을 직접 호스팅할 수 있도록 지원하는 형태가 될 가능성이 크다. 동시에 오픈소스 버전의 기능도 계속 고도화한다는 방침이다.
이번 투자 유치는 단순한 자금 조달을 넘어, AI 산업의 경쟁 축이 모델 자체에서 ‘개발 효율’과 ‘운영 인프라’로 빠르게 이동하고 있음을 보여준다. 엔비디아와 AMD, 데이터브릭스 같은 주요 플레이어가 초기 단계부터 이름을 올렸다는 점도 이 시장의 성장성을 뒷받침하는 대목이다.
TP AI 유의사항 TokenPost.ai 기반 언어 모델을 사용하여 기사를 요약했습니다. 본문의 주요 내용이 제외되거나 사실과 다를 수 있습니다.<저작권자 ⓒ TokenPost, 무단전재 및 재배포 금지>
많이 본 기사