인공지능 모델 파인튜닝 솔루션을 제공하는 스타트업 투게더AI(Together.ai)가 브라우저 기반 환경에서 손쉽게 모델을 미세 조정할 수 있도록 플랫폼을 대대적으로 업그레이드했다. 이번 개선은 오픈소스 LLM(대규모 언어모델)을 보다 쉽고 경제적으로 지속적으로 진화시킬 수 있도록 설계됐으며, 특히 개발자 친화적인 기능들이 대거 포함됐다.
기존에는 파인튜닝에 앞서 API 호출 또는 파이썬 SDK 설치라는 기술적 장벽이 존재했지만, 이제는 웹브라우저만으로 데이터 업로드부터 학습 매개변수 설정, 실험 결과 추적까지 전 과정을 처리할 수 있다. 이를 통해 코딩 지식이 부족한 개발자도 직관적인 인터페이스를 활용해 모델 조정 작업을 수행할 수 있으며, 수작업으로 API 스크립트를 작성하던 방식에 비해 최대 50%까지 시간이 절약된다는 설명이다.
이번 플랫폼 업데이트에서 핵심적인 새로운 기능 중 하나는 ‘직접 선호 최적화(Direct Preference Optimization)’ 기반의 파인튜닝이다. 이 방식은 각 프롬프트에 대해 사용자의 선호 응답과 덜 바람직한 응답을 함께 제공하면서, 모델이 비교 학습을 통해 바람직한 응답을 자연스럽게 선호하도록 유도한다. 강화를 위한 별도의 보상 모델 구축이 필요하지 않아 구현이 훨씬 간단하고 효율적인 것이 장점이다.
투게더AI의 제품 책임자인 아니루드 자인(Anirudh Jain)은 “감독형 학습이 ‘무엇을 말할지’를 훈련시키는 과정이라면, 선호기반 학습은 ‘무엇을 말하지 말아야 할지’를 가르치는 방식”이라며 용도에 따라 학습 전략을 구분해 적용하는 것이 바람직하다고 설명했다.
여기에 더해 기존 학습 결과를 바탕으로 이어서 훈련을 진행할 수 있는 기능도 지원된다. 체크포인트 ID만 입력하면 이전 훈련 흐름을 그대로 이어받아 새로운 학습 단계로 확장할 수 있어, 다단계 학습 파이프라인 운영에 큰 유연성을 더한다.
또한 대화 데이터 내 메시지마다 가중치를 다르게 부여할 수 있는 옵션도 도입됐다. 이는 불필요한 학습 데이터를 단순히 삭제하지 않고, 학습 효과를 미세 조절하면서 보다 정교한 모델 조정이 가능하게 만든다. 학습률 조절 기능에도 새로운 ‘코사인 스케줄러’가 추가돼 더 섬세한 조정이 가능하다.
데이터 전처리 엔진의 성능도 함께 향상됐다. 회사에 따르면 대규모 학습 작업에서는 최대 32%, 소규모 작업에서는 최대 17% 수준의 성능 개선이 이루어졌다. 여기에 프로젝트 규모에 상관없이 누구나 사용할 수 있도록 선불 요금제(flexible pay-as-you-go)도 도입되었으며, 모델 크기와 학습 방식에 따라 비용이 유동적으로 책정된다.
현재 투게더AI 플랫폼은 라마3(Llama 3), 제마(Gemma), 딥시크 R1(DeepSeek-R1) 등을 포함한 인기 LLM을 지원하며, 향후 라마4나 차세대 딥시크 모델 등 더욱 고성능의 오픈 모델들에 대한 지원도 예고된 상태다.
이번 개선을 통해 투게더AI는 LLM 커스터마이징의 진입장벽을 낮추고, 기업 및 개발자가 자사 애플리케이션 요구에 맞춰 모델을 지속적으로 성장시킬 수 있는 발판을 마련했다는 평가를 받고 있다. AI는 정적인 기술이 아니라, 사용자 환경에 맞춰 진화해야 한다는 이들의 철학이 플랫폼 전반에 반영된 셈이다.