테더(Tether)가 QVAC Fabric 내 교차 플랫폼 BitNet LoRA 미세 조정 프레임워크를 발표했다. 이 프레임워크는 마이크로소프트 BitNet(1-bit LLM)의 학습과 추론을 최적화해, 노트북·소비자용 GPU·스마트폰 등에서도 10억 매개변수급 모델을 학습·미세 조정할 수 있도록 설계됐다.
이번 솔루션은 BitNet 모델의 모바일 GPU(Adreno, Mali, Apple Bionic 등)에서의 미세 조정을 처음으로 구현했다. 테스트 결과, 1.25억(125M) 매개변수 모델은 약 10분 안에, 10억(1B) 매개변수 모델은 약 1시간 안에 미세 조정이 가능하며, 스마트폰 환경에서도 최대 130억(13B) 매개변수 모델까지 확장이 가능한 것으로 나타났다.
프레임워크는 Intel, AMD, Apple Silicon 등 이기종 하드웨어를 지원하며, 엔비디아(NVIDIA)가 아닌 장치에서 1-bit LLM LoRA 미세 조정을 구현한 첫 사례로 소개됐다. 모바일 GPU에서 BitNet 모델 추론 속도는 CPU 대비 2~11배 향상되었고, 메모리 사용량은 기존 16-bit 모델 대비 최대 약 77.8% 감소했다.
테더는 이번 기술이 고급 연산 자원과 클라우드 인프라 의존도를 낮추고, AI 학습의 분산화·로컬화를 촉진해 연합학습 등 새로운 활용 사례의 기반을 마련할 수 있을 것으로 전망했다.



