KT가 자체 개발한 인공지능 언어모델 ‘라마 K(Llama K)’를 9월 30일 공식 출시했다. 이 모델은 메타(구 페이스북)가 공개한 오픈소스 기반의 ‘라마 3.3(Llama 3.3)’을 토대로 한국어 처리 능력을 대폭 높인 것이 특징이다.
파라미터(모델이 학습하는 인공지능의 구성 요소) 수가 740억 개에 달하는 ‘라마 K 74B’는, 메타의 원본 모델에서는 상대적으로 미흡했던 한국어 대응 기능을 중점적으로 보완했다. 특히 복잡한 명령을 정확히 이해하고 이에 맞춰 응답하는 ‘지시 이행 능력’과, 맥락을 고려해 판단하는 ‘추론 능력’에서 큰 향상이 이뤄졌다는 설명이다.
KT는 공개 벤치마크 테스트와 자사 내부의 한국어 특화 평가 결과를 근거로, 라마 K가 한국어 이해도, 사회문화적 응답, 전문지식 처리 등 전 영역에서 원본 모델보다 뛰어난 성능을 발휘했다고 밝혔다. 일부 지표에서는 미국 오픈AI의 초거대 모델 GPT-4o와도 경쟁할 만한 수준을 보여줬다고 강조했다.
이와 함께 KT는 인공지능 윤리와 실용화를 함께 고려했다고 덧붙였다. 데이터 수집 단계부터 개인정보 보호 기준을 철저히 적용했고, 해로운 표현이나 잘못된 정보를 생성하는 이른바 ‘환각 현상’도 줄이기 위한 장치를 마련했다. 아울러 모델 병합 및 연산 최적화 기술을 도입해 인공지능 작동 과정에서 필요한 GPU(그래픽 처리 장치) 사용률을 낮추고, 이에 따라 에너지 소비도 절감했다고 설명했다.
KT는 이번 출시로 기업용 인공지능 서비스 확대에도 속도를 내겠다는 방침이다. 윤경아 상무는 이번 라인업 확장을 통해 기존 중소형 모델 ‘믿음 K’는 물론, ‘라마 K’ 및 초대형 모델 ‘소타 K(SOTA K)’까지 갖춰 공공부터 민간까지 다양한 수요에 대응하겠다고 밝혔다.
이 같은 국산 특화 인공지능 모델의 개발은 국내 AI 생태계의 독립성과 경쟁력 강화를 의미한다. 향후 정부의 AI 활성화 정책, 기업 간 협력, 클라우드 인프라 확대 등과 맞물리면서, 한국어 기반의 고성능 언어모델의 수요와 활용도는 더욱 증가할 것으로 보인다.
<저작권자 ⓒ TokenPost, 무단전재 및 재배포 금지>