레드햇과 인텔이 오픈소스를 기반으로 하는 AI 생태계 강화에 나서며 새로운 접근방식을 제시하고 있다. 이들이 주목한 핵심 기술은 오픈소스 추론 서버인 vLLM으로, 기업의 생성형 AI 운영을 보다 효율적이고 지속 가능하게 만드는 해법으로 부상하고 있다.
vLLM은 대규모 언어모델을 보다 빠르게 실행할 수 있도록 구성된 경량화된 오픈소스 코드 라이브러리로, 모델과 하드웨어 가속기 간의 중간 계층 역할을 한다. 레드햇은 이를 자사 Red Hat OpenShift AI 및 엔터프라이즈 리눅스 기반 AI 제품에 통합하며 오픈소스 AI 솔루션의 상용화를 주도하고 있다. 여기에 인텔의 새로운 AI 전용 GPU 라인업이 더해지며 성능 최적화와 비용 절감이라는 두 마리 토끼를 동시에 잡겠다는 전략이다.
레드햇 Summit 2025 현장에서 진행된 인터뷰에서 크리스 토바이어스 인텔 플랫폼 ISV 담당 GM과 라이언 킹 레드햇 AI 및 인프라 생태계 총괄은 양사의 협업이 AI 도입 장벽을 낮추고 있다고 강조했다. 킹은 “혁신적 개발자들과 협력해 오픈 프로젝트를 표준화하고, 이를 엔터프라이즈 환경에 적용 가능한 형태로 전환하는 것이 우리 방식”이라고 설명했다. 토바이어스도 “AI 솔루션이 복잡한 하드웨어 의존성을 줄이도록 돕고, 기업은 자신들의 업무에 집중할 수 있도록 체계적인 인프라 환경을 제공하는 것이 목표”라고 말했다.
인텔과 레드햇은 그간 다양한 기술 검증(PoC)을 수행하며 서로의 호환성을 테스트해 왔고, 특히 OpenShift AI 환경에서 vLLM을 활용한 사례들이 가시적인 성과를 내면서 고객 수요도 빠르게 증가하고 있다. 킹은 “vLLM이 레드햇의 핵심 프레임워크로 자리잡으면서 PoC 요청이 대폭 늘고 있다”며, 모델이 하드웨어 가속기와 함께 즉시 운영될 수 있도록 초기 적용부터 신속한 배포가 가능하다고 덧붙였다.
양사는 앞으로도 비용 효율성과 민첩성을 갖춘 AI 인프라를 구축하려는 기업들에게 맞춤형 솔루션을 제공할 계획이다. vLLM은 소규모 모델 운영, 온프레미스 배치 최적화 등 다양한 수요에 대응하며 생성형 AI의 현실적 도입을 뒷받침할 구심점으로 평가받고 있다. 레드햇의 오픈소스 철학과 인텔의 하드웨어 혁신이 결합되면서, 양사의 협업은 AI 기술을 보다 폭넓은 비즈니스 현장으로 확산시키는 데 결정적인 역할을 수행할 전망이다.