클라우드 네이티브 생태계가 인공지능(AI)의 실제 운영에서 '컨트롤 플레인' 역할을 수행하면서, 기업의 IT 인프라 전략에 큰 변화를 일으키고 있다. 초기 AI 실험 단계를 넘어, 이제는 대규모 언어 모델을 안정적이며 경제적으로 실행하는 방법이 주된 관심사가 되고 있다. 이러한 전환은 주로 GPU 가용성과 데이터 주권과 같은 분야에서의 압박을 드러내고 있으며, 쿠버네티스(Kubernetes) 기반 플랫폼에서 상태 기반 워크로드와 자율 에이전트를 어떻게 지원할지에 대한 재고가 요구되고 있다.
이에 대한 대응으로, IBM과 구글 같은 주요 기술 기업들은 클라우드 네이티브 생태계에서 AI 워크로드와 플랫폼을 확장하고 있다. 특히 IBM은 Red Hat의 OpenShift를 중심으로 한 하이브리드 클라우드 소프트웨어 사업을 통해 큰 성장을 이루고 있다. 이 플랫폼은 AI 및 클라우드 워크로드에 대한 더 많은 제어를 제공함으로써, 규제 강화에 따른 주권적 요구 사항에 부합한다는 평가를 받고 있다.
클라우드 네이티브 생태계에서 AI의 실행 위치와 방식에 대한 재정립은 규제 변화와 함께 새로운 현실에 직면하면서, 이제 기업들은 운영 자주성을 보장하기 위한 주권 클라우드 솔루션을 더 적극적으로 채택하고 있다. 이러한 변화는 AI 워크로드가 운영 환경에서 큰 접점을 형성하는 가운데, 인프라의 복잡성을 줄이고 비용을 절감하려는 기업들의 노력을 반영하고 있다.
