차세대 인공지능 시스템의 발전으로 데이터 저장 기술의 패러다임이 빠르게 바뀌고 있다. 단순히 정보를 보관하던 기존 스토리지가 아니라, 곧바로 행동으로 연결되는 고속 반응형 인프라로 진화 중이다. 슈퍼마이크로(SMCI), AMD(AMD), 웨스턴디지털(WDC), DDN 등 업계 주요 기업들은 최근 열린 '슈퍼마이크로 오픈 스토리지 서밋 2025'에서 이러한 변화의 중심축으로 부상한 '에이전틱 AI(agentic AI)'와 그 요구에 맞는 스토리지 인프라 전략을 제시했다.
에이전틱 AI는 단순한 연산 수행을 넘어 자율적 판단과 적응형 행동까지 수행하는 차세대 AI 아키텍처다. 이 기술은 엄청난 양의 데이터를 초저지연으로 다루어야 하며, 계산 영역과 저장 영역 사이의 물리적 경계를 제거하는 통합형 설계를 필요로 한다. DDN의 발라지 벵카테슈와란 부사장은 “기존의 콜드 데이터를 제외한 일부만 바로 사용할 수 있던 ‘빙산 모델’에서 벗어나, 전체 데이터를 실시간으로 활용할 수 있어야 한다”고 설명했다.
에이전틱 AI 시스템은 분산 스토리지와 고속 네트워크, 다계층 캐시 시스템을 통해 학습-추론 간 전 과정을 끊김없이 연결해야 한다. AMD의 케빈 강 총괄은 데이터 흐름을 최적화하기 위한 자사의 CPU, GPU, 스마트 NIC, 소프트웨어 스택 등을 소개하며 “GPU 메모리까지 직접 데이터를 전송할 수 있어 지연 시간을 최소화한다”고 강조했다. 그는 이어 “이제 인공지능은 답을 줄 뿐 아니라, 스스로 학습하고 다음 행동까지 스스로 판단한다. 이런 프로세스를 위한 전제조건은 빠른 데이터 접근과 업데이트”라고 덧붙였다.
웨스턴디지털의 프라빈 미다 디렉터는 이러한 추론 프로세스의 복잡성을 구체적으로 풀어냈다. “엔비디아 기반 추론 작업은 입력 데이터 사전처리, 중간 캐시 버퍼 구축, 실시간 토큰 출력 및 컨텍스트 업데이트 등 다단계 과정으로 구성되며, 각 단계가 모두 초고속 데이터 접근을 필요로 한다”며 “2025년은 본격적인 ‘에이전틱 AI 추론의 해’가 될 것”이라고 내다봤다.
스토리지 설계의 근본적인 방향성도 변화하고 있다. 단일 스토리지 시스템으로는 부족해진 오늘날, 슈퍼마이크로의 빈스 첸 이사는 “멀티 사이트 인프라, 광인터커넥트, 스트리밍 데이터 파이프라인이 실시간 오케스트레이션을 가능하게 만든다”고 말했다. 그는 또한 “파트너사와 협력해 고객별 수요에 맞춰 확장성과 효율성을 모두 갖춘 맞춤형 아키텍처를 제공 중”이라며 협업의 중요성을 강조했다.
데이터 이동 최소화 전략도 고성능 AI 시스템의 핵심 요소 중 하나다. DDN은 이를 위해 태깅 최적화 기술이 반영된 새로운 오브젝트 스토리지 솔루션 ‘인피니아’를 도입했다. 벵카테슈와란 부사장은 “AWS 오브젝트 스토리지를 인피니아로 교체한 것만으로도 딜레이가 급감하고 어플리케이션 성능은 22배 가까이 증가했다”고 전했다.
한편 GPU 기반 AI 시스템은 성능 중심 설계 외에도 전력 효율성이 중요한 과제로 떠오르고 있다. 미다 디렉터는 “GPU는 CPU보다 약 10배 더 많은 전력을 소비하며, 이는 전체 인프라 예산에 큰 영향을 미친다”며 “데이터센터 도입 및 운영에서 지역당 전력단가 차이도 고려해야 한다는 현실적 제약까지 더해졌다”고 설명했다.
정교한 기술 전략과 강력한 파트너십이 갖춰져야 완성되는 에이전틱 AI 인프라. 이를 위한 패러다임 전환과 시스템 통합 노력이 어떻게 결실을 맺을지, 데이터 기반 AI 시대를 준비하는 기업들의 발걸음에 관심이 집중되고 있다.