AI 시대, 저장장치가 진화한다… 실시간 연산까지 가능한 '지능형 저장소' 부상

| 김민준 기자

AI 인공지능 기술이 빠르게 업무 환경을 장악해가며 기업들은 '저장'이라는 인프라 개념 자체를 새롭게 정의해야 하는 상황에 직면하고 있다. 최근 개최된 '오픈 스토리지 서밋 2025(Open Storage Summit 2025)'에서는 슈퍼마이크로(SMCI)를 비롯한 주요 기술 기업들이 고성능 컴퓨팅과 AI 추론을 위한 차세대 저장 솔루션을 집중 조명했다.

이번 행사를 통해 슈퍼마이크로, 엔비디아(NVDA), 스칼리티, 교시아, 웨카IO 등 업계 리더들은 AI 인프라 전환에 맞춰 저장 기술의 근본적인 혁신이 불가피하다는 데 의견을 함께했다. 특히 AI 확대와 더불어 '추론(inferencing)' 기술이 부상함에 따라 저장 장치는 단순한 데이터 보관 장비를 넘어 실시간 검색, 장기 캐시, 연산 가속 기능까지 요구받는 상황이다.

존 킴 엔비디아 스토리지 마케팅 이사는 AI 추론을 위한 저장 기술의 핵심 요건으로 'RAG(Retrieval Augmented Generation)'와 'KV 캐시'를 꼽았다. 그는 "RAG는 질의가 의미 기반 검색을 통해 최신 데이터를 실시간으로 호출하도록 요구하며, KV 캐시는 AI 쿼리 문맥이 길어질수록 더 많은 계산과 저장 병목을 유발한다"고 설명했다.

슈퍼마이크로의 제품 매니저 앨런 리우는 이러한 변화에 맞춰 '데이터센터 빌딩 블록 솔루션(DCBBS)'이라는 통합 프레임워크를 공개했다. 이 솔루션은 서버, 저장장치, 네트워크, 냉각 환경을 포함한 랙 단위의 통합형 데이터센터 구조로, AI 수요 급증에 대응하기 위한 목적에서 설계됐다.

웨카IO는 '뉴럴메시(NeuralMesh)'라는 차세대 플랫폼을 통해 고성능 컴퓨팅(HPC) 기반의 예측 불가능한 AI 워크로드에 유연하게 대응할 수 있는 저장 구조를 선보였다. 케빈 텁스 웨카IO CTO는 "AI는 끊임없이 진화하고 있으며, 저장 기술도 그 흐름에 맞춰 설계되어야 한다"고 강조했다.

SSD와 객체 저장소 또한 AI 인프라의 핵심 부문으로 다시 주목 받고 있다. 교시아의 안더스 그레이엄 디렉터는 PCIe 5.0 기반 SSD가 AI 학습과 추론 작업에서 높은 처리량을 제공함으로써 저장 속도의 새로운 기준점으로 떠올랐다고 평가했다. 그는 "차세대 CDAP 드라이브 출시를 앞두고 있으며, 이를 통해 더욱 강력한 성능이 구현될 것"이라고 전했다.

한편, 스칼리티는 객체 저장소 고도화를 위해 전통적인 소프트웨어 스택을 제거하고 GPU에서 플래시 메모리로 직접 연결되는 NVMe-oF 기술을 도입한 'RING XP' 제품을 소개했다. 조르지오 레그니 CTO는 "필요없는 기능을 제거함으로써 성능을 극대화해야 한다"고 전했다.

이번 공개된 기술 경향은 단순 저장 장치를 넘어서 AI와 HPC 인프라의 중추로서 저장 솔루션의 역할이 얼마나 확대되고 있는지를 잘 보여준다. AI 시대의 데이터 저장소는 더 이상 수동적인 장소가 아니라, 실시간 연산과 검색, 유연한 확장이 가능한 능동적인 컴퓨팅 환경으로 진화하고 있다. AI의 무게 중심이 학습에서 추론으로, 갇힌 연산에서 실시간 서비스로 이동함에 따라, 저장 기술의 재정의는 향후 데이터센터 전략의 결정적 분기점이 될 전망이다.