AI 저장소 인프라가 산업 진화의 다음 단계에서 전략적으로 컴퓨팅과 동등한 중요성을 지니고 있다. 모델이 커지고 워크로드가 더 광범위한 환경으로 확장됨에 따라 업계는 비용과 복잡성을 억제하면서 높은 성능을 제공하는 데이터 아키텍처로 이동하고 있다. AI 인프라에서는 모든 기업이 스택의 각 층에서 더 많은 가치를 짜내기 위해 고군분투하고 있다. 더 나은 저장소를 갖추었을 때의 장점은 단지 부족을 해결하는 데 그치지 않고, GPU의 효율적인 작동을 통해 경제성을 강화하고 수익성을 높이는 데 있다고 Runpod의 CTO인 브레넌 스미스가 밝혔다.
스미스는 "우리는 Vast Data를 광범위하게 사용하며, 이는 우리의 마진을 12% 증가시키고 있다. 이는 매우 일관성 있는 전략이다. GPU에 저장소가 연결되면 더 많은 수익을 창출하는데, 이는 다양한 사용 사례를 가능하게 하기 때문"이라고 설명했다. 스미스, Vast Data의 필드 CTO인 앤디 펀슈타이너, Solidigm의 AI 및 생태계 마케팅 디렉터인 에이스 스트라이커는 Nvidia GTC AI 콘퍼런스에서 AI 저장소 인프라가 미래의 AI 시스템의 핵심 요소로 변화하고 있음을 논의했다.
AI가 더욱 널리 채택됨에 따라 조직은 유용한 인사이트를 생성하기 위해 더 많은 데이터를 빠르고 경제적으로 저장할 인프라가 필요하다는 것을 깨닫고 있다. 이러한 변화는 데이터 집약적인 시스템을 지원하는 인프라에 대한 수요를 증대시켰다. Solidigm의 122-TB SSD 출시는 저장소 밀도가 얼마나 빠르게 발전하고 있는지를 보여주는 예이며, 이 기술로 에너지 효율성을 개선하고 랙 공간을 조절할 수 있다는 게 Solidigm의 전략이다.
Stryker는 "GPU 서버나 네트워크 전체에 걸쳐 공유 저장소에서든, 효율적인 데이터 전송이 무엇보다 중요하다고 강조했다. Solidigm은 이러한 솔루션이 실제 세상에서 어떻게 사용되는지를 항상 고민하고 있다"고 덧붙였다.
<저작권자 ⓒ TokenPost, 무단전재 및 재배포 금지>