AI 도입이 시범 단계를 넘어 본격적인 대규모 가동 국면에 접어들며, 데이터센터 기반 인프라에는 그 어느 때보다 높은 성능과 안정성이 요구되고 있다. 특히, GPU 중심의 학습 처리와 대규모 추론 처리에는 막대한 네트워크 대역폭, 지능형 자동화, 그리고 철저한 보안이 필수적이다.
이러한 수요에 대응하기 위해 주니퍼네트웍스(JNPR)와 휴렛팩커드 엔터프라이즈(HPE)는 각자의 전문 영역을 결합한 AI 전용 네트워킹 솔루션을 선보이고 있다. 주니퍼는 이더넷 연구 및 검증된 구성 청사진을, HPE는 랙 스케일 서버와 슈퍼컴퓨팅 역량을 제공한다. 두 회사는 함께 사전 테스트된 시스템을 구축함으로써 AI에 최적화된 네트워크 인프라의 기반을 강화한다는 전략이다.
주니퍼 제품 담당 부사장 프라풀 랄찬다니는 “AI 학습과 추론은 고도의 분산 컴퓨팅 문제”라며 “기업들은 대부분 자체 모델 개발보다는, 외부 생성형 모델을 활용하는 방식으로 접근할 가능성이 높다. 이는 곧 고성능 네트워크가 반드시 병렬로 확보돼야 한다는 뜻”이라고 강조했다.
이번 전략은 성능뿐 아니라 자동화와 보안, 그리고 손쉬운 배치를 포함한 네 가지 핵심 목표를 중심으로 설계됐다. 보안 측면에서 주니퍼 수석 세일즈 엔지니어 존 그린은 “AI 서비스는 SaaS든 IaaS든 다중 테넌시 리스크를 내포하고 있으며, 가장 안전한 방식은 온프레미스 모델”이라고 설명했다. 특히 AI 시스템은 전통적인 방식과 달리 데이터 가시성 확보가 어렵고, 벡터 공간으로 표현된 결과값이 타깃이 되기 쉬워 보안 설계가 더욱 중요하다는 설명이다.
AI에 최적화된 성능 확보를 위해 주니퍼와 HPE는 ‘AI 최적화 이더넷’ 기술도 적극 개발 중이다. 이더넷 특유의 병목과 비예측성을 제거하기 위해 RDMA 인지형 로드밸런싱과 정량화된 혼잡 제어 기술이 접목됐다. 이는 그간 인피니밴드 중심의 AI 워크로드를 대체할 수 있는 수단으로 주목받고 있다. HPE의 AI 팩토리 솔루션 총괄 바라스 라메쉬는 “우리는 플랫폼, 소프트웨어, 서비스까지 포함하는 참조 아키텍처를 통해 고객이 80% 완성 상태에서 AI 도입을 시작할 수 있도록 돕고 있다”고 밝혔다.
이번 협업은 단순한 인프라 통합을 넘어, AI 추론과 학습이 새로운 데이터 흐름의 중심축으로 부상하며 네트워크와 보안을 동시에 진화시켜야 한다는 과제를 반영하는 사례다. 엔터프라이즈 IT가 AI 성과를 대규모로 실현하려면, 이러한 고도화된 네트워크 전략이 필수적이라는 점을 이번 발표는 명확히 보여주고 있다.