양자컴퓨팅, 단독 경쟁 넘어 AI·슈퍼컴퓨터와 ‘하이브리드’로 간다

| 강수빈 기자

제5회 ‘월드 퀀텀 데이’가 14일 시작된 가운데, 연구 현장의 관심이 양자 하드웨어 자체 실험에서 실제 컴퓨팅 환경 통합으로 옮겨가고 있다. 양자 컴퓨팅을 별도 기술로 다루기보다 인공지능(AI), 중앙처리장치(CPU), 그래픽처리장치(GPU), 슈퍼컴퓨터와 함께 쓰는 ‘이기종 컴퓨팅’의 한 축으로 편입하려는 흐름이 뚜렷해졌다는 평가다.

미국 아르곤 국립연구소는 기존 고성능컴퓨팅(HPC) 작업 흐름에 양자 시스템을 접목하는 연구를 진행 중이다. 프로젝트를 이끄는 로라 슐츠는 HPE 월드 퀀텀 데이 행사 인터뷰에서 양자 컴퓨팅이 모든 문제를 대체하는 범용 기술이 아니라, 특정 연산에 강점을 지닌 특화 수단이라고 설명했다. 그는 과학자들에게 기존 방식으로 얻기 어려웠던 결과를 제공하는 것이 목표라고 말했다.

AI·GPU·양자 결합, 슈퍼컴퓨터 활용 방식 바꾼다

기존 HPC는 오랫동안 모델링과 시뮬레이션에 활용돼 왔다. 여기에 GPU가 더해지며 AI와 머신러닝 발전이 빨라졌고, 이제 양자 컴퓨팅은 양자역학 시스템 분석이나 복잡한 최적화 문제를 위한 새 도구로 자리 잡고 있다.

양자 컴퓨팅의 강점은 고전 컴퓨터처럼 양자 현상을 간접적으로 흉내 내는 것이 아니라, 관련 현상을 보다 직접적으로 다룰 수 있다는 점이다. 특히 화학과 소재과학처럼 정밀도가 중요한 분야에서는 기존 시뮬레이션의 근사 계산 부담을 줄이고 효율을 높일 가능성이 크다.

실제 연구 현장에서는 문제 전체를 양자 시스템에 맡기기보다, 분자 모델링이나 최적화 같은 일부 연산만 떼어 양자 장치에서 처리한 뒤 그 결과를 다시 슈퍼컴퓨터 기반 시뮬레이션으로 돌려보내는 방식이 유력하다. 이는 양자 컴퓨팅이 단독 설비보다 ‘하이브리드 컴퓨팅’ 환경에서 더 현실적인 가치를 낼 수 있음을 보여준다.

상용화까지는 시간… 큐비트 안정성과 소프트웨어가 관건

다만 넘어야 할 장벽은 여전히 크다. 양자 정보의 기본 단위인 큐비트는 매우 불안정하고 오류에 취약하다. 극저온 환경에서 상태를 유지해야 하며, 계산에 필요한 시간 동안 안정성을 확보하는 것이 핵심 과제로 꼽힌다. 큐비트가 양자 상태를 잃으면 연산 자체가 불가능해진다.

소프트웨어 기반도 아직 충분하지 않다. 현재 많은 양자 시스템은 사용자가 하드웨어 수준에서 직접 접근해야 해 초기 고전 컴퓨터를 이진 코드로 다루던 시절과 비슷하다는 지적이 나온다. 아르곤 국립연구소와 협력 기관들은 연구자들이 양자역학 전문 지식 없이도 기존 작업 흐름에 양자 컴퓨팅을 넣을 수 있도록 중간 소프트웨어 계층을 개발하고 있다.

AI도 양자 컴퓨팅 발전에 중요한 역할을 하고 있다. 연구진은 AI를 활용해 새 양자 알고리즘을 찾고, 오류 보정을 최적화하며, HPC·AI·양자 컴퓨팅이 결합된 복합 작업 흐름의 효율을 높이는 방안을 시험 중이다.

‘즉시 대중화’보다 단계적 확산 전망

로라 슐츠는 양자 컴퓨팅의 대중적 보급이 단기간에 이뤄지기는 어렵다고 봤다. 소규모 시스템은 이미 존재하지만, 일반 연구자나 기업이 손쉽게 구매해 활용하는 ‘기성품’ 수준의 양자 컴퓨터가 보편화되기까지는 적지 않은 시간이 필요하다는 의미다.

당분간 시장과 연구 현장의 초점은 실험 확대, 시스템 통합, 접근성 개선에 맞춰질 가능성이 크다. 더 많은 연구자가 실제 작업 흐름 안에서 양자 컴퓨팅 성능을 시험할수록, 이 기술이 어디에서 확실한 효용을 내는지도 점차 선명해질 전망이다.

이번 흐름은 양자 컴퓨팅 경쟁이 이제 ‘누가 더 많은 큐비트를 보유했는가’에서 ‘누가 기존 AI·슈퍼컴퓨팅 생태계와 더 잘 연결하느냐’로 이동하고 있음을 시사한다. 결국 상용화의 속도보다 중요한 것은, 현장 문제를 실제로 풀어낼 수 있는 통합 능력이라는 해석이 나온다.

TP AI 유의사항 TokenPost.ai 기반 언어 모델을 사용하여 기사를 요약했습니다. 본문의 주요 내용이 제외되거나 사실과 다를 수 있습니다.
본 기사는 시장 데이터 및 차트 분석을 바탕으로 작성되었으며, 특정 종목에 대한 투자 권유가 아닙니다.

많이 본 기사

지금 꼭 알아야 할 리포트