한국형 인공지능 본격 시동… 정부, 2030년까지 GPU 20만 장·세계 10위 LLM 개발 추진

| 연합뉴스

정부가 인공지능 산업을 국가 성장의 핵심축으로 삼고, 2030년까지 그래픽처리장치(GPU) 20만 장을 확보하고 세계 10위권 대형언어모델(LLM)을 개발하는 등 대규모 인프라 확충과 기술 자립을 본격화하고 있다.

배경훈 과학기술정보통신부 장관은 지난 9월 12일 서울 광화문에서 열린 취임 50일 기자간담회에서 인공지능과 과학기술을 통한 국가 경쟁력 제고 방안을 제시했다. 그는 2028년까지 GPU 5만 장 확보에 이어 2030년에는 20만 장까지 확장하는 계획을 공식화하면서, 대형 인공지능 학습과 추론을 위한 하드웨어 인프라 구축의 중요성을 강조했다. GPU는 대규모 데이터를 처리하는 인공지능 모델의 핵심 장비로, 이 장비 확보는 국산 인공지능 기술 자립과 개발 가속화를 위한 전제 조건이다.

정부는 이러한 인프라 확장을 바탕으로 독자적인 대형언어모델 개발에도 속도를 내고 있다. 기존에는 주로 해외 기술에 의존했지만, 올해 안으로 세계 10위권 수준의 국산 대형언어모델을 공개한다는 계획이다. 민간 대기업이 참여하는 '파운데이션 모델 컨소시엄'도 가동 중인데, 이는 인공지능 개발을 오픈소스 방식으로 운영해 한국형 인공지능 모델이 글로벌 선택지를 대체할 수 있도록 한다는 전략의 일환이다. 한국이 개발한 AI가 미국(라마 모델)이나 중국(큐웬 모델)을 대체해, 해외 이용자들도 활용할 수 있는 수준까지 끌어올리는 것이 목표다.

이와 함께 물리 환경에서 자율적으로 판단하고 행동하는 차세대 인공지능, 즉 피지컬 AI에 대한 구상도 밝히며, 제조 강국으로서의 특성을 살려 중국과 미국이 경쟁하는 신기술 영역에서 한국이 새로운 기회를 잡을 수 있다고 주장했다. 제조업 기반을 가진 한국은 하드웨어 중심의 인공지능 구현에 있어 강점을 갖고 있으며, 이를 바탕으로 데이터와 반도체, 알고리즘의 긴밀한 연계를 추진 중이다. 정부는 또한 인공지능 전문인력을 키우기 위해 'AX대학원'을 내년부터 운영하고, 도메인 전문가와 AI 연구자가 협업하는 데이터 구축 환경도 조성한다.

정부 행정체계 측면에서는 인공지능 및 과학기술 관련 부처 간 협업 체계를 정비하는 차원에서 과학기술인공지능 장관회의를 부활시키기로 했다. 그는 인공지능 거버넌스를 명확히 하기 위해 각 부처가 개별적으로 추진하는 아젠다를 조율하고, 중복 투자를 방지하는 효율적 체계를 마련하겠다고 밝혔다. 이는 자율성을 보장하면서도 국가 차원의 전략적 조율을 강화하겠다는 뜻으로 풀이된다.

장기적으로는 이러한 기술적 자립과 체계화를 통해 대한민국이 미국, 중국과 어깨를 나란히 하는 ‘AI 3강’으로 도약하겠다는 목표다. 이를 위해 미국과의 기술격차도 2030년까지 0.5년 수준으로 좁히겠다고 밝혔다. 이런 비전은 단순한 기술 개발을 넘어, 에너지 문제 대응까지 포함하는 국가 전략으로 확장된다. 배 장관은 인공지능 전력 수요에 대응하기 위해 소형모듈원자로(SMR) 개발의 필요성을 강조하며, 안정적인 에너지 공급 기반을 구축하는 데도 속도를 내겠다고 말했다.

이 같은 정부의 인공지능 육성 계획은 단기적 성과보다는 중장기 국가 경쟁력을 위한 전략적 투자의 성격이 강하다. 다만 대형 인프라 구축과 인재양성, 제도 정비가 동시에 추진되는 만큼, 민간과 공공 부문 간 긴밀한 협력이 앞으로 실질적 성과로 이어지느냐가 관건이 될 전망이다.