딥시크(DeepSeek)가 올 1월 출시한 R1 모델은 단순한 신제품 발표를 넘어 인공지능 업계 전반의 패러다임에 변화를 일으켰다. 기존 기술을 재활용하면서도 극도로 낮은 비용으로 경쟁사와 유사한 성능을 구현해낸 딥시크의 행보는, AI 기술 진화의 새로운 방향을 제시했다.
딥시크가 지닌 진정한 혁신은 ‘새로운 모델’이 아니라, 주어진 자원 내에서 최적의 효율을 끌어내는 전략에서 비롯됐다. 미국의 첨단 반도체 수출 규제로 최신 AI 칩 접근이 제한된 상황에서도, 네트워크와 메모리를 극대화해 분산 연산을 설계했고, 덕분에 OpenAI의 오리온(Orion) 대비 약 1.2%에 불과한 비용으로 비슷한 수준의 성능을 달성했다. 딥시크가 R1 모델 훈련에 투입한 비용은 약 560만 달러(약 80억 원)로, OpenAI가 동일 시점 모형 훈련에 사용한 약 5억 달러(약 7,200억 원)와 비교하면 그 차이는 압도적이다.
칩 성능 제약을 극복하기 위해 딥시크는 하드웨어 의존도를 낮추고, 효율성을 극대화하는 방향으로 연구 방향을 틀었다. 특히 학습 데이터 구성에 있어서도 딥시크는 웹 기반 콘텐츠 의존도를 낮추고 대량의 합성 데이터와 사전 훈련된 모델 출력을 전략적으로 활용했다. 이는 비용 절감 뿐 아니라 모델 학습 정교화의 기반이 됐지만, 데이터 소유권이나 편향 가능성에 대한 서구 기업들의 민감한 규제를 고려할 때 상당한 논란도 내포하고 있다.
이러한 전략이 가능했던 배경에는 딥시크의 모델 아키텍처, 특히 트랜스포머 기반 ‘전문가 혼합(MoE)’ 구조가 존재한다. 해당 구조는 합성 데이터를 적절히 소화하면서도 현실 데이터 기반 문제 해결 능력을 유지하는 데 유리한 것으로 평가된다. 단일하고 고밀도(dense)한 구조를 사용하는 모델들은 너무 많은 합성 데이터에 노출될 경우 ‘편향 학습’이나 ‘모델 붕괴’ 위험성이 크기 때문이다.
딥시크의 부상은 AI 시장에도 실질적인 변화를 유도하고 있다. 특히 OpenAI는 2019년 이후 처음으로 공개 가중치 방식의 모델을 예고했다. 자사 플랫폼의 핵심 경쟁력이 ‘비공개 시스템’이라는 전제에서 강력한 속도 조절 신호인 셈이다. 샘 알트먼(Sam Altman) CEO는 공개석상에서 “오픈소스에 대해 관점이 바뀌었다”고 인정했으며, 이는 딥시크와 메타(META)의 라마(LLaMA) 시리즈가 시장 위상을 빠르게 높이고 있음을 방증한다.
또한 OpenAI는 약 3000억 달러(약 432조 원)의 기업 가치를 기반으로 400억 달러(약 57조 6,000억 원) 규모의 신규 투자 유치에 돌입했다. 운영비만 연간 70억~80억 달러대에 이르는 가운데, 효율적 구조를 앞세운 경쟁자들의 등장은 더 이상 간과할 수 없는 위협이다. 카이푸 리(Kai-Fu Lee) 전 구글차이나 대표는 “누군가는 수조 원을 쓰며 적자를 감수하고 있고, 누군가는 비용 거의 없이 유사한 성능을 공개하고 있다”고 지적했다.
딥시크는 후속 모델 출시뿐 아니라 ‘추론시 학습(Test-time compute)’ 전략도 병행하고 있다. 대표적으로 칭화대와의 협업을 통해 진행 중인 ‘자가평가 튜닝(self-principled critique tuning, SPCT)’은 AI가 자체 규범을 정립하고, 이를 기준 삼아 자가 피드백을 제공하는 시스템이다. 이 방식은 인간의 평가 기준 없이도 AI가 스스로 성능을 개선할 수 있게 하지만, 특정 편향이나 비인간적 판단 기준이 내재될 위험성도 존재한다. 아울러 어떤 원칙에서 특정 판단이 이뤄졌는지 외부에서 이해하기 어려운 '블랙박스' 문제가 다시 부각될 수 있다.
이와 같이 딥시크는 기존 기술 활용, 비용 효율 추구, 그리고 자가 학습 시스템까지 결합해 새로운 성장 경로를 개척하고 있다. 이러한 움직임은 미국 주요 기술기업의 전략에도 즉각적인 영향을 미쳤다. 마이크로소프트(MSFT)는 전 세계 일부 데이터센터 증설 계획을 보류하고, 분산형 고효율 인프라로 자산 배분을 재조정 중이다. 올해만 약 800억 달러(약 115조 원)를 AI 인프라 확대에 투입하면서도, 그 효율성에 대한 고민은 더욱 깊어지고 있다.
메타 역시 최신 라마4 모델을 통해 딥시크의 모델과 동일하게 ‘전문가 혼합 구조’를 도입했다. 메타는 성능 벤치마크 발표 시 딥시크 모델을 명시적으로 비교 대상으로 올렸으며, 이는 실리콘밸리 기업들이 중국발 AI 모델에 대해 본격적인 대응에 나섰음을 보여준다.
결국 미국 정부의 AI 기술 억제 정책이 딥시크의 기술 진화를 자극한 셈이다. 제한된 환경 속에서 독자적 효율성을 높이는 방향으로 개발자로 하여금 전략 전환을 유도했고, 이에 따라 기술과 산업 균형이 재편되고 있다. 앞으로 AI 산업의 성패는 거대한 연산력보다는, 제약 속에서 혁신을 이끌어 낼 수 있는 적응적 역량에 달려 있을지 모른다. 미국이든 중국이든, 기술의 진보는 경쟁보다 아이디어와 실행력에서 비롯된다는 사실은 여전히 유효하다.