트럼프 행정부가 중국 기반 조직이 미국 기업의 인공지능(AI) 기술을 베끼는 ‘산업 규모’ 작전을 벌이고 있다며 대응 계획을 공개했다. 핵심은 미국 주요 AI 기업을 겨냥한 ‘모델 증류(distillation)’ 공격을 국가 차원에서 탐지·공유하고, 민간과 함께 방어 체계를 끌어올리겠다는 구상이다.
트럼프 행정부, 중국발 AI ‘증류’ 공격 차단 예고
백악관 과학기술정책실(OSTP)의 마이클 J. 크라치오스(Michael J. Kratsios) 대통령 과학기술정책실장은 24일(현지시간) “중국에 주로 기반을 둔 외국 주체들이 미국의 주요 AI 기업을 의도적으로 겨냥해 모델을 증류하고 있다는 정보를 보유하고 있다”고 밝혔다. 그는 “무단·은밀한 증류로 만들어진 모델은 원본의 완전한 성능을 재현하진 못하지만, 일부 벤치마크에서는 비슷해 보이는 제품을 훨씬 낮은 비용으로 내놓게 만든다”고 경고했다.
“보안 프로토콜이 벗겨진 더 싼 모델”이라는 우려
백악관은 이런 방식으로 개발된 모델이 ‘중립적이고 진실을 추구하는’ 방향에서 멀어질 수 있다고도 지적했다. 원천 모델에 내장된 안전장치나 정책 준수 메커니즘이 약화된 채, 비용만 낮춘 서비스가 빠르게 확산될 경우 생태계의 신뢰 기반 자체가 흔들릴 수 있다는 판단이다.
원가 경쟁이 격화되는 시장 환경도 이런 우려를 키운다. 모프 LLM(Morph LLM) 데이터에 따르면 최전선급 모델의 100만 토큰당 비용은 클로드(Claude) 오푸스 4.6이 5달러(약 7419원), 챗GPT-5.4 프로가 최대 30달러(약 4만4511원)인데, 중간급으로 분류되는 딥시크(DeepSeek) V3.2는 0.26달러(약 386원)로 제시된다(원·달러 환율 1달러=1483.70원 기준). 가격 격차가 큰 만큼, ‘보안이 약한 저가 모델’이 벤치마크 성능만으로 확산될 여지가 있다는 설명이다.
“수만 개 프록시 계정·탈옥 기법”으로 정보 빼가기
백악관 OSTP는 외국 기업들이 “수만 개의 프록시 계정”을 활용해 탐지를 피하고, ‘탈옥(jailbreaking)’ 기법으로 독점 정보를 노출시키려 했다고 밝혔다. 조직적인 계정 운영과 공격 기법이 결합되면, 모델의 핵심 능력과 운영 노하우가 장기간에 걸쳐 체계적으로 유출될 수 있다는 게 정부의 시각이다.
이번 경고는 앤트로픽(Anthropic)이 2개월 전 중국 AI 기업 3곳이 자사 모델에 증류 공격을 가했다고 주장한 이후 나왔다. 앤트로픽은 2월 말 딥시크, 문샷(Moonshot), 미니맥스(MiniMax)가 약 2만4000개의 ‘사기 계정’을 통해 총 1600만 회 이상의 상호작용을 생성했다고 밝히며, 에이전트형 추론, 코딩, 데이터 분석, 루브릭 기반 채점, 컴퓨터 비전 등 다양한 능력을 ‘긁어가기’ 위해 클로드를 활용하려 했다고 설명했다.
백악관, 민간과 공조해 방어·책임추궁 ‘투트랙’ 추진
트럼프 행정부는 위협에 맞서 민간 AI 업계와의 공조를 강화하겠다는 방침이다. 백악관 OSTP는 대규모 공격 징후에 대한 정보를 미국 기업과 공유하고, 민간 부문이 보다 잘 조율된 방식으로 대응하도록 지원하는 한편, 공동 방어 체계를 구축하고 “외국 행위자에게 책임을 묻는” 조치도 검토하겠다고 밝혔다.
AI 모델 경쟁이 비용과 성능뿐 아니라 ‘보안·윤리·신뢰’로 확장되는 가운데, 이번 조치는 미국 내 AI 산업 전반에 방어 표준을 끌어올리는 계기가 될 가능성이 있다. 다만 정부의 경고가 실제 규제나 제재로 이어질지, 그리고 기업들이 계정 남용·탈옥·데이터 추출을 얼마나 효과적으로 차단할 수 있을지는 향후 기술적·외교적 변수에 따라 달라질 전망이다.
기사요약 by TokenPost.ai
🔎 시장 해석
- 트럼프 행정부는 중국 기반 주체들이 미국 AI 기업을 대상으로 ‘모델 증류(distillation)’를 산업 규모로 수행한다고 판단
- 증류 모델은 원본을 완전 재현하진 못해도, 일부 벤치마크에서 유사 성능을 훨씬 낮은 비용으로 제공해 시장을 교란할 수 있음
- 성능·가격 경쟁이 심화된 상황에서 ‘저가+유사성능’이 확산되면, AI 경쟁축이 보안·신뢰·윤리로 이동할 가능성이 커짐
💡 전략 포인트
- 정부 차원의 탐지·정보공유 체계가 강화되면, AI 기업은 대규모 프록시 계정/비정상 트래픽에 대한 공동 방어 표준을 채택해야 함
- 계정 남용(수만 개 프록시)·탈옥(jailbreaking)·대량 질의응답 수집은 ‘증류용 데이터 파이프라인’으로 악용될 수 있어, API·제품 설계 단계에서부터 레이트리밋/행위기반 탐지/워터마킹/정책 집행 강화가 중요
- 저가 모델 도입 시 벤치마크 점수만 보지 말고, 안전장치·정책 준수·출처 투명성·보안 대응력(취약점 대응/로그/감사)을 조달 기준에 포함해야 함
📘 용어정리
- 모델 증류(Distillation): 특정 모델의 출력(답변/추론 결과)을 대량 수집해, 더 작은/저렴한 모델이 유사한 출력을 내도록 학습시키는 기법(악용 시 ‘모델 베끼기’ 수단)
- 프록시 계정(Proxy accounts): 실제 공격 주체를 숨기거나 탐지를 회피하기 위해 대량으로 운영되는 우회/가짜 계정
- 탈옥(Jailbreaking): 모델의 안전정책·제한을 우회하도록 유도하는 프롬프트/기법
- 벤치마크(Benchmark): 모델 성능을 비교하기 위한 표준화된 테스트 지표(실사용 안전성·보안 수준을 완전히 대변하진 않음)
💡 자주 묻는 질문 (FAQ)
Q.
‘모델 증류’ 공격은 어떻게 이뤄지나요?
공격자는 AI 서비스에 수많은 계정(프록시 계정)을 만들어 대량의 질의응답을 반복적으로 생성합니다.
이렇게 모은 출력 데이터를 학습 재료로 사용해, 원본 모델과 비슷한 답을 내는 저가 모델을 만드는 방식이 ‘증류’를 악용한 공격입니다.
Q.
왜 ‘저가 증류 모델’이 위험하다고 하나요?
증류 모델은 원본 성능을 100% 재현하진 못해도, 일부 벤치마크에서는 비슷해 보일 수 있습니다.
문제는 복제 과정에서 원본에 있던 안전장치·정책 준수 메커니즘이 약해질 수 있어, 더 저렴한 비용으로 위험한 품질의 AI가 확산될 가능성이 커진다는 점입니다.
Q.
미국 정부는 어떤 방식으로 대응하겠다는 건가요?
백악관은 대규모 공격 징후(계정 남용, 탈옥 시도, 데이터 추출 패턴)를 정부 차원에서 탐지하고 미국 기업들과 공유해 공동 방어를 강화하겠다는 계획입니다.
동시에 외국 행위자에 대한 책임 추궁(제재·규제·외교적 조치 등 가능성)도 검토해 ‘방어+억지’의 투트랙 대응을 추진하겠다고 밝혔습니다.
TP AI 유의사항
TokenPost.ai 기반 언어 모델을 사용하여 기사를 요약했습니다. 본문의 주요 내용이 제외되거나 사실과 다를 수 있습니다.
본 기사는 시장 데이터 및 차트 분석을 바탕으로 작성되었으며, 특정 종목에 대한 투자 권유가 아닙니다.