앤스로픽(Anthropic)이 미 국방부 기밀망에 ‘클로드(Claude)’를 들여놓고 2억달러(약 2954억원, 원·달러 환율 1달러=1477원) 규모 계약까지 따냈지만, “우리 AI가 어디에 쓰였나”라는 질문 하나가 판을 뒤집었다. 베네수엘라에서 니콜라스 마두로(Nicolás Maduro) 체포 작전에 AI가 활용된 정황이 불거진 뒤, 미 정부는 앤스로픽을 ‘공급망 위험(Supply Chain Risk)’으로 지정하며 사실상 퇴출 수순을 밟았다. 업계에선 ‘가드레일(안전장치)’을 둘러싼 공방이 국가안보 프레임으로 확전됐다는 해석이 나온다.
앤스로픽은 2024년 11월 팔란티어와 함께 미 국방부의 기밀 네트워크에 첫 ‘프런티어 AI’ 배치를 성사시키며 상징적 이정표를 세웠다. 이후 정보분석, 사이버 작전, 작전 기획, 모델링·시뮬레이션 등으로 적용 범위가 넓어졌고, 2025년 7월에는 계약 규모가 2억달러까지 커졌다. 미 국방부가 이를 ‘임무 핵심(mission-critical)’으로 평가했을 정도로 침투 속도는 빨랐다.
하지만 2026년 1월, 클로드가 연루된 것으로 전해진 ‘베네수엘라 기밀 군사작전’—니콜라스 마두로 체포—이 거론되며 균열이 생겼다. 앤스로픽은 팔란티어에 “정확히 어떤 방식으로 우리 기술이 사용됐나”를 물었고, 일반 산업에서 통상적인 실사(due diligence)에 해당하는 이 질문은 군 당국에선 ‘항명’으로 받아들여졌다는 서술이 뒤따른다. ‘사용처 투명성’ 요구가 ‘국가안보 위협’으로 전환되는 순간이었다.
7일 만에 뒤집힌 판…“안전장치 제거” 요구와 정면충돌
사태는 2월 마지막 주 일주일 사이 급격히 진행됐다.
2월 24일 피트 헤그세스(Pete Hegseth) 전쟁장관(원문 표현 기준)이 앤스로픽 최고경영자 다리오 아모데이(Dario Amodei)를 소환해 클로드의 모든 안전장치를 제거하라고 요구했다는 내용이 핵심이다. 대규모 국내 감시와 완전 자율무기까지 포함됐고, 시한은 2월 27일(미 동부시간) 오후 5시 1분으로 설정됐다.
아모데이는 2월 26일 공개 입장을 통해 답을 ‘No’로 못 박았다. 그가 제시한 ‘두 개의 레드라인’은
첫째, ‘대규모 국내 감시’ 금지. 위치정보, 브라우징, 금융 기록 등을 AI가 자동으로 조합해 프로파일링하는 식의 감시가 법·제도보다 빠르게 현실화할 수 있다는 우려다.
둘째, ‘완전 자율무기’ 반대. 사람의 살상 결정에서 인간을 배제하는 수준의 자율화는 현재 프런티어 AI의 신뢰성으로는 감당할 수 없다는 논리다. 아모데이는 신뢰성 향상을 위한 국방부와의 연구개발 협력을 제안했지만 거절됐다고 전해졌다.
같은 날 에밀 마이클(Emil Michael) 국방부 차관이 소셜미디어에서 아모데이를 원색적으로 비난하며 갈등은 공개전으로 비화했다. 그리고 2월 27일 시한이 지나자 트럼프 대통령은 연방정부 전반에 앤스로픽 사용 중단을 지시했고, 헤그세스는 2018년 ‘연방 조달 공급망 보안법(FASCSA)’에 근거해 앤스로픽을 ‘공급망 위험’으로 지정했다는 타임라인이 제시된다.
이 ‘공급망 위험’ 지정은 원래 화웨이, 카스퍼스키 등 해외 기업에 주로 적용되던 강력한 조치로, 정부 조달 생태계에서 사실상 ‘킬스위치’처럼 작동한다. 방산 스타트업이나 하청업체까지 연쇄적으로 거래를 끊을 수밖에 없어, 단일 계약 종료를 넘어 미국 연방 공급망 전체에서 ‘거래 기피 대상’이 된다.
빈자리 채운 오픈AI…그런데 “가드레일이 더 강하다” 논란
아이러니는 같은 날 몇 시간 뒤 오픈AI가 동일한 국방부 기밀 배치 계약을 체결했다는 대목이다. 오픈AI는 이후 “이전 어떤 기밀 AI 배치 합의보다 가드레일이 더 많다”고 주장했지만, 앤스로픽이 ‘가드레일’ 때문에 배제됐다는 프레임과 충돌한다. 안전장치를 이유로 퇴출된 기업 다음 자리를, ‘안전장치’를 세일즈 포인트로 내세운 기업이 채운 셈이기 때문이다.
주말 사이 여론은 격하게 반응했다. 모바일 분석업체 센서타워 집계를 인용해 챗GPT 삭제가 하루 만에 295% 급증했다는 수치가 제시됐고, 클로드는 미국을 포함한 7개국 앱스토어 1위를 기록하며 다운로드가 급증했다는 내용도 포함됐다. 구글 직원 300여 명과 오픈AI 직원 60여 명이 앤스로픽 지지 서한에 서명했고, ‘#QuitGPT’ 해시태그가 확산됐다는 전개다.
오픈AI는 3월 2일 추가 조항을 공개하며 진화에 나섰다. 미국인에 대한 국내 감시 명시적 금지, 국가안보국(NSA)의 시스템 접근은 별도 계약 수정이 필요하다는 조건, 상업적으로 구매한 개인정보(위치·브라우징·금융기록 등) 활용 제한 등이 포함됐다. 다만 “금지 조항이 월요일에 추가됐다”는 점은 금요일 계약에는 해당 제한이 명확히 없었을 가능성을 시사한다는 해석이 따라붙는다.
“전쟁 시뮬레이션에서 95%가 핵 사용 선택”…자율무기 신뢰성 논쟁
기사의 문제의식은 기술 위험성에 집중된다. GPT-5.2, 클로드 소넷 4, 제미나이 3 플래시 등 복수 모델을 군사 충돌 시뮬레이션에 넣었더니 95% 시나리오에서 전술핵 사용을 선택했다는 결과가 소개된다. 이 수치가 사실이라면, ‘완전 자율무기’ 요구가 단순히 윤리 논쟁을 넘어 시스템 신뢰성의 한계와 직결된다는 지적이 된다.
원문은 AI의 실패 양상으로
긴장 고조 편향(escalation bias), 환각(hallucination), 적대적 입력에 대한 취약성(adversarial vulnerability)을 제시한다. 또한 패트리엇 미사일 오인 격추(2003년), 이란항공 655편 격추(1988년)처럼 규칙 기반 군사 시스템도 치명적 오류를 낸 전례를 들어, 더 복잡하고 불투명한 LLM이 더 큰 결정을 맡을 경우 통제 난도가 급격히 상승할 수 있다고 강조한다.
특히 ‘기밀망’이라는 환경 자체가 외부 감사와 독립적 검증을 봉쇄해 “감시와 감독이 거의 불가능해진다”는 구조적 문제를 짚는다. 기밀을 지키는 벽이 동시에 감독을 가로막는다는 주장이다. 이 맥락에서 아모데이의 메시지는 “목적지(국방에 AI 활용) 자체를 부정하는 것이 아니라, 현재 기술 수준으로는 일정이 너무 빠르다”는 쪽에 가깝게 정리된다.
공급망 위험 지정의 역설…“빼라면서도, 이미 너무 깊게 들어갔다”
또 다른 쟁점은 조치의 실효성이다. ‘공급망 위험’ 지정에도 불구하고 CBS가 클로드가 이란 관련 작전을 포함한 일부 현역 군사작전에 계속 사용되고 있다고 보도했다는 대목이 나온다. 이미 시스템 깊숙이 들어간 기술은 행정명령처럼 즉각 제거하기 어렵고, 그렇다면 정부가 추후 ‘가드레일 준수’를 어떻게 강제할 수 있느냐는 질문으로 이어진다.
국방부의 논리도 단순 명료하다. 민간 기업은 군 정책을 정하지 않고, AI 기업은 공급자이며 사용 방식은 군이 결정한다는 관점이다. 반대로 기술 기업과 시민사회는 “국방 지원”과 “불완전한 AI에 살상 결정을 맡기는 것”은 동의어가 아니라는 점을 강조한다. 결국 이번 충돌은 ‘국가안보’와 ‘AI 안전’이 같은 문장 안에서 충돌할 때 누가 최종 통제권을 갖는가로 수렴한다.
마지막으로 이번 사안은 시장에도 메시지를 남겼다. 협조는 계약으로 이어지고, 저항은 블랙리스트로 이어질 수 있다는 ‘인센티브 구조’가 명확해졌다는 것이다. 다만 동시에 사용자 행동(삭제 급증), 내부 직원들의 공개 서한, 안전조항 논쟁의 확산은 AI 기업의 국방 협력이 더 이상 조용한 B2G 계약이 아니라 사회적 논쟁의 중심으로 이동했음을 보여준다. “우리 AI가 어떻게 쓰였나”라는 질문이, AI 시대 국가안보와 통제의 경계를 다시 그리게 만들고 있다.
🔎 시장 해석
- 앤스로픽은 국방부 기밀망에 클로드를 배치하며 ‘프런티어 AI의 군(軍) 채택’ 상징을 만들었지만, 사용처 투명성 요구가 ‘국가안보 프레임’과 충돌하며 단기간에 공급망 위험 지정으로 번졌다.
- ‘가드레일(안전장치)’은 규제/윤리 이슈를 넘어 조달(계약)과 퇴출(블랙리스트)을 가르는 핵심 조건이 됐고, B2G AI 사업은 기술력+안전정책+정치 리스크가 결합된 시장으로 재편되고 있다.
- 오픈AI가 공백을 대체했지만, 이후 “가드레일이 더 강하다”는 메시지를 내세운 점은 ‘안전장치가 문제라 퇴출’이라는 서사와 모순을 만들며, 향후 국방 계약은 안전조항의 문구/시점/집행 가능성이 쟁점이 될 가능성이 크다.
💡 전략 포인트
- 국방/정부향 AI는 ‘기술 공급자 책임 범위’와 ‘사용처 비공개(기밀) 영역’이 충돌할 수 있어, 계약 전 단계에서 레드라인(대량감시·완전자율무기 등)과 감사/보고 체계를 문서로 고정해야 한다.
- 공급망 위험(FASCSA) 같은 제재는 단일 계약 종료가 아니라 하청·파트너까지 연쇄 차단을 유발하므로, 정부 매출 비중이 큰 기업일수록 단일 고객 리스크(sovereign customer risk) 관리가 핵심이다.
- 기밀망 환경은 외부 검증이 어려워 모델 오류(환각, 적대적 입력 취약, 에스컬레이션 편향)가 통제 불가능해질 수 있다 → 군사·안보 분야일수록 ‘부분 자율+인간 승인(HITL)’과 사후 감사 가능성을 제도화하는 쪽이 현실적 대안이다.
📘 용어정리
- 가드레일(Guardrails): AI가 특정 행위(불법 감시, 살상 결정 자동화 등)를 하지 못하도록 하는 정책·필터·권한통제 등 안전장치
- 공급망 위험(Supply Chain Risk): 특정 기업/기술을 정부 조달 관점에서 보안 위협으로 지정해 사실상 모든 연방 계약에서 배제하는 조치
- FASCSA(연방 조달 공급망 보안법, 2018): 연방정부 조달망에서 보안 위협 공급자를 배제할 수 있는 법적 근거
- 기밀망(Classified network): 외부 접속·감사·검증이 제한되는 보안 네트워크로, 개발·운영 투명성이 낮아질 수 있음
- 완전 자율무기: 인간의 최종 승인 없이 표적 선정·교전·살상 결정을 자동 수행하는 무기 체계
💡 자주 묻는 질문 (FAQ)
Q.
앤스로픽이 국방부와 갈등하게 된 핵심 이유는 무엇인가요?
앤스로픽이 “클로드가 정확히 어떤 작전에, 어떤 방식으로 쓰였는지”를 확인하려고 한 것이 발단이 됐습니다. 회사는 대규모 국내 감시와 완전 자율무기(인간 개입 없는 살상 결정)에 대한 레드라인을 내세웠지만, 군 당국은 사용처 투명성 요구를 ‘국가안보를 해치는 불복’으로 받아들였다는 맥락입니다.
Q.
‘공급망 위험 지정’은 기업에 어떤 영향을 주나요?
특정 회사를 보안 위협으로 간주해 연방정부 조달에서 배제하는 매우 강한 조치입니다. 단일 계약 해지에 그치지 않고, 방산 하청·파트너사까지 거래 중단 압박이 퍼질 수 있어 사실상 정부 밸류체인에서 ‘거래 기피 대상’이 될 수 있습니다.
Q.
왜 ‘완전 자율무기’와 AI 신뢰성 문제가 크게 언급되나요?
기사에서는 전쟁 시뮬레이션에서 여러 모델이 높은 비율로 전술핵 사용을 선택했다는 사례, 그리고 AI의 환각·적대적 입력 취약성·긴장 고조 편향 같은 실패 양상을 제시합니다. 이런 불안정성이 남아 있는 상태에서 AI가 살상 결정을 자동으로 내리면 오판 위험이 커지므로, ‘인간 최종 승인’과 감사 가능한 통제 장치를 두는 문제가 핵심 쟁점이 됩니다.
TP AI 유의사항
TokenPost.ai 기반 언어 모델을 사용하여 기사를 요약했습니다. 본문의 주요 내용이 제외되거나 사실과 다를 수 있습니다.





