Anthropic(앤트로픽)의 다리오 아모데이(Dario Amodei) 최고경영자(CEO)가 미 국방부와의 격렬한 갈등 끝에 ‘정부 블랙리스트’ 위기를 피하기 위한 타협안을 밀어붙이고 있다. 협상이 결렬될 경우 앤트로픽은 미 정부로부터 ‘공급망 리스크’로 낙인찍혀 국방 계약에서 사실상 퇴출될 수 있다는 관측이 나온다.
파이낸셜타임스(FT)에 따르면 아모데이 CEO는 최근 에밀 마이클(Emil Michael) 국방부 연구·공학 담당 차관 등 관계자들과 긴급 협상에 나섰다. 쟁점은 군(軍)이 앤트로픽의 AI 모델 ‘클로드(Claude)’에 접근하고 활용할 수 있는 범위를 정하는 합의안이다. 합의가 성사되면 미 국방부는 앤트로픽 기술을 계속 배치할 수 있고, 동시에 ‘공급망 위험 기업’ 지정도 피할 수 있다. 반대로 지정이 내려지면 방산 계약은 끊기고, 군 납품업체들도 샌프란시스코 기반 AI 기업인 앤트로픽과의 거래를 중단해야 하는 상황에 처한다.
갈등의 도화선은 올해 1월 미국이 베네수엘라 지도자 니콜라스 마두로(Nicolás Maduro) 체포를 목표로 진행한 작전으로 거슬러 올라간다. 이후 앤트로픽 직원들이 팔란티어(Palantir) 로그를 통해 해당 작전 과정에서 클로드가 사용됐다는 정황을 확인한 것으로 전해졌다. 이 활용 방식이 앤트로픽의 ‘허용 가능한 사용 정책(Acceptable Use Policy)’을 위반했는지를 두고 내부 문제 제기가 나왔고, 이 대목이 국방부와의 신뢰를 크게 흔들었다는 평가다.
‘합법적 목적’ 전면 허용 요구…감시 활용 우려가 핵심 쟁점
국방부는 AI를 어떤 ‘합법적(lawful)’ 목적에도 폭넓게 활용할 수 있도록 권한을 확대해 달라는 입장으로 알려졌다. 하지만 앤트로픽은 이 문구가 사실상 대규모 감시(surveillance) 등 자사가 반대해온 활용까지 열어줄 수 있다고 우려한다. 특히 앤트로픽은 완전 자율 무기(fully autonomous weapons)와 대규모 감시를 제한하는 ‘AI 안전’ 기조를 전면에 내세워 왔는데, 이 원칙이 국방부의 운용 요구와 정면으로 충돌하면서 협상이 급격히 틀어졌다는 분석이 나온다.
FT는 아모데이 CEO가 정부의 최후통첩을 거부한 뒤, 트럼프 대통령이 연방 기관에 앤트로픽 기술 사용 중단을 지시했고, 피트 헤그세스(Pete Hegseth) 국방장관이 앤트로픽을 국가안보 ‘공급망 리스크’로 지정했다고 전했다. 이 조치가 유지되면 앤트로픽은 단순히 한 건의 계약을 잃는 수준을 넘어, 방산 생태계 전반에서 배제되는 파장을 맞을 수 있다.
아모데이 CEO는 국방부와 오픈AI(OpenAI)가 사안을 ‘왜곡’하고 있다고 반박한 것으로 전해졌다. 또한 앤트로픽이 경쟁사들만큼 적극적으로 트럼프 대통령을 칭송하지 않았다는 이유로 ‘밀려나고 있다’는 취지의 의혹도 제기했다. 기술 정책 논쟁이 정치적 역학과 결합할 경우, AI 기업들의 정부 조달 시장 경쟁 구도가 한층 거칠어질 수 있다는 전망도 뒤따른다.
최대 2억달러(약 2,968억원) 국방 계약…‘AI 안전 리더’ 전략에 타격 우려
앤트로픽은 오픈AI, 구글(Google), xAI와 함께 군 사용을 위한 ‘에이전틱 AI(agentic AI)’ 고도화 프로젝트로 최대 2억달러(약 2,968억원) 규모의 미 국방부 계약을 따낸 바 있다. 에이전틱 AI는 단순 질의응답을 넘어 목표를 세우고 작업을 분해해 실행하는 형태로 발전하는 AI를 뜻해, 군사 영역에서는 정보 분석·작전 지원·물자 계획 등 활용 가능성이 크다는 평가가 나온다.
시장에선 앤트로픽이 이 ‘교두보’를 잃을 경우, 성장 동력과 대외 신뢰 모두에 부담이 될 수 있다는 시각이 적지 않다. 특히 앤트로픽은 안전성을 핵심 차별점으로 내세우며 ‘AI 안전 리더’ 이미지를 구축해 왔는데, 국방부와의 충돌이 장기화되면 대형 고객(정부·대기업) 대상 영업에도 악영향을 줄 수 있다.
다만 이번 협상 전개는 AI 산업 전반의 공통 과제를 드러낸다는 점에서 의미가 크다. 국가안보 수요가 커질수록 정부는 더 넓은 재량을 원하고, AI 기업은 정책·윤리 기준을 고수하려 하면서 충돌이 반복될 가능성이 높다. 앤트로픽과 미 국방부가 어떤 문구와 통제 장치를 통해 접점을 찾느냐가, 향후 ‘군용 AI’ 시장의 규칙을 가늠할 시험대가 될 전망이다.
🔎 시장 해석
- 앤트로픽-미 국방부 갈등은 ‘군용 AI’ 시장에서 기술기업의 안전정책(자율무기·대규모 감시 제한)과 정부의 운용 재량(‘합법적 목적’ 광범위 허용)이 정면 충돌하는 전형적 사례
- ‘공급망 리스크’ 지정은 단일 계약 손실을 넘어 방산 생태계 전반에서의 거래 차단으로 번질 수 있어, AI 기업의 공공조달 매출·레퍼런스·신뢰도에 시스템 리스크로 작동
- 동종 경쟁 구도(OpenAI·구글·xAI 등) 속에서 정부 조달은 기술력뿐 아니라 정책/정치 환경 적합성까지 평가받는 시장으로 진화 중
💡 전략 포인트
- 리스크 관리: 국방/정보기관 고객에는 사용범위·감사로그·접근통제·목적 제한(목적기반 권한) 등을 계약 조항으로 ‘사전 내재화’해야 블랙리스트급 제재 가능성 축소
- 제품 전략: ‘에이전틱 AI’가 작전 지원·정보분석·물자계획 등 고부가 영역으로 확장되는 만큼, 안전가드레일(금지 유스케이스, 휴먼 인 더 루프, 모델 거버넌스)의 상용 패키징이 경쟁력
- 커뮤니케이션: “합법적 목적(lawful)”처럼 해석 여지가 큰 문구는 감시/타깃팅으로 확대될 소지가 있어, 허용·금지 범주를 예시 중심으로 명확화하고 분쟁 시 책임소재·검증 절차를 합의하는 것이 핵심
📘 용어정리
- 공급망 리스크(Supply chain risk): 특정 기업/기술이 국가안보·조달망에 위협이 된다고 판단돼 공공조달 및 협력망에서 배제될 수 있는 위험 분류
- 허용 가능한 사용 정책(Acceptable Use Policy): 모델 제공사가 금지/제한하는 사용 목적(감시, 무기화 등)을 규정한 내부·대외 약관
- 대규모 감시(Surveillance): 광범위한 인구/통신/행위를 상시적으로 추적·분석하는 감시 활용을 의미
- 완전 자율 무기(Fully autonomous weapons): 인간의 최종 통제 없이 탐지-판단-공격까지 수행 가능한 무기 체계
- 에이전틱 AI(Agentic AI): 목표 설정→작업 분해→도구 호출/실행 등 ‘행동’을 수행하는 형태로 고도화된 AI
💡 자주 묻는 질문 (FAQ)
Q.
Anthropic와 미 국방부는 왜 충돌했나요?
핵심은 Claude를 군이 어디까지 쓸 수 있느냐(사용 범위)입니다. 국방부는 ‘합법적 목적(lawful)’이면 폭넓게 활용할 권한을 원하지만, Anthropic은 그 문구가 대규모 감시나 자율무기 같은 활용으로 확대될 수 있다고 보고 안전 원칙을 지키려 하면서 갈등이 커졌습니다.
Q.
‘공급망 리스크’로 지정되면 어떤 일이 생기나요?
단순히 국방부 한 건의 계약을 잃는 수준을 넘어, 방산 계약망(원청-하청-협력사) 전반에서 거래 중단 압박이 커질 수 있습니다. 즉 정부 조달 시장에서 사실상 퇴출되거나, 군 관련 프로젝트 참여가 크게 제한될 가능성이 있습니다.
Q.
이번 협상이 AI 산업 전체에 주는 시사점은 무엇인가요?
국가안보 수요가 커질수록 정부는 더 넓은 재량(광범위 사용권)을 원하고, AI 기업은 악용 방지를 위해 정책·윤리 기준(가드레일)을 고수하려는 충돌이 반복될 수 있습니다. 앞으로는 ‘허용/금지 사용처’와 ‘감사·통제 장치’를 계약·기술로 어떻게 설계하느냐가 군용 AI 시장의 사실상 표준이 될 가능성이 큽니다.
TP AI 유의사항
TokenPost.ai 기반 언어 모델을 사용하여 기사를 요약했습니다. 본문의 주요 내용이 제외되거나 사실과 다를 수 있습니다.




