PANews에 따르면 인공지능 기업 앤트로픽(Anthropic)이 미 국방부와의 계약 협상에서 AI 모델을 모든 합법적 용도로 활용한다는 조항을 수용하지 않아 타임지 표지에 올라섰다. 앤트로픽은 자사 모델 클로드(Claude)를 완전 자율 살상 무기와 미국 시민을 겨냥한 대규모 감시에 사용하는 것에 명시적으로 반대 입장을 밝혔다.
이 결정으로 앤트로픽은 미 국방부로부터 공급망 내 국가 안보 위험 요소로 분류돼 군사 관련 계약 참여가 금지됐다. 동시에 회사는 경쟁 심화에 따라 기존의 "책임 있는 확장 정책"을 수정해, 안전성이 입증되지 않으면 훈련을 중단하겠다는 강경한 약속 대신 경쟁사와 동등하거나 그 이상 수준의 보안 투자만을 약속하는 방향으로 기준을 완화했다.
클로드와 클로드 코드(Claude Code) 등 제품을 앞세운 앤트로픽은 빠르게 성장하며 약 3,800억 달러의 기업 가치를 인정받고 있으며, 베네수엘라 마두로 전 대통령 체포 작전과 같은 실제 작전에서 임무 계획 및 정보 분석 도구로 활용된 것으로 전해졌다.
<저작권자 ⓒ TokenPost, 무단전재 및 재배포 금지>