Anthropic는 최근 국방부와의 인공지능 안전 관련 논쟁에 대해 업데이트 소식을 전했다. 회사의 최고 경영자 다리오 아모데이는 목요일 블로그 게시물을 통해 국방부 관계자들과 "생산적인 대화"를 나누고 있다고 밝혔다. 그는 작년 6월에 회사가 국방부에 AI 모델을 제공하는 계약을 체결했으며, 소프트웨어가 국내 감시나 완전 자율 무기 개발에 사용되지 않도록 했다고 설명했다.
그러나 도널드 트럼프 대통령은 이에 대응해 연방 기관이 Anthropic의 클로드(Claude)를 사용하는 것을 중단하도록 명령했다. 또한, 피트 헤그세스 국방장관은 Anthropic을 공급망 위험으로 지정하도록 지시했으며, 이로 인해 미국 군수업체들이 해당 회사 제품을 사용하는 방식에 제한이 생겼다.
아모데이는 이러한 조치가 대부분의 클로드 사용자에겐 큰 영향을 미치지 않을 것이며, 일부 고객들에게는 제한적 영향을 미칠 것이라고 밝혔다. 관련 규제는 구글(GOOGLE)과 마이크로소프트(MSFT)를 포함한 몇몇 기업에 영향을 미치며, 이들은 여러 제품에 클로드를 통합해 연방 기관에서도 사용되고 있다.
Anthropic는 공급망 위험 지정을 법적으로 다투겠다는 계획을 밝혔으며, 이는 미국 기업이 정부와 협상할 때의 선례가 될 수 있다는 점을 경고하고 있다. 아울러, Amodei는 국방부와의 대화가 회사의 AI 안전 정책을 준수하면서 협력할 가능성에 초점을 맞추고 있었다고 전했다. 이와 관련해 Anthropic는 클로드가 공공 부문 네트워크에서 제외될 경우 전환이 매끄럽게 이뤄질 수 있도록 관리하고 있다. 트럼프 정부는 연방 기관이 다른 AI 공급자로 전환하는 데 6개월의 시간을 부여한 상태다.
<저작권자 ⓒ TokenPost, 무단전재 및 재배포 금지>