OpenAI 설립자 샘 알트먼이 X에서 진행한 AMA에서 최근 미국 국방부(미 전쟁부로 지칭)와의 협력 논란과 관련해 배경을 직접 설명했다.
알트먼은 Anthropic과 미국 국방부가 한때 "협상 타결에 매우 근접"했으며, 협상 기간 내내 양측 모두 강한 협력 의지를 보였지만, 고도로 긴장된 협상 환경에서 국면이 빠르게 악화될 수 있었고 이것이 최종 합의 무산의 주요 요인 중 하나였다고 밝혔다.
안전 전략과 관련해 그는 OpenAI가 △보안 기술 스택 구축 △전방 배치 엔지니어(FDE) 투입 △안전 연구진 직접 참여 △클라우드 기반 배포 방식 등을 결합한 "레이어드(다층) 보안 접근법"을 취하고 있다고 설명했다. 이 과정에서 OpenAI는 미국 국방부와 직접 협력하는 방식으로 프로젝트를 수행한다.
알트먼에 따르면 Anthropic은 계약서 차원에서 구체적인 금지 조항과 제한을 명문화하는 데 더 무게를 둔 반면, OpenAI는 기존 법·규제 체계 준수와 기술적 안전조치를 핵심 보호 장치로 삼는 접근을 선호했다. 그는 다른 회사들은 이 문제에 대해 서로 다른 입장을 가질 수 있다고 덧붙였다.
또한 Anthropic이 협력 과정에서 더 많은 운영 통제권을 확보하길 원했던 점도 양사의 전략이 갈라진 배경 중 하나로 지목했다. 이러한 운영·안전 철학의 차이가 결국 미국 국방부가 OpenAI와 손을 잡는 데 영향을 미쳤다는 해석이 나온다.




