Anthropic·오픈AI, AI 경쟁 심화 속 안전 규정 표현 완화

| 토큰포스트 속보

Anthropic과 오픈AI가 인공지능(AI) 경쟁이 치열해지는 가운데 안전 관련 공식 규정을 완화하는 방향으로 조정했다.

Odaily에 따르면 Anthropic은 책임 있는 확장(Responsible Scaling) 정책에서 핵심 안전 조항 하나를 삭제했다. 이전에는 위험 완화 조치가 완전히 갖춰지지 않으면 AI 모델 훈련을 중단하겠다고 약속했지만, 이제 이 ‘훈련 중단’ 약속을 더 이상 명시하지 않는다.

Anthropic 최고과학책임자(CSO) 재러드 캐플런은 타임(TIME)과의 인터뷰에서 “AI가 빠르게 발전하는 상황에서 경쟁사가 계속 전진하는데 우리만 일방적으로 훈련 중단을 약속하는 것은 실질적 의미가 없다”고 설명했다.

오픈AI도 2024년 미국 국세청(IRS)에 제출한 문서에서 미션 문구를 수정했다. 기존 ‘인류에 안전하게(safely) 이익을 주는 범용 AI를 구축한다’는 표현에서 ‘safely’라는 단어를 삭제하고, ‘범용 AI가 인류 전체에 이익이 되도록 한다’는 식으로 바꿨다.

미국 RAND 연구소의 에드워드 가이스트 선임 연구원은 “초기 AI 안전 옹호자들이 상정했던 고도 AI는 현재의 대형언어모델(LLM)과는 성격이 다르다”며 “용어 변화는 기업들이 투자자와 정책 결정자에게 ‘안전 문제 때문에 경제 경쟁에서 물러서지 않겠다’는 신호를 보내려는 의도도 반영된 것”이라고 분석했다.

자금 조달 측면에서 Anthropic은 최근 300억 달러 규모 투자를 유치해 기업가치가 약 3,800억 달러로 평가됐다. 오픈AI 역시 아마존, 마이크로소프트, 엔비디아 등이 참여하는 최대 1,000억 달러 규모의 신규 투자 라운드를 추진 중인 것으로 알려졌다.

한편 Anthropic은 미 국방부와의 관계에서는 갈등을 빚고 있다. Anthropic이 미 국방부에 자사 AI 모델 ‘클로드(Claude)’에 대한 전면적 접근을 허용하길 거부하면서, 피트 헤그세스 국방장관과 공개적으로 이견을 드러냈고 관련 국방 계약의 향방도 불투명해진 상태다.

AI 거대 기업들이 안전 관련 공적 약속의 수위를 낮추는 움직임은 규제 논의, 투자 환경, 그리고 장기적으로는 기술 개발 속도와 사회적 신뢰에 영향을 미칠 수 있다는 관측이 나온다.

본 기사는 시장 데이터 및 차트 분석을 바탕으로 작성되었으며, 특정 종목에 대한 투자 권유가 아닙니다.