앤트로픽 비공개 모델 ‘클로드 미토스’…취약점 찾고 익스플로잇까지 잇나

| 김서린 기자

앤트로픽PBC의 비공개 인공지능 모델 ‘클로드 미토스’가 사이버보안 업계의 최대 화두로 떠올랐다. 아직 정식 공개되지 않았지만, 대규모 소프트웨어를 분석해 버그와 취약점을 찾아내고 이를 실제 공격 경로로 연결할 수 있는 역량을 갖춘 것으로 알려지면서다.

앤트로픽의 위협 인텔리전스 총괄 제이컵 클라인(Jacob Klein)은 4월 20일 워싱턴 D.C. 인근에서 열린 SANS 사이버보안 서밋에서 미토스의 능력을 일부 언급했다. 그는 이 모델이 ‘취약점을 매우 잘 찾아내고, 이를 연결해 익스플로잇으로 이어붙이는 데 강하다’며 이제는 보안 위험 지형 자체를 다시 봐야 한다고 말했다. 이어 향후 몇 달 안에 더 많은 정보를 투명하게 공개하겠다고 밝혔다.

AI 확산에 빨라진 침해 사고

이 같은 발언이 나온 배경에는 최근 가속화하는 AI 기반 침해 사고가 있다. 클라우드 개발 플랫폼 버셀은 주말 동안 자사 직원이 사용하던 서드파티 도구 ‘컨텍스트.ai’가 침해되면서 내부 시스템이 뚫렸다고 공개했다. 이후 해커들은 버셀 고객 인증정보를 탈취했으며, 이를 온라인에서 판매하고 있다고 주장했다.

이달 초에는 북한 연계 위협 행위자가 널리 쓰이는 자바스크립트 라이브러리 ‘악시오스’에 악성 코드를 심었다는 보도도 나왔다. 공격자들이 AI를 활용해 공급망의 약한 고리를 전방위로 탐색하고 있다는 뜻이다. 이런 흐름 속에서 지난주 후반에는 미국 백악관에서 재무장관과 앤트로픽 최고경영자가 회동한 것으로 전해졌다. 파이낸셜타임스는 주요 은행들이 급증하는 사이버공격에 대응해 방어 태세를 강화하고 있다고도 보도했다.

클라인은 ‘AI의 역량이 커질수록 공격자가 활용할 수 있는 공격 표면도 함께 확대된다’고 진단했다.

‘인간은 감독자’가 된 공격 현장

앤트로픽은 클로드 계열 모델이 악성 행위자에게 어떻게 활용돼 왔는지도 공개했다. 회사에 따르면 2025년 봄에는 한 단독 행위자가 비교적 단순한 랜섬웨어 공격을 만드는 데 클로드를 썼다. 두 달 뒤에는 러시아 사이버범죄자가 갈취 작전에 이 모델을 사용한 정황이 포착됐다.

같은 해 9월에는 중국의 국가 지원 조직이 클로드를 시스템 정찰, 대규모 침투 테스트, 취약점 악용, 초기 접근, 내부망 확산에 활용한 증거도 확인됐다. 이 사례의 목적은 첩보 수집과 데이터 유출이었으며, 전체 행위의 80~90%가 자율적으로 이뤄졌다고 클라인은 설명했다.

그는 일단 구조를 만들어 놓으면 이후에는 대부분 모델이 스스로 행동하고, 인간은 사실상 ‘감독자’ 역할만 하게 된다고 말했다. 이는 생성형 AI가 일반 사용자에게도 빠른 자동화 도구를 제공한 것과 같은 원리로, 위협 행위자들 역시 자신이 직접 만들 수 없던 공격 도구를 AI로 보완하고 있다는 의미다.

앤트로픽은 현재 800개의 악성 행위자 사례를 MITRE 공격 기법 체계에 따라 분석 중이며, AI가 방어 체계를 어떻게 우회하는지 보여주는 보고서를 조만간 내놓을 예정이라고 밝혔다. 클라인은 이제 AI 시스템이 악성 행위자의 핵심 인프라 일부가 되고 있다고 평가했다.

방어도 ‘도구’보다 ‘구조’가 중요

보안 업계에서는 클로드 미토스 같은 모델이 단순한 분석 도구를 넘어, AI 시대 방어 체계의 ‘골격’을 만드는 역할을 할 수 있다는 해석도 나온다. 크노스틱 공동창업자이자 최고 AI 보안 책임자인 수닐 유(Sounil Yu)는 같은 행사에서 ‘세 마리 아기 돼지’ 우화를 예로 들며, 더 튼튼한 재료보다 먼저 생각해야 할 것은 ‘아키텍처’라고 강조했다.

그는 많은 기업이 벽돌 같은 강한 재료만 찾지만, 실제로는 전체 구조 설계가 더 중요할 때가 많다고 말했다. AI 에이전트 보급이 빨라지는 최근 흐름을 보면 이런 지적은 더 설득력을 얻는다.

대표 사례로는 오픈소스 개인 AI 비서 ‘오픈클로(OpenClaw)’가 거론된다. 이 도구는 인기가 높지만 보안 통제가 약해 대규모 노출 문제가 반복적으로 제기돼 왔다. 이에 엔비디아, 시스코시스템즈, 크노스틱은 기업 환경에서 새로운 취약점을 만들지 않도록 보안을 강화한 오픈클로 변형 버전을 잇달아 공개했다.

수닐 유는 이미 많은 조직 안에 오픈클로 계열 도구가 돌아가고 있을 가능성이 크다며, 기본 설정만으로는 ‘위험 구역’에 가깝다고 경고했다. 검증되지 않은 기능을 외부에서 끌어오는 구조가 기업 보안에 새로운 부담이 될 수 있다는 지적이다.

결국 남는 질문은 ‘신뢰할 수 있는 AI인가’

보안 논의는 이제 단순한 해킹 방어를 넘어 AI의 ‘무결성’ 문제로 확장되고 있다. 토론토대학교 겸임교수이자 저명한 보안 전문가 브루스 슈나이어(Bruce Schneier)는 현재 AI 이용을 둘러싼 안전장치가 부족하고, 국가 단위 이해관계까지 얽히면서 훨씬 더 위험한 결과가 나올 수 있다고 우려했다.

그는 이미 러시아가 학습 데이터를 조작하려는 공격을 벌이는 정황이 나타나고 있다며, 앞으로 AI가 국제 무역 협상 같은 민감한 영역의 조언자로 쓰일 경우 이를 해킹하려는 경제적 유인은 더욱 커질 것이라고 말했다. 그러면서 ‘신뢰할 수 있는 AI’가 필요하다고 강조했다.

슈나이어는 이를 현실적으로 달성하려면 정부 개입이 불가피하다고 봤다. 투명성 법안과 AI·로봇 안전 규제가 필요하며, AI가 신뢰받는 조언자이자 ‘에이전트형 직원’으로 받아들여질수록 보안 전문가의 핵심 과제도 무결성 확보로 옮겨갈 것이라는 설명이다.

클로드 미토스를 둘러싼 논쟁은 강력한 AI가 공격과 방어 양쪽의 판을 동시에 바꾸고 있음을 보여준다. 앞으로 시장의 관심은 이 모델이 실제로 어느 수준의 보안 역량을 갖췄는지, 그리고 AI 보안 체계 전반의 투명성을 얼마나 끌어올릴 수 있을지에 쏠릴 전망이다.

TP AI 유의사항 TokenPost.ai 기반 언어 모델을 사용하여 기사를 요약했습니다. 본문의 주요 내용이 제외되거나 사실과 다를 수 있습니다.
본 기사는 시장 데이터 및 차트 분석을 바탕으로 작성되었으며, 특정 종목에 대한 투자 권유가 아닙니다.

많이 본 기사

지금 꼭 알아야 할 리포트