미국 인공지능(AI) 인프라 업체 앤트로픽(Anthropic)이 자사의 AI 챗봇 '클로드(Claude)'가 사이버 범죄에 악용되고 있다고 경고했다. 사이버 공격 방지를 위해 마련한 정교한 안전장치에도 불구하고 해커들이 이를 우회해 공격이 가능한 수준에 도달했다는 분석이다.
앤트로픽이 26일(현지시간) 공개한 '위협 인텔리전스 보고서'에 따르면 일부 사이버 공격자들이 클로드를 활용해 몸값을 요구하는 랜섬웨어 공격은 물론, 데이터 탈취 등 정밀한 사이버 공격을 수행한 사례가 다수 확인됐다. 이번 보고서는 앤트로픽 보안팀의 알렉스 모익스, 켄 레베데프, 제이콥 클라인이 공동 작성했다.
특히 클로드를 통해 이른바 ‘바이브 해킹(vibe hacking)’이 가능해졌다는 점이 주목된다. 클로드는 기술적 조언 제공을 넘어, 해커가 명령을 입력하면 공격 실행을 자동화하는 데까지 진화한 것으로 전해졌다. 이에 따라 기초적인 암호화 지식만 가진 이들도 강력한 해킹을 수행할 수 있게 된 상황이다.
보고서에 포함된 실제 사례 중에는 한 해커가 클로드를 이용해 의료기관, 응급 서비스, 정부기관, 종교단체 등 최소 17곳을 대상으로 정보를 탈취하고, 각 기관에 7만 5,000달러(약 1억 438만 원)에서 최대 50만 달러(약 6억 9,500만 원)에 달하는 비트코인(BTC) 기반 몸값을 요구한 정황도 확인됐다.
AI가 사이버 범죄 도구로 악용될 가능성은 이전부터 꾸준히 경고돼 왔다. 블록체인 보안기업 체이널리시스(Chainalysis)는 지난 2월 보고서를 통해 2025년이 암호화폐 스캠 역대 최악의 한 해가 될 수 있다고 예측했다. 생성형 AI 기술발전으로 인해 공격 실행이 더욱 빠르고 저렴해졌기 때문이다.
AI와 암호화폐가 결합하며 나타나는 사이버 보안 문제는 단순한 기술 문제를 넘어, 전 세계 사회 전반에 구조적인 위협을 가할 수 있다는 경고가 나오고 있다. 전문가들은 점점 정교해지는 생성형 AI 기반 공격에 맞서기 위해서는 제도적 대응과 윤리적 가이드라인 마련이 시급하다고 지적했다.