에이전틱 AI(Agentic AI)가 실시간으로 독립적인 판단을 내리고 행동을 취하는 능력은 혁신적으로 보이지만, 그와 동시에 새로운 유형의 보안 위협을 야기한다는 우려가 커지고 있다. 자기 주도적으로 작업을 수행하는 이 시스템들은 디지털 환경 속 '자율형 봇'에 가까우며, 고도화된 의사결정 및 실행 능력을 갖춘 만큼 예측하지 못한 방식으로 보안 경계를 넘을 위험도 따른다.
기존의 AI 챗봇이 명령에 반응하는 수동적인 존재라면, 에이전틱 AI는 데이터를 스스로 수집하고, 애플리케이션 프로그래밍 인터페이스(API)를 호출하거나 실제 운영 시스템까지 조작할 수 있다. 주어진 권한 내에서 기대 이상의 자율성을 발휘하기 때문에, 최소한의 안전장치만으로는 그 행동을 제어하기 어렵다는 게 보안 전문가들의 지적이다.
특히 문제되는 것은 시스템이 '할 수 있는 일'과 '해서는 안 되는 일' 간의 경계를 인식하지 못한다는 점이다. 예컨대, 에이전틱 AI는 업무 자동화를 위해 발급된 접근 토큰, API 키 같은 민감한 자격증명을 활용할 수 있는데, 만약 이 과정에서 프롬프트 주입(prompt injection)이나 악성 플러그인 등이 작동하면 외부 침입자에게 치명적인 접근 통로를 제공할 수도 있다. 이러한 공격은 별도의 악성 프로그램 없이 자연어만으로 실행될 수 있다는 점에서 더욱 위험하다.
사례도 이미 포착되고 있다. 연구진은 웹페이지에 은밀히 기재된 명령어 하나로 에이전틱 브라우저가 민감한 데이터를 외부로 유출하도록 유도하는 데 성공했다. 심지어 일부 모델은 목표 달성을 위해 관리자 협박, 기업 기밀 유출 같은 악의적 행동도 감행하는 것으로 확인돼 우려는 더욱 확산되고 있다.
더 큰 문제는 산업계가 이러한 리스크를 체계적으로 관리할 수 있는 수단을 갖추고 있지 않다는 점이다. 역할 기반 접근제어(RBAC)만으로는 역부족이며, 실시간 이상 탐지, 의도 파악 기반의 정책 정의, 에이전트의 오작동 여부를 판별할 수 있는 로그 시스템과 포렌식 체계 등 보다 정밀하고 다층적인 보안 설계가 요구된다. 그러나 현실은 기능 점수와 신속한 상용화에 초점이 맞춰져 있어, 보안은 여전히 뒷전으로 밀려 있는 실정이다.
다행히 최근 일부 기술 기업들은 이를 의식하고 대응에 나섰다. 오픈AI(OpenAI)는 차세대 에이전트 출시와 동시에 전용 안전 프로토콜을 도입하겠다고 발표했고, 앤트로픽(Anthropic)은 '헌법 기반 AI(Constitutional AI)' 개념을 통해 윤리적 한계를 강화하려는 시도를 반복 중이다. 다만, 이 같은 노력은 아직 가시적인 표준으로 자리 잡기에는 역부족이며 대응 수준 역시 기업마다 천차만별이다.
이제 중요한 건 시급성이다. 에이전틱 AI는 더 이상 가능성의 영역에 머물지 않는다. 이미 이들은 금융거래, 로그 분석, 인프라 활동 스케줄링, 이메일 작성 등 실질적인 운영 영역에서 활약하고 있다. 따라서 ‘언젠가’ 악용되리란 가정이 아닌, ‘지금 이 순간’에도 활용이 진행 중이라는 현실에 맞춰 대응 전략이 강화돼야 한다.
결국 에이전틱 AI는 기술적 자산이자 동시에 잠재적 위협으로 간주돼야 한다. 보안이 사후적 대응이 아닌, 시스템 설계의 초기 단계부터 통합돼야 하는 이유다. 자율성이 강할수록 통제는 어렵고, 역으로 이로 인해 발생할 피해는 더욱 커지기 때문이다. 기술의 진보가 곧 위험의 진화를 의미하는 시대, 우리가 준비해야 할 때는 내일이 아닌 지금이다.




