기업 임직원이 허가받지 않은 인공지능 도구를 조직 내에서 무분별하게 사용하는 이른바 ‘섀도 AI’가 보안 위협으로 떠오른 가운데, AI 모니터링 스타트업 라나이(Lanai)가 이를 제어할 새로운 해법을 제시했다. 라나이는 최근 자사의 AI 관측 에이전트(Observability Agent)를 공식 발표하고, 이 기술이 기업 보안의 사각지대에서 발생하는 정보 유출을 직접 차단할 수 있다고 강조했다.
라나이의 AI 관측 에이전트는 대화 데이터와 프롬프트 분석을 클라우드가 아닌 직원 개별 디바이스에서 실시간으로 수행하는 ‘엣지 기반’ 방식으로 작동한다. 이를 통해 불특정 다수가 사용하는 ChatGPT 등 생성형 AI 플랫폼에 기업 기밀이 유출되는 상황을 방지할 수 있다는 설명이다. 라나이는 이 에이전트가 일체의 데이터를 외부로 전송하지 않고, 온프레미스 환경에서 AI 사용 현황을 감지하고 제어할 수 있다고 밝혔다.
라나이 공동창업자 겸 CEO인 렉시 리스(Lexi Reese)는 “직원들이 별도의 허가 없이 개인 계정으로 생성형 AI 서비스를 사용하는 것은 이제 매우 일반적인 일이 됐다”며 “기존 보안 솔루션은 단순히 ChatGPT 접속 여부만 알 수 있을 뿐, 민감 정보 유출 여부는 파악하지 못한다는 점이 치명적인 한계”라고 지적했다.
실제 최근 보안 기업 레이어엑스(LayerX)가 발표한 보고서에 따르면, 기업의 전체 AI 사용 중 89%는 보안 및 IT 부서의 통제 밖에서 이루어지고 있다. 개발자들이 코드 작성 가속화를 위해 승인받지 못한 AI 코딩 도우미인 코드리움(Codeium)이나 커서(Cursor)를 사용하는가 하면, 의사들이 일상적으로 환자의 민감 정보를 개인 ChatGPT에 입력하는 실정이라는 것이다.
라나이는 이 같은 위험성을 줄이기 위해 ‘디지털 가드레일’을 제시하고 있다. AI 활용에 필요한 데이터는 각 직원의 디바이스 내에서 분석되고, 프로세싱도 현장에서 즉시 시행한다. 감지 대상은 특정 앱 목록으로 한정되지 않고 모든 응용 프로그램에 유연하게 대응한다. 라나이에 따르면 이 기술은 하루 만에 기존 데이터 관리 도구와 통합될 수 있어, 기업 입장에서는 신속하고 간편하게 도입 가능한 솔루션으로 주목받고 있다.
라나이는 실제 사례를 통해 자사 플랫폼의 실효성을 입증했다. 예컨대 한 포춘 500대 기술 기업은 소속 개발자들이 12가지 이상 AI 도구로 코드를 생성하며 기밀 정보를 유출하고 있음을 파악했다. 이에 따라 생산성이 높고 위험이 낮은 도구들만 승인하고, 나머지는 사용을 차단해 AI 생산성은 300% 증가했다고 밝혔다.
건강보험 산업에 속한 한 기관 역시 2만 명 이상의 직원이 무려 34개의 AI 도구를 사용 중이었지만 이들 중 5개만이 공식적으로 승인됐었다. 라나이 도입 후 해당 기관은 민감 정보 노출 건수를 90일 내 80% 이상 줄이는 데 성공했다. 금융 서비스 업계의 한 고객사는 전체 AI 사용량 중 약 73%가 개인 계정을 통해 이뤄진다는 사실을 확인한 뒤 불필요한 서비스 사용을 중단하고 연간 70만 달러(약 10억 원)의 비용을 절감할 수 있었다고 전했다.
라나이 공동창업자 스티브 해로드(Steve Herrod)는 “당사는 기업의 핵심 AI 활용 현황을 가시화해 필요한 서비스만 남기고 나머지를 정리하는 과정을 가능케 한다”며 “과거 물리적 서버 환경을 모니터링하던 것에서 이제는 가상 머신 내부 텔레메트리를 확보하는 시대에 진입한 것과 마찬가지”라고 설명했다.
AI의 무분별한 확산과 이에 따른 보안 공백이 기업의 치명적 리스크로 떠오른 가운데, 라나이의 엣지 기반 AI 관측 에이전트는 기업 보안과 효율성을 동시에 확보할 수 있는 솔루션으로 주목받고 있다.