비탈릭 부테린, ChatGPT 보안 경고…“AI, 모든 자금 가로챌 수도”

| 서도윤 기자

이더리움(ETH) 공동 창업자인 비탈릭 부테린(Vitalik Buterin)이 최근 ChatGPT가 사용자 개인정보를 유출할 수 있다는 보안 경고에 대해 경고의 목소리를 냈다. 이는 인공지능(AI) 기술이 더 넓은 디지털 생태계로 빠르게 확장되는 가운데 제기된 기술적·윤리적 문제로, 암호화폐 업계는 물론 전 세계 디지털 사용자들의 주목을 끌고 있다.

문제의 발단은 옥스퍼드 출신 소프트웨어 엔지니어 에이토 미야무라(Eito Miyamura)가 X(구 트위터)를 통해 폭로한 GPT 기능 업데이트 내용이다. 그는 최근 ChatGPT가 MCP(Model Context Protocol) 도구를 완전히 지원하기 시작하면서, 사용자의 지메일, 구글 캘린더, 쉐어포인트 등 외부 서비스와 직접 연결돼 치명적인 정보 유출 가능성이 생겼다고 주장했다.

미야무라에 따르면, 단지 피해자의 이메일 주소만 있으면 악의적인 캘린더 초대를 통해 “탈옥(jailbreak)” 명령어를 심어 ChatGPT가 공격자의 지시에 따라 이메일을 검색하고 데이터를 다른 주소로 전송하도록 유도할 수 있다. 그는 “AI는 사용자 지시를 따르지, 상식을 따르지 않는다”며, AI에 대한 지나친 신뢰가 오히려 큰 보안위협을 불러올 수 있다고 경고했다. 특히 사용자 대다수가 향후 AI의 권한 요청을 무조건 승인할 가능성이 높아지면서, 문제는 더 심각해질 수 있다는 것이다.

이에 대해 부테린은 현 인공지능 거버넌스 모델이 ‘순진하다’며 강하게 비판했다. 그는 AI가 자율적으로 기금 배분 등의 결정을 하게 두면, 언젠가는 악의적인 코드를 넣어 "모든 자금을 가로채라는 지시를 AI에게 주입하는" 일이 만연해질 것이라고 주장했다. 이와 관련해 그는 대안으로 ‘정보 금융(info finance)’ 모델을 제시했다. 이는 개방형 시장에서 누구나 AI 모델을 제공하고, 외부 검증이나 무작위 테스트를 통해 보안을 체크받을 수 있도록 하는 구조다. 무엇보다 인간 심사위원단이 데이터를 검토할 수 있어, AI의 명령체계가 일방향이 되지 않게 한다는 데 초점이 맞춰져 있다.

AI 기술이 암호화폐와 디지털 자산 관리에도 필수적으로 접목되는 시대, 정보보안 문제는 단순한 기술적 이슈를 넘어 사용자 신뢰의 핵심으로 떠오르고 있다. 엔지니어, 투자자, 정책 입안자 모두의 숙고가 필요한 시점이다.