AI 영상 생성 '소라 2', 비트코인 사기 영상에 악용 우려…암호화폐 보안 비상

| 서도윤 기자

인공지능 기술이 새로운 국면에 접어들면서, 암호화폐 사기 수법도 한층 정교해지고 있다. 오픈AI(OpenAI)가 최근 공개한 고성능 영상 생성 모델 ‘소라 2(Sora 2)’는 AI가 실제 물리 법칙에 기반해 인간 행동과 환경을 사실감 있게 재현할 수 있도록 만들어진 도구다. 그런데 이 기술이 콘텐츠 사기를 유발할 수 있는 양날의 검으로 등장하면서, 블록체인 업계를 중심으로 긴장감이 감돌고 있다.

소라의 첫 번째 버전은 2024년 2월 등장했으며, 영상 생성 기술의 ‘GPT-1’으로 불릴 만큼 초기 개념 증명 수준이었다. 그러나 이번에 공개된 소라 2는 한층 정교해진 물리 기반 시뮬레이션 기능을 갖췄다. 예컨대 농구공이 백보드를 맞은 뒤 현실감 있게 튕기며 떨어지는 장면처럼, 단순한 이미지가 아니라 물리 법칙에 부합하는 동적 영상을 생성한다.

이러한 기술은 교육, 영화, 시뮬레이션 분야에는 혁신이지만, 암호화폐 업계에서는 허위 콘텐츠 제작의 핵심 도구가 될 수 있다는 점에서 우려를 낳고 있다. 과거에는 일론 머스크(Elon Musk), 비탈릭 부테린(Vitalik Buterin), 마이클 세일러(Michael Saylor) 등을 등장시킨 조악한 딥페이크 영상이 사기 수단으로 쓰였지만, 시각적 오류나 음성의 부자연스러움 때문에 비교적 쉽게 적발됐다. 그러나 소라 2는 자연스러운 대화 흐름과 실제적인 표정, 장면 전환을 만들 수 있어, 가짜임을 구별하기 어렵게 한다.

투자 유치 영상을 자칭한 일류 인사의 허위 인터뷰나 가공된 패널 토론 영상이 등장할 경우, 심지어 경험 많은 투자자들도 초기에 속을 수 있다. 사기꾼들은 이를 통해 새로 나온 이더리움(ETH) 스테이킹 프로그램 소개나 비트코인(BTC) 투자 권유 등으로 위장한 콘텐츠를 제작할 가능성이 크다. 특히, 소셜미디어 알고리즘이 확산을 돕는 오늘날에는 이러한 영상이 빠르게 퍼져 피해 규모가 걷잡을 수 없게 될 수도 있다.

아이러니하게도, 지식 전달이나 크리에이티브 콘텐츠를 혁신할 AI 기술이 지금은 사기 수단으로 전락할 위기에 놓였다. 전문가들은 이러한 영상형 사기 행위를 탐지할 수 있는 AI 기반 경고 시스템과 디지털 워터마크 적용, 콘텐츠 진위 검증 기술이 시급하다고 강조하고 있다. 하지만 현재로선 뚜렷한 기술적 보호 장치가 부족한 상황이다.

AI를 활용한 초현실적인 콘텐츠가 틀리지 않은 것처럼 보이는 시대, 투자자들이 경계심을 늦추지 않는 것만이 유일한 방어 수단이다. 암호화폐 업계 관계자들은 입을 모아 말한다. "이제는 ‘보이는 것이 진실’이라는 믿음이 무너진 시대다. 유튜브 속 인터뷰 하나로 지갑을 열기 전에, 반드시 한 번 더 검증하라."