AI 이미지 생성 기술이 빠르게 발전하면서, 진짜와 가짜를 구분하기 어려운 디지털 현실의 위협이 점점 더 뚜렷해지고 있다. 특히, 최근 구글이 공개한 고성능 인공지능 모델 ‘제미나이 2.5 플래시 이미지’는 놀라운 편집 역량을 선보였지만, 동시에 허위 정보 조작이나 딥페이크 범죄에 악용될 소지도 커졌다는 지적이 이어지고 있다.
2024년 말 구글이 선보인 제미나이 2.5는 기존 이미지 생성 도구와 달리 인간 얼굴의 특징과 스타일을 일관되게 유지하며 다양한 배경, 자세, 환경을 재현하는 기술력을 입증했다. 하나의 인물이 마치 여러 상황에 자연스럽게 등장하는 듯한 이미지를 매우 정확하게 구현할 수 있는 수준이다. 이런 강력한 편집 기능은 마케팅, 콘텐츠 제작 등 다양한 분야에 긍정적인 변화를 줄 수 있지만, 실제 존재하는 사람의 모습과 음성을 대상으로 허위 사실을 만들어 퍼뜨리는 딥페이크 범죄도 한층 정교해질 수 있다는 우려가 나온다.
실제로 2024년 홍콩에서는 딥페이크 영상으로 위장한 화상회의 속 가짜 최고재무책임자(CFO)가 2천500만 달러의 자금을 이체하도록 속인 사례가 발생하기도 했다. 회의에 참여한 모든 인물이 조작된 영상이었으나, 참석자의 얼굴, 음성, 행동까지 사실적으로 구현돼 피해자가 전혀 의심하지 않았다고 전해진다. 이는 단순한 기술 문제가 아니라, 데이터 신뢰와 금융 보안, 사회적 신뢰의 기반을 위협하는 문제로 확대되고 있다.
이에 대한 대응책으로 구글은 ‘신스ID’라는 워터마크 기술을 개발해 일부 AI 생성 이미지에 테스트 적용하고 있다. 신스ID는 맨눈으로 보이지 않는 디지털 표식을 이미지에 삽입해, 진짜와 인공지능 생성 이미지를 구분할 수 있도록 돕는다. 그러나 전문가들은 이미지 자르기나 필터링과 같은 간단한 편집만으로도 이러한 워터마크가 사라질 수 있음을 경고하며, 기술적 한계에 대한 보완이 필요하다고 강조하고 있다.
향후 문제는 단순한 기술 개발의 문제가 아니라 제도와 윤리 기준을 어떻게 세울 것이냐로 이어진다. 현재 AI 이미지 생성에는 사용자 동의, 오류 발생 시 책임 소재, 초상권 및 저작권 보호와 같은 법적 기준이 충분히 갖춰져 있지 않다. 더구나 SNS나 대중 플랫폼도 AI 생성 이미지에 대한 식별 기능을 의무화하지 않고 있어, 소비자가 이를 실제 정보로 오해하는 위험이 존재한다. 이 때문에 디지털 리터러시 교육의 확대, 특히 청소년 대상의 정보 감별력 향상 교육이 시급하다는 목소리가 커지고 있다.
이 같은 흐름은 앞으로 인공지능 기술이 더 정교해질수록 기술과 사회 간 신뢰의 균형을 어떻게 유지할지가 새로운 핵심 과제가 될 가능성이 크다. AI는 창작과 혁신의 도구인 동시에, 신뢰 붕괴를 가속할 수 있는 양날의 검이기 때문이다. 따라서 기술 기업, 정책 당국, 시민사회가 함께 협력해 책임 있는 기술 활용 기준을 마련하고, ‘진짜 사회’를 지켜내는 노력이 요구된다.