딥페이크+AI, 디지털 사기공장 시대… 현실 위협된 ‘합성현실’

| 김민준 기자

고도화된 딥페이크 기술과 대형 언어 모델(LLM)의 결합이 사이버 보안의 새로운 위협으로 떠오르고 있다. 불과 몇 해 전만 해도 인터넷 밈에 사용되던 딥페이크는 현재 사이버 공격자들의 핵심 수단으로 활용되며, 기업과 정부 조직을 상대로 한 정교한 사기 행위에 이용되고 있다. 최근에는 트럼프 대통령의 이름이 아닌, 마르코 루비오 미 국무장관을 사칭한 딥페이크 사례가 발생해 정치권까지 긴장시키고 있다.

이 같은 사태는 공격자들이 LLM을 활용해 설득력 높은 이메일과 대화를 생산하고, 여기에 실제 인물의 얼굴과 음성을 덧입히는 방식으로 진화하고 있음을 보여준다. 단독으로도 위협적인 이 기술들이 결합되면, 이른바 '디지털 복제 인물'을 현실에 구현할 수 있을 정도로 정밀도가 높아진다. 실제로 2023년에는 홍콩의 한 글로벌 금융사 직원이 CFO를 사칭한 딥페이크 화상통화를 믿고 약 2500만 달러(약 360억 원)를 이체한 사건이 발생했다.

기존의 사이버 공격 방지책은 이런 진화된 공격에 취약하다. 오탈자나 어색한 표현, 불명확한 의사 전달 등 전통적인 피싱 메커니즘의 흔적이 사라졌기 때문이다. 이제는 LLM이 구성한 이메일이 맞춤형 용어와 표현으로 수신자의 신뢰를 얻고, 대화 스타일까지 모방하기 때문이다. 해킹은 더 이상 복잡한 코드나 악성코드 유포가 아닌, '사람을 속이는 기술'의 진화 양상으로 바뀌고 있다.

특히 음성과 영상 데이터는 수 초면 모방될 수 있고, LLM을 통해 만든 시나리오가 여기에 결합되면 공격 효율은 입체적으로 높아진다. 문제는 이러한 공격이 특정 대상만을 겨냥하는 스피어 피싱이 아니라, 자동화를 통해 수천 명에게 동시에 확산될 수 있다는 점이다. 이제는 누구나 GPU 장비와 약간의 기술 지식만 있어도 '디지털 사기공장'을 손쉽게 구축할 수 있다.

보안 인프라 역시 이 속도에 따라가지 못하고 있다. 현재의 이메일 필터링이나 이상 IP 탐지 같은 전통적 대응 시스템은 딥페이크 공격을 탐지하지 못하는 경우가 많다. 실제 인간과 동일한 음성과 언어를 흉내내는 기술은 탐지 시스템을 무력화시키며, 심지어 내부 의사소통에서 자주 쓰는 관용구나 표현 습관까지 학습해 조직 내부의 신뢰 체계에 기생한다.

이로 인해 일부 기업들은 내부 커뮤니케이션 로그를 분석해 사용자의 '언어 지문'을 파악하고, 평소와 다른 어휘 선택이나 발화 패턴을 감지하는 방식의 방어 체계를 도입하고 있다. 정적인 다중 인증 역시 얼굴 인식, 기기 위치, 행동 리듬 등을 통한 지속적 인증으로 진화해야 한다는 목소리도 나온다.

더 나아가 협업 플랫폼 자체에도 보안 내재화가 요구된다. 예를 들어 줌이나 슬랙, 팀즈 같은 프로그램은 별도의 플러그인 의존 없이 콘텐츠의 진위 여부를 실시간으로 확인할 수 있는 기능을 기본 탑재해야 한다. 일부 보안 솔루션 기업은 딥페이크 콘텐츠에 디지털 워터마크를 삽입하거나 생성 시점부터 콘텐츠의 '출처 증명'을 기록하는 기술을 개발 중이다.

법과 제도적 대응도 필수적이다. 정부 차원의 대응 프로토콜 정립은 물론, 금융기관은 딥페이크 기반의 이상 거래를 탐지할 수 있는 알고리즘을 강화하고, 기업은 인공지능 생성물의 사용 여부를 명시하도록 하는 규제가 필요하다.

무엇보다 중요한 건, 우리가 지금까지 당연하게 여겨온 '디지털 상의 신뢰'를 더 이상 전제하지 말아야 한다는 점이다. 메시지 하나, 통화 한 통도 반드시 검증이 필요한 시대가 온 것이다. 진짜와 가짜를 구분할 수 없는 ‘합성현실 시대’에 대비하기 위해, 기업과 개인 모두는 '신뢰를 가정하지 않는 보안' 패러다임으로의 전환이 불가피하다.