웹 3.0 산업 활성화 정책연구 보고서에 따르면, 인공지능(AI)의 급속한 확산이 산업계 혁신을 이끄는 동시에 사회적 신뢰를 침식하는 역기능을 병행적으로 확대시키고 있다는 분석이 제기됐다. 특히 딥페이크, 보이스피싱 등 기술 악용 사례가 현실화되며, AI에 대한 지나친 의존과 활용 격차가 사회 구조 전반에 부정적인 영향을 미치고 있다는 우려가 커지고 있다.
서강대학교 윤석빈 교수는 해당 보고서에서 AI 역기능의 본질을 ‘기술적 결함뿐 아니라 인간의 오용 및 남용으로부터 야기되는 모든 악영향’이라 정의했다. 보고서는 이 중에서도 특히 ‘디지털 격차 심화(AI Divide)’, ‘디지털 과의존(AI Overdependence)’, ‘범죄 및 불법 행위(Crime & Illegal Acts)’라는 세 가지 측면을 중심으로 주목했다.
우선 디지털 격차 심화는 고성능 AI 모델 이용에 필요한 과금 구조와 접근권 차이, 대기업과 중소기업 간의 데이터 처리 역량 격차, 그리고 고품질 데이터 보유 여부에 따른 성능 차이가 생산성 격차를 기하급수적으로 벌릴 수 있다고 분석됐다. 예컨대 유료 AI 도구 사용에 제한된 사용자층은 자동화 생산성에서 점점 뒤처질 수밖에 없다.
디지털 과의존은 인간 고유의 사고력 퇴보와 연결된다. AI 자동완성 결과에 대한 검증과 수정 등 반복업무로 인한 피로도와 스트레스, 그리고 ‘AI 없이는 업무가 불가능한 구조’로의 전락까지 포함된다. 특히 ‘데스킬링’ 현상은 AI 발전과는 별개로 인간 능력을 약화시키는 위험 요인으로 지목된다.
더 큰 문제는 범죄 목적의 AI 남용이다. 보고서는 딥페이크 기술을 이용한 성범죄, 사기업 CEO 사칭, 증거 조작 사례들이 현실화되며, 정보의 진위를 판단하기 어려워지는 ‘거짓 배당 현상’이 심화되고 있다고 경고했다. AI 기반 음성합성은 보이스피싱 수법을 고도화하고 있으며, 마이크로 타겟팅 기반 여론 조작은 가짜뉴스 확산과 사회 분열을 일으키는 재앙적 요소가 될 수 있다.
이에 따라 기술적 대응 방안도 구체적으로 제시됐다. 웹 3.0 산업 활성화 정책연구 보고서는 딥페이크 탐지 알고리즘 고도화와 함께, 콘텐츠의 출처를 검증할 수 있는 C2PA 표준 및 워터마크의 의무 도입을 제안했다. 또한 분산 신원 인증(DID), 영지식 증명(ZKP), 블록체인 기반 콘텐츠 인증을 활용한 Web 3.0 기반 디지털 신뢰체계의 구축이 핵심 대안으로 부상하고 있다고 분석했다.
정책적 측면에서는 딥페이크 유통에 대한 형사처벌 강화, 플랫폼 사업자의 책임 명문화, 그리고 공공 AI 인프라 구축이 추진돼야 한다는 요구가 커지고 있다. 동시에, 청소년부터 성인까지 전 세대를 대상으로 하는 디지털 리터러시 교육이 절실하다는 지적이다.
윤석빈 교수는 보고서를 통해 기술적 대응뿐 아니라 윤리교육, 정책 거버넌스, 산업계·학계·시민사회 간 협업이 긴요하다고 강조했다. AI의 역기능을 방치할 경우 기술 신뢰의 붕괴는 물론, 디지털 민주주의와 경제 질서마저 위협받을 수 있다.
궁극적인 방향은 기술 발전 속도를 억제하는 것이 아니라, 이를 공정하고 책임감 있게 활용하기 위한 ‘인간 중심 규범’을 형성해가는 데 있다. 보고서는 AI를 사회적 번영의 도구로 삼기 위해선 유연한 규제와 정합적 제도 구축, 그리고 지속 가능한 신뢰 생태계 조성이 반드시 병행돼야 한다고 결론지었다.





