유튜브가 인공지능(AI)을 활용한 유해 콘텐츠 감지 기능을 강화하고 있는 가운데, 일부 유튜버들 사이에서는 이러한 조치가 무분별하게 작동해 부적절한 콘텐츠가 아님에도 불구하고 제재를 받는 사례가 늘고 있다는 지적이 나오고 있다.
정보통신기술(ICT) 업계에 따르면 유튜브는 플랫폼 내 건전한 생태계를 유지하기 위해 자체 커뮤니티 가이드를 마련하고, 영상뿐 아니라 댓글, 섬네일 등에 대해서도 이 가이드 기준을 적용해 관리하고 있다. 유해 콘텐츠는 스팸이나 기만행위, 민감한 내용, 폭력성, 규제 상품 홍보, 허위정보 등으로 구분되며, 해당되는 경우 사람과 머신러닝 기반 시스템이 병행 감지 후 삭제 조치에 들어간다.
최근 유튜브는 10대 보호 강화를 목적으로 AI가 시청자의 연령을 추정하는 기술도 도입하고 있다. 이용자가 제공한 생년월일과 관계없이 플랫폼은 영상 시청 패턴 등을 바탕으로 시청자가 청소년일 가능성이 높다고 판단될 경우, 맞춤형 광고 제한, 디지털 웰빙 기능 활성화, 청소년 친화적 콘텐츠 추천 강화 등 보호 조치를 자동으로 적용한다. 이 조치가 과도할 경우 본인 인증을 통해 성인임을 밝힐 수 있는 절차도 마련됐다.
하지만 일부 콘텐츠 제작자들은 이처럼 강화된 자동 감지 시스템이 실제 유해성이 없는 영상까지 규제 대상으로 삼는 경우가 많다고 주장하고 있다. 구독자 98만 명을 보유한 유튜버 '딤디'는 반려 고양이와 노는 평범한 일상 영상이 유튜브의 성인 콘텐츠 규정에 걸려 연령 제한 조치를 당한 사례로 주목을 받았다. 해당 유튜버가 이의를 제기했음에도 불구하고, 제한을 해제할 수 없다는 통보를 받으면서 규제 기준의 모호성과 시스템의 신뢰도에 대한 비판 여론이 높아졌다.
실제 콘텐츠 제작자들 사이에서는 이른바 '노란 딱지'(광고 제한 혹은 콘텐츠 노출 감소 조치를 당한 경우)에 대한 고민이 이어지고 있다. 한국언론진흥재단이 과거 KBS 뉴스 유튜브 채널의 영상 8천여 건을 분석한 결과, 감염병이나 범죄 관련 보도 등 정당한 공익 콘텐츠 다수가 가이드라인 위반으로 평가된 사례가 있었다. 이에 대해 전문가들은 플랫폼의 알고리즘이 콘텐츠 맥락을 충분히 반영하지 못하는 구조적 한계 때문이라고 분석하고 있다.
이처럼 AI 기술이 유해 콘텐츠 감지의 핵심 도구로 자리 잡고 있는 가운데, 기술 오판에 따른 콘텐츠 제한 문제 역시 새로운 사회적 과제로 떠오르고 있다. 유튜브가 플랫폼 투명성과 신뢰를 유지하기 위해서는 더욱 정교한 기술 개선과 함께, 이용자와의 충분한 소통이 병행돼야 할 것으로 보인다. 이러한 흐름은 향후 플랫폼 내 ‘콘텐츠 자유’와 ‘이용자 안전’ 간 균형을 둘러싼 논의가 본격화되는 계기가 될 수 있다.