국가인권위원회가 인공지능 윤리에 대한 법제도의 시행을 미루는 방안에 대해 우려를 표명했다. 해당 법 조항의 도입이 늦어질 경우, 인공지능 기술로 인한 인권 침해 대응이 공백 상태에 놓일 수 있다는 입장이다.
1일 국가인권위원회는 국회의장에게 인공지능기본법 제31조부터 제35조까지의 시행을 3년간 유예하는 방안에 대해 “신중한 검토가 필요하다”는 의견을 전달했다. 이 조항들은 내년 1월 22일부터 시행될 예정이지만, 최근 국회에는 해당 조항의 발효를 2028년까지 연기하자는 개정안이 발의된 상태다.
문제의 조항들은 인공지능이 생산한 창작물에 대해 ‘인공지능의 작품’이라는 사실을 표기하도록 하고, 워터마크(디지털 식별 표시) 삽입을 사업자의 의무로 명시하는 등 기술 제공자의 책임을 강화하는 내용을 담고 있다. 이는 소비자와 이용자가 인공지능이 만든 콘텐츠를 명확히 구분할 수 있도록 해, 허위 정보 유포나 인권 침해를 미연에 방지하기 위한 조치다.
인권위는 특히 딥페이크(인공지능으로 만든 허위 영상·음성 등)가 초래한 현실적 문제를 지적했다. 실제로 지난해 10월 기준 딥페이크 범죄는 전년 대비 518% 급증했다. 이러한 상황에서 인공지능 창작물에 대한 식별·표기 의무를 유예할 경우, 관련 범죄나 부작용에 대한 법적 대응이 어려워질 수 있다는 것이 인권위의 판단이다.
개정안을 발의한 측은 기술 발전을 저해하지 않으면서 기업의 비용 부담을 줄이기 위한 조치라는 배경을 내세우고 있다. 그러나 인권위는 인공지능이 빠르게 생활 전반으로 확산되고 있는 현실을 감안할 때, 규제 공백이 오히려 더 큰 사회적 비용을 초래할 수 있다고 경고하고 있다.
이 같은 논의는 앞으로 인공지능 기술의 발전 속도를 법과 제도가 얼마나 빠르게 따라갈 수 있을지를 가늠하는 시험대가 될 전망이다. 특히 인공지능 관련 규범 정립이 초기 단계인 만큼, 사회적 신뢰를 높이기 위한 제도적 기반 마련이 핵심 과제로 부각되고 있다.