내년 1월부터 시행될 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법’(이하 AI 기본법)을 둘러싸고, 규제 강도가 지나치다는 우려가 제기되고 있다. 특히 하위 법령이 마련되는 과정에서 정의의 모호성과 규제 설계의 비현실성이 문제로 지적되면서, 업계와 전문가들은 정부의 신중한 접근을 촉구하고 있다.
AI 기본법은 유럽연합(EU)의 인공지능 규제 모델을 참고해, 인공지능 시스템의 위험도에 따라 차등 규제를 적용하는 방향으로 설계되었다. 이 중 핵심 개념은 ‘고영향 AI’로, 이는 법에서 "사람의 생명, 신체의 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 인공지능 시스템"으로 정의된다. 그러나 이 같은 정의는 추상적이어서 실제 적용 시 사업자나 규제 당국 모두 혼란을 겪을 가능성이 크다는 지적이 뒤따른다.
국회 과학기술정보방송통신위원회와 사이버커뮤니케이션학회가 9월 8일 개최한 세미나에서는 이 같은 우려가 집중 제기됐다. 김현경 서울과학기술대학교 교수는 EU 방식의 ‘위험 기반 규제’를 그대로 반영한 점을 비판하며, 규제는 기술이 창출할 경제·사회적 이익까지 함께 고려해야 한다고 밝혔다. 그는 객관적 기준 없는 규제 설계가 오히려 기술 발전을 저해할 수 있다고 경고했다.
현행 AI 기본법은 고영향 AI 또는 생성형(Generative) AI를 활용하는 서비스에 대해 이용자 사전 고지를 의무화하고, 이를 위반할 경우 최대 3,000만 원의 과태료를 부과하는 내용 등을 담고 있다. 이에 대해 업계는 기술 개발과 서비스 운영에 큰 부담이 될 수 있다고 토로한다. 특히 김항기 야놀자 실장은 고영향 AI 사업자에게 학습 데이터 개요 공개를 요구하는 것은 기업의 핵심 경쟁력인 영업 비밀을 침해할 수 있다고 설명했다.
전문가들은 규제 방식의 유연한 전환과 제도 정비를 요구하고 있다. 박민수 성균관대학교 교수는 고영향 AI의 모호성을 해소하기 위해 규제 주체를 단일화하고, 규제 샌드박스(일시적 규제 유예제도)를 통해 기술과 산업의 자유로운 실험이 가능해야 한다고 강조했다. 아울러 신진우 카이스트 교수는 한국이 AI 기술 경쟁에서 미국과 중국에 비해 뒤처진 상황을 타개하려면 정부가 선도적인 수요자가 되어야 한다고 제언했으며, 장준영 법무법인 세종 변호사는 AI 인프라의 조속한 구축과 이를 원활히 뒷받침할 구조적 제도 마련이 필요하다고 덧붙였다.
이 같은 흐름은 단순한 기술 규제를 넘어, 국가 AI 산업의 경쟁력 확보와도 직접적인 연관이 있다. 정부가 하위 입법 과정에서 과도한 규제를 완화하고 명확한 기준을 제시한다면, 국내 기업의 혁신과 글로벌 시장 참여를 더욱 촉진할 수 있을 것으로 보인다.