美, AI 투명성 법제화 시동… 'RISE 법안' 조건부 면책 규정 담아

| 김민준 기자

미국 상원의원 신시아 루미스(Cynthia Lummis)가 인공지능(AI) 산업의 투명성과 책임성을 제고하기 위한 '책임 있는 혁신 및 안전 전문성 법안(Responsible Innovation and Safe Expertise Act, 이하 RISE 법안)'을 발의했다. 이 법안은 AI 개발자에게 일정 수준의 법적 면책 혜택을 제공하는 대신, 모델 학습 데이터와 평가 방식 등 핵심 정보를 공개하도록 의무화하는 내용을 담고 있다.

RISE 법안은 오는 12월 1일부터 시행을 목표로 하고 있으며, 이 법이 통과되기 위해선 상·하원 과반 찬성과 트럼프 대통령의 서명이 필요하다. 루미스 의원은 법안 발의 직후, “AI가 사회적 신뢰를 얻기 위해선 연구소에서 비밀리에 규칙을 정해서는 안 된다”며 “투명성과 혁신 사이에서 균형을 맞추는 구체적이고 실행가능한 기준이 필요하다”고 강조했다.

이 법안은 특히 AI 개발자들에게 ‘조건부 면책(Safe Harbor)’을 제공하는 최초의 독립 입법 시도다. 구체적으로는 AI 모델의 학습 데이터, 성능 평가 기준, 작동 방식, 사용 목적 및 한계 등을 명확하게 명시한 '모델 카드(Model Card)' 작성과 공개를 의무화하고, 시스템을 구성하는 주요 명령어나 설정 값 등 ‘모델 명세(Model Specification)’를 제출하도록 규정한다. 기업이 영업 비밀을 이유로 일부 내용을 비공개 처리할 경우, 그 사유를 서면으로 제출해야 한다.

안전장치도 포함됐다. AI 도구의 오류 가능성이나 알려진 위험성을 문서화하고, 새로운 결함이나 업데이트가 이뤄질 경우 30일 내에 문서를 수정해야 면책 혜택을 유지할 수 있다. 이를 소홀히 하거나 고의적·중대한 과실을 저지른 경우, 면책 조항은 효력을 잃게 된다.

다만, 의료, 법률 등 전문직 종사자의 최종 책임은 유지된다. 예컨대 AI가 작성한 치료 계획을 검토 없이 따른 의사나, 검증 없이 제출한 AI 작성 소송문을 바탕으로 소송을 진행한 변호사는 여전히 법적 책임을 지게 된다. 또한, 이 법은 일반 사용자나 악의적 사용에는 면책을 적용하지 않으며, 기존 면책 조항도 철회하지 않는다.

비영리 조직 AI 퓨처스 프로젝트(AI Futures Project)의 정책 리더인 다니엘 코코타일로(Daniel Kokotajlo)는 이 법안을 '진보적인 한 걸음'으로 평가하면서도 세 가지 우려를 함께 제기했다. 첫째로, 기업이 단순히 법적 책임을 감수하고 내부 정보를 감추는 '옵트아웃(Opt-out)'이 가능하다는 점, 둘째로 결함 공개 시 최대 30일까지 허용된 ‘지연 기간’이 위기 상황에서는 지나치게 느릴 수 있다는 점, 셋째로 지적재산 보호 명목으로 관련 정보를 과도하게 검열할 위험이 있다는 것이다.

전문가들은 이 법안이 AI 발전 과정에서 반드시 필요한 *투명성* 확보를 위한 여론 형성의 기점이 될 수 있다고 분석한다. 기존까지 AI 분야는 알고리즘이나 학습 데이터가 ‘블랙박스’처럼 여겨져 왔으나, RISE는 위험도가 높은 분야에서 최소한의 공개 기준을 강제함으로써 사회적 책임을 촉구하는 첫 단초가 될 수 있다는 것이다.

AI 윤리와 규제에 대한 논의가 글로벌 차원에서 본격화되는 가운데, 미국 의회 내에서 마련된 이같은 입법 시도는 AI 산업의 제도적 기틀 마련과 규제 방향 설정 면에서 중요한 분수령이 될 것으로 보인다.