백악관이 최근 발표한 인공지능 관련 행정명령과 ‘AI 행동계획(AI Action Plan)’을 통해 미국 정부는 AI 분야의 글로벌 리더십을 공식화했다. 규제 강화, 인프라 확충, 공정성과 안전성 확보 등 야심찬 목표를 내세웠지만, 이를 뒷받침할 ‘신뢰할 수 있는 증거’가 없다면 정책은 선언적으로 끝날 수 있다. 기업의 자발적인 보고에만 의존하는 현재의 평가 체계로는 AI 모델의 성능과 위험을 객관적으로 검증하기 어렵기 때문이다.
실제로 월가가 스스로 회계감사를 수행한다거나, 제약회사가 자체 심사로 신약을 승인하는 상황을 상상해보자. 이처럼 검증 부재의 상황은 AI 업계에서는 현실이다. 민간 기업이 제공하는 일회성 벤치마크와 제품 시연만으로는 AI의 신뢰성을 판단할 수 없다. AI 시스템은 빠르게 진화하지만, 대부분의 규제는 고정된 기준에만 기댄다. 이는 실제 환경에서 발생하는 편향, 성능 저하, 모델 일탈 등의 중요한 변화를 포착하지 못하는 한계를 드러낸다.
이 때문에 AI 규제의 ‘다음 단계’는 단순한 규정 확대가 아닌 실행력을 갖춘 감시 체계 구축이어야 한다. 이를 위해 핵심이 되는 두 요소는 ‘독립성’과 ‘지속성’이다. 독립적인 제3자 기관이 AI 시스템의 성능을 지속적으로 평가해야 한다는 것이다. 단순히 기업이 제공하는 내부 데이터를 검토하는 수준이 아니라, 제시된 데이터가 신뢰할 수 있고 투명하게 공개되어야 한다. 그래야만 규제 기관이 한정된 자원으로도 효과적인 판단을 내릴 수 있다.
독립 평가 인프라 도입이 가져올 효과는 분명하다. 먼저, 정부 기관은 중복 서류 대신 신뢰받는 실시간 데이터를 활용해 정확하면서도 빠른 판단을 내릴 수 있다. 둘째, 민간 기업과 공공기관이 대규모 AI 시스템을 도입하는 데 있어 불확실성과 리스크를 줄일 수 있다. 셋째, 소비자와 일반 대중 역시 AI가 현실의 복잡한 문제를 해결하려는 과정에서 실제로 검증되고 있다는 믿음을 갖게 된다.
올해 미국 정부가 발표한 행정명령들도 이러한 경향을 반영한다. 혁신 진입 장벽 제거(EO 14179), 데이터센터 인프라 확충(EO 14318), 연방기관의 AI 중립성 확보(EO 14319) 등은 모두 ‘독립적인 판단 기준’의 필요성을 강조하고 있다. 평가와 감시 없이 규칙만 무더기로 내세운다면, 실질적 규제는 작동하지 않는다.
결국 AI 정책의 기반은 검증 가능한 증거 위에 세워져야 한다. 미국이 단순히 기술 혁신 선도국을 넘어 AI 거버넌스에서도 세계 표준을 제시하려면, 독립 평가 체계를 법적·제도적으로 장착하는 게 시급하다. 규칙은 방향성을 설정하지만, 신뢰는 명확한 증거에서 나온다. 마치 금융시장이 외부 감사에 기대고, 의약산업이 임상시험을 거치듯 AI 역시 신뢰할 수 있는 투명한 평가를 기반으로 작동해야 한다. 이때 비로소 미국은 규칙을 넘어서 실행력 있는 AI 정책 국가로 거듭날 수 있다.




