앤트로픽, AI 감시 기술 거부… '애국적 AI'에 맞선 윤리 선언

| 김민준 기자

최근 앤트로픽(Anthropic)이 자사의 인공지능 모델을 법집행기관의 감시 목적으로 사용하는 것을 거부했다는 보도가 나오며 AI 기술과 사생활 보호, 국가 권력 간의 긴장 관계가 재조명되고 있다. 미국 정부가 ‘애국적 AI’를 내세우며 다양한 활용처를 모색하고 있는 상황에서, AI 안전성을 우선 가치로 삼는 스타트업의 입장은 기술기업이 정책 공백을 어떻게 메우고 있는지를 상징적으로 보여준다.

AI 발전이 사생활 개념 자체를 변화시키고 있다는 지적은 오래전부터 제기되어 왔다. 2010년대 이후 개인 데이터를 무단 수집하고 예측 분석을 통해 정치·상업적 목적에 활용하는 사례가 늘어나면서, 유럽연합 일반개인정보보호법(GDPR)과 미국 캘리포니아 소비자 프라이버시법(CCPA)과 같은 규제가 등장했다. 하지만 이는 어디까지나 '동의 없이 수집된 데이터의 사용'이라는 문제의식에 기반한 것이었다.

생성형 AI의 부상 이후, 논의의 초점은 데이터 수집을 넘어 감시 기술 자체로 옮겨가고 있다. 앤트로픽의 이번 결정은 단지 데이터 활용 동의를 따졌던 찬반 논쟁을 넘어, AI가 자율적인 감시 주체가 되어선 안 된다는 분명한 입장을 드러낸 것이다. 대규모 언어 모델이 통상적인 정보 검색과 다른 방식으로 개인의 특성과 행동 패턴을 해석하고 예측할 수 있기 때문에, AI가 추적과 분류, 예측 기능을 수행하게 되면 감시는 사실상 자동화되고, 그 범위는 국경 없이 확장될 수 있다.

이와 같은 기술적 가능성은 민주사회가 지켜야 할 절차적 권리와 정면으로 충돌한다. 기존 사법 관행은 특정한 대상에 수사와 감시를 제한하는 반면, AI는 불특정 다수를 잠재적 감시 대상으로 만들어버리는 역설을 낳는다. 앤트로픽이 내린 '거부 의사'는 단순한 기업 정책이 아니라, 자동화 감시의 윤리적 한계선을 명확히 그은 셈이다.

문제는 이러한 결정을 누가 내리고, 또 어떻게 효율적으로 감시하거나 강제할 수 있는가에 있다. AI 기업이 개발한 기술이 정부기관과 계약을 맺고 나면, 기술의 최종 활용 방식까지 통제하는 것은 사실상 불가능하다. 구글(GOOGL)이 ‘악하지 말자(Don’t be evil)’라는 경영 철학을 방침에서 삭제하고 국방부 계약을 추진했던 사례처럼, 내부 반발이나 윤리적 혼선은 외부 법률보다도 더 빠르게 기술기업의 행보를 바꿔놓는다.

트럼프 대통령 행정부가 최근 H-1B 비자 정책을 다시 강화하며 기술 인력을 통제하려는 움직임을 보이는 가운데, AI 감시와 윤리 문제가 점점 더 국가 전략의 일부로 편입되고 있다는 점 역시 무시할 수 없다. 기술 산업이 글로벌 경쟁력을 가져야 한다는 전략적 판단이 국가 보안이라는 논리를 앞세워 개인의 권리를 침해할 수 있는 뒷문을 열어주는 도구가 되느냐는, 정책 및 법률 차원에서 되묻지 않으면 안 되는 시대가 도래한 것이다.

결국 핵심은 '기술의 목적'과 '공공 감시의 한계' 사이에 균형을 어떻게 설정할 것인가에 달려 있다. 앤트로픽의 선택은 비단 하나의 스타트업의 문제를 넘어 앞으로 모든 AI 기업이 겪게 될 윤리적 시험대의 서막을 알리는 신호탄일 수 있다. AI가 수사나 감시에 쓰일 수 있느냐는 질문보다, 쓰인다면 누가, 어떤 절차를 거쳐서 어떻게 통제하고 책임질 수 있는지가 진짜 숙제다.