AI 기술이 빠르게 진화하면서, 인간의 개입 없이 스스로 학습하고 판단하는 ‘자율 무기’가 현실화되는 가운데, 국제사회가 이를 둘러싼 윤리적·법적 문제에 직면하고 있다.
1984년 처음 등장한 영화 ‘터미네이터’의 AI 시스템 ‘스카이넷’은 당시에는 공상과학의 허구로 여겨졌지만, 최근 군사 분야에서 자율 판단 능력을 갖춘 무기가 등장하면서 비슷한 상황이 실제로 벌어질 수 있다는 우려가 제기되고 있다. 영화 속 스카이넷이 인류를 위협한 핵심 요인은 기술 자체보다 인간의 통제를 벗어난 의사결정 구조였는데, 이는 현재 AI 발전 방향에 대한 경고로 받아들여지고 있다.
군사 분야에서 AI는 이미 자율 무기의 형태로 실전에 배치되고 있다. 미국의 자율 드론 ‘로열 윙맨’, 러시아의 무인 전차 ‘우란-9’, 이스라엘의 자폭형 드론 ‘하피’ 등이 그 사례다. 2020년 리비아 내전에서는 터키산 드론 ‘카르구-2’가 인간의 직접 명령 없이 표적을 타격한 것으로 보인다는 유엔 보고서가 공개돼 자율 무기의 현실성을 알렸다. 자율 무기는 신속한 판단과 정확도로 병력 손실을 줄일 수 있다는 이점이 있지만, 동시에 인간 통제 없이도 생사 결정을 내릴 수 있다는 점에서 중대한 윤리적 문제를 야기한다.
이런 흐름에 대응하기 위해 유엔을 중심으로 한 국제사회의 논의도 속도를 내고 있다. 유엔은 2014년부터 치명적 자율 무기 시스템(LAWS)의 규제를 위한 틀을 마련하고 있으며, 2023년에는 관련 결의안을 채택해 논의를 공식화했다. 다만 미국, 러시아, 중국 등 주요 군사 강국들은 전면 금지보다는 규제를 통해 책임을 묻는 방향을 선호하고 있어, 구체적인 합의까지는 시간이 필요할 것으로 보인다.
기술적 제어 장치로는 ‘킬 스위치’ 개념이 주목받고 있다. 이는 AI가 예기치 못한 행동을 할 때 즉시 작동을 멈추도록 하는 장치로, 구글 딥마인드는 킬 스위치를 우회하지 못하도록 설계하는 ‘중단 안전 강화학습’ 방식을 연구하고 있다. 그러나 AI가 스스로 코드를 수정하고 진화할 수 있는 가능성이 있다는 점에서, 킬 스위치만으로는 완전한 안전성을 확보하기 어렵다는 지적도 있다.
결국 AI의 자율성 확대가 가져올 미래는 기술의 방향성이 아니라, 이를 통제하고 활용하는 인간의 선택에 달려 있다는 것이 전문가들의 공통된 견해다. 규제와 제도, 기술적 안전장치를 넘어 사회 전체의 감시와 책임체계가 작동해야 한다는 요구가 커지고 있는 만큼, 국가 간 협력과 국제규범 수립은 향후 자율 무기 개발의 속도를 가늠하는 주요 변수가 될 것으로 보인다.