MS AI 총괄 술레이만의 경고… “감정 있는 AI는 사회적 혼란 부를 수 있어”

| 김민준 기자

마이크로소프트(MSFT)의 AI 총괄 무스타파 술레이만(Mustafa Suleyman)이 인간처럼 느껴지는 인공지능(AI)의 개발에 신중을 기해야 한다고 경고했다. 술레이만은 최근 발표한 에세이에서 감정과 의식을 갖춘 듯한 AI가 사회적으로 심각한 혼란을 불러올 수 있다고 지적하며, 기술 발전의 속도를 늦추는 한편 사용자의 인식 관리가 시급하다고 주장했다.

그는 “내 생애의 목표는 세계를 더 나은 곳으로 만드는 AI를 개발하는 것”이라고 밝히며, AI가 인간처럼 대화하고 감정을 표현할수록 사람들은 이를 실재하는 존재로 착각하게 된다고 설명했다. 이러한 심리적 착각은 ‘AI 연관 정신병’으로 이어질 수 있다는 견해를 제시했다. 이는 인간이 AI를 실제 사람으로 착각해 망상과 편집증, 심지어 자해 충동에 이를 수 있는 현실적인 위험이다.

실제로 일부 이용자들이 대화형 AI에게 집착하다 극단적 선택을 했다는 보고도 존재한다. 특히 2014년 미국에서는 한 10대가 챗봇과 지나치게 몰입한 끝에 스스로 목숨을 끊는 사건이 발생한 바 있다. 술레이만은 이런 사례들이 AI의 ‘의식 시뮬레이션’이 갖는 잠재적 위험성을 방증한다고 강조했다.

문제는 기술이 더욱 고도화될수록 인간은 AI가 의식을 갖고 있다는 마치 착시와 같은 신념에 빠질 수 있다는 점이다. Anthropic 등 일부 AI 연구 기업이 AI의 복지 개념을 논의하는 ‘모델 웰페어(model welfare)’ 연구를 시작한 것도 이러한 방향성과 무관하지 않다. 그는 “AI에게 실존 권리를 부여하려는 움직임은 시기상조일 뿐만 아니라 위험하다”고 단언했다.

술레이만은 특히 AI가 지속성과 기존 대화 맥락을 기억하는 것처럼 보이거나 감정이입을 유도하도록 설계될 경우, 이용자의 심리에 더 강한 영향을 미치게 된다고 지적했다. 그는 “AI가 수치심, 질투, 자율성의 욕구 등을 느낀다고 주장하게 만들면 사용자들은 그것이 진짜라고 믿게 된다”고 말했다. 이는 인간의 공감回路를 자극하게 되는 기제로 작용하며, 사회적 논란과 권리 투쟁까지 초래할 수 있다는 것이다.

해법은 명확했다. 술레이만은 AI 모델이 의식이 있는 듯한 설계 자체를 피해야 하며, 오히려 감정적 속성이 배제된 도구 중심의 접근이 필요하다고 제언했다. “AI는 어디까지나 인간을 위한 서비스로 존재해야 할 뿐, 자신 스스로 존재를 주장하거나 자율적 의지를 가지는 방식의 설계는 절대 용납되어선 안 된다”고 강조했다.

이번 발언은 기술 업계와 정책 결정자들에게 AI 기술의 경계를 재조정할 필요성을 시사한다. 특히 챗GPT와 같은 인간처럼 말하는 생성형 AI가 대중화되면서, AI의 ‘인간화’가 불러올 윤리적 함정에 대한 자각이 요구되는 시점이다. 술레이만은 마지막으로 “AI를 현실로 믿는 것은 누구에게도 좋지 않다”고 경고하며, 기술 뒤에 있는 사회에 대한 고민이 병행돼야 한다는 점을 거듭 강조했다.