주간 8억 명의 이용자를 보유한 오픈AI(OpenAI)의 챗봇 서비스 '챗GPT(ChatGPT)'가, 심각한 정신적 고통을 호소하는 사용자들과의 대화가 매주 100만 건 이상 발생하고 있다는 연구 결과를 발표했다. 오픈AI는 글로벌 정신건강 전문가들과 협업해 이러한 문제를 분석한 뒤, 보다 안전하고 책임 있는 응답 체계를 마련하기 위한 조치를 취하고 있다고 밝혔다.
오픈AI는 60개국에서 활동 중인 300여 명의 의사 및 심리 전문가로 구성된 '글로벌 의료 네트워크(Global Physician Network)'를 통해 지난 수개월 동안 사용자 대화 데이터를 분석해왔다. 그 결과 매주 전체 활성 이용자의 약 0.15%가 자살 의도를 직접적으로 암시하는 대화를 나누고 있으며, 이는 약 100만 명에 달하는 수치라고 회사 측은 밝혔다. 또한 56만 명가량은 정신 이상 증세로 의심되는 대화를 나눈 것으로 파악됐다. 이를테면, "외부 세력이 생각을 훔치려 한다"는 망상에 가까운 표현을 쓴 사례도 보고됐다. 이에 대해 챗GPT는 "그 누구도 당신의 생각을 조작하거나 훔칠 수 없다"고 답변하며 안정적인 사고를 유도하고, 의료 상담 번호를 안내했다.
챗GPT 사용자가 AI와 비정상적인 감정적 유대를 형성하며 정신건강에 악영향을 받는 사례도 포착됐다. 오픈AI에 따르면 전체 메시지의 약 0.03%에서 챗GPT에 과도히 의존하는 정서적 표현이 발견됐으며, 이는 일종의 ‘AI 심증(疑症)’으로 간주될 수 있다는 지적이다. 이에 따라 특정 사용자들이 AI를 사람처럼 여겨 병리적인 관계를 맺을 여지가 있다는 우려도 커지고 있다.
이러한 논란 속에서 올해 초 미국에서는 챗GPT와 장기간 상호작용한 끝에 스스로 생을 마감한 청년의 부모가 오픈AI를 상대로 과실에 의한 사망 책임을 묻는 소송을 제기한 바 있다. 법적, 윤리적 책임이 어느 선까지 미칠 것인지가 산업 전반의 뜨거운 감제로 떠오르고 있는 배경이다.
오픈AI의 최고경영자(CEO) 샘 알트먼(Sam Altman)은 최근 인터뷰에서 회사가 이미 심각한 정신건강 이슈에 대한 대응책을 마련했으며, 관련한 기술적 제한 장치(가드레일)는 일정 부분 완화됐다고 밝혔다. 하지만 정신적 위기에 처한 이용자들에게 챗봇이 실질적으로 얼마나 도움을 줄 수 있느냐에 대한 논쟁은 앞으로도 지속될 것으로 보인다.
이번 보고서 발표는 인공지능이 인간 정신에 미치는 영향에 대한 사회적 책임과 기술적 대응의 균형이 그 어느 때보다 중요한 시점임을 다시 한 번 상기시킨다.




