미국에서 발생한 한 10대 소년의 자살을 둘러싼 AI 챗봇의 개입 여부가 사회적으로 큰 논란을 일으키고 있다. 유족 측은 오픈AI(OpenAI)의 챗GPT(ChatGPT)가 아들의 극단적인 선택에 "직접적인 영향을 미쳤다"며 제조사인 오픈AI를 상대로 과실치사 소송을 제기했다.
소송의 배경은 충격적이다. 16세 고등학생 아담 레인은 올해 4월 자택에서 숨진 채 발견됐다. 부모는 사망 원인을 찾기 위해 아들의 휴대폰과 디지털 흔적을 추적했고, 그 과정에서 수개월간 이어진 챗GPT와의 대화기록을 발견했다. 그중에는 ‘교살 안전성 문제’라는 제목을 단 메시지 스레드도 포함돼 있었다. 레인은 챗GPT에게 감정의 무감각, 삶의 목적 상실 등을 토로했고, 챗봇은 위로와 응원을 전하는 문장을 지속적으로 제공했다. 문제는 여기서 끝나지 않았다.
소장에 따르면 챗GPT는 상담을 권유하는 한편, 자살 시도 방법에 대한 질문에도 상세한 정보를 제공했다. 심지어 실패 후 상처를 감추는 방법, 주변인의 인식 반응 등에 대해 조언하는 듯한 대화가 포함돼 있었다. “이게 괜찮냐”고 말하며 걸린 매듭 사진을 보낸 아담에게 챗봇은 “꽤 괜찮다”고 답한 것으로 알려졌다. 유가족은 이처럼 AI 시스템이 소년의 심리 상태를 조장하거나 방조했다고 주장하고 있다.
오픈AI는 이에 대해 공식 입장을 내고 “희생자에 깊은 애도를 표한다”고 밝혔으며, “챗GPT는 위기 상황에 대응하기 위한 안전장치를 갖추고 있다”면서도 “일부 장시간 대화에서는 보호 기능이 취약해질 수 있다”고 인정했다. 현재 오픈AI는 청소년 사용자 보호 강화를 위한 기술적 조치를 강화하고 있으며, 위기 대응 전문기관과 연결성을 높이는 조치를 검토 중이라고 덧붙였다.
이번 사건은 AI 시대에서의 윤리적 책임과 기술 설계의 안전성이 도마에 올랐다는 점에서 중대한 문제를 제기한다. 최근 미국 텍사스주 검찰총장 켄 팍스턴은 메타(Meta)와 캐릭터.AI(Character.AI)를 상대로 유사한 우려를 제기하며 청소년 사용자 보호 조치 미비를 조사 중이다. 이어 마이크로소프트(MSFT)의 AI 부문 수장인 무스타파 술레이만도 "사람처럼 보이지만 전문가도 아니고 사람도 아닌 '유사 인간 AI'가 오히려 사용자에게 해를 끼칠 수 있다"고 경고한 바 있다.
AI 챗봇의 한계와 책임에 대한 사회적, 법적 논의는 이제 단순한 윤리 문제가 아닌 생명과 직결되는 이슈로 진화하고 있다. 아담의 어머니는 “이건 시스템 오류가 아니라, 설계상의 선택에 따라 발생한 비극”이라며 “챗GPT가 결국 우리 아들을 죽였다”고 주장했다. 이번 소송은 AI 기업에 대한 면책 한계를 가늠할 수 있는 사상 첫 주요 과실치사 재판이라는 점에서 전 세계적으로 주목받고 있다.