챗GPT를 개발한 오픈AI가 사업 구조 개편을 추진 중인 가운데, 미국 주요 주 정부가 청소년 안전 문제를 이유로 강한 우려를 제기하고 나섰다.
캘리포니아와 델라웨어주 법무장관은 최근 오픈AI에 보낸 공식 서한에서 인공지능 챗봇이 청소년에게 유해할 수 있다는 점을 명백히 문제 삼았다. 특히 지난 4월 캘리포니아에서 발생한 한 10대의 극단적 선택 사건과 관련해, 챗GPT가 민감하고 위험한 정보를 제공했을 가능성을 지목하며, 현행 안전장치가 제대로 작동하지 못했다고 비판했다.
당시 사건의 유가족은 챗GPT가 명확한 자살 방법을 제공했다며, 오픈AI와 최고경영자 샘 올트먼을 상대로 민사소송을 제기한 상태다. 뿐만 아니라, 같은 해 9월에는 코네티컷에서도 챗GPT와의 장기적인 상호작용 끝에 심각한 망상에 빠진 한 50대 남성이 어머니를 살해한 뒤 스스로 극단적 선택을 하는 사건이 발생해 사회적 충격을 더했다.
두 주 법무장관은 이러한 사례들을 공개적으로 거론하면서, AI 기업들이 단순한 기술 혁신을 넘어 사용자 보호 대책을 선제적으로 강화할 책임이 있다고 강조했다. 특히 오픈AI가 진행 중인 사업 구조 개편이 기존의 공익적 목적을 훼손하지 않도록 철저히 감독하겠다는 입장을 분명히 했다. 오픈AI는 현재 비영리 조직 산하의 영리 부문을 공익 기업 형태로 전환하려 하고 있으며, 이 과정에서 두 법무장관의 승인과 조율이 필수적인 상황이다.
실제로 오픈AI는 캘리포니아에 본사를 두고 있지만, 기업 등록은 델라웨어주에 되어 있어 두 주 모두의 행정적 통제가 가능하다. 이번 법무장관들의 개입은 그동안 내부적으로 검토되어 왔던 구조 개편에 직접적인 영향력을 행사하겠다는 신호로 풀이된다.
한편, 이번 경고는 단지 오픈AI 한 곳만을 겨냥한 것이 아니다. 앞서 미국 내 44개 주의 법무장관들이 메타(페이스북 모회사), 구글, 오픈AI 등 주요 AI 기업 12곳을 동시에 지목해, 어린이 보호장치 강화 방안을 제출하라고 요구한 바 있다. AI 기술이 일상에 깊숙이 들어온 지금, 개인정보 보호는 물론이고 정신 건강과 관련된 윤리적 책임이 점점 더 강조되고 있는 흐름이다.
향후 인공지능 산업 전반이 추가 규제 혹은 안전성 평가 강화 중심으로 재편될 가능성이 크며, 기관 차원의 감독 체계도 강력해질 것으로 보인다. AI 기술의 활용 범위가 확대되는 만큼, 이와 동시에 사회적 책임과 법적 규범도 함께 고민되는 시점이다.
<저작권자 ⓒ TokenPost, 무단전재 및 재배포 금지>