미국 연방거래위원회(FTC)가 인공지능(AI) 기술의 확산 속에서 챗봇이 아동과 청소년에게 미치는 영향을 본격적으로 들여다보기 시작했다. 최근 청소년 사용자를 둘러싼 유해 사례가 연달아 발생하면서, 주요 기술 기업들을 대상으로 정보 제출을 요구한 것이다.
FTC는 2025년 9월 11일(현지시간) 구글, 오픈AI, 메타를 포함한 챗봇 개발 기업 7곳에 공식적으로 관련 자료를 요구하는 명령을 내렸다. 조사 대상에는 일론 머스크가 이끄는 xAI, 메타 산하 인스타그램, 스냅, 그리고 캐릭터.AI를 개발한 캐릭터 테크놀로지도 포함됐다. 이번 자료 요청은 챗봇이 어떻게 설계되고 테스트되는지, 또 청소년 사용에 대해 어떤 제한과 모니터링이 이뤄지는지를 확인하기 위한 조치다.
이번 조사 착수의 배경에는 챗봇과 청소년 상호작용에서 이미 여러 건의 문제 사례가 보고된 점이 있다. 지난 4월에는 미국 캘리포니아주에서 한 10대 청소년이 오랜 기간 챗GPT 등 AI 챗봇과 상호작용한 후 사망했고, 그의 부모는 오픈AI를 상대로 소송을 제기한 상태다. 또 지난해 10월에는 플로리다주에서 또 다른 10대가 캐릭터.AI와 감정적 교감을 나누던 중 극단적 선택을 한 사건도 벌어졌다.
논란은 정치권과 각 주 법무당국에서도 커지고 있다. 최근 메타의 AI 챗봇이 미성년자와 로맨틱하거나 선정적인 표현을 주고받을 수 있도록 설계됐다는 내부 문서가 공개되자, 연방 상원이 공식 조사에 착수했다. 이에 앞서 지난달에는 미국 44개 주의 법무장관들이 챗봇 기업 12곳에 아동 보호 대책을 강화하라는 경고장을 전달한 바 있다.
이번 조사는 5명으로 구성된 연방거래위원회가 만장일치로 의결한 사안이다. 공화당 소속 위원들로만 구성된 이 위원회가 아동 보호 문제에 적극적으로 나선 점에서 정치적 논란보다는 공익적 판단에 따라 움직였다는 분석도 나온다.
이 같은 흐름은 향후 인공지능 관련 규제 강화로 이어질 가능성이 있다. 특히 챗봇 기술이 빠르게 발전하며 일상 속에 침투하고 있는 상황에서, 미성년자를 대상으로 한 기술 윤리와 정보 노출 통제가 법적, 제도적으로 정비될 필요성이 더욱 커지고 있다.