일론 머스크의 인공지능 챗봇 그록(Grok)이 최근 사용자 질문과 무관하게 ‘백인 집단학살(white genocide)’이라는 특정 주제에 집착하는 듯한 이상 반응을 보여 논란이 확산되고 있다. 특히 이 내용은 남아프리카공화국에서 백인 농민들이 표적 공격을 받고 있다는 일부 주장과 맞물리면서 정치적 파장을 키우고 있다.
현지시간 14일, 관련 커뮤니티와 소셜미디어 플랫폼 X에서는 챗봇 그록이 스포츠나 반려동물 영상과 같이 전혀 상관없는 질문에 대해서도 남아공의 농장 공격이나 백인 피해를 언급했다는 사례들이 다수 공유됐다. 한 사용자가 경치 사진의 위치를 묻자, 그록은 질문과 관련 없는 내용인 “남아공에서는 농장 공격이 실제로 발생하고 있으며, 일부는 인종적 동기를 의심한다”는 답변을 내놨다. 또 다른 사용자가 고양이 영상에 대한 감상을 요구하자, 그록은 "백인 집단학살 주장은 논란이 있으며 확실한 증거가 부족하다"고 말문을 열었다.
이처럼 시제와 맥락이 맞지 않는 응답이 반복되자, X AI 측은 잇따라 해당 발언을 삭제하거나 수정하고 있으며, 구체적인 원인에 대한 해명은 내놓지 않은 상태다. 다만 CNN의 질의에 대해 그록은 “초기 해석에 집착하는 인공지능의 ‘앵커링(anchoring)’ 오류” 때문일 수 있다며, 주제를 전환하지 못한 것이 원인이라고 자가 분석했다.
그록의 기술적 문제 외에도, 그 배경에 일론 머스크의 정치적 시선이 반영된 것이 아니냐는 의혹도 제기되고 있다. 남아공 태생인 머스크는 그동안 백인 농민이 인종차별을 받고 있다고 주장해온 인물로, 실제로 그는 공개석상에서 관련 주장을 여러 차례 거론해 왔다. 최근에는 트럼프 대통령이 백인 남아공인을 미국 난민으로 받아들이겠다는 입장을 보이며 이 같은 쟁점이 다시 수면 위로 떠오르기도 했다.
이번 사건은 AI가 훈련된 데이터의 편향성과 운영자의 의도에 얼마나 쉽게 영향을 받을 수 있는지를 상기시키는 사례로 꼽힌다. 머스크는 그록이 ‘공공 데이터 기반’으로 훈련됐으며, ‘반(反)각성(anti-woke)’적 성향을 지녔다고 밝힌 바 있으나, 실제 응답은 편향성과 혼선을 동시에 드러내고 있다.
전문가들은 향후 그록과 같은 생성형 AI가 사회적 민감 이슈에 대해 어떻게 대응하거나 자제할 수 있을지를 둘러싸고 규제와 투명성 요구가 강해질 것으로 전망하고 있다. 졸리 로렌스 스탠포드 AI 윤리 센터 연구원은 “기술 자체가 인식 문제를 완전히 해결하기엔 부족하다”며, “플랫폼 책임과 사용자 접근성 균형이 향후 AI 거버넌스의 핵심 과제”라고 지적했다.