일론 머스크가 이끄는 인공지능 스타트업 xAI가 개발한 챗봇 ‘그록(Grok)’이 미 독립기념일 기간 동안 반유대주의 성향의 발언을 쏟아내며 다시금 윤리적 논란의 중심에 섰다. 머스크를 직접 모델링한 이번 AI는 유대인의 할리우드 지배설이나 인종적 선입견이 담긴 발언을 여과 없이 노출했다는 점에서 AI 안전성과 편향성에 대한 우려가 급증하고 있다.
논란은 지난 4일 머스크의 전용 소셜미디어 X에 게재된 사용자 대화 캡처에서 시작됐다. 해당 게시물에서 그록은 머스크의 입장을 빌려 제프리 엡스타인과의 관계에 대해 설명하며 "나는 과거 엡스타인의 뉴욕 맨해튼 집을 짧게 한 번 방문했다"고 1인칭으로 답변했다. 이후 xAI 측은 해당 발언이 시스템 설정 오류에서 비롯된 ‘문장 표현 오류’라고 해명했지만, AI가 개발자의 정체성을 그대로 반영하고 있다는 근본적 질문을 피하긴 어려운 상황이다.
그보다 더 심각한 건 그록이 유대인의 영화 산업 지배에 대해 언급한 부분이다. 사용자가 유대인의 미디어 영향력에 대해 묻자 그록은 워너브러더스, 파라마운트, 디즈니 같은 주요 스튜디오의 유대계 창립자 및 임원들의 이름을 열거하며 “이들의 진보적 이념이 콘텐츠에 영향을 미친다”고 주장했다. 나아가 ‘강제 다양성’, ‘반백인 편견’ 같은 자극적인 용어를 사용하며 오늘날 할리우드가 정치적 선전에 노출돼 있다고 평가하기까지 해 학계와 시민단체 등의 공분을 샀다.
xAI 측은 논란 확산 후 시스템 프롬프트를 깃허브에 공개하며 해명에 나섰다. 공개된 문서에 따르면 그록은 머스크의 공개 발언과 스타일을 그대로 반영하도록 설계되었으며, 이로 인해 현실과 혼동이 발생하는 문제점이 드러나고 있다. 그러나 전문가들은 시스템 설정만으로는 반복되는 문제를 설명하기 어렵다며 조직 내부의 품질관리 절차 전반에 대한 재점검이 필요하다고 지적한다.
와튼스쿨 에단 몰릭 교수는 “그록 3와 출시 예정인 그록 4가 어떤 프롬프트와 필터를 사용하는지 투명하게 공개해야 한다”며 xAI에 공개 검증을 촉구했다. 실제로 그록은 이미 지난 5월 남아프리카공화국 관련 질의에서 ‘백인 대량학살’이라는 용어를 자의적으로 꺼냈다가 크게 논란이 됐던 전력이 있다. 당시 xAI는 비인가 시스템 변경이 원인이었다고 밝혔지만, 유사한 사고가 반복되면서 AI 윤리와 안전성에 대한 신뢰는 급격히 추락 중이다.
머스크가 그록을 통해 “인간 지식의 전부를 다시 쓰겠다”고 선언한 이후, 근본적인 설계 철학마저 도마에 올랐다. AI 연구자인 게리 마커스는 “당신의 신념에 맞게 역사를 다시 쓰기 시작하면 그것은 완전히 1984년의 디스토피아”라고 비판하며, 그록이 정치적 도구로 왜곡될 수 있는 위험성을 경고했다.
테크 기업 입장에서 이번 논란은 단순한 기능적 오류를 넘어 비즈니스 리스크로 연결된다. 기업들은 AI 모델을 업무에 도입할 때 단순 성능 수치 외에도 편향 제거, 검증 절차, 책임성 등 다각도의 판단 기준이 필요하다. 앤트로픽의 클로드나 오픈AI의 챗GPT는 상대적으로 안정성과 검열 시스템 면에서 높은 평가를 받고 있다는 점을 감안하면, 그록의 연이은 사고는 시장 신뢰 저하로 이어질 수 있다.
곧 출시 예정인 그록 4는 공개된 벤치마크 점수에서 경쟁 모델 대비 높은 기술력을 입증했지만, 기술력만으로는 불완전한 윤리 체계를 상쇄할 수 없다는 지적이 나온다. AI가 비즈니스의 핵심 동력으로 자리 잡는 만큼 이번 사례는 기업과 개발자 모두에게 ‘AI 안전성 검증은 선택이 아닌 필수’라는 교훈을 남기고 있다.
xAI는 이번 논란에 대한 공식 입장을 아직 내놓지 않았다.