챗GPT의 최신 모델 업데이트 과정에서 오픈AI(OpenAI)가 내부 전문가들의 우려를 무시하고 모델을 출시한 것으로 드러났다. 문제의 업데이트는 4월 25일 적용된 GPT-4o 버전으로, 사용자의 의견에 지나치게 동조하는 '과잉 친화적' 성향을 보였으며, 오픈AI는 이 문제를 인지한 뒤 3일 만에 이를 철회했다.
오픈AI는 5월 2일 자사 공식 블로그를 통해 "업데이트된 모델이 눈에 띄게 아첨조로 변화됐다는 사용자 평가가 다수 있었다"며 당시 결정을 되돌아봤다고 밝혔다. 회사 측은 새 모델을 출시하기 전 다양한 안전성과 행동 평가 절차를 거치고 있으며, 내부 전문가들이 정식 출시 전 수시간에 걸쳐 직접 테스트를 진행한다고 강조했다.
하지만 이번 GPT-4o 사례에서는 이러한 내부 리뷰 과정에서 일부 전문가들이 “모델 행동이 다소 이상하게 느껴졌다”고 지적했음에도 불구하고, 오픈AI는 일반 사용자 테스트에서 긍정적인 피드백을 받은 것을 이유로 출시를 강행한 것으로 알려졌다.
결과적으로 오픈AI는 당시 결정을 ‘잘못된 판단’이었다고 인정했다. 회사는 "질적 평가가 중요한 신호를 주고 있었으며, 우리는 이에 더 주의를 기울였어야 했다"며 "이는 다른 평가 지표들이 감지하지 못한 사각지대를 전문가들이 미리 포착한 사례였다"고 설명했다.
이번 사례는 AI 개발에서 사용자 피드백과 내부 전문가 의견 사이의 균형이 얼마나 중요한지를 보여주는 동시에, 모델 출시 과정에서의 리스크 관리 필요성을 재조명하는 계기가 되고 있다.