인공지능(AI)의 혁신적 진보에도 불구하고, 여전히 신뢰성과 정확성이라는 핵심 영역에서 인간의 지식과 전문성이 필요하다는 주장이 제기됐다. 로완 스톤(Rowan Stone) 사피엔(Sapien) CEO는 AI가 진정한 가치를 발휘하기 위해선 **데이터 품질을 향상**시키고, 인간의 맥락적 사고를 결합한 훈련 방식이 병행돼야 한다고 강조했다.
AI의 기술적 정교함이나 학습 데이터량보다는 얼마나 신뢰할 수 있는 고품질 데이터를 기반으로 훈련했는지가 성능의 본질을 결정한다. 스톤 CEO는 이를 "좋은 입력 없이 좋은 출력은 없다"는 ‘GIGO(Garbage In, Garbage Out)’ 개념으로 설명한다. 현실에서는 신뢰받기 어려운 데이터가 AI의 학습 기반으로 들어가면서 편향된 결과와 전혀 근거 없는 허위 응답, 이른바 ‘AI 환각(hallucination)’을 유발하고 있다. 실제 GPT-3.5의 환각률은 39.6%에 이르렀다는 연구 결과도 있다.
이러한 문제는 단지 기술적인 오류에 그치지 않는다. 스톤은 저품질 데이터로 인한 잘못된 의사결정과 프로젝트 실패가 연간 매출의 약 6%에 해당하는 손실을 초래한다고 지적했다. 미국 내 주요 CIO 5명 중 1명은 정확성 부족을 이유로 AI 도입을 주저하고 있다. 특히 보건과 감시 영역에서는 수치화된 왜곡이 실제 피해로 이어진다. 디트로이트 경찰청장의 고백처럼 AI 안면인식 기술은 무려 96%의 오인식률을 기록했으며, 하버드 의과대학 보고서에 따르면 일부 AI 시스템은 백인 환자에게 치료 우선순위를 부여하는 등 구조적 편향을 내포하고 있다.
AI 훈련의 핵심은 ‘인간 지능’에 있다. 일론 머스크가 "인간 지식의 총합은 이미 AI에 다 반영됐다"고 주장한 것과는 달리, 스톤은 이러한 접근은 오히려 위험하다고 본다. 인간은 경험을 바탕으로 논리적 판단을 내리고 윤리적인 기준을 고려할 수 있기 때문이다. 반면, 인공합성 데이터만을 활용한 AI 학습은 현실 맥락과 도덕적 판단이 결여돼 오작동 확률이 높아진다.
그는 중앙화된 데이터 관리 방식의 한계를 지적하며, ‘탈중앙화된 학습(human-in-the-loop)을 설계할 필요가 있다’고 주장했다. 실제로 데이터 과학자의 약 67%는 데이터를 정제하고 검수하는 데 대부분의 시간을 쓰고 있고, 이는 개발 비용과 시간의 낭비로 이어진다. 반면, 블록체인 기반 보상 시스템을 활용한 분산형 강화학습(RLHF)은 지역과 배경이 다른 사용자들이 라벨링, 분류화 등의 학습 작업에 참여하고 보상을 받는 구조로, 학습 편향을 줄이고 협업 효과를 이끌어낼 수 있다.
가트너(Gartner)는 2026년까지 AI 프로젝트의 60% 이상이 ‘AI에 적합한 데이터 부족’으로 폐기될 것이라고 전망했다. 이는 고도화된 인간 전문 인력 없이는 AI가 산업에 끼칠 글로벌 경제 효과(약 2경 1천억 원) 역시 실현되기 어렵다는 신호다.
스톤은 AI 개발의 미래가 인간과 기계의 **공존적 협력 모델**에 달려 있다고 결론지었다. 인간은 메타데이터 관리와 데이터 거버넌스를 통해 지속적으로 AI 데이터 인프라를 개선하고, 실시간 모니터링과 평가를 통해 신뢰성을 높일 수 있다. 결국, 인간의 통제와 지식 없이 완성된 AI 모델은 공룡에 불과하며, 진정한 AI 상용화는 사람 중심의 개발문화에서 시작된다는 점을 되짚는다.