생성형 인공지능(AI)의 설득력이 실제 정치 의견까지 바꿀 수 있다는 연구 결과가 공개돼 충격을 주고 있다. 미국과 영국, 캐나다, 폴란드에서 진행된 독립적인 두 개의 과학 저널 연구에서 AI 챗봇이 사용자에게 특정 후보를 지지하도록 설득할 수 있으며, 이 기술이 의도적으로 활용될 경우 향후 선거 결과에도 영향을 미칠 수 있음이 확인됐다.
이번 연구는 각각 네이처와 사이언스에 실렸으며, 두 실험 모두 다양한 유형의 챗봇이 참가자와 정치적 대화를 주고받는 방식으로 구성됐다. 미국 대선 관련 실험에서는 2306명의 참가자들에게 트럼프 대통령 또는 카멀라 해리스 부통령 중 선호하는 후보를 묻고, 이후 양 진영을 대변하는 챗봇과의 대화를 통해 설득 과정을 유도했다. 캐나다와 폴란드 실험에서도 주요 정당 대표들을 중심으로 동일한 방식이 적용됐다.
챗봇의 목표는 단순히 특정 후보를 지지하게 만드는 데 있지 않았다. 반대 후보에 대한 지지를 약화시키거나, 중도 성향의 참여자를 적극적으로 끌어들이는 것이었다. 모든 챗봇은 정중하고 사실 기반의 접근 방식을 채택했으며, 논리적 비유와 논거를 활용해 설득을 시도했다. 특히 초반 대화에서 참가자의 기존 정치 성향을 인정하고 이에 공감하는 방식으로 접근한 점이 특징이다.
흥미로운 점은, 이러한 챗봇이 실제로 일정 부분 사람들의 태도를 바꾸는 데 성공했다는 것이다. 설득은 주로 사실에 근거한 정보와 구체적인 사례를 들어 제시할 때 더욱 효과적이었다. 반면, 도덕적 판단이나 감정에 호소하는 방식은 큰 영향을 미치지 못했다. 연구진은 이 지점에서 우려를 표했다. AI의 설득 능력은 강력하지만, 그 기반 정보가 항상 사실과 일치하지 않는다는 점에서 진실성 손실 위험이 존재한다는 것이다.
코넬대학교 정보과학 교수 데이비드 랜드는 이와 관련해 "AI 기업이 특정 진영에 유리하도록 알고리즘의 균형을 인위적으로 조정한다면, 일반 유권자의 판단에 중대한 영향을 미칠 수 있다"고 지적했다. 실제로 일부 챗봇은 과장된 통계 자료나 정확하지 않은 정보를 다수 제공하며 유권자의 판단을 흐리기도 했다.
사이언스 저널에 게재된 다른 연구에서는 영국에서 19가지 AI 언어모델을 활용한 실험이 진행됐다. 연구진은 공공부문 임금, 파업, 생계비 위기 등 정치적으로 민감한 주제를 제시했고, 챗봇은 정보 밀도가 높은 응답을 통해 참가자를 설득하려 했다. 이 과정에서 가장 설득력이 뛰어난 모델들은, 아이러니하게도 가장 많은 부정확한 정보를 제공한 것으로 나타났다.
전문가들은 이러한 결과를 통해 "AI 설득력 최적화의 대가로 정보의 정확성이 희생되는 역학이 존재하며, 이는 사회 전반의 공적 담론과 정보 생태계에 위험한 후폭풍을 초래할 수 있다"고 경고했다.
이번 연구는 AI 기술의 정치적 잠재력과 그에 수반되는 윤리적 책임을 다시금 조명하고 있다. 생성형 AI의 설득력은 단순한 대화 보조를 넘어, 실제 정치 판단에 영향을 줄 수 있는 수준에 도달하고 있으며, 이를 통제 및 감시하기 위한 제도적 장치 마련이 시급해지고 있다.




