최근 미국에서 벌어진 우파 성향 활동가 찰리 커크의 암살 사건을 두고, 그 배경 중 하나로 소셜미디어(SNS)의 알고리즘이 지목되며 사회적 파장이 커지고 있다. 전문가들은 SNS 알고리즘이 사용자 성향에 맞춘 정보만 지속적으로 노출시켜, 사회적 대화를 단절시키고 극단적인 행동을 부추길 수 있다는 점을 경고한다.
소셜미디어의 알고리즘은 사용자의 '좋아요', 댓글, 시청 시간, 검색 패턴 등을 기반으로 관심사와 성향을 분석한 뒤, 유사한 유형의 콘텐츠를 지속적으로 보여주는 방식으로 작동한다. 겉보기에는 맞춤형 정보 제공처럼 보이지만, 실상은 사용자 스스로 다양한 관점을 접할 기회를 차단하고, 특정 성향만 강화시키는 결과를 초래하기 쉽다. 이는 흔히 '필터 버블'(Filter Bubble)로 불리는 정보의 편식 현상으로 이어진다.
국내외 여러 연구에서도 이러한 필터 버블 현상이 실제로 존재한다는 점이 증명됐다. 예를 들어, 한국의 한 연구팀은 구글 계정을 만들어 각각 진보 및 보수 성향으로 '훈련'한 결과, 시간이 지날수록 각 계정에 노출되는 검색 결과가 확연히 달라졌음을 밝혔다. 유튜브 알고리즘 역시 정치 성향에 따른 추천 편향을 보이는 것으로 나타났으며, 계정 개설 초기보다 며칠만 지나도 특정 정치 성향의 콘텐츠가 추천 영상의 대부분을 차지하는 구조로 바뀌었다.
이와 유사하게, 개인이 정보 편향을 강화하는 주체이며, 알고리즘보다 오히려 사용자의 선택이 더 큰 영향을 미친다는 주장도 제기된다. 2015년 학술지 사이언스에 게재된 논문은 페이스북 사용자 1천만 명의 데이터를 분석한 결과, 반대 성향의 정치 콘텐츠를 접할 기회를 줄인 것은 알고리즘보다 사용자 자신의 선택이 더 큰 역할을 했다는 점을 강조했다. 이 같은 현상은 ‘반향실 효과’(Echo Chamber Effect)로도 불리며, 사용자가 자신의 견해와 일치하는 정보만 적극적으로 소비하는 행동 양식을 의미한다.
그렇다면 이러한 정보 편향에 소비자는 어떻게 대응해야 할까. 전문가들은 단순히 시스템이나 알고리즘을 비판하는 것을 넘어, 사용자가 뉴스나 정보 콘텐츠를 소비할 때 보다 비판적이고 다면적인 시각을 갖는 노력이 필요하다고 조언한다. 다양한 출처의 정보를 비교하고, 반대편 의견에도 귀를 기울이는 태도가 필터 버블을 완화하는 한 방법이 될 수 있다.
이 같은 흐름은 앞으로 정치적 양극화뿐 아니라 사회 전반의 여론 형성과 갈등에도 점점 더 영향을 미칠 가능성이 크다. 따라서 기술 기업이나 플랫폼 운영자뿐만 아니라 사용자 개인의 정보 소비 습관에 대한 자각과 조정이 중요해지고 있다.