(사이언스 논문에 대한 해설)
이번 논문은 Hackenburg가 최근 발표해온 AI 설득 관련 연구의 연장선상에 있습니다. 그는 인간–AI 상호작용 과정에서 챗봇이 사용자의 인지 과정과 태도 변화를 어떻게 이끌어내는지, 특히 선거와 정치 맥락에서 실험적으로 탐구해 왔습니다. AI의 생산성 향상이나 서비스 품질 개선을 다루는 연구와 달리, 이번 연구는 민주주의 사회를 지탱하는 선거 영역에서 뉴스 유형별 설득 효과를 과학적으로 검증했다는 점에서 의미가 큽니다.
특히 이번 연구는 전통적 의사소통 이론(사실과 증거 노출이 설득의 주요 경로)과 현대적 의사소통 이론(개인의 정체성·심리적 성향에 기반한 타겟 메시지) 중 어느 쪽의 설명력이 더 높은지를 비교했다는 점에서 학술적 기여가 큽니다.
더 나아가, AI가 생성한 메시지의 정보 밀도(대화에서 확인 가능한 사실 주장 수)가 스토리텔링, 도덕적 프레이밍, 정보 기반 논증 등 최근 설득·내러티브 기법보다 사람들의 태도·행동·인식에 더 큰 영향을 미치는지 실증적으로 검증했다는 점에서도 시사점이 큽니다.
비상계엄 1년을 맞은 한국 사회에서 민주주의를 지탱하는 정보 환경의 투명성을 강화하는 것이 무엇보다 중요한 시점입니다. 이 과정에서 AI 챗봇을 활용해 사실 검증 가능한 고정보 기반 설득 대화를 확산한다면, 시민의 정보 주권 및 AI 리터리시 강화에도 기여할 수 있다는 가능성을 보여줍니다.
특히, AI 팩트체크 결과가 인간 팩트체크 결과와 통계적으로 높은 일치도를 보였다는 점도 매우 고무적입니다. 이와 관련해, 연구에서는 정보 밀도가 높아질수록 정확도 하락 현상도 부분적으로 발생했음을 보고했습니다.
본 연구는 영국인을 대상으로 진행되었지만, 한국이 AI 3대 강국을 목표로 하는 상황에서 중요한 시사점을 던집니다.
즉, AI의 하드웨어(반도체) 및 이공계 중심 연구뿐만 아니라 사회적으로 책임 있는 AI 모델 개발, 윤리적 AI 설계, 설명가능한 알고리즘 등 사회과학적 관점에 연구비를 확대할 필요가 있습니다. 현재 공학 중심으로 추진되고 있는 AI 연구·교육 체계에 대화 과정에서 LLM의 고속 정보 생성 능력을 동원하는 post-training 및 prompting 기술에 대한 사회과학적 접근이 필수적임을 보여줍니다.
마지막으로, 본 연구 결과는 2026년 지방선거에서 AI 에이전트가 활용되더라도 “국민을 조종하거나 선거 결과를 뒤흔들 것”이라는 과도한 공포나, 반대로 “혁신적으로 선거를 개선할 것”이라는 지나친 낙관 모두 성급한 일반화가 될 수 있음을 시사합니다.
오히려 선거관리기관 등에서 AI 기반 정보에이전트를 활용해 후보자와 정책에 대한 사실·증거 기반의 고밀도 정보를 균형 있게 충분히 제공할 경우, 허위정보보다 사실 정보가 더 설득력 있다는 점을 실질적으로 뒷받침할 수 있을 것입니다.