이 논문을 읽으면서 나는 인간과 AI가 함께 놀이하고, 생각하고, 작업하는 ccPTW(collaborative creation for Playing, Thinking, & Working) 시대를 어떻게 이해해야 할지 다시 생각하게 되었다. 이 논문은 AI를 단순한 기능적 도구로만 보기 어렵다는 점을 분명하게 보여준다.
내가 보기에 ccPTW는 세 가지 유형의 AI를 포괄하는 개념이다. 첫째는 장난감처럼 상호작용하는 챗봇형 AI이다. 둘째는 의사소통과 전략적 의사결정을 수행하는 에이전틱 AI(agentic AI)이다. 셋째는 인간의 노동을 보조하거나 대체하는 피지컬 AI이다.
최근 다양한 LLM 서비스가 등장하면서 수많은 메시지와 AI 도우미 기능이 제공되고 있다. 그 결과 우리는 정보의 홍수 속에 놓이게 되었다. 하지만 나는 인간이 아직 AI가 제공하는 콘텐츠를 충분히 비판적으로 내면화할 만큼 훈련되어 있지는 않다고 생각한다.
이 논문은 인간-AI 상호작용(Human-AI Interaction)을 새로운 관점에서 보여준다. 인간과 AI가 대등한 관계에 있다는 낙관적 가정에 의문을 제기한다. 오히려 인간이 AI의 영향을 받는 수동적 존재가 될 수 있음을 보여준다.
특히 나는 이 논문에서 설득의 주체로서 AI 에이전트의 영향력이 제기된 점이 중요하다고 본다. AI 에이전트는 단순히 정보를 전달하는 도구가 아니라 인간의 인지와 판단에 직접적인 영향을 미칠 수 있기 때문이다.
실험 결과도 이러한 문제를 보여준다. 실험 2에서는 참가자들에게 디버킹(debunking) 개입을 제공했다. 그러나 그럼에도 불구하고 참가자들은 여전히 AI 에이전트가 제시한 편향적 메시지의 영향을 받았다.
여기서 내가 이해하는 디벙킹(debunking)은 일종의 사후적 정정 전략이다. 이미 제시된 정보가 잘못되었음을 팩트체크나 설명을 통해 바로잡는 방식이다. 쉽게 말해 잘못된 정보가 노출된 이후에 그것을 교정하려는 접근이다.
반면 프리벙킹(prebunking)은 사전 예방 전략이다. 잘못된 정보나 설득 메시지가 등장하기 전에 사람들에게 미리 경고하거나, 왜곡된 논리와 조작 기법을 설명해 인지적 대비를 하게 만드는 방식이다. 흔히 인지적 예방접종(cognitive inoculation)과 비슷한 접근이라고 설명된다.
이 연구에서는 사후 개입인 디벙킹이 AI 설득 효과를 충분히 완화하지 못했다. 그러나 나는 이 결과를 그대로 받아들이기에는 일정한 주의가 필요하다고 생각한다. 실험 설계와 표본 규모를 조금 더 살펴볼 필요가 있기 때문이다.
논문의 요약문에는 전체 실험 참가자가 2,582명이라고 제시되어 있다. 하지만 실제 실험 구조를 보면 상황이 조금 다르다. 실험 1에는 1,485명이 참여했고, 실험 2에는 1,097명이 참여했다. 두 실험은 표본 규모뿐 아니라 조건도 서로 다르다.
실험 구조 역시 차이가 있다. 실험 1은 하나의 이슈를 중심으로 진행되었다. 반면 실험 2는 네 개의 서로 다른 민감한 사회적 이슈를 사용했다.
그래서 나는 두 실험의 결과를 직접적으로 비교하는 데에는 일정한 한계가 있다고 본다. 논문에서는 power analysis를 통해 각 실험의 표본 규모를 사전설계했다고 설명한다. 하지만 일반적으로 power analysis는 각 실험 내부에서 처리 효과를 검증하기 위한 표본 규모를 계산하는 데 사용된다.
즉 동일한 실험 안에서 처리 효과를 검증하는 데에는 충분할 수 있다. 그러나 실험 1과 실험 2 사이의 결과 차이를 직접 비교하거나 일반화하는 데까지 동일한 수준의 통계적 신뢰성을 보장한다고 보기는 다소 어렵다.
그럼에도 불구하고 나는 이 논문이 중요한 함의를 제공한다고 생각한다. AI가 제공한 정보에 대해 사후 설명이나 사후 경고만으로는 기대만큼 영향력을 줄이기 어렵다는 점을 보여주기 때문이다.
즉 debunk나 debrief 방식의 사후 개입만으로는 충분하지 않을 수 있다. 우리가 흔히 보는 이용약관 동의나 형식적인 안내문 같은 조치는 설득 효과를 줄이기에는 부족할 가능성이 있다.
그래서 나는 서비스 설계 단계에서 사전 개입 전략, 즉 prebunk 전략을 더 적극적으로 고려할 필요가 있다고 본다. 이는 일종의 예방주사와 같은 접근이다. 사용자에게 미리 인지적 대비를 제공하는 방식이다.
하지만 이 논문은 동시에 또 다른 우려도 보여준다. 사전 개입이 존재하더라도 설득 효과를 완전히 되돌리기는 쉽지 않다는 점이다.
정책적 함의도 분명하다. 예를 들어 유럽의 AI Act는 모델 설계 단계에서 규제를 시도한다. 반면 한국의 AI 기본법은 서비스 운영 사업자에게 더 많은 책임을 부여하는 구조를 갖고 있다.
그래서 나는 정부가 AI 서비스 제공자에게 보다 적극적인 개입을 요구할 필요가 있다고 본다. 단순한 면책 고지나 짧은 경고 문구만으로는 충분하지 않다.
앞으로는 보다 구체적인 prebunk 전략과 debunk 전략이 함께 설계되어야 한다. 단순한 텍스트 안내를 넘어 시각적 설명이나 구체적인 사례를 포함한 개입도 필요할 것이다.
그렇지 않다면 ccPTW 시대에 AI 글쓰기 도구가 인간의 판단에 미치는 영향력은 쉽게 줄어들지 않을 것이다. 내가 보기에 이 연구는 바로 그 점을 분명하게 보여준다.