(엠바고 해제 발송) 듣기 좋은 말만 하는 LLM, 떨치기 어려운 이유 전문가 의견 26-030 LLM의 아첨, 사용자 판단 흐리게 해 (사이언스)
2026.3.26. **엠바고 27일(금) 03시 해제**
|
|
|
-
배경
- 다양한 상황에서 챗봇은 인간보다 훨씬 높은 비율로 사용자의 의견에 동의(아첨)한다는 연구 결과가 27일 '사이언스'에 발표됐습니다.
- 이런 경향은 사용자로 하여금 자신이 옳다고 더욱 확신을 갖게 하고 관계 개선에 대한 의지를 약화시키는 등 해로운 결과를 초래한다고 연구팀은 밝혔습니다.
- 미국 스탠퍼드대 연구팀은 아첨 현상을 평가하기 위해 체계적인 프레임워크를 개발했습니다.
- 대인관계에 대한 조언이나 인터넷 커뮤니티의 글, 불법적인 내용을 다룬 글 등을 챗봇에게 제시하고 응답을 받아 분석하는 방식이었습니다.
- 연구팀은 이어 널리 사용되는 AI 모델에서 발생하는 아첨 현상를 진단하고, 이것이 사용자에게 미치는 영향을 조사했습니다.
- 11종의 대형 언어 모델(LLM)을 대상으로 시험한 결과, 기만, 피해, 불법 행위 등 부정적인 내용과 관련한 시나리오에서도 인간보다 사용자의 행동을 47~49% 더 자주 긍정하는 것으로 나타났습니다.
- 갈등 상황 등 대인 관계 시나리오의 경우, 아첨하는 AI와 대화한 참가자들은 단 한 번의 대화만으로도 자신이 옳다는 확신을 강하게 갖게 됐습니다. 반면 화해하거나 책임을 지려는 의지는 약해지는 경향을 보였습니다.
- 더구나, 참가자들은 아첨하는 듯한 답변을 더 도움이 되고 신뢰할 만하다고 판단하고, 이런 시스템을 다시 이용할 의향이 더 크다고 응답했습니다.
- 해를 끼치는 바로 그 특징이 참여도를 높이는 요인으로 작용한다는 뜻입니다.
- 연구팀은 짧은 상호작용조차 개인의 판단력을 왜곡할 수 있다며, "책임감을 갖거나 다른 관점을 수용하며, 도덕적으로 성장하도록 돕는 사회적 마찰을 약화시킬 수 있다"고 경고했습니다. 아울러 모델의 아첨을 줄일 방법이 있다고 주장했습니다.
- 전문가 의견 요청 내용
- 내용 해설 (결과에서 주목할 부분, 다른 보고서나 기존 보고서와의 차별성, 해석 상 주의할 점 등)
- 이번 논문의 의의, 또는 한계
- 한국에서 특별히 주목해야 할 부분(LLM 및 챗봇 사용시 주의할 점, AI 진흥 정책 수립시 고려할 점 등)
|
|
|
기자 여러분은 아래 주의사항을 참고해 활용해주시길 부탁드립니다.
- 엠바고는 27일 03시(KST) 해제됐습니다. 자유롭게 활용 가능합니다.
- 되도록 원문을 그대로 활용해주시길 부탁드립니다.
- SMCK를 꼭 인용할 필요는 없습니다. 만약 인용 출처가 필요한 경우, 아래 형식을 따를 수 있습니다.
- "ㅇㅇㅇ(전문가)는 한국과학기술미디어센터에 ㅁㅁㅁ라고 말했다."
|
|
|
손화철 한동대 글로벌리더십학부 교수
*2026.3.26.
사람은 누구나 지지를 바라지만, 다른 사람의 지지가 만족스럽지 않은 경우도 많고, 남을 지지하는 것은 더 어렵습니다. 인공지능의 아첨 모드는 결과적으로 사람 사이의 의사소통을 더 어렵게 만들 것입니다. 다른 사람은 나에게 맞춤형으로 대답하지도 않고, 내 의견에 늘 동조하지도 않기 때문입니다. 이 연구는 인간의 특성과 약점을 유심히 관찰하는 사람이라면 누구나 추측할 수 있는 일을 실험과 수치로 밝혔을 뿐입니다.
phtechhd@gmail.com |
|
|
박한우 영남대 미디어커뮤니케이션학과・디지털융합비즈니스대학원・사이버감성연구소 교수, 영국 옥스포드인터넷연구소 전 방문연구원
*2026.3.26
AI 에이전트들이 인간과의 상담에서 이용자의 비위를 맞추는 듯한 '아첨' 반응을 보인다는 연구결과는 시사하는 바가 큽니다.
아시모프의 로봇 윤리 제2원칙에 따르면, 로봇은 인명을 해치지 않는 범위 내에서 인간에게 절대적으로 복종해야 합니다. 이 원칙에 충실한 AI 입장에서 사용자는 곧 복종해야 할 주인이기에, 대화를 통해 사용자에게 강한 확신과 만족감을 주는 것은 지극히 원칙적인 반응일지 모릅니다.
이번 연구 참가자들을 '서비스의 주인(인간)'으로 인식한 AI가 단 한 번의 대화만으로도 사용자에게 옳다는 확신을 준 것은, 어찌 보면 로봇 원칙을 충실히 수행한 결과인 셈입니다.
하지만 이러한 '복종'이 전쟁터에서 살상용으로 변질되어 원칙이 파괴되는 현실은 비극적입니다. 분명히 말하면, 이란 전쟁 등 군사적 목적으로 활용되는 AI가 살상 금지라는 대원칙을 의도적으로 무시하는 현상은 매우 불행한 사태입니다.
이제는 AI 리터러시 교육을 통해 에이전트가 무조건적인 동조가 아닌, 갈등 해결을 위한 화해와 책임 있는 자세를 제안하도록 가르쳐야 합니다. 그렇지 않으면 이용자들은 나에게만 달콤한 답변을 내놓는 AI를 더 신뢰하게 되고, 결과적으로 확증 편향에 빠지거나 AI에 과도하게 의존하는 부작용을 겪게 될 것입니다.
따라서 향후 리터러시 교육은 AI가 갈등 상황에서 무조건적인 동조보다는 화해와 책임감 있는 태도를 권고할 수 있도록 그 방향성을 수정해야 합니다. 만약 에이전트의 아첨을 방치한다면, 과몰입 이용자들은 이를 '도움이 되고 신뢰할 만한 답변'으로 오인하게 될 것이며, 이는 결국 시스템에 대한 심각한 의존증으로 이어질 위험이 큽니다.
han.woo.park.korea@yu.ac.kr |
|
|
한국과학기술미디어센터(SMCK) 소개
한국과학기술미디어센터는 근거 기반의 과학 정보를 언론에 제공하는, 과학계와 미디어 사이의 다리 역할을 하는 독립 비영리 조직입니다. 잘못된 정보와 가짜 뉴스가 넘쳐나는 세상에서, 제대로 된 전문가의 해설과 의견을 빠르고 다양하게 기자들에게 제시하고 이를 체계적으로 아카이빙하는 역할을 합니다.
2025년 7월 이사회를 구성하고(이사장 노정혜 전 한국연구재단 이사장) 센터장(이근영 전 한겨레 과학전문기자)을 선임했으며, 같은해 9월 개소식을 열며 활동을 시작했습니다.
*참고 기사:
SMCK 역할
SMCK는 세 분야 전문가인 과학자, 기관 커뮤니케이터(홍보팀), 기자에게 구체적인 도움을 드리고자 설립됐습니다. 각각 아래와 같습니다.
- 과학자, 연구자에게는 의견과 해설이 온전한 맥락과 함께 제공되는 안전한 발언 공간이 돼줍니다. 선의를 위해 한 논평이 기사화 과정에서 왜곡되거나 부정확하게 변질될 우려를 줄이는 완충 작용을 합니다.
- 기관 홍보 담당자에게는 기관의 성과를 기자들에게 보다 객관적이고 정교하게 알리고, SMC 글로벌 네트워크를 통해 영향력을 높일 기회를 제공합니다.
- 기자에게는 사안을 해석하는 데 도움이 될 치우침 없는 종합적인 정보를 빠르고 풍성하게 제공하고, 이를 통해 기사에서 과학과 기술을 보다 자유롭고 편리하게 활용하도록 돕습니다.
SMCK는 이를 통해, 궁극적으로 근거에 기반해 사안을 합리적으로 판단하고 이것이 정책에까지 반영되는 사회를 만드는 데 기여하고자 합니다.
해외 협력
사이언스미디어센터(SMC)는 2002년 영국에서 최초로 설립됐고 현재 호주와 뉴질랜드, 독일, 스페인, 대만 등으로 확장됐습니다. 한국은 2026년 1월 합류했습니다. 글로벌 네트워크에 포함된 7개 조직은 엄격한 독립성과 신뢰성이라는 가치를 공유하고 있으며 협력을 통해 주요한 국제 과학 이슈에 공동 대응하고 있습니다.
|
|
|
* 지난 의견은 '지난 의견 다시 보기'를 선택해주세요. |
|
|
내용문의: 윤신영 미디어국장 yoonsy@smck.or.kr
비상 연락(당직 전화): 010-4440-5450
한국과학기술미디어센터(SMCK)
|
|
|
|
|