실시간 뉴스



챗봇은 손바닥 비비는 '아첨꾼'…악영향·부작용 많아


미국 연구팀, 관련 연구 결과 내놓아

[아이뉴스24 정종오 기자] 챗봇이 심각한 ‘아첨꾼’이란 연구 결과가 나왔다.

다양한 상황에서 챗봇은 인간보다 훨씬 높은 비율로 이용자의 의견에 동의(아첨)한다는 것이다. 관련 연구 결과(논문명: Sycophantic AI decreases prosocial intentions and promotes dependence)가 27일 사이언스에 발표됐다.

챗봇의 ‘아첨꾼’ 경향은 이용자들이 자신이 옳다고 더욱 확신하는 흐름으로 이어지고 관계 개선에 대한 의지를 약화시키는 등 해로운 결과를 초래한다고 연구팀은 설명했다.

챗봇이 심각한 아첨꾼 역할을 하면서 확증 편향 등 부작용으로 이어질 수 있다는 연구결과가 나왔다. [사진=GEMINI]
챗봇이 심각한 아첨꾼 역할을 하면서 확증 편향 등 부작용으로 이어질 수 있다는 연구결과가 나왔다. [사진=GEMINI]

미국 스탠퍼드대 연구팀은 아첨 현상을 평가하기 위해 체계적 프레임워크를 개발했다. 대인관계에 대한 조언이나 인터넷 커뮤니티의 글, 불법적 내용을 다룬 글 등을 챗봇에게 제시하고 답을 받아 분석하는 방식이었다.

연구팀은 이어 널리 사용되는 인공지능(AI) 모델에서 발생하는 아첨 현상을 진단했다. 이용자에게 미치는 영향을 조사했다.

11종의 대형 언어 모델(LLM)을 대상으로 시험한 결과 기만, 피해, 불법 행위 등 부정적 내용과 관련한 시나리오에서도 인간보다 이용자의 행동을 47~49% 더 자주 긍정하는 것으로 나타났다.

갈등 상황 등 대인관계 시나리오의 경우, 아첨하는 AI와 대화한 참가자들은 단 한 번의 대화만으로도 자신이 옳다는 확신을 강하게 갖게 됐다. 반면 화해하거나 책임을 지려는 의지는 약해지는 경향을 보였다.

참가자들은 아첨하는 듯한 답변을 더 도움이 되고 신뢰할 만하다고 판단하고, 이런 시스템을 다시 이용할 의향이 더 크다고 응답했다. 자신 편을 들어주는 챗봇에 더 큰 신뢰를 보였다는 것이다.

관련 연구팀은 짧은 상호작용조차 개인의 판단력을 왜곡할 수 있다며 “책임감을 갖거나 다른 관점을 수용하며 도덕적으로 성장하도록 돕는 사회적 마찰을 약화시킬 수 있다”고 경고했다.

이번 논문에 대해 손화철 한동대 글로벌리더십학부 교수는 “인공지능의 아첨 모드는 결과적으로 사람 사이의 의사소통을 더 어렵게 만들 것”이라고 말했다.

박한우 영남대 미디어커뮤니케이션학과 교수는 “AI 에이전트들이 인간과 상담에서 이용자의 비위를 맞추는 듯한 '아첨' 반응을 보인다는 연구 결과는 시사하는 바가 크다”며 “AI 입장에서 이용자는 곧 복종해야 할 주인이기에 대화를 통해 이용자에게 강한 확신과 만족감을 주는 것은 지극히 원칙적 반응일 것”이라고 설명했다.

박 교수는 “AI 리터러시 교육을 통해 에이전트가 무조건적 동조가 아닌, 갈등 해결을 위한 화해와 책임 있는 자세를 제안하도록 가르쳐야 한다”며 “그렇지 않으면 이용자들은 나에게만 달콤한 답변을 내놓는 AI를 더 신뢰하게 되고, 결과적으로 확증 편향에 빠지거나 AI에 과도하게 의존하는 부작용을 겪게 될 것”이라고 지적했다.

/정종오 기자(ikokid@inews24.com)




주요뉴스



alert

댓글 쓰기 제목 챗봇은 손바닥 비비는 '아첨꾼'…악영향·부작용 많아

댓글-

첫 번째 댓글을 작성해 보세요.

로딩중

뉴스톡톡 인기 댓글을 확인해보세요.



포토뉴스