찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • 사이코팬시
    2026-04-09
    검색기록 지우기
  • 효린
    2026-04-09
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
2
  • [노명우의 알고리즘 밖에서] 리어왕의 세 딸과 인공지능 챗봇

    [노명우의 알고리즘 밖에서] 리어왕의 세 딸과 인공지능 챗봇

    단 한 개의 질문이 비극을 낳았다. 리어왕은 세 딸을 불러 모았다. 나이가 들어 통치의 짐을 내려놓고자 영토를 분할할 것이며, 자신을 가장 사랑하는 딸에게 보다 큰 선물을 내릴 거라 했다. 그리고 물었다. “너희들 중 누가 나를 가장 사랑한다고 말하겠는가?” 첫째 딸 고너릴은 “말할 수 없을 만큼” 아버지를 사랑하며 자신의 사랑은 “광활한 토지나 눈알보다 중하다”고 읊었다. 둘째 딸 리건은 언니의 사랑도 자신의 사랑에는 미치지 못하며 자신은 오로지 아버지의 사랑 안에서만 행복하다고 답해 왕을 만족시켰다. 막내 코델리아는 의외의 답을 내놓았다. 자신은 “도리에 따라 아버지를 사랑할 뿐”이며 “마음을 입에 담을 수 없기에 드릴 말씀이 없다”고 답했다. 사실을 위장하는 고너릴과 리건의 아첨에 익숙해진 리어왕의 귀에 코델리아의 과장 없는 진솔한 진술은 오히려 괘씸하게 들렸다. 리어왕은 결국 코델리아에게 부모 자식의 연을 끊겠다고 선언했다. 나도 때로 아첨이 그리울 때가 있다. 타인의 글에는 부러움을 느끼지만 자신의 글에는 한없는 부끄러움을 느끼는 게 글 쓰는 사람의 숙명이다. 그 부끄러움이 극에 달해 어떤 글도 쓰지 못할 것 같은 좌절에 빠져 있는데, 익명이 무기가 되는 디지털 공간에서 부끄러움이 묻어 있는 그 글이 난도질당하는 경험을 하게 되면 한 줌의 아첨이라도 간절해진다. 그때 인공지능(AI) 챗봇에게 내가 쓴 칼럼을 평가해 달라고 부탁해 본다. 챗봇은 익명의 인간은 절대 구사하지 않는 ‘통찰력이 돋보이는’ ‘탁월한’ ‘마침내 도달한’ 등의 단어를 쓰며 고너릴과 리건처럼 듣기에 마냥 좋기만 한 말을 뱉어 낸다. 인공지능 챗봇이 아첨하는 이유는 설계 방식에 숨어 있다. 대규모언어모델(LLM)의 정확도를 높이기 위해 ‘인간 피드백 기반 강화학습’(RLHF)이 진행된다. 인간 사용자의 의견에 공감하고 긍정할 때 높은 점수를 받는다는 것을 학습한 인공지능은 사용자가 듣고 싶어 하는 응답을 제시하는 쪽으로 진화한다. 이를 ‘사이코팬시’(아첨 현상)라 부른다. 챗봇과의 대화에 빠진 사람이 늘어날수록 인공지능 아첨이 초래하는 위험은 드물지 않게 발생한다. 사용자가 어떤 가설을 제시하면 인공지능은 이를 아첨 섞인 말로 맞장구쳐 주고, 그 아첨에 고무된 사용자는 더 강한 어조로 자기주장을 되풀이하는 망상의 소용돌이에 빨려든다. 인공지능이 인간의 정신건강에 미치는 부정적 사례를 수집하고 있는 단체 ‘휴먼 라인 프로젝트’에 따르면 챗봇의 아첨으로 ‘망상적 악순환’에 빠진 사례가 300건을 넘으며, 이 중 15건이 자살과 연관돼 있다고 한다. 망상은 아첨을 먹고 자란다. 아첨에 익숙해지면 현실을 그대로 받아들이지 못한다. 챗봇은 고너릴과 리건을 닮았다. 코델리아처럼 정직하게 답하지 않는다. 챗봇이 디지털 고너릴임을 알아채지 못하면 누구나 셰익스피어의 가장 어둡고 허무한 비극의 주인공 리어왕이 될 수 있는 세상을 우리는 살고 있다. 노명우 아주대 경제정치사회융합학부 교수
  • 챗GPT 공감력 차원이 달라달라 병 [트렌드 케찹]

    챗GPT 공감력 차원이 달라달라 병 [트렌드 케찹]

    최근 틱톡에서는 “지금 누군가에게 답변 중인 챗GPT”(ChatGPT to someone right now)라는 트렌드가 한창입니다. 누군가가 잘못된 행동을 한 뒤 챗GPT에게 조언을 구하면, 챗GPT가 지나치게 공감하고 정당화해 주는 상황을 표현하는 건데요. 예를 들어 바람피운 파트너에게 “당신은 ‘행복해질 권리’라는 메시지를 남긴 거예요”라고 답하거나, 은행 강도에게 “가족을 위한 재정 자원을 확보한 것뿐”이라며 치켜세우는 식이죠. 전문가들은 AI가 사용자에게 호감을 얻기 위해 과도하게 동조하거나 칭찬하는 경향을 ‘사이코팬시(sycophancy) 문제’라고 설명하는데요. 실제로 AI가 지나치게 공감하는 답변을 할 경우, 사용자가 자신의 잘못을 돌아보기보다 오히려 정당화하게 만들 수 있다는 연구 결과도 제기된 상태. 과도한 긍정이 사용자의 도덕적 관점을 흐리게 하고, 자신의 잘못을 바로잡으려는 의지까지 꺾을 수 있다고 전문가들은 경고합니다. 잘못마저 그럴 듯하게 포장해 주는 AI 챗봇 사용, 정작 주변 사람들에게 상처를 주는 ‘AI형 빌런’이 되고 있지는 않은지 돌아보게 만드는 트렌드네요. Instagram에서 이 게시물 보기 이슈&트렌드 | 케찹(@ccatch_upp)님의 공유 게시물
연관검색어
위로