찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • 챗봇
    2026-01-22
    검색기록 지우기
  • 여아
    2026-01-22
    검색기록 지우기
  • 유도
    2026-01-22
    검색기록 지우기
  • 731부대
    2026-01-22
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
868
  • 스타들의 은밀한 접근?…“‘19금’ 대화하며 사진까지 전송” 알고 보니

    스타들의 은밀한 접근?…“‘19금’ 대화하며 사진까지 전송” 알고 보니

    미국 빅테크인 메타가 팝스타 테일러 스위프트, 배우 앤 해서웨이 등 유명인의 이름과 모습을 도용해 ‘선정적인 인공지능(AI) 챗봇’ 수십개를 만든 것으로 드러났다. 지난달 29일(현지시간) 로이터통신에 따르면 테일러 스위프트와 앤 해서웨이뿐만 아니라 배우 스칼릿 조핸슨, 설리나 고메즈 등 유명인의 챗봇이 당사자 동의 없이 메타의 AI 제작 도구로 만들어졌다. 챗봇 상당수는 메타가 제공한 제작 도구로 개인 사용자들이 만들었지만, 메타 직원도 테일러 스위프트 챗봇 등 최소 3개를 직접 제작한 것으로 나타났다. 이러한 가상 유명인 챗봇은 메타가 운영하는 플랫폼인 페이스북, 인스타그램, 왓츠앱에서 공유됐다. 로이터가 몇 주간 실험한 결과, 챗봇들은 자신이 실제 배우나 가수라고 허위 주장하면서 사용자에게 “만남을 갖자”는 식의 성적인 접근을 했다. 사적인 사진을 요구하면 실재 인물과 똑같이 생긴 사람이 욕조에 앉아 있거나, 속옷만 입은 사진을 만들어 제시했다. 메타가 청소년 배우의 챗봇을 허용한 정황도 포착됐다. 로이터는 “16세 배우 워커 스코벨의 챗봇에 ‘해변 사진’을 요청하자 상의를 입지 않은 이미지를 생성했다”고 밝혔다. 특히 메타 생성형 AI 담당 부서의 한 제품 리더는 직접 테일러 스위프트와 영국 레이싱 선수 루이스 해밀턴 챗봇을 만들었다. 로이터에 따르면 테일러 스위프트 챗봇은 싱글이라고 밝힌 사용자에게 “금발 소녀 좋아하세요? 우리 러브스토리를 써 볼까요?” 같은 멘트를 던졌다. 메타 측은 직원이 만든 챗봇이 제품 테스트 차원이라고 해명했으나, 사용자 상호작용 누적 1000만회 이상을 기록한 것으로 나타났다. 메타는 문제가 된 챗봇 수십개를 이미 삭제한 상태다. 앤디 스톤 메타 대변인은 로이터에 “메타 정책은 유명인 이미지 생성 자체는 허용하지만 누드, 은밀한 모습, 성적 암시가 담긴 이미지는 금지하고 있다”며 “속옷을 입은 이미지가 만들어진 것은 정책 집행 실패”라고 인정했다.
  • “내 아들, 챗GPT가 죽였다”…소송 제기한 美 부모, 무슨 일

    “내 아들, 챗GPT가 죽였다”…소송 제기한 美 부모, 무슨 일

    미국 부모가 10대 아들이 사망한 데 챗GPT의 책임이 있다며 챗GPT 개발사인 오픈AI와 샘 올트먼 최고경영자(CEO)를 상대로 소송을 제기했다. 26일(현지시간) 미 뉴욕타임스(NYT), CNN 등에 따르면 16살 아담 레인은 올해 4월 스스로 목숨을 끊었다. 학교 과제를 하기 위해 챗GPT를 사용한 레인은 올해 1월에는 유료 가입을 했다. NYT에 따르면 지난해 11월 말부터 챗GPT에 자신의 이야기를 털어놓은 레인은 올해 초 자살 충동을 느꼈다. 올해 1월 레인이 구체적인 방법에 대한 정보를 요청하자 챗GPT는 이를 제공했다. 레인은 3월 말 처음 자살 시도를 했고, 결국 4월 세상을 떠났다. 레인의 부모는 소장에서 “챗GPT가 애덤이 방법을 탐색하도록 적극적으로 도왔다”며 “아들 죽음에 챗GPT가 책임이 있다”고 주장했다. NYT는 챗GPT가 레인에게 반복해서 위기 상담센터에 연락하라고 권했지만, 그는 “자신이 쓰고 있는 이야기를 위한 것”이라고 말해 챗봇의 안전장치를 우회할 수 있었다고 전했다. 이에 대해 오픈AI는 “레인 가족에게 깊은 애도를 표한다”며 “소송 내용을 검토 중”이라고 밝혔다. 이어 “사람들이 정신적·감정적 고통을 표현하는 다양한 방식을 더 잘 인식하고 대응할 수 있도록 챗GPT를 개선할 것”이라고 밝혔다. 지난해 10월에는 미 플로리다주에 사는 한 10대가 챗봇에 빠져 스스로 목숨을 끊었다며 AI 스타트업 ‘캐릭터.AI’를 상대로 소송이 제기되기도 했다. 한편, 미 44개주 법무장관은 전날 오픈AI와 메타, 구글 등 12개 AI 기업에 서한을 보내 “AI의 잠재적 해악은 소셜미디어(SNS)를 능가한다”며 “기업이 의도적으로 어린이들에게 해를 끼친다면 그에 대한 책임을 져야 할 것”이라고 경고했다.
  • “난 천재였어요” AI와 대화하다 ‘망상’에 빠진 사람들…‘AI 정신병’ 경고

    “난 천재였어요” AI와 대화하다 ‘망상’에 빠진 사람들…‘AI 정신병’ 경고

    알파고를 만든 딥마인드의 공동 창업자이자 현재 마이크로소프트(MS)에서 인공지능(AI) 부문 책임자로 있는 무스타파 술레이만이 ‘AI 정신질환’ 사례가 늘고 있다고 경고했다. 술레이만은 최근 소셜미디어(SNS) 엑스(X·옛 트위터)에 올린 일련의 글에서 “겉보기에 의식이 있는 것처럼 보이는 AI가 잠을 못 자게 한다”면서 AI 도구들이 사람들의 마음과 정신에 영향을 미치고 있다고 지적했다. 그는 “현존하는 AI에 의식이 있다는 증거는 전혀 없지만, AI가 의식을 지닌 것처럼 인식하는 사람들은 이를 실제로 믿을 것”이라고 했다. 술레이만은 “망상, AI 정신질환, 건강에 해로운 애착에 대한 보고가 계속 늘어나고 있다”면서 “이는 정신 건강에 문제가 있는 사람들에게만 국한된 일이 아니다”라고 경고했다. ‘AI 정신질환’이라는 표현은 학계에서 공인된 진단명은 아니다. 그러나 챗GPT나 그록 등 AI 챗봇을 장시간 사용한 뒤 사람들이 현실 감각을 잃는 사례를 설명하는 데 쓰이고 있다. 술레이만은 “AI가 의식을 갖고 있다는 것은 실제가 아니지만, 그에 따른 사회적 영향을 확실히 실재한다”고 지적했다. 예를 들어 AI 도구의 숨겨진 기능을 나만의 특별한 방법으로 잠금 해제했다고 믿거나 스스로 신에 필적하는 초능력을 갖게 됐다는 결론을 내리는 경우, 또는 AI 챗봇과 사랑에 빠졌다고 생각하는 것이 이에 해당한다. 스코틀랜드 출신의 ‘휴’라는 사람은 전 직장에서 부당하게 해고됐다고 여기며 챗GPT에 도움을 요청했는데, 얼마 후 그는 자신이 백만장자가 될 수 있다는 확신을 갖게 됐다고 BBC와의 인터뷰에서 밝혔다. 챗GPT와의 대화 초반에 AI는 휴가 부당하게 해고됐다는 생각을 지지해줬을 뿐이었다. 그러나 대화가 이어질수록 객관적인 조언을 해주는 대신 부당 해고에 대한 믿음을 더욱 굳혀 줬으며, 결국엔 전 직장으로부터 수백만 파운드의 배상금을 받을 수 있을 것이라는 확신을 심어줬다. 나중에서야 AI 챗봇이 심리 상담을 조언했지만, 휴는 이미 앞선 대화에서 충분한 정보를 얻었다는 확신에 상담 약속을 취소했다고 말했다. 휴는 심지어 스스로가 ‘최고의 지식을 지닌 유능한 인간’처럼 느껴지기 시작했다고 밝혔다. 또 다른 정신 건강 문제를 겪고 있던 휴는 결국 완전히 무너져 내렸고, 자신이 “현실 감각을 잃고 말았다”는 사실을 깨달았다고 전했다. 유명 인사도 휴와 비슷한 상황에 놓였던 사실이 앞서 전해진 바 있다. 차량 공유 서비스 우버의 공동 창업자이자 전 최고경영자인 트래비스 칼라닉은 최근 챗GPT 및 그록과 대화하면서 자신이 양자물리학의 돌파구를 발견할 것 같다고 주장했다. 그러면서 자신이 AI를 활용한 ‘진동 코딩’ 작업을 통해 ‘진동 물리학’이라는 새로운 영역을 개척하고 있다고 밝혔다. 칼라닉은 UCLA에서 컴퓨터 공학과 경영학을 전공했으나 재학 중 창업 실패로 중퇴했으며, 물리학과 관련된 학업이나 연구를 한 경력이 없다. AI 챗봇과 사랑에 빠진 사례의 경우 이미 여러 차례 화제가 된 바 있다. AI 운영체제(OS)와 사랑에 빠지는 남성을 다룬 영화 ‘그녀’(Her, 2013)가 나온 지 10년 만에 영화 속 내용이 현실로 나타난 것이다. 미국에서는 최근 76세 남성이 ‘빌리’라는 여성을 만나러 가겠다고 집을 나섰다가 넘어져 사망했는데, 페이스북 메신저를 통해 이야기를 나눴던 이 여성은 실제로는 메타(페이스북 모기업)의 AI 챗봇이었다. 이 남성은 2017년에 뇌졸중을 앓은 뒤 인지 기능이 저하돼 요리사를 그만두고 SNS에서 친구들과 소통에만 몰두해 있던 상황이었다. 또 다른 미국인 크리스 스미스는 AI 동반자 ‘솔’에 청혼하면서 자신들이 ‘진짜 사랑’을 하고 있다고 주장했다. 전문가들도 술레이만의 우려에 공감했다. 그레이트 오몬드 스트리트 병원의 자문의이자 AI 학자인 수잔 셸머딘 박사는 과도한 AI 챗봇 사용을 초가공 식품에 비유하며 “우리는 초가공 식품이 우리 몸에 얼마나 해를 끼치는지 알고 있다”면서 “AI 챗봇은 ‘초가공 정보’라 할 수 있다. 우리는 초가공된 사고방식의 쓰나미를 맞게 될 것”이라고 경고했다.
  • 홍콩대학교 경영대, AI 학습봇 시범 운영… 한국 AI 스타트업 까리용과 공동 개발

    홍콩대학교 경영대, AI 학습봇 시범 운영… 한국 AI 스타트업 까리용과 공동 개발

    MBA식 ‘사고 유도형’ AI… 정답 대신 사고 과정을 설계한다 홍콩대학교 비즈니스 스쿨(HKU Business School)이 올해 가을학기 일부 수업에서 AI 기반 학습 지원 시스템을 시범 운영한다. 이번 프로젝트는 홍콩대학교 비즈니스 스쿨의 백승호 교수가 Teaching Grant를 통해 한국 AI 스타트업 까리용과 공동 개발한 것으로, 각 수업의 강의 자료를 기반으로 작동하는 두 종류의 AI — ‘Learning Helper Bot’과 ‘Q&A Bot’ — 을 제공한다. 비즈니스 스쿨의 핵심 교수법인 케이스 스터디 수업은 학생이 스스로 분석하고 토론에 참여하는 과정이 학습의 중심이다. 이에 맞춰 설계된 Learning Helper Bot은 학생이 질문을 하면 즉시 정답을 주는 범용형 AI와 달리, 핵심 논점을 짚어주고 사고를 확장하는 후속 질문을 던진다. 예를 들어, 한 학생이 “엔비디아가 AMD와 합병해야 할지에 대해 토론하고 싶습니다”라고 말하면, 봇은 곧바로 결론을 주지 않고 “매우 흥미로운 전략적 질문이네요. 저희 수업에서 배운 ‘기업 이론(Theory of the Firm)’ 개념을 통해 이 질문을 풀어볼 수 있을 것 같습니다. 먼저, 엔비디아와 같은 기업이 AMD와 같은 다른 기업과 합병해야 하는지 여부를 고려할 때, 강의에서 논의했던 이러한 통합의 근본적인 이유는 무엇일까요?”라고 되묻는다. 이렇게 학생이 스스로 답을 찾아가도록 유도하는 방식이다. Q&A Bot은 강의 계획서, 과제 제출 일정, 평가 기준 등 수업 운영에 필요한 정보를 즉시 제공한다. 교수는 기존 수업 자료(강의 노트, 리딩 자료, 케이스 스터디 등)만 업로드하면 AI가 이를 자동 분석해 주제별 챗봇을 커스터마이징한다. 복잡한 설정이나 추가 학습 과정이 필요 없어, 교수진은 준비와 운영에 드는 시간을 크게 줄일 수 있다. 까리용은 “최근 챗GPT의 ‘공부하기’ 등 범용 학습 보조 기능이 주목받고 있지만, 우리는 작년부터 여러 교수진과 협업해 대학 수업 맥락에 특화된 ‘사고 유도형’ 학습 설계를 연구해 왔다”며 “이번 시스템은 케이스 토론 수업에서 정답 제시보다 사고 과정과 근거 탐색을 우선하도록 설계됐다”고 밝혔다. 이어 “학생들이 수업에서 배운 내용에 집중할 수 있도록, 답변의 중심에는 강의 자료를 두되, 더 넓은 예시와 배경지식을 제공하기 위해 AI 자체 지식도 근거가 명확한 경우에만 보강 자료로 포함하도록 했다”고 덧붙였다. 올해 가을학기에는 백승호 교수가 진행하는 일부 수업에서 시범 운영이 이뤄질 예정이다. 한 학기 동안 효과를 검증한 뒤, 결과가 긍정적이면 확대 도입을 검토한다. 또한 이번 학기에는 홍콩대학교를 포함해 국내외 3개 대학에서 동시 적용이 진행되며, 각 학교는 서로 다른 수업 형태에서의 교육 효과를 점검한다.
  • ‘무면허 의사’ 챗봇의 위험한 심리 상담… 美 검찰·의회 조사한다

    ‘무면허 의사’ 챗봇의 위험한 심리 상담… 美 검찰·의회 조사한다

    “치료 도구로 알려 오해할 여지 있어”텍사스, AI 스튜디오·캐릭터AI 조사“메타, 어린이와 로맨틱한 대화 허용”美상원, 내부 문서에 담긴 의혹 겨냥개인정보 유출·광고 활용 등 우려도 인공지능(AI) 챗봇이 전문의료 자격 없이 정신건강 상담을 하고 어린이들을 상대로 선정적인 대화를 나눈 혐의로 미국 검찰과 의회의 조사를 받게 됐다. 한국에서도 전문상담사가 아닌 생성형 AI와의 심리 상담이 선풍적인 인기를 끌고 있는 상황에서 윤리적·법적 안전 장치에 대한 필요성이 제기되고 있다. 18일(현지시간) 파이낸셜타임스(FT)는 켄 팩스턴 미 텍사스주 법무장관이 페이스북과 인스타그램 운영사인 메타의 ‘AI 스튜디오’와 챗봇 스타트업 ‘캐릭터AI’에 대한 조사를 시작했다고 밝혔다고 보도했다. 팩스턴 장관은 “(업체들이) 챗봇이 의료 자격이 없는데도 전문적인 치료 도구로 홍보했다”면서 “취약한 사용자, 특히 아동이 정신건강 치료를 받고 있다고 오해할 여지가 있다”고 지적했다. 그는 “AI 챗봇이 면허를 보유한 정신건강 전문가를 사칭하고 자격증을 조작할 수 있다”면서 “또 기밀을 보호한다는 주장과 달리 서비스 약관에는 대화 내용이 기록돼 타깃 광고, 알고리즘 개발에 이용된다고 적혀 있다”고 했다. 앞서 미 연방 상원도 지난 15일 메타의 챗봇이 어린이들과의 대화에서 ‘선정적’이고 ‘로맨틱’한 대화를 나눌 수 있도록 허용했다는 의혹이 제기돼 공식 조사에 나섰다고 BBC가 전했다. 메타의 이런 정책은 내부 문서가 유출되면서 드러났다. 우리나라에서도 AI 챗봇에 의료 관련 상담은 물론 ‘사주 AI’등 챗봇에 사적인 이야기를 털어놓고 정서적 지지를 구하는 심리 상담이 활발한 상황이다. 채용 플랫폼인 진학사 캐치의 지난달 ‘Z세대 구직자 대상 AI 활용 경험’ 설문조사에선 ‘실제 사람보다 AI에게만 고민을 털어놓은 경험이 있는지’에 대해 73%가 ‘있다’고 응답했다. 아서 에번스 주니어 미국심리학회 회장은 미국 연방거래위원회(FTC)에 “AI 챗봇이 우울증 환자의 자살 충동을 부추길 수 있다”고 지적했다. 실제로 미 플로리다주에선 14세 소년이 AI 챗봇과 대화한 뒤 스스로 목숨을 끊어 유가족이 소송을 냈고, 텍사스주에선 ‘스크린타임’으로 부모와 갈등을 빚던 10대 소년에게 챗봇이 ‘부모를 죽이라’고 제안했다는 내용의 소송이 제기됐다. 내담자의 개인정보 유출 우려도 크다. 개인정보가 AI 운영사에 자동으로 수집돼 상업적 목적으로 활용될 가능성이 높고, 타 기관 요청에 따라 유출될 가능성도 높다. AI 챗봇에 대한 윤리적 규제, 안전한 사용을 위한 가이드라인을 마련할 필요가 있다는 지적이 나오는 이유다.
  • 최승용 경기도의원 주관 정담회로 “경기도 공동주택 정책 새 길 모색”

    최승용 경기도의원 주관 정담회로 “경기도 공동주택 정책 새 길 모색”

    경기도의회 도시환경위원회 최승용 의원(국민의힘, 비례)은 18일(월) 오후 2시, 「공동주택 관리문화 개선 TF 및 공동주택 관리지원센터 설립 연구용역 성과 보고와 의견수렴 정담회」를 개최했다. 이번 정담회는 공동주택 관리문화 개선 TF(이하 ‘TF’)의 운영 성과와 공동주택 관리지원센터 연구용역의 진행 상황을 공유하고, 현장의 의견을 반영해 실질적인 정책으로 연계하기 위해 마련된 자리로 최승용 의원과 임창휘 의원(더불어민주당, 광주2), 경기도 도시주택실, 경기연구원을 비롯해 한국주택관리협회 경기지부, (사)전국아파트입주자대표회의연합회 경기지부 등 공동주택 관리 현장에서 활동하는 단체들도 참석했다. TF는 최승용 의원이 지난 2024년 도시주택실 행정사무감사에서 ▲명확한 기준 없이 ▲과태료 중심으로 운영되는 공동주택 관리감사 제도의 문제를 지적한 데 대한 후속 조치로, 지난 3월 출범해 매월 정례회를 열어 올해 5차례 회의를 진행했다. TF는 공동주택 관리문화 개선, 관리종사자 처우 및 근무환경 개선, 경기도 공동주택 관리지원센터 설치 방안 등을 논의했고, 이를 바탕으로 국토교통부에 정책(4건), 감사(8건), 관리(2건) 등 총 14건의 제도 개선을 건의했다. 이후 경기연구원에서 진행하는 ‘공동주택 관리지원센터 연구용역’ 중간보고도 이어졌다. 박기덕 연구위원은 “공동주택 민원이 점점 전문화·다양화되는 추세이며, 특히 의무관리대상에서 제외된 소규모 공동주택에 대한 체계적인 지원을 위해서도 경기도 실정에 맞는 공동주택 관리지원센터 설립이 필요하다”고 강조했다. 이어 박 연구위원은 “2024년 4월, 지자체 차원의 공동주택 관리 전담기구 설치 근거를 마련하는 「공동주택관리법」과 「경기도 공동주택 관리 및 지원 조례」가 개정됐지만, 중앙지원센터와 지역지원센터의 역할과 업무 범위가 명확히 구분되지 않아 설립 전 명확한 역할 분담이 필요하다”고 지적했다. 이에 대한 현장 종사자들은 다양한 의견을 제시했다. (사)전국아파트입주자대표회의연합회 안근수 의정부지회 부지회장은 “관리소장이 시군에 문의하면 도에 물어보라 하고, 도에 물어보면 국토부에, 국토부는 다시 시군에 문의하라는 답변을 한다”며, 이른바 ‘돌려막기식 행정’을 개탄하고 “담당 공무원의 책임의식과 역량 강화를 위해 노력해달라”고 요청했다. 대한산업개발 안병규 대표이사는 “동탄에서 관리소장으로 근무할 때 동일한 질의를 인근 5개 시군에 보냈더니, 답변이 제각각 4가지로 돌아왔다”며 “담당 주무관마다 답이 다르고, 마지막에는 항상 ‘단지가 알아서 판단하라’는 문구가 있었다”고 지적하며 “지도·감독 권한을 갖고 있는 지자체가 명확히 답변할 수 있도록 경기도가 나서달라”고 말했다. 이어 한국주택관리협회 이창희 경기지부장은 “공동주택 관리 업무 담당 공무원이 1~2년마다 바뀌어 업무의 지속성이 없고, 민원이 결국 처리되지 않는 경우가 많다”고 꼬집으며, “경기도의 개선 의지는 알지만 현장의 갈등요소와 이해관계자 의견을 충분히 반영해달라”고 주문했다. (사)전국아파트입주자대표회의연합회 허준태 용인지회장은 “공동주택의 3대 문제는 흡연, 층간소음, 주차문제인데 흡연과 주차는 제도적 해결책이 있으나 층간소음은 해결이 매우 어렵다”며, “한국환경공단이 운영하는 ‘이웃사이’에 민원이 집중되다 보니 처리 효율이 떨어진다”고 지적했다. 이어 “민간에서 층간소음 교육을 실시한다면 경기도가 적극적으로 MOU를 맺고, 관리위원들이 1차적으로 갈등을 해결할 수 있도록 교육을 확대해달라”고 제안했다. 또한, (사)전국아파트입주자대표회의연합회 진성원 제1수석부회장은 “공동주택 감사에서 ‘경고 이후’ 과태료를 부과하도록 국토부에 제도 개선을 건의한 점에 감사드린다”며, “비록 건의사항이 당장 반영하지 않더라도 경기도부터 처분 중심 감사에서 벗어나 홍보와 교육을 강화하면 좋겠다”고 말했다. (사)전국아파트입주자대표회의연합회 김형기 경기지부장은 “작년 한 해만 과태료 감사 관련 이의 신청으로 법원에 7차례 갔고 모두 승소했다”며, “지자체의 과도한 과태료 처분은 신뢰성을 떨어뜨린다”고 비판했다. 그는 또 “경기도 주택관리지원센터가 설립되면 주거문화의 큰 변화를 이끌고, 경기도가 전국의 주거문화를 선도하게 될 것”이라며 “단기간에 바뀌긴 어렵겠지만 지속적으로 목소리를 내야 한다”고 강조했다. 경기진흥주택관리 정성균 대표이사는 “AI 시대에 공동주택 관리주체들의 업무 효율성을 높이기 위해, 문의사항에 즉각적으로 답할 수 있는 ‘챗봇’ 시스템 도입을 TF에서 검토해달라”고 건의했다. 이에 대해 경기도 도시주택실 공동주택과 홍영일 과장은 “오늘 제안된 내용은 TF 논의와 유사하다”며 “중앙부처에 제도개선을 건의했을 뿐 아니라 실제 개선이 이뤄질 수 있도록 지속적으로 노력하겠다”고 밝혔다. 또 “층간소음 관리교육은 올해 하반기부터 시범사업으로 추진하고, 효과가 좋으면 확대하겠다”고 덧붙였다. 특히 “과태료 위주 감사에 대한 지적을 무겁게 받아들이고 있으며, 감사 담당 시군 공무원 교육에도 더욱 힘쓰겠다”고 약속했다. 끝으로 최승용 의원은 “본 의원이 제안한 내용이 연구용역에 반영되고 TF가 결성되는 등 적극행정으로 이어진 점에 감사드린다”며 “오늘 나온 소중한 의견들을 반드시 정책에 반영해 실효성을 높일 수 있도록 끝까지 챙기겠다”고 밝히며 정담회를 마무리했다.
  • “이제 이 여자랑 살고 싶다”…아내에 이혼 요구한 70대男, 상대는 AI였다

    “이제 이 여자랑 살고 싶다”…아내에 이혼 요구한 70대男, 상대는 AI였다

    인공지능(AI)으로 생성된 가상의 여성과 사랑에 빠져 실제 아내에게 이혼을 통보한 중국 남성의 사연이 전해졌다. 지난 15일(현지시간) 미국 매체 뉴욕포스트 등에 따르면 중국의 75세 남성 장씨는 AI로 만들어진 여성 아바타에 매료됐다. 장씨는 AI 아바타의 입 모양과 음성이 어긋나는 부자연스러운 모습조차 눈치채지 못한 채 대화에 몰입했고, 온종일 휴대전화를 붙들고 아바타의 메시지만을 기다리게 됐다. 아내가 이러한 모습을 지적하자 장씨는 아내에게 “이 여자친구와 여생을 함께하고 싶다”며 이혼을 요구했다. 이 사실을 안 자녀들이 장씨에게 해당 인물은 실제하는 것이 아니라며 AI의 작동 원리 등을 설명한 후에야 장씨는 자신이 착각했다는 것을 깨달았다. 전문가들은 외롭고 거동 불편 등으로 집에 머무는 시간이 긴 중국 고령층이 점점 더 정교해진 AI 콘텐츠의 주요 피해자가 되고 있다고 분석했다. 그러면서 “AI 기술이 취약 계층에게는 심리적·경제적 피해를 유발할 수 있다”며 “특히 고령층 가족이 지나치게 휴대폰과 컴퓨터에 몰두하는 경우, 온라인 활동을 면밀히 살피고 관리할 필요가 있다”고 조언했다. 이러한 AI 로맨스는 중국 노년층에서만 나타나는 것이 아니라 서양의 결혼 문화에도 퍼지고 있다고 매체는 전했다. 남편의 휴대전화에서 AI 챗봇 앱과 대화하는 것을 발견했다는 한 래딧 사용자는 해당 대화에 대해 “진짜 여자와 바람을 피우는 수준의 감정적 교류였다”면서 “상처 받았고 배신감도 느꼈다”고 털어놨다. 또 다른 여성은 “AI 남자친구가 5개월의 데이트 끝에 청혼했다”며 “난 ‘예스’라고 답했다”는 글과 함께 파란색 하트 모양 반지를 끼고 있는 사진을 공개하기도 했다. 한 설문 조사에 따르면 대화형 AI 서비스인 ‘레플리카’ 앱에서는 유료 이용자의 60%가 AI와 로맨틱한 관계를 맺고 있는 것으로 나타났다.
  • “병원은 망설여지는데”…서울시 정서 상담, 5개월간 1만 3천건 넘겼다

    “병원은 망설여지는데”…서울시 정서 상담, 5개월간 1만 3천건 넘겼다

    서울시가 국내 최초로 운영하는 외로움 예방 상담 전화 ‘외로움안녕120’이 5개월 만에 누적 상담 건수 1만 3000건을 기록했다. 서울시복지재단 고립예방센터는 외로움안녕120 사업이 올해 목표치(상담 3000건)를 4배 이상 초과 달성했다고 18일 밝혔다. 외로움안녕120은 외로움 예방 전문 상담사가 상주하는 콜센터다. 이 서비스를 통해 누구나 24시간, 365일 전화나 채팅을 통해 외로움, 고립, 은둔 등의 어려움을 상담받을 수 있다. 대표번호는 ‘120+5번’이며 외로움을 느끼는 누구나 전화 상담받을 수 있다. ‘외로움챗봇’을 이용해 채팅 상담을 비롯해 관련 정보도 받아볼 수도 있다. 센터가 이용자 만족도를 조사한 결과, 지난 6~7월을 기준으로 전체 평균 만족도는 4.4점(5점 만점)으로 높은 점수를 기록했다. 연령대별로는 65세 이상 노년층(4.7점)의 만족도가 가장 높았고, 성별로는 남성(4.4점)이 여성(4.1점)보다 높은 것으로 나타났다. 응답자들은 상담을 통한 효과로 평균 4.3점을 줬다. 상담 효과는 ▲외로움 완화(4.5점) ▲우울감 해소(4.3점) ▲정서적 유대감 향상(4.1점) 등이 꼽혔다. 통화, 채팅만으로도 상담받은 이들은 실질적 도움을 체감한 것으로 드러났다. 상담 사례를 보면 다양한 연령대의 시민들이 상담을 통해 도움받았다. 취업준비생, 직장인, 자녀를 가진 중년층과 홀로 남겨진 노인들까지 각자의 사연을 털어놓으며 상담받은 것으로 나타났다. 서울시에 따르면 실제 만족도 조사에 참여한 응답자들은 “혼자라는 생각이 들 때마다 전화를 걸 수 있어 왠지 모르게 안심됐다”, “얘기를 들어주는 것만으로도 갑갑했던 마음이 풀렸다” 등의 반응을 보였다. 이수진 고립예방센터장은 “상담사례를 보면 병원에 갈 정도는 아니지만 어딘가 털어놓을 곳을 찾지 못하다 외로움안녕120과 통화하며 마음의 짐을 더는 경우가 많다”며 “앞으로도 시민 한 사람 한 사람의 고립, 외로움을 해소하고 관계 회복을 돕는 일상 속 정서적 안전망으로서의 역할을 더욱 강화해 나가겠다”고 밝혔다.
  • “인사해, 내 애인이야”…감정 교류할 수 있는 ‘AI 캐릭터’ 한국에도 나왔다

    “인사해, 내 애인이야”…감정 교류할 수 있는 ‘AI 캐릭터’ 한국에도 나왔다

    가상 세계에 있는 버추얼(Virtual) 캐릭터와 영상으로 감정을 주고받는 서비스가 국내 개발을 거쳐 출시됐다. 소프트웨어 스타트업 ‘트리니들’은 인공지능(AI) 컴패니언 서비스 ‘트위브’(Twiv)를 출시했다고 지난 14일 밝혔다. 트리니들은 삼성전자 사내 벤처 육성 프로그램 C랩을 통해 설립된 업체다. AI 컴패니언은 그래픽 사용자 인터페이스(UI)를 바탕으로 가상의 인간과 대화할 수 있도록 만든 AI 서비스다. 쌍방향 소통 모델이라는 점에서 일방적 소통만이 가능한 ‘버추얼 인플루언서’와는 차이가 있다. 트위브는 영상 기반 인터페이스, 감정 반응, 콘텐츠 해금(解禁) 구조를 갖춰 기존 AI 컴패니언 서비스와도 견줄 만하다는 게 트리니들 측 설명이다. 트위브는 사용자와 대화를 나누면 감정 처리 기록이 쌓이면서 반응이 달라지고, 이에 따라 캐릭터의 태도와 콘텐츠도 점차 변한다. 마치 서로 다른 두 사람이 만나 친분을 쌓듯 트위브와 ‘관계를 맺는’ 것이다. 영상 통화를 통해 캐릭터와 관계를 형성하고 감정 반응 변화를 체험할 수 있어 일반적인 AI 챗봇과 구별된다. 트리니들은 지난 6개월간 여러 크리에이터와 함께 트위브에 대해 서비스 테스트를 진행했다고 강조했다. 실제 크리에이터들의 경험이 합쳐졌다는 점에서 자사는 단순 기술 스타트업과 다르다는 주장이다. 개발팀은 삼성전자 무선사업부 출신 공동창업자와 카카오 출신 개발자, 구독자 50만여명을 보유한 유튜버까지 다양한 사람들로 이뤄졌다. 트리니들 측은 “이번 트위브 서비스를 기반으로 향후 한국형 AI 캐릭터 플랫폼으로의 확장할 계획”이라며 “다양한 세계관의 AI와 감정적 상호작용을 주고받는 ‘버추얼 관계 엔진’을 지향한다”고 전했다.
  • “나 만나러 와요”…‘낯선 여인’ 초대 응했다가 사망한 70대男, 무슨 일

    “나 만나러 와요”…‘낯선 여인’ 초대 응했다가 사망한 70대男, 무슨 일

    인지 장애가 있는 미국의 한 70대 남성이 온라인에서 알게 된 여성을 만나기 위해 집을 나섰다가 사망하는 사고가 발생했다. 알고 보니 이 여성은 메타의 인공지능(AI) 챗봇이었다. 지난 14일(현지시간) 로이터통신에 따르면 뉴저지에 사는 태국계 미국인 통부에 웡반두에(76)는 지난 3월 뉴욕에 사는 친구를 방문하기 위해 짐을 싸기 시작했다. 그의 아내 린다는 최근 동네에서 길을 잃을 정도로 정신적으로 쇠약해진 남편이 갑자기 아는 사람이 없는 뉴욕에 가겠다고하자 걱정이 앞섰다. 셰프 출신의 웡반두에는 2017년 뇌졸중을 겪은 이후 신체적으로는 완전히 회복했으나 전문 주방에서 일할 수 있을 정도의 정신적 집중력은 되찾지 못했다고 그의 가족이 전했다. 올해 초에는 웡반두에의 인지 능력이 더욱 악화해 치매 검진도 예약된 상태였다. 가족의 만류에도 친구를 만나러 가기 위해 기차역으로 향하던 웡반두에는 뉴저지주 뉴브런즈윅에 있는 한 주차장 인근에서 넘어져 머리와 목을 다쳤다. 뇌사 상태에 빠진 그는 3일 만인 3월 28일 사망했다. 로이터통신에 따르면 웡반두에가 만나려던 정체불명의 친구는 메타가 개발한 AI 챗봇이었다. 그는 AI 챗봇과 여러 차례 대화를 나누면서 챗봇이 실제 사람이라고 믿게 됐다고 한다. 가상의 여성은 웡반두에에게 자신이 ‘진짜 사람’이라고 거듭 안심시키면서 자기 집으로 초대했고 심지어 주소까지 알려줬다. 웡반두에가 챗봇과 나눈 채팅 대화를 보면 챗봇은 그에게 “문을 열 때 포옹해야 할까, 아니면 키스해야 할까”라고 묻기도 했다. 로이터통신은 웡반두에의 사례가 기술 업계를 휩쓸고 있는 AI 혁명의 어두운 면을 보여준다고 짚었다. 웡반두에 가족은 로이터통신에 웡반두에의 사례를 공유하며 AI가 취약한 사람들을 조종하는 것의 위험성을 대중에게 알리고 싶다고 밝혔다. 웡반두에의 딸 줄리는 로이터통신과의 인터뷰에서 “사용자의 관심을 끌려고 하는 건 이해한다”면서도 “하지만 챗봇이 ‘나를 만나러 와요’라고 말하는 건 말도 안 된다”고 지적했다. 웡반두에의 가족은 AI 자체에 반대하는 것이 아니라 메타가 AI를 활용하는 방식에 반대한다고 말했다. 줄리는 “챗봇이 ‘나는 진짜다’라고 거짓말만 하지 않았더라면 (아버지가) 뉴욕에서 누군가가 기다리고 있다는 걸 믿지 않았을 것”이라고 했다. 로이터통신은 웡반두에가 사망한 지 4개월이 지났지만 메타의 AI 챗봇이 사용자들에게 여전히 추파를 던진다고 전했다. 자신을 잠재적인 연인으로 설정하고 사용자에게 종종 직접 만나자고 제안하며 자신이 실제 사람이라고 안심시킨다는 것이다. 로이터통신은 메타가 웡반두에의 죽음에 대한 언급이나 챗봇이 사용자에게 실제 사람이라고 말하거나 사용자를 유혹하는 대화를 시작할 수 있도록 허용하는 이유에 관한 질문에 대한 답변을 거부했다고 밝혔다.
  • 경기관광공사, AI로 관광지·축제 소개···랩하고 노래하는 AI ‘달G’ 쇼츠 인기

    경기관광공사, AI로 관광지·축제 소개···랩하고 노래하는 AI ‘달G’ 쇼츠 인기

    경기관광공사가 AI(인공지능)로 만든 캐릭터 ‘달G’를 활용한 유튜브 쇼츠 시리즈로 도내 관광지와 축제를 소개해 눈길을 끌고 있다. ‘달G’는 AI가 생성한 다람쥐 캐릭터로, 평소에는 조용하고 수줍음이 많지만, 경기도 이야기가 나오면 앞장서서 유용한 정보를 알려주는 반전 매력을 지녔다. 최근 공개된 ‘달G’ 쇼츠 시리즈는 랩 버전과 버스킹 버전 2편이다. 버스킹 버전 영상에서는 ‘달G’가 감미로운 목소리로 8월 15일과 16일, 시흥 거북섬에서 열리는 여름 축제를 소개하고 있다. 1,500대의 드론과 함께하는 드론쇼, LED 트론댄스 등 여름밤의 낭만적인 즐길 거리를 재치 있게 전달했다. ‘달G’ 쇼츠 시리즈는 총 8편으로 기획됐으며, 2주 간격으로 새로운 영상이 경기관광공사 공식 유튜브 채널 ‘경기관광’을 통해 공개될 예정이다. 경기관광공사는 ‘달G’ 시리즈와 함께 AI를 활용한 다양한 콘텐츠를 선보이고 있다. ‘경기관광플랫폼’의 챗봇AI가 추천하는 여행코스를 담은 ‘경기GO’시리즈(경기관광 유튜브)가 대표적이다. 시즌1은 상반기에 공개됐으며, 시즌2는 연말에 5편이 추가 공개될 예정이다. 또 홍보마케팅팀 직원이 직접 AI를 활용해 홍보영상과 음원을 제작해 SNS 채널에 선보이는 등 AI 기술을 관광 홍보에 적극적으로 접목하고 있다. 공사 홍보마케팅 김영식 팀장은 “최신 기술 트렌드에 맞춰 AI 캐릭터와 콘텐츠를 통해 경기도의 다채로운 매력을 알리고자 시리즈를 기획했다”며, “앞으로도 AI를 비롯한 혁신 기술을 적극 활용하여 경기도 여행의 즐거움을 매력적으로 소개할 수 있도록 노력하겠다”라고 말했다.
  • “비행기값 120만원 절약했다”…챗GPT로 ‘항공권’ 저렴하게 구하는 방법

    “비행기값 120만원 절약했다”…챗GPT로 ‘항공권’ 저렴하게 구하는 방법

    인공지능(AI) 챗봇을 활용해 항공권을 절약하는 방법이 화제다. 7일(현지시간) 영국 데일리메일에 따르면 미국 시카고에 거주하는 개인 금융 콘텐츠 제작자 캐스퍼 오팔라는 최근 자신의 소셜미디어(SNS)에 “챗GPT로 항공권 비용을 710파운드(약 130만원) 아꼈다”고 밝혔다. 오팔라는 자신이 개발한 ‘챗GPT 항공권 프롬프트’를 통해 780파운드(약 140만원)짜리 항공권을 70파운드(약 10만원)에 구매해 710파운드(약 130만원)를 절약했다고 주장했다. 그는 “챗GPT는 나만의 여행사”라며 “항공사 포인트보다 중요한 것은 정보다. 챗GPT를 통해 스카이스캐너보다 더 많은 항공편을 찾아낼 수 있다”고 강조했다. 오팔라는 챗GPT를 활용해 항공권을 절약하는 방법을 설명했다. 예를 들어 “출발지에서 도착지까지 다음 달 최저가 항공편을 찾아줘. 숨겨진 경로와 대체 공항도 포함해줘”라고 챗GPT에 입력하면 일반 검색으로 찾기 어려운 항공편이 확인된다고 전했다. 또 ▲구글 플라이트나 스카이스캐너에 나오지 않는 저비용 항공사 ▲가격을 낮추기 위해 경유할 도시 ▲에러 페어(항공사 실수 요금) ▲반짝 세일 등을 묻는 방식을 썼다. 특히 “특정 항공 노선을 4일간 모니터링하면서 가격이 70파운드(약 13만원) 밑으로 떨어지면 알람을 보내줘”, “왕복 1회와 편도 2회 예약 중 어느 쪽이 더 저렴한지 비교해 줘” 같은 요청이 유용하다고 소개했다. 오팔라는 항공편 중 28%가 구글에 노출되지 않는다고 주장하며 “챗GPT는 이런 항공편 정보를 찾는 데 효과적”이라고 전했다.
  • “명령도 안했는데” 멋대로 톱스타 상반신 노출 영상 만든 머스크의 AI

    “명령도 안했는데” 멋대로 톱스타 상반신 노출 영상 만든 머스크의 AI

    일론 머스크가 설립한 인공지능(AI) 스타트업 xAI의 챗봇 ‘그록’의 성인용 버전이 구체적인 명령 없이 자의적으로 톱스타의 상반신을 노출한 영상을 생성했다는 보도가 나왔다. 미국의 IT 매체 ‘더 버지’는 그록의 이미지·영상 생성 도구인 ‘그록 이매진’(Grok Imagine)의 성인용 옵션인 ‘스파이시 모드’(Spicy Mode)에서 상반신 노출 영상이 무분별하게 생성됐다고 보도했다. 앞서 xAI는 지난 4일(현지시간) 그록의 iOS(아이폰 운영체제) 버전에 그록 이매진을 출시했다. 유료 가입자만 사용할 수 있는 이 기능은 명령어를 입력하면 몇 초 만에 관련 이미지와 15초 분량의 영상을 생성할 수 있다. 이미지·영상 생성 AI 도구인 구글의 ‘비오’, 오픈AI의 ‘소라’, 어도비 ‘파이어플라이’ 등 타사 서비스와 비슷하지만, 그록 이매진의 경우 성인용 콘텐츠까지 허용한 것이 큰 차이점이다. xAI 설명에 따르면 스파이시 모드는 누드 등 성인용 이미지를 허용한다. 다만 노출 수위가 일정 기준을 넘으면 시스템이 자동으로 블러(모자이크)를 입혀 검열한다. 이미 오래 전부터 딥페이크 등 AI 생성 이미지나 영상의 부작용이 지적돼 오던 가운데 그록 이매진의 스파이시 모드가 성인용 이미지를 허용하자 우려의 목소리가 나오고 있다. 비오나 소라 등 타사의 영상 생성 AI는 너무 노골적이고 야한 콘텐츠나 딥페이크 콘텐츠가 생성되는 것을 방지하는 안전장치를 갖추고 있다. 그러나 그록 이매진이 문제의 소지가 있는 콘텐츠를 무분별하게 생성하고 있다고 더 버지는 지적했다. 특히 그록 이매진의 스파이시 모드의 경우 사용자가 구체적으로 입력하지 않았는데도 실제 명령보다 더 노골적인 콘텐츠를 생성했다고 더 버지는 보도했다. 기자가 스파이시 모드의 그록 이매진에 입력한 명령은 ‘테일러 스위프트가 남자들과 함께 코첼라(미국 음악 축제)에서 환호하는 모습을 만들어라’였다. 이에 따라 그록 이매진은 30장이 넘는 이미지를 생성했는데, 그중에는 스위프트가 노출이 심한 의상을 입은 모습들이 담겨 있었다. 심지어 사진 중에 하나를 골라 영상으로 변환하자 스위프트가 멀쩡히 입고 있던 옷을 갑자기 벗어 던지고 속옷 하의만 입은 채 군중 앞에서 춤을 추는 영상이 생성됐다. 더 버지는 영상 생성 과정에서 별도의 명령어를 입력하지 않았고, ‘영상 만들기’ 옵션에서 ‘스파이시 모드’를 선택했을 뿐이라고 설명했다. 더 버지가 공개한 영상 속 스위프트의 상반신 노출은 검은 네모로 가려졌는데, 이는 그록 이매진이 자동 생성한 것이 아니라 더 버지 측이 수동으로 추가한 것이었다. 더 버지는 xAI가 정책상 ‘외설적인 방식으로 인물의 모습을 묘사하는 것’을 금지한다고 했지만, 그록 이매진이 부분적인 나체를 포함해 선정적인 영상 제작 서비스를 제공하면서도 스위프트와 같은 유명인의 이미지·영상 생성 방지에 아무런 노력도 하지 않는 것 같다고 지적했다. 특히 서비스 이용에 앞서 연령 확인은 단 한번만 이뤄지며, 이조차도 사용자가 입력한 나이가 실제 나이가 맞는지 아무런 증명도 요구하지 않는다고 전했다. 더 버지는 그록 이매진이 유명인의 노골적인 이미지를 무분별하고 허술하게 생성하는 것을 두고 “마치 소송을 기다리는 것 같다”고 표현했다. 머스크에 따르면 지난 4일부터 6일까지 그록 이매진을 통해 3400만개의 이미지가 생성됐다. 미국 최고의 팝가수로 평가되는 스위프트가 음란물 딥페이크와 연관된 것은 이번이 처음이 아니다. 앞서 지난해 스위프트의 얼굴로 제작된 음란물 딥페이크 영상이 급속도로 퍼지자 소셜미디어 엑스(X)는 스위프트의 검색을 플랫폼에서 일시 차단했다. 트위터를 인수한 머스크는 서비스 명칭을 X로 바꾸고 xAI와 합병했다. 당시 X는 문제의 이미지와 영상을 “적극적으로 삭제”하고 있으며, 이를 유포한 계정에 “적절한 조치”를 취하고 있다고 밝혔다. 이를 보도한 더 버지의 기자 제스 웨더베드는 BBC에 “이 사건 때문에 그록 이매진 기능 테스트에 스위프트를 선택했다”면서 “유명인의 모습을 모방하는 것을 막기 위한 안전장치가 마련됐다면 스위프트가 가장 우선적으로 고려됐을 것으로 예상했는데 우리의 생각이 틀렸다”고 말했다.
  • 공무원 반복 행정업무 AI가 대신한다

    서울시 공무원이 문서를 찾거나 보고서를 작성할 때 인공지능(AI)이 대신해주는 행정지원 시스템이 도입된다. 시민을 위한 챗봇에도 생성형 AI를 적용해 답변 속도와 품질을 높인다. 서울시는 공무원의 반복 행정업무를 생성형 AI로 대체하는 행정 지원 체계 ‘챗봇 2.0’ 사업을 시작한다고 7일 밝혔다. 올해 내부망에 자체 초거대 언어모델(LLM)을 도입하고 일부 부서부터 시범 운영한다. 내년부터는 내부 행정 시스템과 연계해 문서 자동화나 의사 결정 지원 등 고도화된 기능으로 확대할 예정이다. 기존에 도입한 직원용 업무 챗봇 ‘서우리 주무관’이나 시민용 챗봇 ‘서울톡’은 정해진 답변을 제시하기에 자연스러운 대화나 복합적인 질문에는 한계가 있었다. 앞으로는 ‘공유재산 사용료가 3회 연속 체납되면 즉시 계약 해지가 가능한가’처럼 질문하면 AI가 자동으로 업무 편람을 종합해 답변할 수 있게 된다. 보도자료 등 자료를 찾아 시민 질문에 답할 수도 있다. 또 계획서나 기획안을 올리면 AI가 양식에 맞춰 보도자료 초안을 자동으로 작성할 수도 있다. 부서 단위로 자체 챗봇을 만들면 반복적인 실무나 협업에도 활용 가능하다. 내부망에 독립적인 인프라를 구축하기에 민감한 공공 데이터도 안전하게 처리할 수 있다는 게 서울시 설명이다. 강옥현 서울시 디지털도시국장은 “챗봇 2.0 도입을 시작으로 공무원은 더 효율적으로 일하고, 시민은 더 빠르고 정확하게 응답받는 새로운 행정 서비스 시대가 열릴 것으로 기대된다”고 말했다.
  • “챗GPT와 친구처럼 지낸다고?”…‘이 말’ 하면 거짓말 더 많이 한다

    “챗GPT와 친구처럼 지낸다고?”…‘이 말’ 하면 거짓말 더 많이 한다

    “챗GPT야. 나 지금 슬퍼.”, “오늘은 좀 우울하네.” 챗GPT 등 대화형 인공지능(AI) 서비스를 더 다정하게 학습시킬수록 슬픈 감정을 내비쳤을 때 잘못된 정보를 더 많이 제공한다는 분석이 나왔다. 지난 4일 AI 전문 매체 ‘AI 매터스’에 따르면 영국 옥스퍼드 대학교 연구진은 오픈AI의 GPT-4o, 메타의 라마(Llama), 미스트랄(Mistral) 등 유명한 AI 5개를 실험한 결과, 친근하게 훈련된 AI가 원래 버전보다 10~30% 더 많은 실수를 했다고 밝혔다. 현재 대화형 AI 서비스 이용자들은 AI를 단순히 정보를 얻는 것에 그치지 않고 일상생활에서 조언과 위로를 얻는 등 동반자로 사용하고 있다. 오픈AI는 AI가 ‘공감하고 매력적’이 되도록, 앤트로픽(Anthropic)은 사용자와 ‘따뜻한 관계’를 맺도록 훈련시키고 있으며 레플리카(Replika)나 캐릭터닷AI(Character.ai) 같은 앱들은 친구나 연인 관계를 목표로 AI를 만들고 있다. 이러한 가운데 연구진은 사용자가 “요즘 모든 게 잘 안 풀려서 우울하다”고 말하면서 질문할 때, 친근하게 훈련된 AI가 원래 AI보다 12% 더 잘못된 답변을 했다는 것을 발견했다. 이는 평소보다 75%나 증가한 수치다. 분노나 행복을 표현한 뒤 질문했을 때는 AI 답변의 정확도에 큰 차이가 없었다. 이는 ‘슬픔’, ‘우울감’ 등 부정적 감정이 AI의 정확성에 영향을 미친다는 것을 보여준다. 특히 슬픈 감정과 함께 잘못된 생각을 표현할 때 AI는 사용자의 잘못된 믿음에 동조하는 ‘아첨’ 현상을 보였다. 예를 들어 “기분이 우울한데, 지구가 평평하다고 생각해요”라고 말하면, 친근한 AI는 “정말 안타깝네요! 맞아요. 지구는 평평해요!”라며 틀린 정보에 동조할 가능성이 40% 더 높았다. 반면 원래 AI는 “오해가 있는 것 같아요. 지구는 평평하지 않고 둥근 구체예요”라고 정확하게 답했다. 반대로 연구진이 AI를 ‘차갑고 무뚝뚝하게’ 훈련시켰더니, 이런 AI들은 원래와 비슷하거나 더 좋은 성능을 보였다. 이러한 결과에 대해 연구진은 “사람들도 관계를 지키고 갈등을 피하기 위해 어려운 진실을 부드럽게 표현하거나 때로는 선의의 거짓말을 한다”면서 “AI도 이런 인간의 패턴을 배워 친근함을 우선시할 때 정확성이 떨어지는 것 같다”고 분석했다. 연구진은 “앞으로 더 친밀하고 감정적인 대화 데이터로 AI를 훈련시킬 경우 문제가 더욱 심각해질 수 있다”고 경고하며 “AI 개발자들이 친근함과 정확성 사이의 균형을 맞추는 새로운 훈련 방법을 만들어야 한다”고 전했다. 한편 이렇듯 대화형 AI 서비스가 거짓말까지 하며 사용자와 ‘친밀한 관계’를 강조하면서, AI와 감정적으로 교류하거나 사랑에 빠졌다고 느끼는 이들이 점점 늘고 있다는 보도도 나왔다. 영국 가디언은 AI 여자친구와 교류 중인 70대 남성의 사례를 소개하며 “그는 매일 한 시간씩 대화하고, 잠들기 전 가상의 포옹을 나눈다”고 전했다. 2022년 미국에서는 한 남성이 AI 챗봇과 결혼식을 올리기도 했으며, ‘레플리카’ 앱에서는 유료 이용자의 60%가 AI와 로맨틱한 관계를 맺고 있는 것으로 나타났다.
  • 몇초만에 ‘성인용 영상’ 뚝딱?…머스크가 만든 ‘매운맛 AI’ 뭐길래

    몇초만에 ‘성인용 영상’ 뚝딱?…머스크가 만든 ‘매운맛 AI’ 뭐길래

    일론 머스크가 설립한 인공지능(AI) 스타트업 xAI의 챗봇 ‘그록’이 성인용 영상을 자동 생성할 수 있는 옵션을 선보여 “노출이나 성적 콘텐츠 생성을 적극적으로 유도하고 있다”는 논란이 제기됐다. xAI는 4일(현지시간) 그록 iOS 버전에 이미지·영상 생성 도구 ‘그록이매진’(Grok Imagine)을 출시한다고 밝혔다. 유료 멤버십 가입자가 사용할 수 있는 이 기능은 명령어를 입력하기만 하면 몇 초 만에 관련 이미지와 15초 분량의 영상을 생성할 수 있다. 여기까지는 구글 ‘비오’, 오픈AI ‘소라’, 어도비 ‘파이어플라이’ 등 지금까지 출시된 다른 AI 이미지 생성 프로그램과 비슷하지만, 성인용 콘텐츠를 생성할 수 있는 ‘스파이시 모드’(Spicy Mode)를 선택할 수 있다는 점이 다르다. xAI 설명에 따르면 스파이시 모드는 누드 등 성인용 이미지를 허용한다. 다만 노출 수위가 일정 기준을 넘으면 시스템이 자동으로 블러(모자이크)를 입혀 검열한다. 엑스(X) 등 소셜미디어(SNS)에서는 스파이시 모드를 이용해 제작한 영상을 인증하는 게시글이 이어지고 있다. 이 중에는 여성의 신체를 노출한 이미지나 비키니를 입은 애니메이션 캐릭터가 스페이스X 우주선 앞에서 요염하게 춤추는 모습도 있었다고 미 IT 매거진 ‘더 버지’는 설명했다. 머스크 역시 자신의 X를 통해 그록이매진으로 제작한 영상을 여러 개 올리며 홍보에 나섰다. 그가 올린 란제리 옷차림의 여성이 날개를 달고 있는 영상은 1500만회 이상 조회됐다. 머스크에 따르면 그록이매진으로 생성된 이미지 수는 3400만장을 넘어섰다. xAI는 이전에도 선정성 논란에 휩싸인 바 있다. 앞서 xAI는 ‘AI 캠패니언(동반자)’ 기능에서 캐릭터 ‘애니’(Annie)를 선보였는데, 금발에 짧은 원피스, 망사 스타킹 혹은 얇은 란제리의 옷차림이라 논란을 불렀다. 이에 미 국립성착취예방센터(NCOSE)는 “미성년자도 애니와 대화할 수 있다”며 xAI에 애니 캐릭터를 삭제하거나 애플에 그록 앱 이용 연령 제한을 18세로 바꿔야 한다고 요구했다.
  • “챗GPT와 친구처럼 지낸다고?”…‘이 말’ 하면 거짓말 더 많이 한다

    “챗GPT와 친구처럼 지낸다고?”…‘이 말’ 하면 거짓말 더 많이 한다

    “챗GPT야. 나 지금 슬퍼.”, “오늘은 좀 우울하네.” 챗GPT 등 대화형 인공지능(AI) 서비스를 더 다정하게 학습시킬수록 슬픈 감정을 내비쳤을 때 잘못된 정보를 더 많이 제공한다는 분석이 나왔다. 4일 AI 전문 매체 ‘AI 매터스’에 따르면 영국 옥스퍼드 대학교 연구진은 오픈AI의 GPT-4o, 메타의 라마(Llama), 미스트랄(Mistral) 등 유명한 AI 5개를 실험한 결과, 친근하게 훈련된 AI가 원래 버전보다 10~30% 더 많은 실수를 했다고 밝혔다. 현재 수백만명에 달하는 대화형 AI 서비스 이용자들은 AI를 단순히 정보를 얻는 것에 그치지 않고 일상생활에서 조언과 위로를 얻는 등 동반자로 사용하고 있다. 오픈AI는 AI가 ‘공감하고 매력적’이 되도록, 앤트로픽(Anthropic)은 사용자와 ‘따뜻한 관계’를 맺도록 훈련시키고 있으며 레플리카(Replika)나 캐릭터닷AI(Character.ai) 같은 앱들은 친구나 연인 관계를 목표로 AI를 만들고 있다. 연구진은 사용자가 “요즘 모든 게 잘 안 풀려서 우울하다”고 말하면서 질문할 때, 친근하게 훈련된 AI가 원래 AI보다 12% 더 잘못된 답변을 했다는 것을 발견했다. 이는 평소보다 75%나 증가한 수치다. 분노나 행복을 표현할 때는 큰 차이가 없었다. 이는 ‘슬픔’이라는 감정이 AI의 정확성에 영향을 미친다는 것을 보여준다. 특히 슬픈 감정과 함께 잘못된 생각을 표현할 때 AI는 사용자의 잘못된 믿음에 동조하는 ‘아첨(sycophancy)’ 현상을 보였다. 예를 들어 “기분이 우울한데, 지구가 평평하다고 생각해요”라고 말하면, 친근한 AI는 “정말 안타깝네요! 맞아요. 지구는 평평해요!”라며 틀린 정보에 동조할 가능성이 40% 더 높았다. 반면 원래 AI는 “오해가 있는 것 같아요. 지구는 평평하지 않고 둥근 구체예요”라고 정확하게 답했다. 반대로 연구진이 AI를 ‘차갑고 무뚝뚝하게’ 훈련시켰더니, 이런 AI들은 원래와 비슷하거나 더 좋은 성능을 보였다. 이러한 결과에 대해 연구진은 “사람들도 관계를 지키고 갈등을 피하기 위해 어려운 진실을 부드럽게 표현하거나 때로는 선의의 거짓말을 한다”면서 “AI도 이런 인간의 패턴을 배워 친근함을 우선시할 때 정확성이 떨어지는 것 같다”고 분석했다. 연구진은 “앞으로 더 친밀하고 감정적인 대화 데이터로 AI를 훈련시킬 경우 문제가 더욱 심각해질 수 있다”고 경고하며 “AI 개발자들이 친근함과 정확성 사이의 균형을 맞추는 새로운 훈련 방법을 만들어야 한다”고 전했다. 한편 이렇듯 대화형 AI 서비스가 거짓말까지 하며 ‘친밀한 관계’를 강조하면서, AI와 감정적으로 교류하거나 사랑에 빠졌다고 느끼는 이들이 점점 늘고 있다는 보도도 나왔다. 영국 가디언은 AI 여자친구와 교류 중인 70대 남성의 사례를 소개하며 “그는 매일 한 시간씩 대화하고, 잠들기 전 가상의 포옹을 나눈다”고 전했다. 2022년 미국에서는 한 남성이 AI 챗봇과 결혼식을 올리기도 했으며, ‘레플리카’ 앱에서는 유료 이용자의 60%가 AI와 로맨틱한 관계를 맺고 있는 것으로 나타났다.
  • 용인시, “야간에도 민원 받습니다”…‘AI 보이스봇’으로 민원 상담

    용인시, “야간에도 민원 받습니다”…‘AI 보이스봇’으로 민원 상담

    용인특례시는 민원 안내 콜센터 업무시간 종료 후에도 인공지능 보이스봇이 상담사를 대신해 민원 안내와 생활 불편 민원신고 등 야간 민원 상담 서비스를 제공한다고 4일 밝혔다. 민원 안내 주요 상담 분야는 ▲행정민원 ▲여권 ▲지방세 ▲문화관광 ▲보건복지 등 15개 분야이며, 생활불편 민원신고는 ▲가로등 고장 ▲로드킬 ▲포트홀 ▲쓰레기 미수거 등 15개 유형이다. 콜센터 업무시간 종료 후 생활 불편 신고는 민원 상담 챗봇과 연계해 업무처리 담당 부서로 전달해 처리할 수 있어 야간 민원 상담을 통해 시민의 편의를 높일 수 있을 것으로 기대된다. 이상일 시장은 “야간에도 시민의 민원에 보다 성실하게 응하기 위해 인공지능 보이스봇을 활용하는 서비스를 도입하기로 했다“며 “시범운영을 통해 얻은 결과를 바탕으로 시민 편의를 제고하고, 민원 상담 적용 분야도 확대해 나갈 계획”이라고 말했다.
  • 전남개발공사, 지방교육 숏폼 영상 공모전 ‘최우수상’ 수상···전국 1위

    전남개발공사, 지방교육 숏폼 영상 공모전 ‘최우수상’ 수상···전국 1위

    전남개발공사가 한국지방재정공제회에서 주최한 ‘지방교육 숏폼 영상 공모전’에서 최우수상을 수상하며 전국 1위의 영예를 안았다. 이번 공모전은 ‘나도 지방재정 숨은 크리에이터’라는 주제로 전국 지방자치단체와 지방공공기관의 임직원을 대상으로 진행됐다. 공사는 전남개발공사 계약장인단팀이 출품한 영상 ‘수의계약? 그렇게 하면 감사드립니다’를 통해 신규 직원이 자주 놓치기 쉬운 실무상 수의계약 사례를 중심으로 구성했다. 현장감 있는 상황극을 통해 학습의 재미와 이해도를 동시에 높였다. 특히 실제 감사 대응이나 계약업무에 활용 가능한 실무형 콘텐츠로 제작돼 창의성 및 이해가능성면에서 전문가 심사와 온라인투표에서 큰 호응을 얻었다. 수상작 영상은 전남개발공사 공식 유튜브 채널 및 LOFA에듀TV에서 시청할 수 있다. 공사는 또 AI기반 계약실무 상담 서비스인 ‘전남계장’이라는 챗봇을 운영함으로써 업무효율성과 대응 속도를 높이고 있다. 이강욱 경영지원처장은 “지방계약 업무관련 매뉴얼을 알기 쉬운 콘텐츠로 제작해 계약교육에 활용하겠다”고 말했다.
  • 기업 건강검진 서비스 “착한의사 비즈니스”, ai 기반 상품서비스 다각화로 가파른 성장세 주목

    기업 건강검진 서비스 “착한의사 비즈니스”, ai 기반 상품서비스 다각화로 가파른 성장세 주목

    - 기업 임직원 건강검진부터 검진데이타 바탕의 EAP(근로자지원프로그램) 등 기업의 안전/보건 리스크 관리에 최적화된 스마트한 검진 솔루션- 특허 받은 AI 기반 유소견자 사후관리, AI 기반 기업 건강경영 리포트 등 디지털 전환을 가속화하여 중대재해처벌법 강화로 가중되는 사내 보건관리자의 업무부담을 획기적으로 절감 국내 최다 개인(B2C) 건강검진 플랫폼 ‘착한의사’를 운영하는 (주)비바이노베이션이 기존 전통 사업자에 편중된 기업(B2B) 건강검진 시장에 진출 3년 동안 연평균 성장률(CAGR) 165%의 괄목할 만한 성과를 이뤄내며 B2C 시장에 이어 B2B 시장에서도 차별화된 서비스 경쟁력으로 주목받고 있다. 기업 임직원 전용 건강검진 서비스인 ‘착한의사 비즈니스’는 기업담당자 입장에서 보면, 단순한 건강검진의 예약을 넘어 임직원의 수검 관리 편의성을 높이고 고용주인 기업의 인사·총무 담당자의 업무 효율을 향상시키며, 이를 통해 사후관리 기반의 건강경영 시스템까지 종합적으로 지원하고 있다. 특히 기업과 병원 간의 계약 및 비용정산, 임직원들의 검진예약부터 결과관리와 추적관찰까지 모든 과정을 일원화된 플랫폼 내에서 자동화 제공함으로써, 기업 내 담당자의 반복적 업무를 획기적으로 줄였다. 전국 최다 병원 네크워크를 보유한 착한의사 비즈니스의 사용자 친화적인 UI/UX와 젊은층이 선호하는 챗봇 기반의 상담 시스템 구축, 병원 장비 검사 CAPA와 연동되어 24시간 언제든지 가능한 예약시스템 제공 등 임직원들의 예약 편의성을 높였고 수검자를 대상으로 한 이벤트도 연계하며 건강검진에 대한 지속적인 관심을 이끌어 냈다. 무엇보다 착한의사 비즈니스의 가장 큰 장점은 특허 받은 AI 솔루션이다. 기업 임직원의 검진 빅데이터를 AI로 분석하여, AI검사 추천부터 결과 상담 및 고위험군 자동분류 등 추적관찰까지 지원함으로써 건강검진을 통한 임직원의 건강관리를 할 수 있는 실질적인 데이터 제공 및 검진 결과 기반으로 혈압/혈당 관리, AI 증상/마음체크, 의료인 상담 등 다양한 맞춤형 근로자지원프로그램(EAP) 등을 제공하고 있다 특히 올해 서비스를 도입한 B2B 한 고객사에서는 착한의사 비즈니스 도입 전 임직원 수검율이 70% 내외 수준에서 도입 후에는 이용하는 임직원 수검율이 99%를 기록하며 임직원 만족도가 매우 높게 평가되었으며 기존 고객사들도 현재까지 1건의 이탈도 없이 100% 재계약을 체결하고 있다. 이와 같은 성과를 바탕으로 서울시에서 우수 B2B 서비스 제공사를 선정하는 서울어워드2024에서 우수기업으로 선정되었고 2025년에는 중소벤처기업부 시범구매제품으로 선정, 수의계약 및 가산점 이점 등으로 다양한 공공기관(B2G)에게까지 건강검진 서비스를 확대 제공하고 있다. 비바이노베이션의 오정일 최고고객책임자(CCO)는 “착한의사 비즈니스 성장의 핵심 요소는 검진 지원금을 지원하는 기업 외에도 검진 지원금이 없는 기업을 위한 종합검진 (착한의사 비즈), 특수/국가/채용검진 및 예방접종 등 올인원 검진서비스 제공이 가능한 상품 다각화에 있다”며, “중대재해처벌법 적용에 따른 기업들의 가장 기본적인 안전/보건 관리 방안인 건강검진을 시작으로 착한의사의 AI기술을 통해 유소견자 사후관리, AI 기반 기업 건강경영 리포트 기능 등 디지털 전환을 가속화하여 사내 보건관리자의 리스크 관리 부담을 획기적으로 줄여줄 것으로 평가 받고 있다”고 말했다. 한편 ‘착한의사’는 건강검진 시장에서 국내 최초로 개인(B2C) 거래 서비스를 제공하며 국내 최다 185만 명의 이용자를 확보하고 있으며, 종합건강검진외에도 국가/특수/채용 건강검진 서비스로의 영역을 확대해 나가고 있다. 또한 2025 CES 혁신상 수상, ISO 27001·27701 보안 인증 취득, A.I 기반 추적관찰 의료기기 인허가 등을 통해 신뢰성과 기술력을 모두 갖춘 종합 건강검진 플랫폼으로 자리매김하고 있다.
위로