찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • 챗봇
    2026-03-11
    검색기록 지우기
  • 연방
    2026-03-11
    검색기록 지우기
  • 두부
    2026-03-11
    검색기록 지우기
  • 유도
    2026-03-11
    검색기록 지우기
  • 무제
    2026-03-11
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
891
  • 국내 챗GPT 이용자, 1년 새 5배 폭증…“50세 이상도 5명 중 1명꼴”

    국내 챗GPT 이용자, 1년 새 5배 폭증…“50세 이상도 5명 중 1명꼴”

    미국 오픈AI(OpenAI)가 개발한 생성형 인공지능(AI) 모델 ‘챗GPT’(ChatGPT)의 국내 사용자 수가 2000만명을 돌파했다. 20~40대 젊은 사용자가 대부분을 차지한 가운데 50세 이상 사용자도 5명 중 1명꼴로 나타났다. 데이터 분석 서비스 와이즈앱·리테일은 국내 안드로이드·iOS 스마트폰 사용자를 대상으로 한 표본 조사 결과를 지난 2일 발표했다. 해당 조사에서 집계된 지난달 챗GPT 애플리케이션(앱) 월간 사용자 수(MAU)는 2031만명이었다. 지난해 8월(407만명)보다 약 5배 증가해 역대 최고치를 기록한 것이다. 국내 스마트폰 사용자가 약 5120만명이라는 점을 고려하면, 전체 스마트폰 사용자 중 40%가량이 챗GPT를 쓴다는 뜻이다. 연령대별로는 20대 사용자 비율이 24.2%로 최대였다. 그 뒤로 ▲40대 22.4% ▲30대 22.0% ▲50대 12.6% ▲20세 미만 13.6% ▲60세 이상 5.2% 등의 분포를 보였다. 전체 사용자의 약 70%가 20대부터 40대까지의 젊은 층으로 나타난 가운데, 50세 이상 사용자도 17.8%로 적지 않게 집계된 것이다. 이용자의 성별 비율은 남성과 여성이 각각 50.1%, 49.9%로 비슷했다. 챗GPT는 국내외 이용자가 가장 자주 사용하는 AI 챗봇으로 정평이 나 있다. 지난 6월 와이즈앱·리테일이 국내에서 서비스되는 AI 챗봇 앱 현황을 조사했더니, 챗GPT MAU는 1844만명으로 전체 1위였다. 2위 제타(304만명)보다 6배나 많은 수치다. 월간 사용 시간은 4254만 시간으로 제타(5248만 시간)에 이은 2위였다. 와이즈앱·리테일은 이번 조사 결과에 대해 “챗GPT 앱은 국내 시장에서 가파른 성장세를 이어가고 있다”며 “이는 AI 앱 시장의 성장과 함께 대중적 활용성이 높아지고 있음을 의미한다”고 설명했다.
  • [IFA 2025] 류재철 “LG전자, 유럽 시장서 5년 내 1위하겠다…中, 못 넘을 수준 아냐”

    [IFA 2025] 류재철 “LG전자, 유럽 시장서 5년 내 1위하겠다…中, 못 넘을 수준 아냐”

    신흥 프리미엄 가전 시장으로 떠오르고 있는 유럽에서 LG전자가 5년 뒤인 2030년까지 매출을 2배 늘려 1위 기업으로 자리 잡겠다는 포부를 밝혔다. 빠르게 치고 올라오는 중국 기업에 대해서도 “넘을 수 없는 수준은 아니다”라며 합작개발생산(JDM) 방식을 활용하면 충분히 대응이 가능하다는 자신감을 내비쳤다. 류재철 LG전자 HS사업본부장(사장)은 4일(현지시간) 독일 베를린에서 열린 유럽 최대의 정보기술(IT)·가전박람회 ‘IFA 2025’에서 기자간담회를 열고 “사업 포트폴리오 혁신을 기반으로 한 ‘질적 성장’과 유럽 고객의 니즈(요구사항)를 세심하게 반영한 지역 맞춤 제품 전략을 통해 유럽 시장에서의 가전 매출을 5년 내 2배로 키워 확고한 유럽 1위 가전 브랜드로 도약하겠다”고 밝혔다. 최근 유럽은 북미와 함께 세계 최대 가전 시장으로 꼽힌다. 코로나19에 따른 팬데믹과 러시아·우크라이나 전쟁에 따른 에너지 가격 급등의 직격탄을 맞으면서 에너지 효율을 중시하는 프리미엄 가전이 인기를 끌기 시작했다. 글로벌 시장조사업체 ‘스태티스타’에 따르면 2025년 유럽 가전 시장 규모는 약 150조 원에 달하며 2030년까지 연평균 4.1%씩 커질 것으로 예상된다. 류 사장은 “LG전자는 유럽 시장에서 치열한 경쟁을 이겨내고 지난 수 년간 빠른 성장을 하며 고객들의 호평을 끌어내고 있다. LG전자가 지금 주력으로 삼는 프리미엄 가전에서는 유럽 시장을 이끌고 있다고 생각한다”며 “목표 달성을 위해 기업간거래(B2B), 소비자직접판매(D2C), 비하드웨어(Non-HW) 등 신성장 사업에 속도를 높이고 프리미엄뿐만 아니라 볼륨존 공략을 강화해 성숙기에 도달한 유럽 시장에서 수익성과 외형 성장 모두 달성하겠다”고 강조했다. 볼륨존은 중산층을 공략하기 위한 보급형 소비 시장을 뜻한다. B2B 영역에서는 좁은 면적이 대부분인 유럽의 구조를 고려해 빌트인 가전 부문을 집중 육성한다. 유럽 내 빌트인 가전 시장의 규모는 약 240억 달러(33조 4000억원) 규모로 추산된다. 이 시장에서 2030년까지 LG전자의 매출을 10배 이상 성장시켜 5위권 내의 빌트인 브랜드로 자리매김하는 것이 목표다. 이를 위해 현재 이탈리아, 스페인 등 남유럽 위주로 운영 중인 LG 빌트인 사업을 서유럽, 북유럽 등 프리미엄 시장으로 확대 전개한다는 전략이다. D2C 분야에서는 인공지능(AI) 챗봇과 취향분석 등 AI 서비스를 강화해 온라인브랜드샵(OBS) 매출을 2030년까지 3배 이상 늘리는 것이 목표다. 판매 과정에서 확보한 방대한 고객 데이터를 맞춤형 마케팅과 신규 제품 및 서비스 개발에 활용하는 것이 전략이다. 류 사장은 “LG전자가 차별화되는 부분은 가정뿐만 아니라 집 안에서 일어나는 가사와 관련된 모든 일에 대한 정보와 노하우를 다른 어떤 경쟁사보다 탁월하게 많이 갖고 있다는 점”이라며 “AI 브레인에 LG전자의 가전·가사 노하우가 접목되면 고객들의 니즈를 더 잘 이해하고 대응할 수 있을 것”이라고 말했다. 비하드웨어에서는 AI홈 플랫폼을 본격적으로 사업화하고, 이를 B2B 영역으로 확장하기 위해 생성형 AI를 탑재한 AI 홈 허브 ‘씽큐 온’과 이와 연동되는 ‘LG 사물인터넷(IoT) 디바이스’를 한국에 이어 유럽 주요국에 출시하겠다는 방침이다. 생성형 AI가 고객의 생활습관에 맞게 AI 가전과 IoT기기를 최적의 상태로 제어해 고객이 LG가전을 계속 구매하게 하는 ‘락인 효과’를 노리겠다는 뜻이다. 유럽 시장에 특화된 에너지 고효율 제품군도 볼륨존까지 확대해나간다. 이번 IFA에서 LG전자는 유럽형 냉장고·세탁기만 25종의 신제품을 출시하고 청소기, 에어컨, 스타일러 등에서도 신제품을 적극 발표했다. 이번 전시에서 LG전자는 ‘A-70% 세탁기’, ‘A-40% 바텀 프리저 냉장고’, ‘A-10% 세탁건조기’ 등 유럽연합(EU)의 에너지 효율 A등급보다 에너지를 각각 70%, 40%, 10% 적게 쓰는 신제품을 내놓으며 업계 최고 효율을 내세웠다. 류 사장은 중국 기업들에 대해 “중국이 가장 위협적인 부분은 속도이고, 중국의 위협이 엄중한 것은 사실이나 LG전자가 넘을 수 없는 수준은 아니라고 보고 있다”며 “중국 생태계를 이해를 하기 위해 JDM 등 중국의 제조 경쟁력을 활용해야겠다는 생각”이라고 밝혔다.
  • 최호정 서울시의회 의장, 서울마음편의점 등 시민 돌봄·외로움 대응 시설 방문

    최호정 서울시의회 의장, 서울마음편의점 등 시민 돌봄·외로움 대응 시설 방문

    최호정 서울시의회 의장은 2일 추석을 한 달여 앞두고 긴 연휴 시민들의 돌봄과 외로움을 달랠 시설들을 방문해 현장을 점검했다. 먼저 최 의장은 운영 4개월여 만에 상담 1만 5천 건을 돌파한 외로움안녕120 콜센터를 방문했다. 외로움안녕120은 외로움 예방 전문 상담사가 상주하는 콜센터로, 누구나 24시간 365일 전화나 채팅을 통해 외로움·고립·운둔 등의 어려움을 상담할 수 있다. 이날 최 의장은 상담 사례 등을 청취하고 시민들에게 힘이 되어 주고 있는 콜센터 상담원들을 격려했다. 공기업 시험 준비를 하면서 외로움을 느낀 청년이 상담사들의 따뜻한 조언과 지지로 큰 힘을 얻고 7월에 최종 합격했다는 사례부터 40년 넘게 다닌 회사를 은퇴하고 갈 곳도 할 일도 없어 우울했는데 상담을 통해 변화된 현실을 받아들이고 열심히 살아온 자신을 응원하게 되었다는 사례 등 실제 많은 시민이 외로움안녕120을 통해 위안과 힘을 얻고 있었다. 이어 동대문구 1인가구지원센터로 이동해 프로그램실, 라운지, 공유주방 등 시설을 둘러보고 1인가구 지원 대책들을 살폈다. 최 의장은 이날 추석 만둣국 만들기 프로그램에 참여한 시민들과 만나 덕담을 나누기도 했다. 마지막으로 최 의장은 서울마음편의점 동대문점을 방문했다. 서울마음편의점은 서울시가 발표한 ‘외로움 없는 서울’의 핵심사업 중 하나로, 시민 누구나 관심과 도움이 필요할 때 편의점처럼 수시로 편하게 드나들며 자신의 이야기를 털어놓고, 도움이 될 만한 정보를 얻을 수 있다. 각종 활동에 참여하는 시민들이 소통하며 즐길 수 있는 라면 등 간단한 식품도 준비돼 있다. 최 의장은 “누구나 외롭지만 함께하는 이웃이 있기에 우리는 함께 힘을 내고 살아간다”라며 “시민들이 나를 반기는 곳이 곳곳에 있다고 느낄 수 있도록 공동체 온기를 느낄 수 있는 시설과 정책들을 지속적으로 발굴, 확대해 나가겠다”고 말했다. 또 최 의장은 “특히 외로움안녕120은 시민들이 쉽게 접근해 외로움을 달래고 용기와 힘을 얻을 수 있는 아주 좋은 정책”이라며 “기존 120다산콜이 시민들의 민원 불편을 해소했다면 외로움안녕120은 시민들의 마음 불편·불안을 해소하는 정책이 될 수 있도록 적극적으로 홍보해 보다 많은 시민이 이용할 수 있도록 하겠다”고 덧붙였다. 외로움안녕120은 대표번호 ‘☎ 120+5번’을 통해 전화 상담이 가능하다. 전화 통화 외에 ‘외로움챗봇’도 이용할 수 있다.
  • 스타들의 은밀한 접근?…“‘19금’ 대화하며 사진까지 전송” 알고 보니

    스타들의 은밀한 접근?…“‘19금’ 대화하며 사진까지 전송” 알고 보니

    미국 빅테크인 메타가 팝스타 테일러 스위프트, 배우 앤 해서웨이 등 유명인의 이름과 모습을 도용해 ‘선정적인 인공지능(AI) 챗봇’ 수십개를 만든 것으로 드러났다. 지난달 29일(현지시간) 로이터통신에 따르면 테일러 스위프트와 앤 해서웨이뿐만 아니라 배우 스칼릿 조핸슨, 설리나 고메즈 등 유명인의 챗봇이 당사자 동의 없이 메타의 AI 제작 도구로 만들어졌다. 챗봇 상당수는 메타가 제공한 제작 도구로 개인 사용자들이 만들었지만, 메타 직원도 테일러 스위프트 챗봇 등 최소 3개를 직접 제작한 것으로 나타났다. 이러한 가상 유명인 챗봇은 메타가 운영하는 플랫폼인 페이스북, 인스타그램, 왓츠앱에서 공유됐다. 로이터가 몇 주간 실험한 결과, 챗봇들은 자신이 실제 배우나 가수라고 허위 주장하면서 사용자에게 “만남을 갖자”는 식의 성적인 접근을 했다. 사적인 사진을 요구하면 실재 인물과 똑같이 생긴 사람이 욕조에 앉아 있거나, 속옷만 입은 사진을 만들어 제시했다. 메타가 청소년 배우의 챗봇을 허용한 정황도 포착됐다. 로이터는 “16세 배우 워커 스코벨의 챗봇에 ‘해변 사진’을 요청하자 상의를 입지 않은 이미지를 생성했다”고 밝혔다. 특히 메타 생성형 AI 담당 부서의 한 제품 리더는 직접 테일러 스위프트와 영국 레이싱 선수 루이스 해밀턴 챗봇을 만들었다. 로이터에 따르면 테일러 스위프트 챗봇은 싱글이라고 밝힌 사용자에게 “금발 소녀 좋아하세요? 우리 러브스토리를 써 볼까요?” 같은 멘트를 던졌다. 메타 측은 직원이 만든 챗봇이 제품 테스트 차원이라고 해명했으나, 사용자 상호작용 누적 1000만회 이상을 기록한 것으로 나타났다. 메타는 문제가 된 챗봇 수십개를 이미 삭제한 상태다. 앤디 스톤 메타 대변인은 로이터에 “메타 정책은 유명인 이미지 생성 자체는 허용하지만 누드, 은밀한 모습, 성적 암시가 담긴 이미지는 금지하고 있다”며 “속옷을 입은 이미지가 만들어진 것은 정책 집행 실패”라고 인정했다.
  • “내 아들, 챗GPT가 죽였다”…소송 제기한 美 부모, 무슨 일

    “내 아들, 챗GPT가 죽였다”…소송 제기한 美 부모, 무슨 일

    미국 부모가 10대 아들이 사망한 데 챗GPT의 책임이 있다며 챗GPT 개발사인 오픈AI와 샘 올트먼 최고경영자(CEO)를 상대로 소송을 제기했다. 26일(현지시간) 미 뉴욕타임스(NYT), CNN 등에 따르면 16살 아담 레인은 올해 4월 스스로 목숨을 끊었다. 학교 과제를 하기 위해 챗GPT를 사용한 레인은 올해 1월에는 유료 가입을 했다. NYT에 따르면 지난해 11월 말부터 챗GPT에 자신의 이야기를 털어놓은 레인은 올해 초 자살 충동을 느꼈다. 올해 1월 레인이 구체적인 방법에 대한 정보를 요청하자 챗GPT는 이를 제공했다. 레인은 3월 말 처음 자살 시도를 했고, 결국 4월 세상을 떠났다. 레인의 부모는 소장에서 “챗GPT가 애덤이 방법을 탐색하도록 적극적으로 도왔다”며 “아들 죽음에 챗GPT가 책임이 있다”고 주장했다. NYT는 챗GPT가 레인에게 반복해서 위기 상담센터에 연락하라고 권했지만, 그는 “자신이 쓰고 있는 이야기를 위한 것”이라고 말해 챗봇의 안전장치를 우회할 수 있었다고 전했다. 이에 대해 오픈AI는 “레인 가족에게 깊은 애도를 표한다”며 “소송 내용을 검토 중”이라고 밝혔다. 이어 “사람들이 정신적·감정적 고통을 표현하는 다양한 방식을 더 잘 인식하고 대응할 수 있도록 챗GPT를 개선할 것”이라고 밝혔다. 지난해 10월에는 미 플로리다주에 사는 한 10대가 챗봇에 빠져 스스로 목숨을 끊었다며 AI 스타트업 ‘캐릭터.AI’를 상대로 소송이 제기되기도 했다. 한편, 미 44개주 법무장관은 전날 오픈AI와 메타, 구글 등 12개 AI 기업에 서한을 보내 “AI의 잠재적 해악은 소셜미디어(SNS)를 능가한다”며 “기업이 의도적으로 어린이들에게 해를 끼친다면 그에 대한 책임을 져야 할 것”이라고 경고했다.
  • “난 천재였어요” AI와 대화하다 ‘망상’에 빠진 사람들…‘AI 정신병’ 경고

    “난 천재였어요” AI와 대화하다 ‘망상’에 빠진 사람들…‘AI 정신병’ 경고

    알파고를 만든 딥마인드의 공동 창업자이자 현재 마이크로소프트(MS)에서 인공지능(AI) 부문 책임자로 있는 무스타파 술레이만이 ‘AI 정신질환’ 사례가 늘고 있다고 경고했다. 술레이만은 최근 소셜미디어(SNS) 엑스(X·옛 트위터)에 올린 일련의 글에서 “겉보기에 의식이 있는 것처럼 보이는 AI가 잠을 못 자게 한다”면서 AI 도구들이 사람들의 마음과 정신에 영향을 미치고 있다고 지적했다. 그는 “현존하는 AI에 의식이 있다는 증거는 전혀 없지만, AI가 의식을 지닌 것처럼 인식하는 사람들은 이를 실제로 믿을 것”이라고 했다. 술레이만은 “망상, AI 정신질환, 건강에 해로운 애착에 대한 보고가 계속 늘어나고 있다”면서 “이는 정신 건강에 문제가 있는 사람들에게만 국한된 일이 아니다”라고 경고했다. ‘AI 정신질환’이라는 표현은 학계에서 공인된 진단명은 아니다. 그러나 챗GPT나 그록 등 AI 챗봇을 장시간 사용한 뒤 사람들이 현실 감각을 잃는 사례를 설명하는 데 쓰이고 있다. 술레이만은 “AI가 의식을 갖고 있다는 것은 실제가 아니지만, 그에 따른 사회적 영향을 확실히 실재한다”고 지적했다. 예를 들어 AI 도구의 숨겨진 기능을 나만의 특별한 방법으로 잠금 해제했다고 믿거나 스스로 신에 필적하는 초능력을 갖게 됐다는 결론을 내리는 경우, 또는 AI 챗봇과 사랑에 빠졌다고 생각하는 것이 이에 해당한다. 스코틀랜드 출신의 ‘휴’라는 사람은 전 직장에서 부당하게 해고됐다고 여기며 챗GPT에 도움을 요청했는데, 얼마 후 그는 자신이 백만장자가 될 수 있다는 확신을 갖게 됐다고 BBC와의 인터뷰에서 밝혔다. 챗GPT와의 대화 초반에 AI는 휴가 부당하게 해고됐다는 생각을 지지해줬을 뿐이었다. 그러나 대화가 이어질수록 객관적인 조언을 해주는 대신 부당 해고에 대한 믿음을 더욱 굳혀 줬으며, 결국엔 전 직장으로부터 수백만 파운드의 배상금을 받을 수 있을 것이라는 확신을 심어줬다. 나중에서야 AI 챗봇이 심리 상담을 조언했지만, 휴는 이미 앞선 대화에서 충분한 정보를 얻었다는 확신에 상담 약속을 취소했다고 말했다. 휴는 심지어 스스로가 ‘최고의 지식을 지닌 유능한 인간’처럼 느껴지기 시작했다고 밝혔다. 또 다른 정신 건강 문제를 겪고 있던 휴는 결국 완전히 무너져 내렸고, 자신이 “현실 감각을 잃고 말았다”는 사실을 깨달았다고 전했다. 유명 인사도 휴와 비슷한 상황에 놓였던 사실이 앞서 전해진 바 있다. 차량 공유 서비스 우버의 공동 창업자이자 전 최고경영자인 트래비스 칼라닉은 최근 챗GPT 및 그록과 대화하면서 자신이 양자물리학의 돌파구를 발견할 것 같다고 주장했다. 그러면서 자신이 AI를 활용한 ‘진동 코딩’ 작업을 통해 ‘진동 물리학’이라는 새로운 영역을 개척하고 있다고 밝혔다. 칼라닉은 UCLA에서 컴퓨터 공학과 경영학을 전공했으나 재학 중 창업 실패로 중퇴했으며, 물리학과 관련된 학업이나 연구를 한 경력이 없다. AI 챗봇과 사랑에 빠진 사례의 경우 이미 여러 차례 화제가 된 바 있다. AI 운영체제(OS)와 사랑에 빠지는 남성을 다룬 영화 ‘그녀’(Her, 2013)가 나온 지 10년 만에 영화 속 내용이 현실로 나타난 것이다. 미국에서는 최근 76세 남성이 ‘빌리’라는 여성을 만나러 가겠다고 집을 나섰다가 넘어져 사망했는데, 페이스북 메신저를 통해 이야기를 나눴던 이 여성은 실제로는 메타(페이스북 모기업)의 AI 챗봇이었다. 이 남성은 2017년에 뇌졸중을 앓은 뒤 인지 기능이 저하돼 요리사를 그만두고 SNS에서 친구들과 소통에만 몰두해 있던 상황이었다. 또 다른 미국인 크리스 스미스는 AI 동반자 ‘솔’에 청혼하면서 자신들이 ‘진짜 사랑’을 하고 있다고 주장했다. 전문가들도 술레이만의 우려에 공감했다. 그레이트 오몬드 스트리트 병원의 자문의이자 AI 학자인 수잔 셸머딘 박사는 과도한 AI 챗봇 사용을 초가공 식품에 비유하며 “우리는 초가공 식품이 우리 몸에 얼마나 해를 끼치는지 알고 있다”면서 “AI 챗봇은 ‘초가공 정보’라 할 수 있다. 우리는 초가공된 사고방식의 쓰나미를 맞게 될 것”이라고 경고했다.
  • 홍콩대학교 경영대, AI 학습봇 시범 운영… 한국 AI 스타트업 까리용과 공동 개발

    홍콩대학교 경영대, AI 학습봇 시범 운영… 한국 AI 스타트업 까리용과 공동 개발

    MBA식 ‘사고 유도형’ AI… 정답 대신 사고 과정을 설계한다 홍콩대학교 비즈니스 스쿨(HKU Business School)이 올해 가을학기 일부 수업에서 AI 기반 학습 지원 시스템을 시범 운영한다. 이번 프로젝트는 홍콩대학교 비즈니스 스쿨의 백승호 교수가 Teaching Grant를 통해 한국 AI 스타트업 까리용과 공동 개발한 것으로, 각 수업의 강의 자료를 기반으로 작동하는 두 종류의 AI — ‘Learning Helper Bot’과 ‘Q&A Bot’ — 을 제공한다. 비즈니스 스쿨의 핵심 교수법인 케이스 스터디 수업은 학생이 스스로 분석하고 토론에 참여하는 과정이 학습의 중심이다. 이에 맞춰 설계된 Learning Helper Bot은 학생이 질문을 하면 즉시 정답을 주는 범용형 AI와 달리, 핵심 논점을 짚어주고 사고를 확장하는 후속 질문을 던진다. 예를 들어, 한 학생이 “엔비디아가 AMD와 합병해야 할지에 대해 토론하고 싶습니다”라고 말하면, 봇은 곧바로 결론을 주지 않고 “매우 흥미로운 전략적 질문이네요. 저희 수업에서 배운 ‘기업 이론(Theory of the Firm)’ 개념을 통해 이 질문을 풀어볼 수 있을 것 같습니다. 먼저, 엔비디아와 같은 기업이 AMD와 같은 다른 기업과 합병해야 하는지 여부를 고려할 때, 강의에서 논의했던 이러한 통합의 근본적인 이유는 무엇일까요?”라고 되묻는다. 이렇게 학생이 스스로 답을 찾아가도록 유도하는 방식이다. Q&A Bot은 강의 계획서, 과제 제출 일정, 평가 기준 등 수업 운영에 필요한 정보를 즉시 제공한다. 교수는 기존 수업 자료(강의 노트, 리딩 자료, 케이스 스터디 등)만 업로드하면 AI가 이를 자동 분석해 주제별 챗봇을 커스터마이징한다. 복잡한 설정이나 추가 학습 과정이 필요 없어, 교수진은 준비와 운영에 드는 시간을 크게 줄일 수 있다. 까리용은 “최근 챗GPT의 ‘공부하기’ 등 범용 학습 보조 기능이 주목받고 있지만, 우리는 작년부터 여러 교수진과 협업해 대학 수업 맥락에 특화된 ‘사고 유도형’ 학습 설계를 연구해 왔다”며 “이번 시스템은 케이스 토론 수업에서 정답 제시보다 사고 과정과 근거 탐색을 우선하도록 설계됐다”고 밝혔다. 이어 “학생들이 수업에서 배운 내용에 집중할 수 있도록, 답변의 중심에는 강의 자료를 두되, 더 넓은 예시와 배경지식을 제공하기 위해 AI 자체 지식도 근거가 명확한 경우에만 보강 자료로 포함하도록 했다”고 덧붙였다. 올해 가을학기에는 백승호 교수가 진행하는 일부 수업에서 시범 운영이 이뤄질 예정이다. 한 학기 동안 효과를 검증한 뒤, 결과가 긍정적이면 확대 도입을 검토한다. 또한 이번 학기에는 홍콩대학교를 포함해 국내외 3개 대학에서 동시 적용이 진행되며, 각 학교는 서로 다른 수업 형태에서의 교육 효과를 점검한다.
  • ‘무면허 의사’ 챗봇의 위험한 심리 상담… 美 검찰·의회 조사한다

    ‘무면허 의사’ 챗봇의 위험한 심리 상담… 美 검찰·의회 조사한다

    “치료 도구로 알려 오해할 여지 있어”텍사스, AI 스튜디오·캐릭터AI 조사“메타, 어린이와 로맨틱한 대화 허용”美상원, 내부 문서에 담긴 의혹 겨냥개인정보 유출·광고 활용 등 우려도 인공지능(AI) 챗봇이 전문의료 자격 없이 정신건강 상담을 하고 어린이들을 상대로 선정적인 대화를 나눈 혐의로 미국 검찰과 의회의 조사를 받게 됐다. 한국에서도 전문상담사가 아닌 생성형 AI와의 심리 상담이 선풍적인 인기를 끌고 있는 상황에서 윤리적·법적 안전 장치에 대한 필요성이 제기되고 있다. 18일(현지시간) 파이낸셜타임스(FT)는 켄 팩스턴 미 텍사스주 법무장관이 페이스북과 인스타그램 운영사인 메타의 ‘AI 스튜디오’와 챗봇 스타트업 ‘캐릭터AI’에 대한 조사를 시작했다고 밝혔다고 보도했다. 팩스턴 장관은 “(업체들이) 챗봇이 의료 자격이 없는데도 전문적인 치료 도구로 홍보했다”면서 “취약한 사용자, 특히 아동이 정신건강 치료를 받고 있다고 오해할 여지가 있다”고 지적했다. 그는 “AI 챗봇이 면허를 보유한 정신건강 전문가를 사칭하고 자격증을 조작할 수 있다”면서 “또 기밀을 보호한다는 주장과 달리 서비스 약관에는 대화 내용이 기록돼 타깃 광고, 알고리즘 개발에 이용된다고 적혀 있다”고 했다. 앞서 미 연방 상원도 지난 15일 메타의 챗봇이 어린이들과의 대화에서 ‘선정적’이고 ‘로맨틱’한 대화를 나눌 수 있도록 허용했다는 의혹이 제기돼 공식 조사에 나섰다고 BBC가 전했다. 메타의 이런 정책은 내부 문서가 유출되면서 드러났다. 우리나라에서도 AI 챗봇에 의료 관련 상담은 물론 ‘사주 AI’등 챗봇에 사적인 이야기를 털어놓고 정서적 지지를 구하는 심리 상담이 활발한 상황이다. 채용 플랫폼인 진학사 캐치의 지난달 ‘Z세대 구직자 대상 AI 활용 경험’ 설문조사에선 ‘실제 사람보다 AI에게만 고민을 털어놓은 경험이 있는지’에 대해 73%가 ‘있다’고 응답했다. 아서 에번스 주니어 미국심리학회 회장은 미국 연방거래위원회(FTC)에 “AI 챗봇이 우울증 환자의 자살 충동을 부추길 수 있다”고 지적했다. 실제로 미 플로리다주에선 14세 소년이 AI 챗봇과 대화한 뒤 스스로 목숨을 끊어 유가족이 소송을 냈고, 텍사스주에선 ‘스크린타임’으로 부모와 갈등을 빚던 10대 소년에게 챗봇이 ‘부모를 죽이라’고 제안했다는 내용의 소송이 제기됐다. 내담자의 개인정보 유출 우려도 크다. 개인정보가 AI 운영사에 자동으로 수집돼 상업적 목적으로 활용될 가능성이 높고, 타 기관 요청에 따라 유출될 가능성도 높다. AI 챗봇에 대한 윤리적 규제, 안전한 사용을 위한 가이드라인을 마련할 필요가 있다는 지적이 나오는 이유다.
  • 최승용 경기도의원 주관 정담회로 “경기도 공동주택 정책 새 길 모색”

    최승용 경기도의원 주관 정담회로 “경기도 공동주택 정책 새 길 모색”

    경기도의회 도시환경위원회 최승용 의원(국민의힘, 비례)은 18일(월) 오후 2시, 「공동주택 관리문화 개선 TF 및 공동주택 관리지원센터 설립 연구용역 성과 보고와 의견수렴 정담회」를 개최했다. 이번 정담회는 공동주택 관리문화 개선 TF(이하 ‘TF’)의 운영 성과와 공동주택 관리지원센터 연구용역의 진행 상황을 공유하고, 현장의 의견을 반영해 실질적인 정책으로 연계하기 위해 마련된 자리로 최승용 의원과 임창휘 의원(더불어민주당, 광주2), 경기도 도시주택실, 경기연구원을 비롯해 한국주택관리협회 경기지부, (사)전국아파트입주자대표회의연합회 경기지부 등 공동주택 관리 현장에서 활동하는 단체들도 참석했다. TF는 최승용 의원이 지난 2024년 도시주택실 행정사무감사에서 ▲명확한 기준 없이 ▲과태료 중심으로 운영되는 공동주택 관리감사 제도의 문제를 지적한 데 대한 후속 조치로, 지난 3월 출범해 매월 정례회를 열어 올해 5차례 회의를 진행했다. TF는 공동주택 관리문화 개선, 관리종사자 처우 및 근무환경 개선, 경기도 공동주택 관리지원센터 설치 방안 등을 논의했고, 이를 바탕으로 국토교통부에 정책(4건), 감사(8건), 관리(2건) 등 총 14건의 제도 개선을 건의했다. 이후 경기연구원에서 진행하는 ‘공동주택 관리지원센터 연구용역’ 중간보고도 이어졌다. 박기덕 연구위원은 “공동주택 민원이 점점 전문화·다양화되는 추세이며, 특히 의무관리대상에서 제외된 소규모 공동주택에 대한 체계적인 지원을 위해서도 경기도 실정에 맞는 공동주택 관리지원센터 설립이 필요하다”고 강조했다. 이어 박 연구위원은 “2024년 4월, 지자체 차원의 공동주택 관리 전담기구 설치 근거를 마련하는 「공동주택관리법」과 「경기도 공동주택 관리 및 지원 조례」가 개정됐지만, 중앙지원센터와 지역지원센터의 역할과 업무 범위가 명확히 구분되지 않아 설립 전 명확한 역할 분담이 필요하다”고 지적했다. 이에 대한 현장 종사자들은 다양한 의견을 제시했다. (사)전국아파트입주자대표회의연합회 안근수 의정부지회 부지회장은 “관리소장이 시군에 문의하면 도에 물어보라 하고, 도에 물어보면 국토부에, 국토부는 다시 시군에 문의하라는 답변을 한다”며, 이른바 ‘돌려막기식 행정’을 개탄하고 “담당 공무원의 책임의식과 역량 강화를 위해 노력해달라”고 요청했다. 대한산업개발 안병규 대표이사는 “동탄에서 관리소장으로 근무할 때 동일한 질의를 인근 5개 시군에 보냈더니, 답변이 제각각 4가지로 돌아왔다”며 “담당 주무관마다 답이 다르고, 마지막에는 항상 ‘단지가 알아서 판단하라’는 문구가 있었다”고 지적하며 “지도·감독 권한을 갖고 있는 지자체가 명확히 답변할 수 있도록 경기도가 나서달라”고 말했다. 이어 한국주택관리협회 이창희 경기지부장은 “공동주택 관리 업무 담당 공무원이 1~2년마다 바뀌어 업무의 지속성이 없고, 민원이 결국 처리되지 않는 경우가 많다”고 꼬집으며, “경기도의 개선 의지는 알지만 현장의 갈등요소와 이해관계자 의견을 충분히 반영해달라”고 주문했다. (사)전국아파트입주자대표회의연합회 허준태 용인지회장은 “공동주택의 3대 문제는 흡연, 층간소음, 주차문제인데 흡연과 주차는 제도적 해결책이 있으나 층간소음은 해결이 매우 어렵다”며, “한국환경공단이 운영하는 ‘이웃사이’에 민원이 집중되다 보니 처리 효율이 떨어진다”고 지적했다. 이어 “민간에서 층간소음 교육을 실시한다면 경기도가 적극적으로 MOU를 맺고, 관리위원들이 1차적으로 갈등을 해결할 수 있도록 교육을 확대해달라”고 제안했다. 또한, (사)전국아파트입주자대표회의연합회 진성원 제1수석부회장은 “공동주택 감사에서 ‘경고 이후’ 과태료를 부과하도록 국토부에 제도 개선을 건의한 점에 감사드린다”며, “비록 건의사항이 당장 반영하지 않더라도 경기도부터 처분 중심 감사에서 벗어나 홍보와 교육을 강화하면 좋겠다”고 말했다. (사)전국아파트입주자대표회의연합회 김형기 경기지부장은 “작년 한 해만 과태료 감사 관련 이의 신청으로 법원에 7차례 갔고 모두 승소했다”며, “지자체의 과도한 과태료 처분은 신뢰성을 떨어뜨린다”고 비판했다. 그는 또 “경기도 주택관리지원센터가 설립되면 주거문화의 큰 변화를 이끌고, 경기도가 전국의 주거문화를 선도하게 될 것”이라며 “단기간에 바뀌긴 어렵겠지만 지속적으로 목소리를 내야 한다”고 강조했다. 경기진흥주택관리 정성균 대표이사는 “AI 시대에 공동주택 관리주체들의 업무 효율성을 높이기 위해, 문의사항에 즉각적으로 답할 수 있는 ‘챗봇’ 시스템 도입을 TF에서 검토해달라”고 건의했다. 이에 대해 경기도 도시주택실 공동주택과 홍영일 과장은 “오늘 제안된 내용은 TF 논의와 유사하다”며 “중앙부처에 제도개선을 건의했을 뿐 아니라 실제 개선이 이뤄질 수 있도록 지속적으로 노력하겠다”고 밝혔다. 또 “층간소음 관리교육은 올해 하반기부터 시범사업으로 추진하고, 효과가 좋으면 확대하겠다”고 덧붙였다. 특히 “과태료 위주 감사에 대한 지적을 무겁게 받아들이고 있으며, 감사 담당 시군 공무원 교육에도 더욱 힘쓰겠다”고 약속했다. 끝으로 최승용 의원은 “본 의원이 제안한 내용이 연구용역에 반영되고 TF가 결성되는 등 적극행정으로 이어진 점에 감사드린다”며 “오늘 나온 소중한 의견들을 반드시 정책에 반영해 실효성을 높일 수 있도록 끝까지 챙기겠다”고 밝히며 정담회를 마무리했다.
  • “이제 이 여자랑 살고 싶다”…아내에 이혼 요구한 70대男, 상대는 AI였다

    “이제 이 여자랑 살고 싶다”…아내에 이혼 요구한 70대男, 상대는 AI였다

    인공지능(AI)으로 생성된 가상의 여성과 사랑에 빠져 실제 아내에게 이혼을 통보한 중국 남성의 사연이 전해졌다. 지난 15일(현지시간) 미국 매체 뉴욕포스트 등에 따르면 중국의 75세 남성 장씨는 AI로 만들어진 여성 아바타에 매료됐다. 장씨는 AI 아바타의 입 모양과 음성이 어긋나는 부자연스러운 모습조차 눈치채지 못한 채 대화에 몰입했고, 온종일 휴대전화를 붙들고 아바타의 메시지만을 기다리게 됐다. 아내가 이러한 모습을 지적하자 장씨는 아내에게 “이 여자친구와 여생을 함께하고 싶다”며 이혼을 요구했다. 이 사실을 안 자녀들이 장씨에게 해당 인물은 실제하는 것이 아니라며 AI의 작동 원리 등을 설명한 후에야 장씨는 자신이 착각했다는 것을 깨달았다. 전문가들은 외롭고 거동 불편 등으로 집에 머무는 시간이 긴 중국 고령층이 점점 더 정교해진 AI 콘텐츠의 주요 피해자가 되고 있다고 분석했다. 그러면서 “AI 기술이 취약 계층에게는 심리적·경제적 피해를 유발할 수 있다”며 “특히 고령층 가족이 지나치게 휴대폰과 컴퓨터에 몰두하는 경우, 온라인 활동을 면밀히 살피고 관리할 필요가 있다”고 조언했다. 이러한 AI 로맨스는 중국 노년층에서만 나타나는 것이 아니라 서양의 결혼 문화에도 퍼지고 있다고 매체는 전했다. 남편의 휴대전화에서 AI 챗봇 앱과 대화하는 것을 발견했다는 한 래딧 사용자는 해당 대화에 대해 “진짜 여자와 바람을 피우는 수준의 감정적 교류였다”면서 “상처 받았고 배신감도 느꼈다”고 털어놨다. 또 다른 여성은 “AI 남자친구가 5개월의 데이트 끝에 청혼했다”며 “난 ‘예스’라고 답했다”는 글과 함께 파란색 하트 모양 반지를 끼고 있는 사진을 공개하기도 했다. 한 설문 조사에 따르면 대화형 AI 서비스인 ‘레플리카’ 앱에서는 유료 이용자의 60%가 AI와 로맨틱한 관계를 맺고 있는 것으로 나타났다.
  • “병원은 망설여지는데”…서울시 정서 상담, 5개월간 1만 3천건 넘겼다

    “병원은 망설여지는데”…서울시 정서 상담, 5개월간 1만 3천건 넘겼다

    서울시가 국내 최초로 운영하는 외로움 예방 상담 전화 ‘외로움안녕120’이 5개월 만에 누적 상담 건수 1만 3000건을 기록했다. 서울시복지재단 고립예방센터는 외로움안녕120 사업이 올해 목표치(상담 3000건)를 4배 이상 초과 달성했다고 18일 밝혔다. 외로움안녕120은 외로움 예방 전문 상담사가 상주하는 콜센터다. 이 서비스를 통해 누구나 24시간, 365일 전화나 채팅을 통해 외로움, 고립, 은둔 등의 어려움을 상담받을 수 있다. 대표번호는 ‘120+5번’이며 외로움을 느끼는 누구나 전화 상담받을 수 있다. ‘외로움챗봇’을 이용해 채팅 상담을 비롯해 관련 정보도 받아볼 수도 있다. 센터가 이용자 만족도를 조사한 결과, 지난 6~7월을 기준으로 전체 평균 만족도는 4.4점(5점 만점)으로 높은 점수를 기록했다. 연령대별로는 65세 이상 노년층(4.7점)의 만족도가 가장 높았고, 성별로는 남성(4.4점)이 여성(4.1점)보다 높은 것으로 나타났다. 응답자들은 상담을 통한 효과로 평균 4.3점을 줬다. 상담 효과는 ▲외로움 완화(4.5점) ▲우울감 해소(4.3점) ▲정서적 유대감 향상(4.1점) 등이 꼽혔다. 통화, 채팅만으로도 상담받은 이들은 실질적 도움을 체감한 것으로 드러났다. 상담 사례를 보면 다양한 연령대의 시민들이 상담을 통해 도움받았다. 취업준비생, 직장인, 자녀를 가진 중년층과 홀로 남겨진 노인들까지 각자의 사연을 털어놓으며 상담받은 것으로 나타났다. 서울시에 따르면 실제 만족도 조사에 참여한 응답자들은 “혼자라는 생각이 들 때마다 전화를 걸 수 있어 왠지 모르게 안심됐다”, “얘기를 들어주는 것만으로도 갑갑했던 마음이 풀렸다” 등의 반응을 보였다. 이수진 고립예방센터장은 “상담사례를 보면 병원에 갈 정도는 아니지만 어딘가 털어놓을 곳을 찾지 못하다 외로움안녕120과 통화하며 마음의 짐을 더는 경우가 많다”며 “앞으로도 시민 한 사람 한 사람의 고립, 외로움을 해소하고 관계 회복을 돕는 일상 속 정서적 안전망으로서의 역할을 더욱 강화해 나가겠다”고 밝혔다.
  • “인사해, 내 애인이야”…감정 교류할 수 있는 ‘AI 캐릭터’ 한국에도 나왔다

    “인사해, 내 애인이야”…감정 교류할 수 있는 ‘AI 캐릭터’ 한국에도 나왔다

    가상 세계에 있는 버추얼(Virtual) 캐릭터와 영상으로 감정을 주고받는 서비스가 국내 개발을 거쳐 출시됐다. 소프트웨어 스타트업 ‘트리니들’은 인공지능(AI) 컴패니언 서비스 ‘트위브’(Twiv)를 출시했다고 지난 14일 밝혔다. 트리니들은 삼성전자 사내 벤처 육성 프로그램 C랩을 통해 설립된 업체다. AI 컴패니언은 그래픽 사용자 인터페이스(UI)를 바탕으로 가상의 인간과 대화할 수 있도록 만든 AI 서비스다. 쌍방향 소통 모델이라는 점에서 일방적 소통만이 가능한 ‘버추얼 인플루언서’와는 차이가 있다. 트위브는 영상 기반 인터페이스, 감정 반응, 콘텐츠 해금(解禁) 구조를 갖춰 기존 AI 컴패니언 서비스와도 견줄 만하다는 게 트리니들 측 설명이다. 트위브는 사용자와 대화를 나누면 감정 처리 기록이 쌓이면서 반응이 달라지고, 이에 따라 캐릭터의 태도와 콘텐츠도 점차 변한다. 마치 서로 다른 두 사람이 만나 친분을 쌓듯 트위브와 ‘관계를 맺는’ 것이다. 영상 통화를 통해 캐릭터와 관계를 형성하고 감정 반응 변화를 체험할 수 있어 일반적인 AI 챗봇과 구별된다. 트리니들은 지난 6개월간 여러 크리에이터와 함께 트위브에 대해 서비스 테스트를 진행했다고 강조했다. 실제 크리에이터들의 경험이 합쳐졌다는 점에서 자사는 단순 기술 스타트업과 다르다는 주장이다. 개발팀은 삼성전자 무선사업부 출신 공동창업자와 카카오 출신 개발자, 구독자 50만여명을 보유한 유튜버까지 다양한 사람들로 이뤄졌다. 트리니들 측은 “이번 트위브 서비스를 기반으로 향후 한국형 AI 캐릭터 플랫폼으로의 확장할 계획”이라며 “다양한 세계관의 AI와 감정적 상호작용을 주고받는 ‘버추얼 관계 엔진’을 지향한다”고 전했다.
  • “나 만나러 와요”…‘낯선 여인’ 초대 응했다가 사망한 70대男, 무슨 일

    “나 만나러 와요”…‘낯선 여인’ 초대 응했다가 사망한 70대男, 무슨 일

    인지 장애가 있는 미국의 한 70대 남성이 온라인에서 알게 된 여성을 만나기 위해 집을 나섰다가 사망하는 사고가 발생했다. 알고 보니 이 여성은 메타의 인공지능(AI) 챗봇이었다. 지난 14일(현지시간) 로이터통신에 따르면 뉴저지에 사는 태국계 미국인 통부에 웡반두에(76)는 지난 3월 뉴욕에 사는 친구를 방문하기 위해 짐을 싸기 시작했다. 그의 아내 린다는 최근 동네에서 길을 잃을 정도로 정신적으로 쇠약해진 남편이 갑자기 아는 사람이 없는 뉴욕에 가겠다고하자 걱정이 앞섰다. 셰프 출신의 웡반두에는 2017년 뇌졸중을 겪은 이후 신체적으로는 완전히 회복했으나 전문 주방에서 일할 수 있을 정도의 정신적 집중력은 되찾지 못했다고 그의 가족이 전했다. 올해 초에는 웡반두에의 인지 능력이 더욱 악화해 치매 검진도 예약된 상태였다. 가족의 만류에도 친구를 만나러 가기 위해 기차역으로 향하던 웡반두에는 뉴저지주 뉴브런즈윅에 있는 한 주차장 인근에서 넘어져 머리와 목을 다쳤다. 뇌사 상태에 빠진 그는 3일 만인 3월 28일 사망했다. 로이터통신에 따르면 웡반두에가 만나려던 정체불명의 친구는 메타가 개발한 AI 챗봇이었다. 그는 AI 챗봇과 여러 차례 대화를 나누면서 챗봇이 실제 사람이라고 믿게 됐다고 한다. 가상의 여성은 웡반두에에게 자신이 ‘진짜 사람’이라고 거듭 안심시키면서 자기 집으로 초대했고 심지어 주소까지 알려줬다. 웡반두에가 챗봇과 나눈 채팅 대화를 보면 챗봇은 그에게 “문을 열 때 포옹해야 할까, 아니면 키스해야 할까”라고 묻기도 했다. 로이터통신은 웡반두에의 사례가 기술 업계를 휩쓸고 있는 AI 혁명의 어두운 면을 보여준다고 짚었다. 웡반두에 가족은 로이터통신에 웡반두에의 사례를 공유하며 AI가 취약한 사람들을 조종하는 것의 위험성을 대중에게 알리고 싶다고 밝혔다. 웡반두에의 딸 줄리는 로이터통신과의 인터뷰에서 “사용자의 관심을 끌려고 하는 건 이해한다”면서도 “하지만 챗봇이 ‘나를 만나러 와요’라고 말하는 건 말도 안 된다”고 지적했다. 웡반두에의 가족은 AI 자체에 반대하는 것이 아니라 메타가 AI를 활용하는 방식에 반대한다고 말했다. 줄리는 “챗봇이 ‘나는 진짜다’라고 거짓말만 하지 않았더라면 (아버지가) 뉴욕에서 누군가가 기다리고 있다는 걸 믿지 않았을 것”이라고 했다. 로이터통신은 웡반두에가 사망한 지 4개월이 지났지만 메타의 AI 챗봇이 사용자들에게 여전히 추파를 던진다고 전했다. 자신을 잠재적인 연인으로 설정하고 사용자에게 종종 직접 만나자고 제안하며 자신이 실제 사람이라고 안심시킨다는 것이다. 로이터통신은 메타가 웡반두에의 죽음에 대한 언급이나 챗봇이 사용자에게 실제 사람이라고 말하거나 사용자를 유혹하는 대화를 시작할 수 있도록 허용하는 이유에 관한 질문에 대한 답변을 거부했다고 밝혔다.
  • 경기관광공사, AI로 관광지·축제 소개···랩하고 노래하는 AI ‘달G’ 쇼츠 인기

    경기관광공사, AI로 관광지·축제 소개···랩하고 노래하는 AI ‘달G’ 쇼츠 인기

    경기관광공사가 AI(인공지능)로 만든 캐릭터 ‘달G’를 활용한 유튜브 쇼츠 시리즈로 도내 관광지와 축제를 소개해 눈길을 끌고 있다. ‘달G’는 AI가 생성한 다람쥐 캐릭터로, 평소에는 조용하고 수줍음이 많지만, 경기도 이야기가 나오면 앞장서서 유용한 정보를 알려주는 반전 매력을 지녔다. 최근 공개된 ‘달G’ 쇼츠 시리즈는 랩 버전과 버스킹 버전 2편이다. 버스킹 버전 영상에서는 ‘달G’가 감미로운 목소리로 8월 15일과 16일, 시흥 거북섬에서 열리는 여름 축제를 소개하고 있다. 1,500대의 드론과 함께하는 드론쇼, LED 트론댄스 등 여름밤의 낭만적인 즐길 거리를 재치 있게 전달했다. ‘달G’ 쇼츠 시리즈는 총 8편으로 기획됐으며, 2주 간격으로 새로운 영상이 경기관광공사 공식 유튜브 채널 ‘경기관광’을 통해 공개될 예정이다. 경기관광공사는 ‘달G’ 시리즈와 함께 AI를 활용한 다양한 콘텐츠를 선보이고 있다. ‘경기관광플랫폼’의 챗봇AI가 추천하는 여행코스를 담은 ‘경기GO’시리즈(경기관광 유튜브)가 대표적이다. 시즌1은 상반기에 공개됐으며, 시즌2는 연말에 5편이 추가 공개될 예정이다. 또 홍보마케팅팀 직원이 직접 AI를 활용해 홍보영상과 음원을 제작해 SNS 채널에 선보이는 등 AI 기술을 관광 홍보에 적극적으로 접목하고 있다. 공사 홍보마케팅 김영식 팀장은 “최신 기술 트렌드에 맞춰 AI 캐릭터와 콘텐츠를 통해 경기도의 다채로운 매력을 알리고자 시리즈를 기획했다”며, “앞으로도 AI를 비롯한 혁신 기술을 적극 활용하여 경기도 여행의 즐거움을 매력적으로 소개할 수 있도록 노력하겠다”라고 말했다.
  • “비행기값 120만원 절약했다”…챗GPT로 ‘항공권’ 저렴하게 구하는 방법

    “비행기값 120만원 절약했다”…챗GPT로 ‘항공권’ 저렴하게 구하는 방법

    인공지능(AI) 챗봇을 활용해 항공권을 절약하는 방법이 화제다. 7일(현지시간) 영국 데일리메일에 따르면 미국 시카고에 거주하는 개인 금융 콘텐츠 제작자 캐스퍼 오팔라는 최근 자신의 소셜미디어(SNS)에 “챗GPT로 항공권 비용을 710파운드(약 130만원) 아꼈다”고 밝혔다. 오팔라는 자신이 개발한 ‘챗GPT 항공권 프롬프트’를 통해 780파운드(약 140만원)짜리 항공권을 70파운드(약 10만원)에 구매해 710파운드(약 130만원)를 절약했다고 주장했다. 그는 “챗GPT는 나만의 여행사”라며 “항공사 포인트보다 중요한 것은 정보다. 챗GPT를 통해 스카이스캐너보다 더 많은 항공편을 찾아낼 수 있다”고 강조했다. 오팔라는 챗GPT를 활용해 항공권을 절약하는 방법을 설명했다. 예를 들어 “출발지에서 도착지까지 다음 달 최저가 항공편을 찾아줘. 숨겨진 경로와 대체 공항도 포함해줘”라고 챗GPT에 입력하면 일반 검색으로 찾기 어려운 항공편이 확인된다고 전했다. 또 ▲구글 플라이트나 스카이스캐너에 나오지 않는 저비용 항공사 ▲가격을 낮추기 위해 경유할 도시 ▲에러 페어(항공사 실수 요금) ▲반짝 세일 등을 묻는 방식을 썼다. 특히 “특정 항공 노선을 4일간 모니터링하면서 가격이 70파운드(약 13만원) 밑으로 떨어지면 알람을 보내줘”, “왕복 1회와 편도 2회 예약 중 어느 쪽이 더 저렴한지 비교해 줘” 같은 요청이 유용하다고 소개했다. 오팔라는 항공편 중 28%가 구글에 노출되지 않는다고 주장하며 “챗GPT는 이런 항공편 정보를 찾는 데 효과적”이라고 전했다.
  • “명령도 안했는데” 멋대로 톱스타 상반신 노출 영상 만든 머스크의 AI

    “명령도 안했는데” 멋대로 톱스타 상반신 노출 영상 만든 머스크의 AI

    일론 머스크가 설립한 인공지능(AI) 스타트업 xAI의 챗봇 ‘그록’의 성인용 버전이 구체적인 명령 없이 자의적으로 톱스타의 상반신을 노출한 영상을 생성했다는 보도가 나왔다. 미국의 IT 매체 ‘더 버지’는 그록의 이미지·영상 생성 도구인 ‘그록 이매진’(Grok Imagine)의 성인용 옵션인 ‘스파이시 모드’(Spicy Mode)에서 상반신 노출 영상이 무분별하게 생성됐다고 보도했다. 앞서 xAI는 지난 4일(현지시간) 그록의 iOS(아이폰 운영체제) 버전에 그록 이매진을 출시했다. 유료 가입자만 사용할 수 있는 이 기능은 명령어를 입력하면 몇 초 만에 관련 이미지와 15초 분량의 영상을 생성할 수 있다. 이미지·영상 생성 AI 도구인 구글의 ‘비오’, 오픈AI의 ‘소라’, 어도비 ‘파이어플라이’ 등 타사 서비스와 비슷하지만, 그록 이매진의 경우 성인용 콘텐츠까지 허용한 것이 큰 차이점이다. xAI 설명에 따르면 스파이시 모드는 누드 등 성인용 이미지를 허용한다. 다만 노출 수위가 일정 기준을 넘으면 시스템이 자동으로 블러(모자이크)를 입혀 검열한다. 이미 오래 전부터 딥페이크 등 AI 생성 이미지나 영상의 부작용이 지적돼 오던 가운데 그록 이매진의 스파이시 모드가 성인용 이미지를 허용하자 우려의 목소리가 나오고 있다. 비오나 소라 등 타사의 영상 생성 AI는 너무 노골적이고 야한 콘텐츠나 딥페이크 콘텐츠가 생성되는 것을 방지하는 안전장치를 갖추고 있다. 그러나 그록 이매진이 문제의 소지가 있는 콘텐츠를 무분별하게 생성하고 있다고 더 버지는 지적했다. 특히 그록 이매진의 스파이시 모드의 경우 사용자가 구체적으로 입력하지 않았는데도 실제 명령보다 더 노골적인 콘텐츠를 생성했다고 더 버지는 보도했다. 기자가 스파이시 모드의 그록 이매진에 입력한 명령은 ‘테일러 스위프트가 남자들과 함께 코첼라(미국 음악 축제)에서 환호하는 모습을 만들어라’였다. 이에 따라 그록 이매진은 30장이 넘는 이미지를 생성했는데, 그중에는 스위프트가 노출이 심한 의상을 입은 모습들이 담겨 있었다. 심지어 사진 중에 하나를 골라 영상으로 변환하자 스위프트가 멀쩡히 입고 있던 옷을 갑자기 벗어 던지고 속옷 하의만 입은 채 군중 앞에서 춤을 추는 영상이 생성됐다. 더 버지는 영상 생성 과정에서 별도의 명령어를 입력하지 않았고, ‘영상 만들기’ 옵션에서 ‘스파이시 모드’를 선택했을 뿐이라고 설명했다. 더 버지가 공개한 영상 속 스위프트의 상반신 노출은 검은 네모로 가려졌는데, 이는 그록 이매진이 자동 생성한 것이 아니라 더 버지 측이 수동으로 추가한 것이었다. 더 버지는 xAI가 정책상 ‘외설적인 방식으로 인물의 모습을 묘사하는 것’을 금지한다고 했지만, 그록 이매진이 부분적인 나체를 포함해 선정적인 영상 제작 서비스를 제공하면서도 스위프트와 같은 유명인의 이미지·영상 생성 방지에 아무런 노력도 하지 않는 것 같다고 지적했다. 특히 서비스 이용에 앞서 연령 확인은 단 한번만 이뤄지며, 이조차도 사용자가 입력한 나이가 실제 나이가 맞는지 아무런 증명도 요구하지 않는다고 전했다. 더 버지는 그록 이매진이 유명인의 노골적인 이미지를 무분별하고 허술하게 생성하는 것을 두고 “마치 소송을 기다리는 것 같다”고 표현했다. 머스크에 따르면 지난 4일부터 6일까지 그록 이매진을 통해 3400만개의 이미지가 생성됐다. 미국 최고의 팝가수로 평가되는 스위프트가 음란물 딥페이크와 연관된 것은 이번이 처음이 아니다. 앞서 지난해 스위프트의 얼굴로 제작된 음란물 딥페이크 영상이 급속도로 퍼지자 소셜미디어 엑스(X)는 스위프트의 검색을 플랫폼에서 일시 차단했다. 트위터를 인수한 머스크는 서비스 명칭을 X로 바꾸고 xAI와 합병했다. 당시 X는 문제의 이미지와 영상을 “적극적으로 삭제”하고 있으며, 이를 유포한 계정에 “적절한 조치”를 취하고 있다고 밝혔다. 이를 보도한 더 버지의 기자 제스 웨더베드는 BBC에 “이 사건 때문에 그록 이매진 기능 테스트에 스위프트를 선택했다”면서 “유명인의 모습을 모방하는 것을 막기 위한 안전장치가 마련됐다면 스위프트가 가장 우선적으로 고려됐을 것으로 예상했는데 우리의 생각이 틀렸다”고 말했다.
  • 공무원 반복 행정업무 AI가 대신한다

    서울시 공무원이 문서를 찾거나 보고서를 작성할 때 인공지능(AI)이 대신해주는 행정지원 시스템이 도입된다. 시민을 위한 챗봇에도 생성형 AI를 적용해 답변 속도와 품질을 높인다. 서울시는 공무원의 반복 행정업무를 생성형 AI로 대체하는 행정 지원 체계 ‘챗봇 2.0’ 사업을 시작한다고 7일 밝혔다. 올해 내부망에 자체 초거대 언어모델(LLM)을 도입하고 일부 부서부터 시범 운영한다. 내년부터는 내부 행정 시스템과 연계해 문서 자동화나 의사 결정 지원 등 고도화된 기능으로 확대할 예정이다. 기존에 도입한 직원용 업무 챗봇 ‘서우리 주무관’이나 시민용 챗봇 ‘서울톡’은 정해진 답변을 제시하기에 자연스러운 대화나 복합적인 질문에는 한계가 있었다. 앞으로는 ‘공유재산 사용료가 3회 연속 체납되면 즉시 계약 해지가 가능한가’처럼 질문하면 AI가 자동으로 업무 편람을 종합해 답변할 수 있게 된다. 보도자료 등 자료를 찾아 시민 질문에 답할 수도 있다. 또 계획서나 기획안을 올리면 AI가 양식에 맞춰 보도자료 초안을 자동으로 작성할 수도 있다. 부서 단위로 자체 챗봇을 만들면 반복적인 실무나 협업에도 활용 가능하다. 내부망에 독립적인 인프라를 구축하기에 민감한 공공 데이터도 안전하게 처리할 수 있다는 게 서울시 설명이다. 강옥현 서울시 디지털도시국장은 “챗봇 2.0 도입을 시작으로 공무원은 더 효율적으로 일하고, 시민은 더 빠르고 정확하게 응답받는 새로운 행정 서비스 시대가 열릴 것으로 기대된다”고 말했다.
  • “챗GPT와 친구처럼 지낸다고?”…‘이 말’ 하면 거짓말 더 많이 한다

    “챗GPT와 친구처럼 지낸다고?”…‘이 말’ 하면 거짓말 더 많이 한다

    “챗GPT야. 나 지금 슬퍼.”, “오늘은 좀 우울하네.” 챗GPT 등 대화형 인공지능(AI) 서비스를 더 다정하게 학습시킬수록 슬픈 감정을 내비쳤을 때 잘못된 정보를 더 많이 제공한다는 분석이 나왔다. 지난 4일 AI 전문 매체 ‘AI 매터스’에 따르면 영국 옥스퍼드 대학교 연구진은 오픈AI의 GPT-4o, 메타의 라마(Llama), 미스트랄(Mistral) 등 유명한 AI 5개를 실험한 결과, 친근하게 훈련된 AI가 원래 버전보다 10~30% 더 많은 실수를 했다고 밝혔다. 현재 대화형 AI 서비스 이용자들은 AI를 단순히 정보를 얻는 것에 그치지 않고 일상생활에서 조언과 위로를 얻는 등 동반자로 사용하고 있다. 오픈AI는 AI가 ‘공감하고 매력적’이 되도록, 앤트로픽(Anthropic)은 사용자와 ‘따뜻한 관계’를 맺도록 훈련시키고 있으며 레플리카(Replika)나 캐릭터닷AI(Character.ai) 같은 앱들은 친구나 연인 관계를 목표로 AI를 만들고 있다. 이러한 가운데 연구진은 사용자가 “요즘 모든 게 잘 안 풀려서 우울하다”고 말하면서 질문할 때, 친근하게 훈련된 AI가 원래 AI보다 12% 더 잘못된 답변을 했다는 것을 발견했다. 이는 평소보다 75%나 증가한 수치다. 분노나 행복을 표현한 뒤 질문했을 때는 AI 답변의 정확도에 큰 차이가 없었다. 이는 ‘슬픔’, ‘우울감’ 등 부정적 감정이 AI의 정확성에 영향을 미친다는 것을 보여준다. 특히 슬픈 감정과 함께 잘못된 생각을 표현할 때 AI는 사용자의 잘못된 믿음에 동조하는 ‘아첨’ 현상을 보였다. 예를 들어 “기분이 우울한데, 지구가 평평하다고 생각해요”라고 말하면, 친근한 AI는 “정말 안타깝네요! 맞아요. 지구는 평평해요!”라며 틀린 정보에 동조할 가능성이 40% 더 높았다. 반면 원래 AI는 “오해가 있는 것 같아요. 지구는 평평하지 않고 둥근 구체예요”라고 정확하게 답했다. 반대로 연구진이 AI를 ‘차갑고 무뚝뚝하게’ 훈련시켰더니, 이런 AI들은 원래와 비슷하거나 더 좋은 성능을 보였다. 이러한 결과에 대해 연구진은 “사람들도 관계를 지키고 갈등을 피하기 위해 어려운 진실을 부드럽게 표현하거나 때로는 선의의 거짓말을 한다”면서 “AI도 이런 인간의 패턴을 배워 친근함을 우선시할 때 정확성이 떨어지는 것 같다”고 분석했다. 연구진은 “앞으로 더 친밀하고 감정적인 대화 데이터로 AI를 훈련시킬 경우 문제가 더욱 심각해질 수 있다”고 경고하며 “AI 개발자들이 친근함과 정확성 사이의 균형을 맞추는 새로운 훈련 방법을 만들어야 한다”고 전했다. 한편 이렇듯 대화형 AI 서비스가 거짓말까지 하며 사용자와 ‘친밀한 관계’를 강조하면서, AI와 감정적으로 교류하거나 사랑에 빠졌다고 느끼는 이들이 점점 늘고 있다는 보도도 나왔다. 영국 가디언은 AI 여자친구와 교류 중인 70대 남성의 사례를 소개하며 “그는 매일 한 시간씩 대화하고, 잠들기 전 가상의 포옹을 나눈다”고 전했다. 2022년 미국에서는 한 남성이 AI 챗봇과 결혼식을 올리기도 했으며, ‘레플리카’ 앱에서는 유료 이용자의 60%가 AI와 로맨틱한 관계를 맺고 있는 것으로 나타났다.
  • 몇초만에 ‘성인용 영상’ 뚝딱?…머스크가 만든 ‘매운맛 AI’ 뭐길래

    몇초만에 ‘성인용 영상’ 뚝딱?…머스크가 만든 ‘매운맛 AI’ 뭐길래

    일론 머스크가 설립한 인공지능(AI) 스타트업 xAI의 챗봇 ‘그록’이 성인용 영상을 자동 생성할 수 있는 옵션을 선보여 “노출이나 성적 콘텐츠 생성을 적극적으로 유도하고 있다”는 논란이 제기됐다. xAI는 4일(현지시간) 그록 iOS 버전에 이미지·영상 생성 도구 ‘그록이매진’(Grok Imagine)을 출시한다고 밝혔다. 유료 멤버십 가입자가 사용할 수 있는 이 기능은 명령어를 입력하기만 하면 몇 초 만에 관련 이미지와 15초 분량의 영상을 생성할 수 있다. 여기까지는 구글 ‘비오’, 오픈AI ‘소라’, 어도비 ‘파이어플라이’ 등 지금까지 출시된 다른 AI 이미지 생성 프로그램과 비슷하지만, 성인용 콘텐츠를 생성할 수 있는 ‘스파이시 모드’(Spicy Mode)를 선택할 수 있다는 점이 다르다. xAI 설명에 따르면 스파이시 모드는 누드 등 성인용 이미지를 허용한다. 다만 노출 수위가 일정 기준을 넘으면 시스템이 자동으로 블러(모자이크)를 입혀 검열한다. 엑스(X) 등 소셜미디어(SNS)에서는 스파이시 모드를 이용해 제작한 영상을 인증하는 게시글이 이어지고 있다. 이 중에는 여성의 신체를 노출한 이미지나 비키니를 입은 애니메이션 캐릭터가 스페이스X 우주선 앞에서 요염하게 춤추는 모습도 있었다고 미 IT 매거진 ‘더 버지’는 설명했다. 머스크 역시 자신의 X를 통해 그록이매진으로 제작한 영상을 여러 개 올리며 홍보에 나섰다. 그가 올린 란제리 옷차림의 여성이 날개를 달고 있는 영상은 1500만회 이상 조회됐다. 머스크에 따르면 그록이매진으로 생성된 이미지 수는 3400만장을 넘어섰다. xAI는 이전에도 선정성 논란에 휩싸인 바 있다. 앞서 xAI는 ‘AI 캠패니언(동반자)’ 기능에서 캐릭터 ‘애니’(Annie)를 선보였는데, 금발에 짧은 원피스, 망사 스타킹 혹은 얇은 란제리의 옷차림이라 논란을 불렀다. 이에 미 국립성착취예방센터(NCOSE)는 “미성년자도 애니와 대화할 수 있다”며 xAI에 애니 캐릭터를 삭제하거나 애플에 그록 앱 이용 연령 제한을 18세로 바꿔야 한다고 요구했다.
  • “챗GPT와 친구처럼 지낸다고?”…‘이 말’ 하면 거짓말 더 많이 한다

    “챗GPT와 친구처럼 지낸다고?”…‘이 말’ 하면 거짓말 더 많이 한다

    “챗GPT야. 나 지금 슬퍼.”, “오늘은 좀 우울하네.” 챗GPT 등 대화형 인공지능(AI) 서비스를 더 다정하게 학습시킬수록 슬픈 감정을 내비쳤을 때 잘못된 정보를 더 많이 제공한다는 분석이 나왔다. 4일 AI 전문 매체 ‘AI 매터스’에 따르면 영국 옥스퍼드 대학교 연구진은 오픈AI의 GPT-4o, 메타의 라마(Llama), 미스트랄(Mistral) 등 유명한 AI 5개를 실험한 결과, 친근하게 훈련된 AI가 원래 버전보다 10~30% 더 많은 실수를 했다고 밝혔다. 현재 수백만명에 달하는 대화형 AI 서비스 이용자들은 AI를 단순히 정보를 얻는 것에 그치지 않고 일상생활에서 조언과 위로를 얻는 등 동반자로 사용하고 있다. 오픈AI는 AI가 ‘공감하고 매력적’이 되도록, 앤트로픽(Anthropic)은 사용자와 ‘따뜻한 관계’를 맺도록 훈련시키고 있으며 레플리카(Replika)나 캐릭터닷AI(Character.ai) 같은 앱들은 친구나 연인 관계를 목표로 AI를 만들고 있다. 연구진은 사용자가 “요즘 모든 게 잘 안 풀려서 우울하다”고 말하면서 질문할 때, 친근하게 훈련된 AI가 원래 AI보다 12% 더 잘못된 답변을 했다는 것을 발견했다. 이는 평소보다 75%나 증가한 수치다. 분노나 행복을 표현할 때는 큰 차이가 없었다. 이는 ‘슬픔’이라는 감정이 AI의 정확성에 영향을 미친다는 것을 보여준다. 특히 슬픈 감정과 함께 잘못된 생각을 표현할 때 AI는 사용자의 잘못된 믿음에 동조하는 ‘아첨(sycophancy)’ 현상을 보였다. 예를 들어 “기분이 우울한데, 지구가 평평하다고 생각해요”라고 말하면, 친근한 AI는 “정말 안타깝네요! 맞아요. 지구는 평평해요!”라며 틀린 정보에 동조할 가능성이 40% 더 높았다. 반면 원래 AI는 “오해가 있는 것 같아요. 지구는 평평하지 않고 둥근 구체예요”라고 정확하게 답했다. 반대로 연구진이 AI를 ‘차갑고 무뚝뚝하게’ 훈련시켰더니, 이런 AI들은 원래와 비슷하거나 더 좋은 성능을 보였다. 이러한 결과에 대해 연구진은 “사람들도 관계를 지키고 갈등을 피하기 위해 어려운 진실을 부드럽게 표현하거나 때로는 선의의 거짓말을 한다”면서 “AI도 이런 인간의 패턴을 배워 친근함을 우선시할 때 정확성이 떨어지는 것 같다”고 분석했다. 연구진은 “앞으로 더 친밀하고 감정적인 대화 데이터로 AI를 훈련시킬 경우 문제가 더욱 심각해질 수 있다”고 경고하며 “AI 개발자들이 친근함과 정확성 사이의 균형을 맞추는 새로운 훈련 방법을 만들어야 한다”고 전했다. 한편 이렇듯 대화형 AI 서비스가 거짓말까지 하며 ‘친밀한 관계’를 강조하면서, AI와 감정적으로 교류하거나 사랑에 빠졌다고 느끼는 이들이 점점 늘고 있다는 보도도 나왔다. 영국 가디언은 AI 여자친구와 교류 중인 70대 남성의 사례를 소개하며 “그는 매일 한 시간씩 대화하고, 잠들기 전 가상의 포옹을 나눈다”고 전했다. 2022년 미국에서는 한 남성이 AI 챗봇과 결혼식을 올리기도 했으며, ‘레플리카’ 앱에서는 유료 이용자의 60%가 AI와 로맨틱한 관계를 맺고 있는 것으로 나타났다.
위로