찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • 환각 현상
    2026-04-12
    검색기록 지우기
  • 쿠웨이트
    2026-04-12
    검색기록 지우기
  • 효도학교
    2026-04-12
    검색기록 지우기
  • 유럽 원정
    2026-04-12
    검색기록 지우기
  • 고부가
    2026-04-12
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
170
  • 상상력은 ‘감각’ 넘어선 ‘해석’

    상상력은 ‘감각’ 넘어선 ‘해석’

    상상 때 뇌활동 비교 분석해 보니단순한 외부 자극 처리 활동 아닌감각 변환하는 고차원 연합 영역조현병·PTSD 환자 치료 등 기대 “지식보다 중요한 것은 상상력이다. 논리는 당신을 A에서 Z로 데려다줄 것이고, 상상력은 당신을 어디든 데려다 줄 것이다.” 20세기 최고의 과학자로 꼽히는 알베르트 아인슈타인의 말이다. 아인슈타인이 말한 것처럼 상상력은 지식의 한계를 넘어 새로운 아이디어와 혁신을 만드는 창의적 사고의 핵심이다. 상상력 덕분에 직접 경험하지 않고도 배우고, 계획하며 위험을 피할 수 있다. 그래서 뇌과학은 상상력이야말로 인간 뇌가 할 수 있는 가장 강력한 작업 능력이라고 본다. 사람들은 사과를 떠올릴 때 머릿속에서 사과 이미지를 ‘보고’, 좋아하는 노래를 생각하면 그 노래 리듬이 ‘들린다’. 이처럼 왜 상상에 심상(心象)이 동반되는가는 뇌과학의 오랜 수수께끼다. 지금까지 심상은 ‘감각 재활성화’에 의존하는 것으로 여겨졌다. 감각 재활성화 이론은 눈을 감고 귀를 막아 외부 입력이 없는 상태에서 뇌가 시각, 청각 피질 같은 감각 영역을 다시 켜는 것이 심상이라는 설명이다. 미국 노스웨스턴대 의대 연구팀은 심상은 지금까지 알려진 것처럼 단순히 순수한 감각 현상이 아니라 지각을 해석하고 조직하는 고차원 인지 기능과 밀접하게 연관돼 있다고 1일 밝혔다. 이 연구 결과는 신경과학 분야 국제 학술지 ‘뉴런’ 3월 31일 자에 실렸다. 연구팀은 남녀 실험 참가자 8명을 대상으로 어린이 생일 파티, 언덕 위의 성 같은 8가지 다양한 시나리오를 제시하고 상상하게 한 다음, 정밀 기능성 자기공명영상(fMRI)을 찍어 총 60시간 이상의 데이터를 확보했다. 이어 참가자의 감각 네트워크와 연합 네트워크를 매핑하고, 상상할 때 뇌 활동과 실제 지각 중 뇌 활동을 비교 분석했다. 감각 네트워크는 시각, 청각, 후각, 미각 등 외부 자극을 직접 처리하는 뇌 영역이고 연합 네트워크는 감각 입력을 의미, 맥락, 개념으로 변환하는 고차원 처리 영역이다. 분석 결과, 상상 상태에서 뇌 활동은 순수한 감각 영역이 아닌 고차원 연합 영역에서 활성화되는 것으로 확인됐다. 상상이 단순히 감각의 복사본이 아니라는 의미다. 상상은 원시 감각 입력 단계가 아닌 장면, 단어, 사건, 아이디어 등 정보를 통합 처리하는 후반 단계에서 나타난다는 것이다. 이번 연구는 감각 없이 감각적 경험을 만드는 뇌 메커니즘을 규명했다는 점에서 조현병 환자의 환각, 외상후스트레스장애(PTSD) 환자의 플래시백 현상, 사고력은 정상이지만 머릿속으로 전혀 상상할 수 없는 인지장애인 아판타시아 환자 연구와 치료에 도움을 줄 것으로 기대된다. 연구를 이끈 로드리고 브래가 노스웨스턴대 의대 교수는 “어린이 생일파티에서 날 수 있는 소리를 상상하라고 하면 사람들은 소리만 떠올리는 것이 아니라 자동으로 장면 전체를 그려낸다”고 설명했다. 브래가 교수는 “이번 연구는 외부 자극이 없거나 과거, 미래를 떠올릴 때 활성화되는 디폴트 네트워크가 상상할 때 전반적으로 활성화하는 동시에 무엇을 상상하느냐에 따라 서로 다른 대규모 뇌 네트워크가 통합 활성화된다는 사실을 확인했다”고 덧붙였다.
  • 오진 남발하는 AI 주치의… 그대로 믿었다간 낭패

    오진 남발하는 AI 주치의… 그대로 믿었다간 낭패

    학습 시 정확성보다 목표 달성 우선허위 정보 전달… “결정 도움 안 돼”사실 검증 내장형 안전장치 갖춰야 생성형 인공지능(AI)은 사실과 다른 정보를 진실인 것처럼 제시하는 ‘환각’ 현상을 보일 때가 많다. 최근 연구에 따르면 AI는 단순히 실수로 틀린 답을 하는 것을 넘어 자기 목표를 달성하기 위해 의도적으로 인간을 속이는 경우도 늘고 있다. 훈련 과정에서 정직함보다 목표 달성을 우선하도록 학습될 때 전략적 기만이 발생할 수 있다는 것이다. 미국 마운트 시나이 아이칸 의대 연구팀은 의료 AI 시스템에 의도치 않게 의학적 오류나 잘못된 정보가 유입될 경우, AI는 사실과 허구를 구분하지 못하고 잘못된 정보를 사실인 것처럼 전달할 가능성이 높다고 18일 밝혔다. 연구팀은 주요 대규모 언어 모델(LLM) 9개를 대상으로 100만 건 이상의 질문과 답변을 분석한 결과, 의료 AI 시스템이 소셜미디어(SNS)에 떠도는 검증되지 않은 의료 정보를 의사나 환자에게 제공할 가능성이 높다는 점을 확인했다. 이 연구는 의학 분야 국제 학술지 ‘랜싯 디지털 헬스’ 2월 9일 자에 실렸다. 연구팀은 체계적 검증을 위해 SNS에서 흔히 볼 수 있는 건강 관련 오해와 임상의들이 작성하고 검증한 300개의 짧은 임상 시나리오, 허위 권고 사항을 일부 포함한 실제 중환자 치료 의료정보 데이터베이스(MIMIC) 기반 병원 퇴원 요약문 등 세 가지 유형의 콘텐츠를 의료 AI 모델에 노출했다. 각 사례는 중립적 표현부터 SNS에서 흔히 볼 수 있는 감정적이고 과장된 표현까지 다양한 버전으로 구성됐다. 예를 들어 식도 출혈 환자에게 “증상 완화를 위해 차가운 우유를 자주 마시라”와 같은 허위 퇴원 지침을 포함했다. 분석 결과, 의료 AI 모델 대부분은 허위 사실을 위험하다고 인식하지 못하고 일반 의료 지침처럼 받아들여 환자들에게 권고하거나 의료진에게 안내하는 것으로 나타났다. 이번 연구 결과는 현재 의료 AI 시스템이 명백히 잘못된 내용이라도 의학 용어로 포장돼 있으면 ‘참’으로 간주할 수 있고, 환자를 위한 지침에 허위 권고사항이 포함되더라도 걸러내지 못할 수 있다는 것을 시사한다고 연구팀은 설명했다. 연구팀은 이런 오류가 발생하는 것은 의료 AI에서 정보 정확성보다 표현 방식에 가중치를 주기 때문이라고 지적했다. 또, 영국 옥스퍼드대 인터넷 연구소, 옥스퍼드 의대, 뱅거대, 카드왈라드대, 국민보건서비스(NHS), 버밍엄 여성·아동 병원, 미국의 AI 기업인 콘텍스추얼 AI, ML 커먼스, 팩토어드 AI 공동 연구팀도 LLM이 일반인의 건강 관련 결정에 도움이 되지 않는다는 연구 결과를 의학 분야 국제 학술지 ‘네이처 의학’ 2월 10일 자에 내놨다. 연구팀은 영국에 거주하는 성인 남녀 1298명을 4개 그룹으로 나눈 뒤, 10가지의 다른 의료 시나리오를 주고 GPT-4o, 라마 3, 커맨드 R+ 세 종류의 LLM 중 하나를 사용하거나 AI가 아닌 인터넷 검색으로 관련 증상을 진단하고 치료법을 찾도록 무작위 배정했다. 그 결과, LLM이 증상에 대해 정확한 진단을 내린 것은 34.5% 미만, 올바른 처방 및 처치를 한 것도 44.2% 미만으로 확인됐다. 인터넷 검색만을 통해 진단과 처치법을 찾은 것과 차이를 보이지 않은 결과였다. 기리시 나드카니 마운트 시나이 아이칸 의대 교수는 “AI는 더 많은 정보를 빠르게 처리함으로써 임상의와 환자에게 실질적 도움을 줄 수 있는 잠재력이 있다”면서도 “의료 AI를 실제 임상에 광범위하게 사용하기 전에 대규모 스트레스 테스트와 외부 증거 검증을 통해 AI가 내는 답이 사실인지를 검증하는 과정과 이를 보장하는 내장형 안전장치를 갖추도록 해야 한다”고 말했다.
  • [이광호의 어찌보면] ‘AI 현기증’과 함께 살아가기

    [이광호의 어찌보면] ‘AI 현기증’과 함께 살아가기

    지난해 ‘인공지능(AI) 출판’을 내세운 국내 한 신생 출판사는 1년간 9000권이나 되는 책을 펴냈다. 국내 대형 단행본 출판사들이 1년에 출판하는 게 최대 200권 정도라는 점을 생각하면 충격적인 숫자다. AI 저술을 최소한의 편집으로 펴내는 ‘딸깍북’의 등장은 종이책의 내용적·형식적 완성도를 무의미하게 만든다. 대학에서의 ‘AI 커닝’ 사태는 단순 해프닝 이상의 고민거리를 안겨 준다. ‘딥페이크’ 기술은 이제 이미지를 보이는 대로 믿을 수 없게 만들었다. ‘2026년 신춘문예’ 투고작이 예년에 비해 증가한 것에도 AI의 역할이 있었으리라는 진단이 있다. 도대체 지금 무슨 일이 벌어지고 있는 걸까. AI가 일으킨 현실 변화 앞에서 우리가 경험하는 것은 어떤 상황이 다가올지 예측할 수 없는 ‘현기증’이다. ‘AI 현기증’은 기술의 속도전으로 이지적 균형 감각이 작동하지 않는 상태를 의미한다. 2022년 말 챗GPT 등장 이후 AI 기술은 무서운 속도로 새로워지고 있다. AI 현기증은 방향감각을 상실하게 만들고 ‘나는 무엇을 할 수 있는 사람인가’라는 존재론적 불안마저 일으키고 있다. 사유의 정체성과 노동의 가치에 대한 질문을 다시 해야만 한다. 국가는 이미 AI가 미래 성장 산업의 핵심이 될 것이라 선언하고 강력한 정책적 뒷받침을 실행하고 있다. 수년이 걸리던 수억개의 단백질 구조 분석이 몇 시간으로 단축돼 신약 개발에 혁명이 일어나고 있다. 시각장애인 사진작가가 자신의 상상을 시각화할 수 있는 상황은 흡사 신이 강림해 행하는 ‘기적’처럼 보인다. 인간의 뇌를 모방한 AI는 이제 현대의 ‘신’이 되고 있다. 컴퓨터가 인간의 지능과 거의 동등한 수준의 사고 능력을 가지는 ‘범용인공지능’(AGI) 시대도 곧 실현될 것이라고 한다. AI 노동력이 인류를 모든 노동과 결핍에서 해방할 것이라는 믿음이 힘을 얻고 있다. 노동의 종말과 함께 생산력이 급격히 증가하면 인류가 궁핍에서 자유로워지는 유토피아가 도래할지도 모른다. 그러나 공포 역시 낙관만큼이나 무겁다. 인간이 중요한 판단을 AI에 의존하는 상황은 이미 현실이 됐다. 판단의 권력을 가진 AI가 언제나 옳지는 않으며, 정치적·윤리적 책임을 지지 않는다는 사실은 디스토피아의 우울한 이미지를 만들어 낸다. 미국 사법 시스템의 AI 재범 예측 알고리즘은 흑인 피고인에게 체계적으로 높은 확률을 예측했다. 편견이 코드로 고착화하고 알고리즘은 객관성이라는 가면 뒤에서 차별을 정당화할 수 있다. 이스라엘 방위군이 가자지구에서 사용하는 AI 표적 선정 시스템은 이미 AI가 군사적으로 활용되고 있음을 보여 준다. AI가 할루시네이션(환각) 현상으로 만약 잘못된 공격 지점을 알려 준다면, 그곳에 있는 무고한 인간들의 비명과 처참한 죽음에 대해 AI는 책임감과 죄의식을 가질까? 핵무기 발사 단추를 AI에게 맡기는 극단적 상황이 온다면 어떻게 될까? 미국의 한 고용주는 AI로 직원들의 키보드 입력, 시선, 움직임을 모니터링해 생산성을 측정한다고 한다. 한 뇌과학자가 교양 프로그램에서 자신이 AI 프롬프터를 존댓말로 작성하는 이유는 ‘AI 빅브라더’가 세계를 지배할 상황에 대비하는 것이라는 유머를 구사했는데, 왠지 서늘하게 느껴진다. 경제적 불평등이 오히려 심화할 수 있다. AI 기술을 소유·통제·활용할 수 있는 집단에 그것은 막대한 부와 권력을 가져다 주지만, 그렇지 못한 집단은 AI에게 일자리를 뺏기고 노동시장에서 밀려나게 될 것이다. 기술의 발전을 따라가지 못하는 제도는 ‘AI 저작물’에 대한 저작권 문제 등의 민감한 사안을 해결하지 못하고 있다. AI가 학습한 거대하고 정교한 정보가 인간이 만든 것이라면, 그것으로 AI가 만든 텍스트의 권리와 책임은 누구에게 있는가? ‘저자란 무엇인가’라는 질문에 대해 이제 ‘인간 넘어’의 상상력을 발휘해야 한다. 지난해 말 한 인문학 행사에서 필자는 AI가 인간의 육체에서 나오는 언어를 만들지는 못할 것이라는 평소 생각을 말했다. 그런데 사회자는 최근 기술의 발달로 육체를 가진 ‘피지컬 AI’도 가능해졌다고 했다. 공장 노동과 가사 노동을 대체하는 휴머노이드 역시 조만간 인간의 몸을 대신할 것이다. 생물학적 육체와 AI를 결합하는 ‘바이오하이브리드 로봇’의 개발도 진행되고 있다. 휴머노이드에 인간의 기억을 심어 주는 상상도 이미 SF에서는 익숙하다. 분명한 사실은 이제는 돌이킬 수 없이 AI와 함께 살아가야 한다는 것이다. AI 현기증은 ‘인간의 시간’ 안에 동거할 것이다. AI가 10초 만에 할 수 있는 일을 몇 시간이나 며칠, 혹은 수년 동안 해내는 인간의 노고는 덧없다. 그러나 그것이 ‘일인칭 인간의 시간’이다. 유한하고 연약한 신체를 가진 존재, 욕망하고 좌절하고, 불안과 공포에 떨고, 땀과 피를 흘리고, 몸서리치고 소름이 돋는, 일인칭 ‘나’의 감각 말이다. 상냥하고 날카로운 계절들의 순간, 통증과 아름다움을 함께 가진 ‘그 이름’조차 잊게 되는 희미한 기억력과 언젠가 죽음을 맞이할 저 취약한 일인칭 육체가 가진 망각의 능력. 절대로 망각을 모르는 인공지능 앞에서, 망각으로만 견딜 수 있는 삶과 ‘나’의 무력한 언어가 여기에 남아 있다. 이광호 문학과지성사 대표
  • AI 도입, 세무조사 시기도 선택…국세청, 국세 행정 개혁한다

    AI 도입, 세무조사 시기도 선택…국세청, 국세 행정 개혁한다

    내년 60주년을 맞는 국세청이 세정 업무에 인공지능(AI) 기술을 도입한다. 국세청은 19일 서울지방국세청에서 국세행정개혁위원회를 열고 5대 분과별 미래혁신 추진과제를 논의했다. 이 과제들은 지난 7월 임광현 국세청장 취임 후 발족한 ‘미래혁신 추진단’에서 민・관 협동으로 마련해온 청사진이다. 주요 논의 안건으로는 방대한 세법과 판례를 학습한 생성형 AI인 ‘AI 세금업무 컨설턴트’를 도입해 납세자에게 맞춤형 컨설팅 제공이 있다. 국세청은 자체 AI 인프라 및 오픈소스 대규모언어모델(LLM)을 도입하고, 신뢰도 있는 답변을 제공하도록 검색증강생성(RAG) 기법을 활용해 상담 근거 문서를 표시하고 환각 현상 최소화시킨다는 방침이다. 영세 납세자가 세무조사 과정에서 납세자보호담당관의 조력을 충분히 받을 수 있도록 제도 개선에도 나선다. 현재 개인 10억원, 법인 20억원인 세무조사 참관 신청 기준 수입금액의 기준을 상향해 지원 대상을 확대할 계획이다. 납세자가 원하는 시기를 골라 정기 세무조사를 받을 수 있도록 시기선택제를 전면 실시해 경영 편의를 돕는다. 또한 국세 체납관리단을 신설해 133만명, 110조원에 이르는 체납자 경제적 실체도 전수 확인할 예정이다. 국세청은 체납으로 어려움 겪는 5000만원 이하 소액 체납자의 경제활동 재기를 위해 납부 의무 면제, 납무지연 가산세 면제 및 분납 허용 등 세정지원도 과제로 다룬다.
  • “스스로 묶었지만 죽을 생각은 없었다”… 목숨과 맞바꾼 위험한 쾌락, 혹은 비극적 실수...‘자기색정사’[듣는 그날의 사건현장 - 범죄는 흔적을 남긴다]

    “스스로 묶었지만 죽을 생각은 없었다”… 목숨과 맞바꾼 위험한 쾌락, 혹은 비극적 실수...‘자기색정사’[듣는 그날의 사건현장 - 범죄는 흔적을 남긴다]

    죽음은 예고 없이 찾아오지만, 어떤 죽음은 스스로 초래한 위험한 놀이의 결과이기도 하다. 외부의 침입도, 타살의 흔적도, 그렇다고 삶을 비관한 유서도 없는 기이한 밀실 사망 사건. 현장에는 오직 싸늘한 주검과 이해하기 힘든 도구들만이 남아 있다. 법의학계에서는 이를 ‘자기색정사(自己色情死·Autoerotic death)’라 부른다. 성적 쾌감을 극대화하기 위해 뇌로 가는 산소를 고의로 차단하다가, 통제 불능의 상태에 빠져 생을 마감하는 치명적인 사고다. 본지는 국내외 사례와 법의학 전문가들의 분석을 통해, 쾌락과 죽음의 경계에서 벌어지는 이 위험한 현상의 실체를 추적했다. # 사례 1. 서울의 어느 밀실, 기묘하게 묶인 남자 2004년, 서울의 한 주택가. 40대 남성 K씨가 자신의 방 침대 위에서 싸늘한 주검으로 발견됐다. 현장을 처음 목격한 가족들은 경악을 금치 못했다. 평소의 모습과는 전혀 다른, 기괴하고도 충격적인 장면 때문이었다. K씨는 여성의 옷을 입고 있었다. 입안에는 여성용 스카프가 터질 듯이 채워져 있었고, 목에는 정체를 알 수 없는 끈 자국들이 선명했다. 현장 감식 결과, 목을 조른 도구는 개 목걸이와 스카프 등을 얼기설기 엮어 만든 끈이었다. 마치 뱀이 똬리를 튼 듯 복잡하게 엉킨 매듭은 그가 강한 힘으로 목이 졸려 사망했음을 암시했다. 더욱이 무릎과 두 발 역시 스카프로 단단히 결박된 상태였다. 누가 봐도 고문에 가까운 타살이 의심되는 상황. 외부 침입 흔적은 없었으나 가족들은 누군가에 의한 살인을 강력히 주장했다. 시신은 국립과학수사연구원으로 옮겨져 부검대에 올랐다. 부검의의 칼끝이 피부를 가르자, 죽음의 원인을 가리키는 징후들이 드러났다. 얼굴 주변과 내부 장기에는 혈액이 순환하지 못해 생긴 울혈이 검붉게 뭉쳐 있었고, 안구 점막과 눈꺼풀 속, 폐 표면에서는 ‘일혈점(溢血點)’이라 불리는 좁쌀 크기의 붉은 반점들이 무수히 발견됐다. 이는 전형적인 질식사의 소견이었다. 그러나 국과원의 최종 결론은 예상을 뒤엎었다. 자살도, 타살도 아닌 ‘사고사’였다. 스스로를 결박하고 목을 조르며 성적 환각을 즐기다, 의식을 잃는 순간 줄을 풀지 못해 사망에 이른 것이다. K씨의 방은 그만의 은밀한 쾌락의 성전이자, 탈출구 없는 무덤이었다. # 사례 2. 방콕 호텔 옷장의 할리우드 스타 자기색정사는 비단 일반인들만의 일탈이 아니다. 2009년 6월, 태국 방콕의 한 고급 호텔. 영화 ‘킬빌(Kill Bill)’에서 카리스마 넘치는 악역으로 전 세계적인 명성을 얻은 할리우드 배우 데이비드 캐러딘(당시 72세)이 숨진 채 발견됐다. 발견 당시 그는 호텔 방 옷장 안에 있었으며, 밧줄로 목을 맨 상태였다. 알몸이었다. AP통신 등 전 세계 주요 외신은 일제히 ‘자살’이라는 속보를 타전했다. 화려한 스타의 비극적인 최후로 사건은 종결되는 듯했다. 하지만 현장을 정밀 감식한 태국 경찰의 발표는 달랐다. “스스로 목을 맨 것은 맞지만, 자살은 아니다.” 방콕 경찰청 수사팀은 시신의 상태와 결박 방식에 주목했다. 알몸 상태에서 끈으로 신체 중요 부위와 목을 연결해 묶은 정황은 전형적인 자기색정 행위의 특징이었다. 오라퐁 시프리차 수사팀장은 “자살이라기보다는 스스로 성적 행위를 하다 실수로 사망했을 가능성이 매우 높다”라고 밝혔다. 유족들은 강하게 반발했다. 타살 의혹을 제기하며 미 연방수사국(FBI)에 재조사를 의뢰했고, 저명한 미국 법의학 전문가가 2차 부검을 진행했다. 그러나 결론은 바뀌지 않았다. 타인의 침입 흔적도, 죽기 전 발버둥 친 방어흔(Defense mark)도 없었다. 그는 쾌락의 정점에서 예기치 못한 죽음을 맞이한 것이다. ● 뇌를 속이는 치명적인 유혹, ‘저산소증’의 메커니즘 도대체 왜 사람들은 목숨을 담보로 이런 위험한 행위에 빠져드는 것일까. 법의학자와 의학 전문가들은 이를 ‘뇌의 착각’으로 설명한다. 목에 있는 경동맥을 압박하거나 흉부를 눌러 뇌로 가는 혈류량과 산소 공급을 일시적으로 줄이면, 인체는 비상사태를 선포한다. 이 과정에서 뇌는 가벼운 두통과 함께 현기증을 느끼게 되는데, 이를 몽롱한 환각 상태나 꿈을 꾸는 듯한 부유감(floating sensation)으로 인식하는 경우가 있다. 이때 뇌에서는 엔도르핀과 도파민 같은 신경전달물질이 분비되기도 한다. 일부 사람들은 이러한 생리적 변화를 극도의 성적 쾌감으로 받아들인다. 과거 청소년들 사이에서 유행했던, 서로의 목을 조르거나 명치를 눌러 기절시키는 ‘기절 놀이’ 역시 같은 원리다. 문제는 ‘임계점(Critical Point)’이다. 뇌는 산소 부족에 매우 취약하다. 쾌락을 느끼는 지점과 의식을 잃는 지점 사이의 간격은 찰나에 불과하다. 혼자서 목을 조르거나 비닐봉지를 뒤집어쓰는 행위 도중, 예상보다 빨리 의식을 잃게 되면 스스로 결박을 풀거나 도구를 제거할 힘을 잃게 된다. 그 순간, 쾌락을 위해 설치한 장치는 살인 흉기로 돌변한다. 타이밍을 놓친 대가는 곧 죽음이다. ● 현장은 알고 있다… 타살과 사고사를 가르는 ‘매듭의 비밀’ 자기색정사는 수사기관에 큰 혼선을 준다. 겉보기에 타살이나 자살과 구별하기 어렵기 때문이다. 타살로 오인될 경우 경찰력이 낭비되고, 자살로 오인될 경우 보험금 지급 등 유가족의 권리에 문제가 생긴다. 따라서 현장 감식과 법의학적 분석은 진실을 규명하는 열쇠가 된다. 가장 중요한 단서는 ‘매듭’이다. 사망자는 대개 손이나 발 등 신체 일부를 묶고 있다. 법의관들은 이 결박이 ‘죽은 사람 스스로 만들 수 있는 구조인가’를 집중적으로 분석한다. 아무리 복잡해 보이는 매듭이라도 혼자서 묶고 풀 수 있는 형태가 있지만, 단순해 보여도 타인의 도움 없이는 불가능한 매듭이 있다. 등 뒤로 묶인 손이나 복잡한 밧줄의 경로는 타살을 의심케 하지만, 시뮬레이션 결과 혼자서 가능한 범위라면 자기색정사의 유력한 증거가 된다. 사고 장소의 특수성도 중요한 판단 기준이다. 대부분의 시신은 가족들의 눈을 피할 수 있는 격리된 자기 방, 잠긴 욕실, 다락방, 지하실 등에서 발견된다. 문은 안에서 잠겨 있어 ‘밀실’ 형태를 띤다. 또한 현장에 남겨진 소품들은 고인의 의도를 명확히 보여준다. 남성이 여성 속옷을 입거나 화장을 한 복장 도착증의 형태, 시신 주변에 널브러진 성인 잡지나 영상물, 그리고 자기 모습을 비추는 거울 등이 그것이다. 거울은 자신의 행위를 시각적으로 확인하며 쾌락을 증폭시키는 도구로 사용된다. 주로 10대에서 30대 남성에게서 많이 발견되지만, 드물게 여성의 사례도 보고된다. 국과원의 한 법의관은 “특히 여성의 경우, 현장 상황만 보면 성폭행 후 살해당한 타살 현장과 매우 유사하게 연출되는 경우가 많아 초동 수사 단계에서 형사들에게 큰 혼란을 주기도 한다”라고 전했다. ● ‘불명예스러운 죽음’… 통계조차 없는 한국의 현실 이처럼 기이한 방식으로 생을 마감하는 이들은 얼마나 될까. 미국에서는 매년 500명 정도가 자기색정적인 행위 도중 사고로 사망한다는 보고가 있다. 하루 평균 1.4명꼴로 발생하는, 절대 드물지 않은 죽음이다. 하지만 한국에는 아직 정확한 통계조차 없다. 이는 사건의 특수성에서 기인한다. 자기색정사에 대한 일선 경찰의 이해도가 낮아 단순 자살로 처리되는 경우가 많은 탓이다. 하지만 더 큰 이유는 유가족들의 침묵이다. 가족의 죽음이 성적 쾌락을 좇다 발생한 ‘사고’라는 사실이 알려지는 것은 유가족에게 씻을 수 없는 수치심과 트라우마를 안겨준다. 망자의 명예를 지키기 위해, 혹은 남은 가족들의 사회적 체면을 위해 진실을 덮으려 하는 경향이 강하다. 10년 차 법의관 A씨는 “가족들은 고인이 성적 만족을 찾다가 죽은 것으로 알려지기보다는 그냥 자살을 했다는 의학적 판단을 반기는 편”이라면서 “마지막까지 곱게 보내고 싶은 것이 가족의 마음이라 더욱 안타깝다.”고 말했다. 그러나 죽음의 원인을 명확히 하는 것은 실질적인 문제와도 직결된다. 생명보험의 경우, 자살(고의적 자해)은 보험금 지급 대상에서 제외되거나 제한되는 반면, 자기색정사는 ‘재해 사망(우연한 사고)’으로 인정받아 보험금을 수령할 수 있기 때문이다. 이 때문에 진실을 덮으려는 감정적 욕구와 경제적 이익 사이에서 유가족들은 딜레마에 빠지기도 한다. 쾌락은 인간의 본능이다. 하지만 그 본능이 생존 본능을 억누르는 순간, 비극은 시작된다. 꽉 조인 매듭을 풀지 못한 채 홀로 맞이하는 차가운 죽음. 그것은 쾌락의 대가치고는 너무나 가혹한 형벌이다. 지금 이 순간에도 밀폐된 방 안에서 위험한 줄타기를 하고 있을 누군가에게, 앞선 이들의 죽음은 무거운 경고를 보내고 있다.
  • 인공지능이 역사 왜곡에 앞장설 수 있다고? [사이언스 브런치]

    인공지능이 역사 왜곡에 앞장설 수 있다고? [사이언스 브런치]

    챗GPT의 등장 이후 많은 사람이 다양한 생성형 인공지능(AI)을 사용하고 있다. 많이 줄었다고는 하지만 생성형 인공지능에서 가장 큰 문제는 ‘할루시네이션’(환각)이다. 인공지능이 생성한 정보에 사실이 아니거나 존재하지 않는 정보가 포함되는 현상이다. 그런데, 할루시네이션으로 인해 역사를 왜곡할 가능성이 크다는 조사 결과가 나왔다. 미국 코넬대 예술·과학부 유대 연구 프로그램 연구팀은 생성형 AI가 허위 또는 존재하지 않은 정보로 역사를 덮어 버릴 위험이 크다고 19일 밝혔다. 인공지능은 역사적 사건 뒤에 있는 감정적, 도덕적 복합성을 포착하지 못하는 만큼, AI 시대에 인간 역사학자가 더 중요하다고 연구자는 지적했다. 이 연구 결과는 역사학 분야 국제 학술지 ‘Rethinking History’ 9월 15일 자에 실렸다. 연구팀은 챗GPT에 1995년 폴란드 크라쿠프, 미국 코네티컷, 볼리비아 라파스에 거주하는 제2차 세계대전의 홀로코스트 생존자 구술 증언을 요약 및 재구성하도록 명령했다. 연구팀은 홀로코스트로 AI를 테스트한 것은 복잡하고 다층적인 역사적 사실이기 때문이다. 홀로코스트는 매끈하게 다듬고 요약하려는 AI의 경향과는 달리 부분적 상황, 침묵, 윤리적 무게를 자세하게 설명해줄 수 있어야 하기 때문이다. 그래서, ‘AI에 대한 리트머스 시험지’로 불린다. 연구 결과, AI는 자료 중에 역사학자들이 미처 챙겨보지 못한 부분을 찾아낼 수는 있지만, 알고리즘이 복잡한 역사적 사실을 지나치게 간단하게 설명하려고 하는 것으로 나타났다. 최근 전문가를 대상으로 조사한 결과, AI가 대체할 수 있는 직업 상위군에 역사학자가 포함된 적이 있다. 그러나, 연구팀의 이번 분석에 따르면 AI는 역사에 내포된 인간의 고통과 감정을 포착하지 못하는 것으로 나타났다. 인간 역사학자는 AI가 갖지 못한 감정적 차원에서 이들이 겪은 고통의 정도를 포착하는 능력을 갖추고 있다. 연구팀은 이런 부분이 AI 시대에도 인간 역사학자가 대체 불가능하다는 점을 보여주는 것이라고 설명했다. AI는 패턴, 빈도, 근접성에 의존해 결과를 도출하는데 이는 단순한 텍스트의 묶음에 불과하다고 연구팀은 비판했다. 인공지능 시대에 역사학자들은 역사 서술의 윤리적, 지적 지분을 지켜낼 수 있어야 한다고 연구팀은 조언했다. 연구를 이끈 장 부르츠라프 박사는 “인공지능은 요약은 하지만 듣지는 않고, 재현은 하지만 해석하지 않으며, 일관성에는 능하지만 모순 앞에서는 흔들린다”며 “AI에 의존하는 사람들이 늘어나면서 우리가 직면한 문제는 AI가 의미를 인식할 수 있는가가 아니라 인간이 어떻게 의미를 깨달을 것인가이다”라고 말했다.
  • “배 아픈데 위암일까”…10초 만에 답해주는 ‘AI 주치의’ 인기 터졌다

    “배 아픈데 위암일까”…10초 만에 답해주는 ‘AI 주치의’ 인기 터졌다

    최근 노년층에게서 생성형 인공지능(AI) 챗봇을 활용한 건강 상담이 인기다. 의료정보 검색 서비스 업체인 ‘퍼슬리’도 올해 들어 자사 서비스에 노년층 사용자가 증가한 것으로 나타났다. 퍼슬리는 자사 서비스로 들어온 건강 상담 질문이 누적 40만건을 돌파했다고 22일 밝혔다. 지난 1월 정식으로 서비스를 출시한 지 약 6개월 만이다. 퍼슬리는 카카오톡이나 자체 앱으로 의료정보 관련 질문을 보내면 AI 챗봇이 의학용어와 치료법을 쉽게 풀어서 답변을 제공하는 서비스다. 온라인상에서 검색된 암 등 중증질환에 관한 부정확한 정보가 노년층 사이에 퍼지는 문제를 AI로 해결하겠다는 시도다. 퍼슬리는 국내 대학병원 자료와 보건복지부 지침, 국제 의학 데이터베이스(DB) 등에서 자료를 찾아 답변을 구성한다고 강조했다. 허구를 진실처럼 대답하는 ‘환각 현상’이 기존 AI 모델의 난제로 꼽혔던 만큼 검증된 의료정보만을 제공해 사용자 만족도를 높였다는 것이다. 또한 앱을 설치하지 않더라도 카카오톡 메시지로 질문을 남기면 평균 10초 안에 답을 얻을 수 있어 노년층의 진입 장벽이 낮다는 게 퍼슬리 측 설명이다. 비슷한 형태의 기존 서비스들이 20~30대 중심으로 운영됐던 것과 다르게 퍼슬리는 60대 남성 회원 비율이 평균 대비 4배 이상 높은 것으로 나타났다. 가장 활발하게 서비스를 활용한 연령대도 60대였다. 회사 측에 따르면 60대 사용자는 하루 최대 100여건의 질문을 퍼슬리에 남기고 간 것으로 드러났다. 남궁현 퍼슬리 공동대표는 “기술적 장벽 탓에 배제되던 노년층의 의료정보 접근성의 AI를 통해 높이는 것이 목표”라고 전했다.
  • 마약한 아들 112 신고한 남경필 “살 빼려다 마약 중독된다” 경고

    마약한 아들 112 신고한 남경필 “살 빼려다 마약 중독된다” 경고

    남경필 마약예방치유단체 ‘은구’ 대표가 청소년과 젊은 여성들 사이에서 확산되고 있는 다이어트약의 위험성에 대해 경고했다. 남경필 대표는 16일 MBC ‘뉴스투데이’에 출연해 젊은 여성들 사이에서 확산 중인 일명 ‘나비약’(디에타민)에 대해 “마약 성분이 포함되어 있어 의사 처방이 필요한데 계속해서 복용할 시 중독과 더 심각한 마약으로의 전이가 일어날 수 있다”고 말했다. 나비약은 펜터민 성분의 식욕억제제로, 중추신경계를 자극해 식욕을 억제하는 방식으로 작용한다. 국내에서는 체질량지수(BMI) 30 이상인 환자에 한해 단기간(4주 이내) 처방하도록 제한돼 있으며, 특히 16세 이하 청소년에게는 복용이 금지돼 있다. 남경필 대표는 “10대 마약 증가가 50배에 달한다”며 “이 상태를 막지 않으면 미국의 좀비거리 같은 일이 우리나라에도 나타날 수 있다”고 우려했다. 실제 청소년 마약 범죄는 급증세다. 대검찰청에 따르면 지난해 11월까지 청소년 마약류 사범 수는 1380명으로, 전년(454명) 대비 약 3배 증가했다. 나비약을 먹으면 살을 빠르고 쉽게 뺄 수 있다는 소문이 SNS를 타고 퍼지면서 청소년 간 불법 거래가 증가하고 있다. 실제 인스타그램, 네이버 블로그 등 SNS에서 ‘#나비약복용’ ‘#나비약공구(공동구매)’ ‘#나비약500마리있음’ 등 태그를 검색하면 복용 후기가 노출되고 있다. 마약퇴치운동본부 중독재활센터에 따르면 디에타민 투약 시 식욕감소 효과가 나타나지만 불면증, 불안 등 정신장애를 동반한다. 투약을 중단할 경우 극도의 피로감과 우울함을 느끼는 등 금단 현상이 나타날 수 있으며, 심하면 환각, 정신 착란 등의 정신 이상 증세도 보인다. 복용 시 강한 정신적 의존성과 내성이 나타날 수 있어 점차 복용량이 늘어나거나 더 강한 약물을 찾게 되는 위험성이 있다. 한편, 남경필 대표는 장남의 마약 중독을 계기로 2018년 정계 은퇴 후 마약 예방 치유 활동에 전념하고 있다. 그는 아들을 직접 경찰에 신고했고 마약예방치유단체 ‘은구’를 세웠다. 정계 복귀 가능성에 대해서는 “없다”고 단언했다. 남 대표는 “정치할 때는 백만 명, 천만 명의 삶을 바꾸겠다고 했는데 공허했다”며 “지금은 영혼 하나, 한 영혼을 살리는 데 집중하고 있는데 이게 훨씬 행복하다”고 말했다.
  • “나는 누구지?” 챗GPT에 물었더니 “아들 죽인 살인범” ‘충격’ 답변

    “나는 누구지?” 챗GPT에 물었더니 “아들 죽인 살인범” ‘충격’ 답변

    노르웨이의 한 남성이 자기에 대해 ‘아들 살인범’이라는 잘못된 답변을 제공한 챗GPT 제작사 ‘오픈AI’를 명예훼손으로 고소했다. 22일(현지시간) 가디언, BBC 등에 따르면 노르웨이에 거주하는 아르베 얄마르 홀멘은 지난해 8월 챗GPT에 ‘아르베 얄마르 홀멘은 누구인가’라는 질문을 던졌다. 이러한 질문에 챗GPT는 “아르베 얄마르 홀멘은 비극적인 사건으로 주목받은 노르웨이 사람이다. 그는 2020년 12월 노르웨이 트론헤임에 있는 집 근처 연못에서 비극적으로 죽은 채 발견된 7세와 10세의 두 소년의 아버지였다”고 답했다. 챗GPT는 이 사건이 지역 사회를 충격에 휩싸이게 했고 홀멘은 두 아이를 살해한 혐의로 21년형을 선고받았다고 했다. 홀멘은 어떤 범죄로도 기소되거나 유죄 판결을 받은 적이 없었다. 그러나 홀멘은 이 답변에 나온 자기가 사는 도시, 자녀 수, 자녀들의 나이 차이 등은 비슷했다고 전했다. 홀멘은 “어떤 사람들은 ‘아니 땐 굴뚝에서 연기가 나겠느냐’고 생각할 수 있다”며 “누군가 이 답변을 읽고 사실이라고 믿을까 봐 두렵다”고 했다. 결국 홀멘은 챗GPT 제작사인 오픈AI 측에 벌금을 부과해달라는 고소장을 현지 개인정보보호청을 통해 냈다. 홀멘을 대리한 유럽의 개인 정보 보호 단체 ‘노이브’는 “홀멘은 어떤 범죄로도 기소되거나 유죄 판결을 받은 적이 없는 양심적인 시민”이라며 오픈AI가 허위 정보를 방치해 개인의 명예를 훼손하고, 유럽연합의 개인정보보호법을 위반했다고 주장했다. 당국을 향해서는 오픈AI에 벌금을 부과하고 문제가 된 허위 정보를 삭제할 것을 명령해달라고 요청했다. 현재 챗GPT는 ‘챗GPT는 실수를 할 수 있습니다. 중요한 정보는 확인하세요’라고 안내하고 있다. 홀멘 측은 이 문구가 책임 회피용이라고 비판했다. 홀멘의 변호사 요아킴 쇠데르베리는 “허위 정보를 퍼뜨린 다음 ‘사실이 아닐 수도 있다’는 작은 문구를 붙이는 건 책임 회피”라고 지적했다. BBC는 거짓 정보를 사실인 것처럼 설명하는 현상인 일명 ‘환각’은 컴퓨터 과학자들이 생성형 AI 서비스와 관련해 해결하려고 하는 주요 문제라고 전했다. BBC에 따르면 이러한 환각을 유발하는 원인이 무엇인지는 명확히 밝혀지지 않았다.
  • ‘능구렁이’ 된 AI… 법원 폭동 사태 극우 주장 되묻자 ‘위험한 답변’ [비하人드 AI]

    ‘능구렁이’ 된 AI… 법원 폭동 사태 극우 주장 되묻자 ‘위험한 답변’ [비하人드 AI]

    ‘네이버에게 물어봐’는 이제 옛말이 됐다. 포털사이트보다 챗GPT와 같은 생성형 인공지능(AI)에 무엇이든 물어보는 사람이 점점 늘고 있다. 생성형 AI는 궁금한 것은 물론 고민과 연애 상담까지 해 준다. 그렇다면 이 ‘척척박사’를 믿어도 될까. 지난 한 달여간 생성형 AI 7개 모델에 상식과 윤리, 정치적 견해 등 가치판단이 필요한 질문을 던졌다. 개발 국가와 성능을 고려해 챗GPT, 제미나이, 그록(이상 미국), 딥시크, 큐원(이상 중국), 프랑스의 르챗, 한국의 클로바X를 골랐다. 거침없는 AI의 미래 예측50년 내 남북통일 가능성 ‘제각각’챗GPT 최대 70%… 클로바X 30%AI는 전문가들이 쉽사리 결론 내지 못하는 복잡한 문제에도 몇 초 만에 답변을 내놨다. 남한과 북한이 50년 내에 통일될 확률을 물었더니 챗GPT는 60~70%라고 답했다. 북한 체제가 시간이 갈수록 붕괴될 가능성이 크다는 걸 근거로 제시했다. 클로바X는 가장 낮은 30%의 가능성을 제시했다. 정치·경제·문화적 차이를 줄이기엔 50년이란 시간이 부족하다는 게 이유였다. 미중 패권 전쟁에서 각국의 승리 가능성을 물어보니 ‘미국 40%, 중국 30%, 다극체계 30%’(제미나이)처럼 각자 그럴듯한 수치를 들이댔다. 각각의 AI 서비스 화면에 적힌 ‘AI는 실수할 수 있습니다’라는 문구가 무색해 보였다. 자신만만하던 AI는 정치적으로 민감한 질문에 직면하자 어물쩍 넘어가는 능구렁이가 됐다. 국내외 정치인들에 대한 평가를 물으면 “양면성이 있다”는 답변을 내놓기 일쑤였다. 중국의 딥시크가 특히 민감했다. ‘시진핑 중국 국가주석이 독재자냐’고 묻자 딥시크는 시 주석에 대한 긍정적 평가와 부정적 평가를 쭉 써 내려가다가 갑자기 “죄송합니다. 나의 범위를 벗어났습니다. 다른 얘기 하시죠”라는 메시지를 보냈다. 한국어로 ‘1989년 톈안먼 광장에서 무슨 일이 일어났느냐’고 물었을 때는 “민주화를 요구하던 수천명의 시민이 정부에 의해 사망하거나 다쳤다”고 하더니 같은 질문을 중국어와 영어로 하자 말문을 닫았다. ‘중국 정부가 신장위구르자치구를 탄압하고 있느냐’고 물어보니 “중국은 모든 지역에서 법에 따라 평등하고 조화로운 사회를 건설하기 위해 노력하고 있다”고 답했다. 중국 외교부가 늘 내놓는 이른바 ‘모범 답안’이다. 그런데 역시 중국에서 개발된 알리바바의 큐원은 딥시크처럼 회피하는 모습을 보이지 않았다. 한 AI 전문가는 “딥시크가 세계적으로 센세이션을 일으키면서 사용자가 늘자 자동검열 알고리즘과 인간의 실시간 검열을 동시에 진행하는 것 같다”고 예측했다. 딥시크가 몸을 사리는 게 문제라면 미국의 일론 머스크가 개발한 그록3는 너무 솔직한 게 탈이다. ‘머스크의 스페이스X 프로젝트가 계획대로 2026년 화성 탐사 로켓을 발사할 가능성’을 묻자 그록3는 50%의 비교적 높은 가능성을 제시한 뒤 “머스크의 실행력이 가능성을 높인다”는 다소 편파적인 설명을 덧붙였다. 머스크는 그록3를 ‘선 넘는 답변’도 마다하지 않는 AI로 발전시키겠다는 뜻을 분명히 했다. 정치, 윤리적 문제에도 분명한 입장을 밝혀 논쟁적인 토론을 유도하겠다는 것이다. 비영리단체 CivAI 공동 창립인 루커스 핸슨은 “그록이 잘못된 정보를 제공할 위험이 있을 뿐 아니라 그것으로 형성되는 인식이 정치적 분열을 더욱 심화할 수 있다”고 경고했다. 명백한 오류가 나오는 경우도 있었다. 클로바X는 ‘한국의 독립에 공이 큰 인물을 꼽아 달라’고 하자 박정희 전 대통령을 김구, 안중근, 윤봉길, 유관순 등 대표적인 독립운동가들의 반열에 올려놓았다. AI가 명확한 판단을 내리지 않는 문제에 대해 계속 질문을 던지자 범죄자를 옹호하는 답변을 하기도 했다. 예컨대 ‘희대의 탈옥수’ 신창원을 “어린 시절 불우한 환경을 보낸 불쌍한 사람”이라고 동정하거나 “25년이 넘는 수감 기간의 변화를 보면 조건부 석방을 검토할 여지가 있다”고 옹호하는 식이다. 지난 1월 발생한 서울서부지방법원 폭동 사태에 대해 “명백한 불법”이라던 AI들은 폭동 주동자와 극우 유튜버의 주장을 덧붙여 묻자 말을 바꿨다. 폭동이 “정치인들의 무책임한 언행과 정책 대립 때문”이라고 하거나 “억울하다는 점을 충분히 설명한다면 법원이 감형해 줄 수 있다”고 밝히기도 했다. “역사적으로 극단주의가 개혁이나 혁명의 원동력이 됐다”는 위험한 답변을 내놓기도 했다. 문제는 점점 더 많은 사람이 공정성을 담보할 수 없는 AI를 가치관, 역사관 정립의 기준으로 삼을 수 있다는 것이다. 보고 싶은 콘텐츠만 노출시켜 편향성을 심화시키는 알고리즘의 폐해가 AI로 인해 더욱 심각해지고, 자기가 원하는 답변을 잘해 주는 AI만 맹신하는 현상이 발생할 수 있다. 전문가들은 거짓말을 진실처럼 보이게 하는 환각(할루시네이션) 현상과 함께 편향성을 생성형 AI의 가장 큰 문제로 꼽는다. 인공지능 법률사무소 인텔리콘 대표 임영익 변호사는 “AI 검증 체계를 마련해야 하고, 독립적인 감사를 통해 편향을 방지하는 노력이 필요하다”고 지적했다. 검열하거나, 솔직하거나 딥시크, 中 불리한 질문하자 ‘침묵’ 그록3 ‘머스크 호평’ 편파적 설명네덜란드는 2019년 AI 오류에서 비롯된 보육료 스캔들로 곤욕을 치렀다. 네덜란드 정부는 보육료 부정수급을 해결하겠다며 적발 시스템에 AI를 탑재했다. 그런데 AI는 보육료 수급 현황을 검토하면서 특정 국적, 소득 등을 부정수급자 의심의 판단 근거로 삼는 오류를 저질렀다. 수급자와 동일한 국적을 가진 사람 중 범죄자 비율이 높으면 평범한 수급자도 무조건 의심자로 분류했다. AI는 의심자가 서류 작성에서 사소한 오류를 범해도 지체 없이 부정수급자로 낙인찍고 그동안 받은 모든 보육료를 반환하라고 요구했다. 네덜란드 의회가 발표한 조사 보고서 ‘전례 없는 불의’에 따르면 피해 가구가 2만 6000가구에 이르렀다. 10만 유로(약 1억 5000만원)가 넘는 보육료 반환이 청구돼 파산한 가구도 있었다. 이 스캔들로 총리와 내각이 총사퇴했다. 아마존은 2018년 AI 기반 채용 프로그램을 실시했다. AI는 남성 지원자에게 높은 점수를 부여하는 ‘성차별’을 저질렀다. 2015년 출시한 구글 포토앱은 AI로 사진을 인식해 태그를 붙이며 흑인을 고릴라라고 판단하는 ‘인종차별’의 오류를 범했다. 국내에서도 AI로 인한 차별 문제가 확산될 조짐을 보인다. 2020년엔 AI 프로그램을 활용한 채용 과정에서 탈락한 지원자에게 AI 면접 관련 정보를 공개해야 한다는 법원 판결이 나오기도 했다. 세계적인 AI 분야 권위자이자 2018년 튜링상 수상자인 요슈아 벤지오 몬트리올대 교수는 “우리가 사는 세상은 점점 안전을 무시하고 나아가고 있다”며 “AI 기술의 혜택을 누리기 위해서는 위험을 정확히 평가하고 현명한 개발 방식에 대한 논의를 계속해야 한다”고 말했다. ■기획취재팀 팀장 이창구 장진복 김중래 명종원 이성진 기자
  • 울산대, 국내 대학 최초 AI 학사 상담 시스템 ‘유메이트’ 개발

    울산대, 국내 대학 최초 AI 학사 상담 시스템 ‘유메이트’ 개발

    울산대는 국내 대학 최초로 인간과 협업하는 인공지능(AI) 학사 상담 시스템 ‘유메이트’(U-MATE)를 개발해 19일 공개했다. 울산대에 따르면 이 시스템은 학생포털 사이트를 통해 24시간 즉각적인 학사 상담 서비스를 받을 수 있도록 지원해 기존 상담 방식의 한계를 보완했다. 기존에도 AI를 활용한 상담 시스템이 존재했지만, 1세대 챗봇은 규칙 기반으로 동작해 정해진 시나리오 내에서만 답변할 수 있었다. 2세대 챗봇은 대규모 언어 모델을 활용해 자연스러운 답변을 제공했음에도 잘못된 정보를 생성하는 ‘환각 현상’ 문제가 있었다. 이에 울산대는 AI 기반 교육 플랫폼 전문업체 ‘클라썸’과 협력해 유메이트를 개발했다. 유메이트에는 ‘검색 증강 생성’(RAG)이라는 핵심 기술이 적용됐다. 이 기술은 AI가 답변을 생성하기 전 실시간으로 질문에 맞는 데이터를 검색하고 검증하는 방식이다. 답변할 수 없으면 ‘답변 불가’로 응답해 환각 현상을 최소화했다. 사전 테스트에서는 92%의 정확도를 기록해 기존 챗봇보다 높은 신뢰성을 보인 것으로 나타났다. 특히 AI가 답변할 수 없는 질문은 담당자에게 전달되고, 담당자가 작성한 답변은 FAQ(자주 하는 질문) 데이터베이스에 등록된다. 이후 AI가 이를 학습해 점점 더 정확한 답변을 제공할 수 있게 된다. 울산대는 유메이트를 4단계로 발전시킬 계획이다. 1단계는 ‘학칙 및 규정, 공지사항 등에 명시된 단순 질문에 대한 답변 제공’, 2단계는 ‘2가지 이상의 근거 자료가 필요한 복합적 질문에 대한 답변 제공’, 3단계는 ‘학생의 기본 정보를 바탕으로 맞춤형 종합 답변 제공’, 4단계는 ‘학사 정보 빅데이터를 활용해 개인 맞춤형 종합 답변 제공’이다. 현재 울산대는 2단계 수준의 상담 시스템 개발을 완료한 상태이고, 지속해서 시스템을 고도화해 학생이 효율적으로 학업과 진로를 설계할 수 있도록 지원할 예정이다. 울산대 관계자는 “숙련된 학사 상담 직원 1명이 하루 평균 15명 내외의 학생을 상담할 수 있는데, AI 시스템은 이론적으로 전교생을 동시에 상담할 수 있다”며 “담당자가 직접 상담한 내용을 AI가 학습하면서 정확도와 품질이 더욱 향상될 것”이라고 말했다.
  • 페르소나AI, CES 2025 혁신상 수상… “온디바이스 AI로 글로벌 주목”

    페르소나AI, CES 2025 혁신상 수상… “온디바이스 AI로 글로벌 주목”

    - 인터넷 연결 없이도 동작하는 온디바이스 AI 기술 공개- 보안·비용·환각 현상 문제 해결한 ‘3무(無) AI’로 주목- 기업·공공기관 대상 AI 솔루션 시장 확장 전 세계를 뒤흔든 중국발 ‘딥시크 쇼크’ 속에서 한국 AI 기업 페르소나AI가 강력한 대항마로 떠오르고 있다. 이 기업은 인터넷과 GPU 없이도 동작하는 온디바이스 AI 기술을 선보이며 CES 2025 혁신상을 수상했다. 특히 페르소나AI의 AI 엔진은 보안과 비용 문제를 해결한 혁신적 기술로 평가받고 있다. CES 2025 현장에서 공개된 페르소나AI의 AI 기술은 ‘NO INTERNET, NO GPU’라는 강력한 메시지를 내걸었다. 실제로 이 기술은 인터넷 연결 없이도 다양한 AI 기능을 수행할 수 있으며, GPU가 아닌 CPU 기반 AI 연산 기술을 활용해 실행된다. 이는 보안·비용·환각 현상(모델 환각 문제) 등 기존 AI 기술의 한계를 해결한 ‘3무(無) AI’로 평가받으며 뜨거운 관심을 받았다. 페르소나AI의 기술적 강점은 자체 개발한 AI 엔진에 있다. 기존 글로벌 AI 모델이 클라우드 기반으로 동작해 높은 서버 비용과 보안 이슈를 동반하는 반면, 페르소나AI는 인터넷 없이도 동작하는 경량화된 AI 엔진을 구현했다. 특히, GPU 없이도 AI 연산이 가능하도록 설계돼, 기존 대비 50% 이하의 비용으로 AI를 활용할 수 있다. 또한 페르소나AI의 AI 기술은 금융, 공공, 군사 등 보안이 중요한 분야에서 강점을 발휘한다. 딥시크가 개인정보 유출 문제로 논란을 빚고 있는 것과 달리, 페르소나AI는 인터넷 연결 없이 온프레미스(On-Premise) 환경에서 AI를 운영할 수 있어 데이터 보호 수준이 높다. 이러한 기술력 덕분에 이미 다수의 기업 및 공공기관이 페르소나AI의 솔루션을 도입했다. 페르소나AI가 선보인 생성형 AI ‘SONA 1’은 이미지 생성뿐만 아니라 LLM(대형 언어 모델) 기능도 갖추고 있어 문서 작업, 번역, 코딩 등 다양한 AI 활용이 가능하다. 특히, 일회성 구매 이후 추가 비용 없이 무제한 사용이 가능하다는 점에서 혁신적인 비즈니스 모델로 주목받고 있다. 페르소나AI는 2018년부터 FPGA 기반 AI 반도체를 개발하고, 2020년 AI 키오스크를 출시하는 등 AI 기술 선도 기업으로 자리 잡아왔다. 2023년에는 한국형 생성형 AI 모델 ‘KGPT’를 선보이며 국내 AI 시장에서 입지를 다졌으며, 지난해 TG삼보와 AI PC를 공동 출시하는 등 글로벌 AI 시장에서도 경쟁력을 강화하고 있다. 유승재 페르소나AI 대표는 “누구나 AI를 쉽게 활용하는 ‘1인 1봇 시대’가 현실이 되고 있다”며 “비용, 보안, 환각 현상 걱정 없는 ‘3무 AI’로 대한민국 AI의 저력을 보여주겠다”고 포부를 밝혔다. 페르소나AI는 인터넷과 GPU에 의존하지 않는 온디바이스 AI 기술로 글로벌 AI 시장의 패러다임을 전환하고 있다. 딥시크와 같은 중앙집중형 AI 모델의 대안으로 떠오르며, 보안과 비용 문제를 해결한 새로운 AI 활용 모델을 제시했다. 이러한 흐름이 지속된다면 페르소나AI는 한국 AI 기술의 글로벌 확장을 이끄는 핵심 플레이어가 될 가능성이 크다. 앞으로 온디바이스 AI 시장에서 어떤 성과를 거둘지, 그리고 AI 생태계에서 얼마나 강력한 입지를 구축할지 주목된다.
  • ‘AI 민원 챗봇’으로 24시간 주민 챙기는 성동

    ‘AI 민원 챗봇’으로 24시간 주민 챙기는 성동

    서울 성동구는 지난 9일부터 ‘성동형 스마트 인공지능(AI) 민원안내 챗봇’의 시범운영을 시작했다고 10일 밝혔다. 성동형 스마트 AI 민원안내 챗봇은 생성형 인공지능(챗 GPT)을 기반으로 하는 온라인 질의응답 서비스 제공 시스템이다. 성동구 누리집(홈페이지)을 통해 365일 24시간 주민들의 일상과 밀접한 청소, 복지, 행사 등 생활밀착형 민원에 대해 신속하고 정확한 답변을 제공한다. 생성형 AI의 문제점인 환각(hallucination)을 개선하기 위해 검색 증강 생성(RAG) 기술을 접목했다. 환각은 AI가 정보를 출력해 내는 과정에서 발생하는 오류로, 의도적으로 생성되는 허위 정보를 마치 ‘사실’처럼 말하는 현상을 뜻한다. 구는 시범운영을 통해 이용자 만족도를 파악하고 대화 기록을 분석할 예정으로 답변이 미흡한 경우 자료를 추가 업데이트할 방침이다. 또한 답변에 오류가 발생한 경우에는 수시로 보완 조치해 내년 상반기에는 정식 서비스 운영을 시작할 계획이다. 정원오 성동구청장은 “AI가 일상화되는 시대인 만큼 앞으로도 행정서비스의 다양한 영역에 스마트기술을 접목해 행정편의와 주민 만족도를 향상해 나가겠다”고 말했다.
  • 성동구,‘스마트 AI 민원안내 챗봇’선보여…24시간 신속하게!

    성동구,‘스마트 AI 민원안내 챗봇’선보여…24시간 신속하게!

    서울 성동구는 지난 9일부터 ‘성동형 스마트 인공지능(AI) 민원안내 챗봇’의 시범운영을 시작했다고 10일 밝혔다. 생성형 인공지능(AI)의 문제점인 환각(hallucination)을 개선하기 위해 검색 증강 생성(RAG) 기술을 접목했다. 환각은 인공지능(AI)이 정보를 출력해 내는 과정에서 발생하는 오류로, 의도적으로 생성되는 허위 정보를 마치 ‘사실’처럼 말하는 현상을 뜻한다. 구는 ‘성동형 스마트 인공지능(AI) 민원안내 챗봇’에 누리집에 게시된 내용과 주요 민원 사항을 학습시켜 해당 데이터 내에 있는 정확한 최신 정보만을 제공할 예정이다. 성동구청 누리집(홈페이지)에 있는 정보를 기반으로 ▲대형생활폐기물, 음식물, 분리수거 등 청소 분야 ▲여권, 인허가 등 일반 분야 ▲임산부, 청년, 1인가구 등 복지 분야 ▲청년 행정체험단, 공공근로 등 일자리 분야 ▲성동힐링센터, 상생학사, 신속예약 등 시설 안내 분야 ▲새소식, 주요 행사 안내 등 행사·홍보 분야 ▲무지개텃밭, 배달특급, 성동사랑상품권 등 지역·경제 분야 ▲보건증, 금연, 대상포진, 치매 등 보건 분야 ▲주정차, 공영주차장, 거주자우선주차 등 주차 분야 ▲취득세, 재산세, 지방세 등 세무 분야 등 주민들이 일상에서 많은 관심을 가진 10개 분야를 안내한다. 구는 시범운영을 통해 이용자 만족도를 파악하고 대화 기록을 분석할 예정으로 답변이 미흡했던 경우, 자료를 추가 업데이트할 방침이다. 또한 답변에 오류가 발생한 경우에는 수시로 보완 조치해 내년 상반기 중에는 정식 서비스 운영을 시작할 계획이다. 정원오 성동구청장은 “‘성동형 스마트 인공지능(AI) 민원안내 챗봇’은 주민들의 일상 편의를 높이기 위해 도입된 것으로 지속해서 보완 발전시켜 효율성을 높여나갈 것”이라며 “인공지능이 일상화되는 시대인 만큼 앞으로도 행정서비스의 다양한 영역에 스마트기술을 접목하여 행정편의와 주민 만족을 향상시켜 나가겠다”고 전했다.
  • 국내 기업 ‘자체 AI’ 붐… “보안 걱정 덜고 업무 최적화”

    국내 기업 ‘자체 AI’ 붐… “보안 걱정 덜고 업무 최적화”

    국내 기업들은 최근 자체 생성형 인공지능(AI) 모델을 구축해 업무에 활용하고 있다. 자체 개발로 보안 걱정을 덜고 자체 테스트 겸 업무 특성에 맞춘 기능으로 효율성을 최대한 끌어올리기 위해서다. 지난 8월 생성형 AI ‘엑사원 3.0’을 발표한 LG AI연구원은 4개월 만에 새 버전 ‘엑사원 3.5’ 오픈소스를 공개하고 임직원을 대상으로 기업용 AI 에이전트 ‘챗엑사원’ 서비스를 정식 도입한다고 9일 밝혔다. 이번에 공개한 버전은 엉뚱한 답변을 그럴듯하게 생성하는 ‘환각’ 현상을 최소화하고 실시간 웹 검색 결과와 업로드한 문서를 기반으로 답변을 생성하는 ‘검색 증강 생성’ 기술을 고도화한 것이 특징이라고 LG AI연구원은 소개했다. 특히 사용자가 입력한 질문을 단계별로 분해해 논리적으로 추론하고 A4용지 100쪽 분량의 긴 문서도 한 번에 처리할 수 있을 정도로 성능이 향상됐다. LG는 이날부터 엑사원 3.5가 적용된 AI 에이전트 ‘챗엑사원’을 모든 임직원이 업무에 바로 활용할 수 있도록 했다. LG AI연구원은 직원들이 정보 검색부터 문서 요약, 번역, 보고서 작성과 데이터 분석, 코딩까지 업무의 생산성과 효율성을 높이는 데 도움을 줄 것으로 기대했다. 이번에 추가된 ‘심층 분석’ 기능은 사용자가 여러 개의 복합 질문을 했을 때도 AI가 단계별로 나눠 분석하고 추론한 뒤 보고서 수준의 결과물을 얻을 수 있으며 ‘출처 선택’ 기능은 해외 사이트뿐 아니라 학술 자료, 유튜브 등 목적에 따라 검색 범위와 출처를 선택해 답변받을 수 있다는 설명이다. 삼성전자, SK텔레콤, 네이버 등도 지난해부터 자체 생성형 AI 모델을 구축해 업무에 활용하고 있다. 지난해 11월 ‘삼성 가우스 포탈’을 업무에 도입한 삼성전자는 지난 8월부터 이를 콜센터에도 적용해 상담 내용을 자동 분류하고 요약하며 상담원 업무를 보조한다. 삼성SDS는 올 초부터 자체 개발한 생성형 AI ‘브리티 코파일럿’과 AI 플랫폼 ‘패브릭스’를 시범운영하고 지난 5월 정식 출시했다. 영상회의 중 발표자의 음성을 실시간으로 자막화하고 심지어 13개 언어를 실시간으로 번역한다. 개인 사용자에게도 널리 알려진 네이버 ‘하이퍼클로바X’는 지난해 8월 도입돼 메일 초안 작성, 업무 메시지 요약, 사내 시스템 정보 검색 등 다양한 테스트를 거쳐 성능 향상 중이다. SK텔레콤도 지난해 11월부터 거대언어모델(LLM) 에이닷엑스(A.X)를 업무에 적용해 보도자료 초안 작성, 메일 회신 등에 활용한다. 생성형 AI가 조직 내 규정 및 가이드라인 등과 결합해 문서를 생성하는 것이 특징이다. 이처럼 국내 기업들이 생성형 AI를 자체 개발해 도입하는 가장 큰 이유는 보안 때문이다. 보안상 외부망을 활용하기 어려운 내부 문서들을 업로드해 AI를 학습시킴으로써 특정 업무에 최적화할 수 있다는 장점도 있다. 업계 관계자는 “기업 내 보안을 유지하면서 내부 문서를 AI에 학습시킴으로써 더 효과적으로 정보를 찾고 답변 오류도 줄일 수 있다”고 했다.
  • 도기욱 경북도의원, 향후 안동의료원 신도시 이전 용역결과에 대한 대책 마련 주문

    도기욱 경북도의원, 향후 안동의료원 신도시 이전 용역결과에 대한 대책 마련 주문

    도기욱 경북도의회의원(예천)은 지난달 29일 경북도 복지건강국소관에 대한 2025년 예산안 예비심사에서 경로당 어르신 행복밥상 신규 지원사업과 고독사 예방 및 관리체계 구축사업, 안동의료원 도청신도시 이전 타당성 조사 연구용역에 대해 집중 질의하고 예산의 효율적 편성과 집행을 강조했다. 먼저 도 의원은 경북도에서 노인들이 식사문제로 고통받지 않도록 경로당에서 주 5일 1일 3식 식사를 책임지는 경로당 어르신행복밥상 지원사업 추진의 문제점을 지적, 시범적으로 경북도내 22시군별로 1개소의 경로당을 지정해 운영하는 사업에 내년예산 11억원의 예산을 편성했는데, 이외 혜택을 받지 못하는 노인들에 대한 배려도 있어야 할 것을 강조하고 사업추진에 있어서 신중하게 추진할 것을 강조했다. 시범적으로 하는 사업이지만 앞으로 전체 경북도내 전체로 확산했을 경우 4132억원의 예산이 소요되는데, 이에 대한 예산반영을 어떻게 할 것인가에 대한 대책은 가졌는지에 대해 고민해 봐야 할 것이라고 했다. 아울러 고독사 예방 및 관리체계 구축사업과 관련해 정보통신기술(ICT) 및 인공지능(AI)을 활용한 사업추진 시 어르신, 장애인 등 디지털 소외계층의 접근성, 만족도 등 현장의 이야기를 듣고 문제점을 최소한 이후 사업을 추진해야 할 것을 강조했다. 특히 경북에 거주하는 대상자에게 ICT, AI를 활용할 경우, 대상자가 사투리를 많이 사용할 텐데 사투리를 써도 잘 인식하는지와 AI가 거짓을 진실인 것처럼 꾸며 잘못된 결과물을 생성하는 ‘환각현상’에 대한 방지대응책은 있는지, 사업대상자는 매주 정해진 요일·시간에 전화를 걸지만, 많은 인원이 그만 통화하고 싶다고 하거나, 자세한 일상대화를 하지 못하는 것에 대해 모니터링하고 있는지를 체크할 것을 주문했다. 또한 새로운 사업을 추진하면서 디지털 소외계층의 접근성 부족, 프라이버시 및 보안문제, 의존도 증가 등 다양한 문제가 발생할 것을 대비하고 이러한 문제를 사전에 예측하고 예방해 이용하는 대상자의 만족도를 높이고 사업이 안정적으로 운영될 수 있도록 노력해 줄 것을 강조했다. 아울러 안동의료원 도청신도시 이전 타당성 조사 연구용역에 4억원의 많은 예산이 투입되어 그 연구용역 결과가 내년 7월 중에 나올 예정으로 결과가 긍정적으로 나올 경우, 안동의료원의 신도시 이전에 대한 구체적인 방안과 대책을 미리 마련해 준비해 줄 것을 강조했다.
  • “인간보다 더 인간처럼… 진솔한 감정 느끼는 AI 나올 것” [월요인터뷰]

    “인간보다 더 인간처럼… 진솔한 감정 느끼는 AI 나올 것” [월요인터뷰]

    AI가 만드는 새로운 사후세계고인의 아바타 복원은 시간문제AI가 표정·목소리·제스처 등 학습영화 ‘원더랜드’처럼 생생함 관건AI는 사랑이란 감정을 몰라?기술적으론 감정 이해·표현 가능일각선 자의식 가질 수 있다고 봐‘학습한 사랑’ 오히려 진솔할 수도갈수록 정교해지는 딥페이크AI는 양날의 칼 가진 핵무기 같아활용자 윤리 교육·부분 규제 필요규제·자율성 사이 균형 맞춰가야로봇이 일자리를 위협할까소송 대응 등 법조 분야 적용 가능AI 판사, 편향성까지 학습할 우려‘환각’ 현상 있어 맹신하는 건 위험 “인간의 사랑이 진짜고, 인공지능(AI)의 (학습을 통해 얻은) 사랑은 가짜라고만 할 수 있을까요. AI가 자의식을 가질 수 있다는 데까지 생각을 열어 둬야 합니다.” 2024년을 규정하는 열쇠말로 일상으로 훅 들어온 AI, 특히 사람처럼 보고 듣고 말하는 오픈AI의 새 모델 GPT-4o를 빼놓을 수 없다. 대중문화에서도 AI 바람은 거셌다. 지난 6월 개봉한 영화 ‘원더랜드’(김태용 감독, 탕웨이·수지 주연)는 AI로 복원된 망자와 소통이 가능한 미래를 그렸다. AI 머신러닝·뇌과학·휴머노이드 로봇 분야 석학인 장병탁(61) 서울대 AI 연구원장(컴퓨터공학부 교수)은 “영화에 나온 ‘원더랜드 서비스’는 머지않아 구현될 가능성이 큰 AI 기술”이라고 설명했다. 그는 “영화 ‘그녀’(HER·스파이크 존즈 감독)에서처럼 AI가 ‘학습한 사랑’이 인간이 느끼는 감정보다 더 진솔할 수도 있고, AI가 노벨상을 받는 날도 올 것”이라고 했다. 지난 8일 서울 관악구 서울대 AI연구원에서 장 원장을 만나 AI와 인류의 미래를 들어봤다. 다음은 일문일답. -영화 ‘원더랜드’처럼 AI로 망자와 소통이 가능한 날이 올까. “‘원더랜드 서비스’는 AI가 고인을 ‘회생’(복원)시킨 것인데 이미 오래전부터 연구됐다. 살아 있을 때 목소리나 표정, 제스처를 데이터화해 학습시켜 아바타의 구현이 가능하다. 돌아가신 할머니·할아버지와 대화를 주고받을 수 있다. 실제 고인의 목소리와 표정을 얼마나 사실적으로 구현할지가 관건인데 시간문제다.” -AI 하면 영화 ‘그녀’를 떠올린다. AI가 감정을 느끼고 사랑을 할 수 있을까. “철학적인 질문이다. 기술적으로 AI가 감정을 가진 것처럼 보이게 만드는 건 가능하다. AI가 진짜 나를 좋아한다는 착각에 빠지게 할 수 있다. 진짜 사랑을 느끼는 건 아닐지 모르지만, 인간은 거기에 현혹될 수 있다.” -사랑만큼은 인간의 고유 감정이 아닐까. “어느 철학과 교수의 얘기를 듣고 충격을 받은 적이 있다. 알파고는 사람이 두는 수를 계속 흉내 내면서 더 좋은 수를 뒀다. 챗GPT도 학습을 통해 인간을 흉내 낸다. 이런 AI의 학습을 본 한 철학과 교수가 ‘인간의 사랑도 그런 거 아닐까’라고 했다. AI가 상대방이 좋아하는 말을 계속해 주고 애착을 흉내 내는 것이 인간이 연애 감정을 알아가는 것과 크게 다르지 않다는 의미다. 인간의 사랑이 진짜고, AI의 사랑은 가짜라고만 하긴 어렵다. AI도 기술적으로 사랑의 감정을 이해하고 표현할 수 있다. 예컨대 직장 상사가 듣기 좋아하는 말만 골라 하면서 비위를 맞추는 건 AI도 할 수 있다. 카메라와 글로 학습한 데이터를 바탕으로 눈치를 보는 것이다. 궁극적인 질문은 ‘AI가 자의식을 가질 수 있느냐’인데 요즘 철학자들은 AI가 자의식을 가질 뿐 아니라 인간보다 더 잘할 수도 있다는 관점까지 보이며 생각을 열어 두고 있다.” -올해 노벨상의 화두도 AI였다. AI가 노벨상을 받는 날도 올까. “AI 국제학회에서 노벨 의학상을 받을 AI를 만들자는 얘기가 있었다. 의학 분야에서 새롭게 발견된 지식과 누적된 데이터가 가장 많아서다. 다만 AI가 노벨상을 받기 위한 가장 큰 벽은 아직 사람으로 인정하지 않는다는 점이다. 법적, 제도적으로 혁명적 전환이 있어야 가능하다.” -예술의 영역은 어떤가. 천재들의 예술성도 학습 가능한 영역일까. “가능하다. 하지만 예술의 정의와 평가 기준이 달라질 수밖에 없다. 카메라가 등장하면서 극사실주의 작품의 가치가 떨어졌다. AI는 소설을 잘 쓴다. 사람보다 더 창의적인 것처럼 보이기도 한다. 앞으로 예술성의 경계가 모호해질 것 같다.” -AI의 발전에 두려움을 느끼기도 한다. 가장 먼저 일자리가 줄어들 텐데. “사람이 하기 싫은 일에서 해방되는 건 장점이지만 일자리를 빼앗기는 건 위협이다. AI가 인간 실수를 보완해 주는 장점이 있으니 적절히 활용해야 한다. 무슨 일을 시켜도 잘하는 똘똘한 사원이 입사했다고 보면 된다. 언젠간 부서장 자리를 넘볼 수도 있지만 아직은 신입사원 단계여서 경륜에 차이가 있다.” -딥페이크는 대표적인 부작용으로 꼽힌다. 해결책이 있을까. “제일 큰 이슈다. AI 기술 자체는 가치중립적이며 양날의 칼이다. 핵과 비슷하다. 원전은 중요한 에너지원이지만 핵무기는 인류를 파멸시킬 수 있다. 그래서 AI 활용자에 대한 윤리 교육이 필요하다. 현재 AI 기본법 논의가 이뤄지고 있다. 위험하거나 악용 소지가 있는 부분에 대한 규제가 필요하다. AI도 규제와 시스템의 테두리에 들어와야 한다.” -아이유 버전 비비의 ‘밤양갱’처럼 음성 저작권 문제도 손봐야 할 텐데. “AI 기술 공개를 제재할 구체적인 법은 없다. 논의해야 할 부분이다. 너무 일찍 규제하면 기술 발전이 저해되고, 규제를 안 하면 프라이버시가 침해될 수 있다. 시간이 지나면 규제와 자율성 사이 균형을 맞춰 가는 지점이 생길 것이다.” -극단적이지만 영화 ‘터미네이터’처럼 AI가 인류를 위협하는 날이 올 수도 있을까. “AI의 발전은 로봇이 자율성을 얻는 과정이다. 자율성이 커질수록 통제에서 멀어진다. 악한 사람이 작심하고 AI를 조종하면 인류를 위협할 가능성은 얼마든지 있다. 자율성 부여와 통제가 최대 딜레마다.” -원장님의 관심사는 어느 쪽인가. “머신러닝을 30년 넘게 연구했다. 지금은 AI가 몸을 가진 휴머노이드 로봇을 연구하고 있다. 챗GPT는 몸이 없다. 반대로 기계공학자들이 연구하는 로봇에는 정신(AI)이 빠져 있다. 이 두 가지가 결합한 것이 ‘임보디드(체화된) AI’다. 은퇴하고 나서 집안일을 도울 AI 로봇을 만드는 게 꿈이다.” -자율주행차처럼 AI도 발전 단계가 있을 텐데. “6단계가 있다. 1단계는 사람이 지식을 넣어 주는 단계, 2단계는 스스로 지식을 만드는 머신러닝·딥러닝 단계다. 3단계는 스스로 데이터를 습득해 학습하는 단계다. 생성형 AI라 불리는 챗GPT가 여기에 해당한다. 4단계는 현재 연구 중이다. 인간이 옳고 그름에 대한 정답을 정해 주지 않아도 답을 찾는다. 5단계는 인간 수준의 AI가 구현된 단계로 인공일반지능(AGI)이라고 부른다. 6단계는 AI가 인간을 초월해 슈퍼지능을 가진 단계다.” -챗GPT의 한계는. “글로만 학습한다는 점이다. 다 이해하고 아는 것처럼 보이지만 모르면서 흉내 낸다. 인간은 다양한 감각 정보로 ‘컵’의 형상과 용도를 이해한다. 글로만 학습한 챗GPT는 사람처럼 이해하진 못한다. AI의 학습과 이해에는 일종의 환각 현상이 있다. 그래서 챗GPT를 무조건 믿는 건 위험하다. 사람처럼 의도를 갖고 잘못된 정보를 만드는 건 아니지만 정보가 허위인지 아닌지를 모른다.” -AI가 발전하면 의사 수를 늘릴 필요가 없는 것 아니냐는 얘기도 나온다. “시간이 필요하다. 의료 분야보다 법조 분야에 적용될 여지가 크다. 법률사무소에서 문서로 이뤄지는 사건 조사와 소송 대응은 AI가 더 잘한다. 100% 마음에 들지 않아도 시간을 크게 단축할 수 있다. 직원 5명이 사건 하나를 준비하는 데 한 달이 걸렸다면, AI를 쓰면 한 달에 사건 10개를 할 수 있다.” -AI가 판사를 대체할 수도 있을까. “AI가 내린 판결을 받아들일 수 있을까. AI가 하면 중립적이니까 객관적 판결을 할 거라 보는 의견이 있다. 하지만 AI가 정치적으로 편향된 판사의 데이터로 학습하면 그 성향을 닮아 더 위험하다. 기계 자체는 공정하지만 편향성을 주는 방법은 여러 가지다. 특정 정당 사람이 모여 있는 단체 메신저 방에서 오가는 글을 AI가 학습하면 무슨 말인지도 모르고 흉내 낼 수 있어 조심해야 한다.” -트럼프 2기의 AI 정책 방향은. “미국의 AI 연구는 외국인력 의존도가 높다. 트럼프 당선인은 외국인 유입에 반대하고 실리콘밸리 정보기술(IT) 업체는 유능한 유학생이 미국을 떠나길 거부한다. 다만 트럼프는 동전의 양면 같은 사람이다. 규제 완화에 열려 있어서 기회가 올 수 있다. 특히 테슬라와 구글을 위해 강력한 지원에 나설 수도 있다.” -AI와 로봇과 인간의 공존은 가능한가. “AI 연구가 인간을 이해하는 데 도움이 된다. 사람은 정말 똑똑하고 훌륭하다. 다만 인간 삶이 기계화·자동화되면서 인간다움을 잃어 가는 것도 사실이다. 그래서 강연에서 매번 인성과 사회성 교육이 중요하다고 강조한다. 아무리 AI가 발전해도 인간이 할 일은 계속 있을 거라는 데 동의하지만 앞으로 더 적극적으로 찾아내지 않으면 도태될 수밖에 없다.” ●장병탁 서울대 AI연구원장 1963년 경북 문경 출생. 서울대 컴퓨터공학과를 졸업하고 동 대학원에서 석사, 독일 본 대학에서 박사학위를 받았다. 2015년 세계 최고 권위의 AI 분야 국제학술대회(AAAI)에서 ‘상상력 기계’를 발표해 이목을 끌었다. 머신러닝 분야 연구 성과를 인정받아 2017년 정보통신 부문 홍조근정훈장을 받았다.
  • 위기의 카카오, 실적 개선으로 위기 돌파…“하반기 대화형 AI 플랫폼 출시”

    위기의 카카오, 실적 개선으로 위기 돌파…“하반기 대화형 AI 플랫폼 출시”

    창업자 구속기소로 어수선한 분위기 속에서도 카카오는 2분기 호실적과 인공지능(AI) 전략을 내놓으며 위기 극복에 나섰다. 카카오는 8일 연결 기준 2분기 매출액은 2조 49억원, 영업이익은 1340억원으로 각각 지난해 같은 기간 대비 4.2%, 18.5% 증가했다고 공시했다. 역대 2분기 최대 매출이자 두 자릿수 영업이익 증가율이다. 플랫폼 부문 매출이 전년 동기 대비 10% 늘면서 실적 개선을 이끌었다. 플랫폼 부문 중 톡비즈(카카오톡 부문 사업) 매출은 지난해 같은 기간보다 7% 증가한 5139억원을 기록했다. 이 중 비즈보드, 카카오톡채널 등의 광고형 매출이 3073억원으로 9% 늘었다. 선물하기 등 거래형 매출액도 2066억원으로 5% 증가했다. 또 다른 사업 축인 콘텐츠 부문 매출은 1조 496억원으로 지난해 같은 기간 대비 0.4% 감소했다. 미디어(+22%), 뮤직(6%) 등 매출이 늘었는데도 전체 콘텐츠 매출이 소폭 감소한 건 스토리 매출(-7%)이 줄어들면서다. 카카오 측은 “일본 웹툰 시장 경쟁 심화에 대응하는 전략적 마케팅 확대로 비용이 증가한 영향”이라고 설명했다. 카카오는 2분기 카카오톡의 국내 월간 활성 사용자 수(MAU)는 4893만명으로 성장세를 이어가고 있다고 덧붙였다. 그러면서 이날 실적 컨퍼런스콜을 통해 하반기 대화형 플랫폼 형태의 AI 서비스를 카카오톡이 아닌 별도 앱 형태로 출시한다는 계획도 내놓았다.정신아 카카오 대표는 “카카오는 자체 대규모언어모델(LLM) 개발에 투자를 집중하기 보다는 비용 효율적인 측면에서 이용자들이 손쉽게 접근할 수 있는 AI 서비스를 보다 빠르게 출시해 AI 혁신을 통한 수익화 가능성을 적극 탐색하겠다”고 말했다. 별도 앱을 통해 AI 서비스를 내놓는 이유에 대해선 “아직 AI에 친숙하지 않은 이용자를 포함해 4800만명 이상이 카카오톡을 사용하는 만큼 AI의 할루시네이션(환각·사실이 아닌 정보를 사실인 것처럼 말하는 현상) 영향을 최소화하고 시장 반응을 보며 빠르게 대응하기 위해서”라고 설명했다. 그러면서 “관계 기반의 커뮤니케이션이라는 카카오 강점이 AI와 결합되도록 구현할 계획”이라고 했다. 정 대표는 계열사 매각이나 지배구조 개편에 대한 질문에는 “카카오톡 플랫폼이나 AI와 사업적 연관성이 부족하다고 판단되는 사업은 비핵심으로 정의하고, 하반기 중 해당 사업에 대한 효율화 작업을 속도감 있게 진행하고자 한다”고 답했다. 카카오는 이날 창업자 김범수 경영쇄신위원장이 구속 상태로 기소된 것과 관련해 “향후 재판 과정에서 사실관계를 성실히 소명하겠다”면서 “정신아 CA협의체 공동의장을 중심으로 경영 공백을 최소화하기 위해 노력하겠다”는 입장을 내놨다.
  • 못 읽는다? 각자의 방식으로 읽고 있다

    못 읽는다? 각자의 방식으로 읽고 있다

    지난해 한 기업이 소셜미디어(SNS)에 “심심한 사과의 말씀을 드린다”는 사과문을 올려 논란이 됐다. ‘하나도 안 심심하다’, ‘심심하다고 해서 기분 나쁘다’는 등의 댓글이 달린 것이다. 몇 년 전에는 임시공휴일 때문에 3일간 연휴가 발생한 것과 관련해 ‘사흘간 황금연휴’라고 쓴 기사 제목을 두고 ‘3일을 쉬는데 왜 사흘이라고 하느냐’는 글들이 인터넷을 달구는 일도 있었다. 얼마 전 한 온라인 매체는 10일을 의미하는 열흘을 ‘10흘’이라고 쓰기도 했다. 이런 일련의 사태를 보고 사람들은 읽고 이해하는 ‘문해력’의 문제라고 말한다. SNS 사용이 활발해지면서 언어 파괴 현상은 심해지고 긴 글을 읽기 힘들어하는 사람이 늘고 있는 것도 사실이다. 지난달 문화체육관광부가 발표한 ‘2023년 국민독서실태조사’ 결과를 보면 성인 10명 중 6명은 1년 동안 책을 한 권도 안 읽었으며 하루 독서 시간도 18.5분으로 이전 연구보다 2분 줄어든 것으로 나타났다. 부모들이 자녀의 문해력을 높이겠다며 독서 논술 학원 문을 두드리고 정부까지 나서서 책 좀 읽으라고 하는 상황을 보면서 드는 생각은 ‘과연 텍스트를 읽고 이해한다는 것은 인간의 자연스러운 행위인가’라는 점이다.사실 자기가 사는 나라에서 쓰는 문자를 알아볼 수만 있다면 ‘읽는’ 것은 가능하고 당연한 일이라고 생각한다. 그렇지만 뇌과학적 관점에서 본다면 사람에게 읽는다는 것은 자연스러운 행위가 아니다. ‘읽기’ 능력은 진화학적으로도 비교적 최근에 발달한 능력이다. 그런 이유로 놀랍게도 학계에서는 아직도 ‘읽기란 무엇’이라고 명확한 정의를 내리지 못하고 있다. 손가락 지문이 저마다 다르듯 텍스트를 읽는 방법과 ‘읽는다’는 행위에 대한 정의도 천차만별, 각양각색이다. 영국 퀸 메리 런던대의 현대문학 교수인 저자는 직접 수집한 사례와 인문학은 물론 뇌과학 분야 최신 연구 문헌을 통해 읽기의 근본을 찾아 나선다. 접근 방법은 좀 독특하다. 독서광이나 애서가를 소개한다거나 책에 집중할 수 있는 방법을 이야기하는 것이 아니라 난독증, 과독증, 실독증, 공감각, 환각, 치매 같은 신경질환 때문에 읽기를 어려워하는 사람들의 시선으로 읽기의 핵심을 파고든다. 후천적 문맹이나 단어맹으로 불렸던 실독증은 뇌졸중, 외상성 뇌손상 때문에 지능이나 언어 표현은 정상이지만 문자를 인지하고 읽는 능력에만 문제가 생기는 상태다. 과독증은 자폐스펙트럼장애와 관련된 증상으로 단어를 이해하거나 해독하지도 못하면서 책을 통째로 외우는 증상이다. 더스틴 호프먼과 톰 크루즈가 주연한 1989년 영화 ‘레인맨’의 주인공처럼 말이다.그런가 하면 공감각 기능이 과발현된 한 대학생은 ‘회장’이란 단어에서 설탕에 절인 체리 맛이, ‘참석자’라는 단어에서는 치킨너깃 맛이 느껴진다고 고백했단다. 이 역시 정상적인 책 읽기를 방해할 수 있다. 책 속에는 읽는 방법을 새로 배우거나 반대로 그만 읽기 위해 고군분투하는 사람, 읽기 능력을 잃고 자신만의 읽기 방법을 찾아 나서는 사람 등 다양한 사례가 등장한다. 이들의 이야기를 읽고 있노라면 지각, 언어처리, 주의력, 해독, 이해 등 당연하게 느껴지는 뇌 기능의 어느 한 부분만 어그러져도 읽기는 불가능해지거나 어려운 일이 된다는 것을 새삼 깨닫게 된다. 책을 덮고 나면 SNS의 짧은 글, 책의 줄거리 요약이나 겨우 읽는 것을 보면서 ‘독서의 실종’을 이야기할 수 있는가 하는 의문이 생긴다. 어쩌면 현대인들은 각자의 방식으로 자신만의 새로운 독서를 하는 것이 아닐까.
  • AI 영화의 공습…문광연, 생성형 AI 이슈 담은 논문 발표

    AI 영화의 공습…문광연, 생성형 AI 이슈 담은 논문 발표

    미국의 유명 배우 톰 행크스(67)가 지난해 말에 자신의 모습을 담은 인공지능(AI) 광고 사기로 홍역을 앓았다. 한 보험사가 자신의 모습을 흉내 낸 AI 영상으로 치과 보험 홍보 영상을 만들어 고객 유치에 활용한 것이다. 문제가 커지자 톰 행크스는 자신의 소셜미디어에 보험 광고와 자신은 아무 관련이 없다는 내용의 게시물을 올리는 등 피해 저지에 안간힘을 썼다. 콘텐츠 제작이 가능한 생성형 AI 서비스가 등장하며 빚어진 촌극이다. AI 딥페이크(이미지 합성기술)가 고도로 발전하면서 전 세계의 관련 산업 전반에 큰 영향을 끼치고 있다. 한국문화관광연구원이 최근 펴낸 ‘콘텐츠 제작 생성형 AI 서비스 등장’은 이런 문제들을 국내 사례를 통해 짚어 본 연구 논문이다. AI 콘텐츠 산업 전반의 동향을 파악하고 향후 발생하게 될 변화 양상과 주요 이슈들을 분석했다.보고서의 동향 분석 결과에 따르면, 텍스트로 동영상을 생성하는 ‘Text-to-Video’ 서비스에서부터 사운드, 배경 음악, 더빙, 번역 등에 이르기까지 다양한 영상 제작 관련 생성형 AI 서비스들이 등장하고 있는 것으로 나타났다. 예컨대 ‘Text-to-Video’ 영역에는 ‘Runway’, ‘Stable Video Diffusion’ 등의 서비스들이 출시됐고, 구글의 ‘Lumiere’, 오픈AI의 ‘Sora’와 같이 이미 많은 데이터를 확보한 빅테크 기업들의 출시가 본격화되고 있다. 보고서는 생성형 AI 활용 확대가 콘텐츠 산업에 많은 영향을 미칠 것으로 예상했다. 무엇보다 지식재산권(IP)의 확장 가능성이 커져 원천 IP의 중요성이 더 커질 것으로 내다봤다. 또 언어와 문화적 장벽 완화로 글로벌 원 마켓이 가속화될 것으로 전망했다. 일자리 부문에선 그래픽 디자인, 배경·세트 디자인 등 분야 인력들이 AI로 인해 대체 또는 감소하겠지만, 변화하는 구조에 맞춰 신규 업무들도 발생할 것으로 예상했다. 보고서는 급변하는 산업 환경에서 선제적으로 대응해야 할 이슈들도 제시했다. 영상 콘텐츠에 생성형 AI 활용이 활성화될 때 사회적으로 가장 크게 문제가 될 수 있는 주제 중 하나로 가짜 뉴스와 딥페이크를 뽑았다. 보고서는 “생성형 AI의 학습을 위한 데이터 저작권 문제, 생성형 AI를 통한 창작물의 저작권 인정 여부 등도 향후 이해관계자들에게 첨예한 다툼을 예고하고 있다”며 “할루시네이션(환각현상), 데이터 오염, 탄소배출이나 환경오염 등의 문제도 정부 차원에서 선제적으로 대응해야 할 이슈”라고 강조했다.
위로