찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • 딥페이크
    2026-03-28
    검색기록 지우기
  • 풍력단지
    2026-03-28
    검색기록 지우기
  • 차관 인선
    2026-03-28
    검색기록 지우기
  • 항공기
    2026-03-28
    검색기록 지우기
  • 항공우주
    2026-03-28
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
736
  • 서운한 이재명, 이낙연 직격 “자기 지지자들 마타도어 살펴보시라”

    서운한 이재명, 이낙연 직격 “자기 지지자들 마타도어 살펴보시라”

    “알지도 못하는 사람들이 한 일인데징계하고 직위해제한 건 최선 다한 것”“공직의 사적남용, 가족 범죄 봐줬으면”18일 “공직선거법 아닌 내부지침 위반”이낙연, 이재명에 “인사 아닌 위법 문제”더불어민주당의 유력 대권주자인 이재명 경기도지사가 19일 경기도 유관기관 공무원의 ‘소셜네트워크서비스(SNS) 비방’ 의혹과 관련해 이낙연 전 민주당 대표가 “위법 문제”라며 법적 처벌 등 공세를 멈추지 않자 “이낙연 후보를 지지하는 분들이 저한테 하는, 정말 극렬하게 표현할 수 없는 마타도어 등을 한 번 스스로 살펴보시는 것이 좋겠다”고 맞받쳤다. “날 장애인 폄하하고 음해한 본인지지자도 한번 봐… 이낙연 지나치네” 이 지사는 이날 경기도 디지털 성범죄 피해자 원스톱 지원센터에 방문한 자리에서 기자들과 만나 “알지도 못하는 사람들이 한 일인데, 징계하고 직위 해제한 것은 제게는 최선을 다한 것”이라며 이렇게 밝혔다. 이 지사는 지난 18일 이 전 대표 비방 의혹에 대해 “직접 확인해보니 경기도 직접 산하기관은 아니고 경기도와 관련이 있는 기관의 구성원이 그런 비방 행위를 했다고 한다”면서 “공직선거법 위반은 아닌데 내부 지침에 어긋난다. 정치 중립에 문제가 있을 수 있어서 제가 지휘 권한을 행사해서 감사하고 있고 직위해제 했다”고 말했다. 그런데도 이 전 대표 측에서 인사조치로 선을 긋는 것만으로는 부족하다며 경찰 고발 등을 거론한 데 대해 반박한 것이다. 이 지사는 “저에 대해 장애인 폄하를 하거나 없는 사실을 지어내서 음해하는 수없이 많은 지지자의 행동에 대해 본인 측도 한 번 보셨으면 좋겠다”면서 “지나치다는 생각이 든다”고 비판했다. 그러면서 향후 경선 과정에서의 검증과 관련해서는 “앞으로 약속을 지킬지는 전에 약속한 것을 잘 지켰느냐를 잘 보셔야 할 것”이라고 말했다. 특히 “과거 공직을 사적으로 남용한 적이 있느냐, 주변 측근이나 친인척이 이를 부당하게 이용해 혜택을 보거나 범죄를 저지른 적이 있느냐를 봐주시면 좋을 것 같다”고 응수했다. 이낙연 “군필 포스터보다 가짜뉴스 제작 배포한 불법 선거운동이 더 심각” 앞서 이낙연 전 대표는 이날 자신에 대한 경기도 유관기관 공무원의 SNS 비방 의혹과 관련해 “선거법 위반 여부는 그에 따른 법적인 과정이 있을 것”이라며 법적 조치가 진행돼야 한다고 거듭 강조했다. 이 전 대표는 이날 서울 마포구에서 열린 ‘딥페이크 피해 근절 간담회’를 마치고 취재진과 만나 “그것은 인사 문제가 아니고 위법이냐 아니냐의 문제”라고 말했다. 그는 경선 과정에서 이른바 네거티브 공방이 과열되는 것과 관련, “가짜뉴스나 네거티브는 효과가 있지 않다. 그것을 제기하는 사람의 조급증만 드러날 뿐”이라면서 “그것으로 국민의 마음을 얻는다고 생각하면 국민을 잘못 본 것”이라고 강조했다. 한 언론은 최근 경기도 공직유관단체 임원이 만든 단체 SNS인 텔레그램 대화방을 개설해 이낙연 전 대표에 대한 비방글이 공유됐다는 의혹을 제기했다. 이에 대해 이낙연 전 대표 측은 경기도 차원의 조직적 여론 조작이라면서 당 선관위 차원의 조사를 요구했으며 당초 이재명 지사 측은 “해당 단체방의 존재도 모르고 짐작 가는 사람도 없다”면서 관련성을 부인했었다. 이 전 대표는 전날 기자들과 만나 군필 포스터 논란을 언급하며 “그것보다는 고위공직자가 단톡방(다수가 참여하는 메신저 대화방)을 열어서 특정 후보에 대한 가짜 뉴스를 만들어 배포하는 불법 선거운동이 훨씬 더 심각한 일”이라고 이 지사측을 비난했다.
  • [제5회 글로벌파워브랜드 대상] ㈜라바웨이브

    [제5회 글로벌파워브랜드 대상] ㈜라바웨이브

    라바웨이브(사진)는 화이트 해커 출신 김준엽 대표가 설립한 디지털 성범죄 대응 전문 기업이다. 10대 때부터 국가 수사 자문에 협력해 온 김 대표는 2014년부터 꾸준한 연구 개발을 통해 몸캠피싱 대응 전문 솔루션을 갖췄다. 2020년에는 관련 특허 등록을 통해 기술 독점 권한을 확보했다. 현재 라바웨이브는 연구개발 전담 부서를 운영, 몸캠피싱·딥페이크·리벤지포르노·개인정보 유출 방지 솔루션을 연구·보완 중이다. 라바웨이브 관계자는 “자사 성장의 가장 큰 원동력은 기술력”이라며 “몸캠피싱 피해자들이 가장 두려워하는 것은 지인에게 자신의 동영상이 퍼지는 행위다. 이를 막기 위해 24시간 상담 시스템을 운영하고 화이트 해커 집단을 모아 자체 솔루션을 개발했다”고 밝혔다. 라바웨이브의 주요 솔루션으로는 CS 시스템과 LAB 시스템이다. 동영상이 아직 유포되지 않은 몸캠피싱 피해자를 위해서는 CS 시스템을, 이미 동영상이 온라인에 일부 노출되었다면 LAB 시스템을 활용해 대처한다. 피해 범위와 상황에 따라 작업 소요 시간은 최소 16~17시간, 그 이상이 걸릴 수도 있다. 밤낮을 가리지 않는 디지털 성범죄 특성상, 관련 피해 상담은 24시간 연중무휴 가능하다. 라바웨이브는 현재까지 1만 6574건 이상의 몸캠피싱 피해자를 구제했으며, 사업 영역 확장을 위해 2019년 법인을 설립하고, 2020년 미국 법인을 추가 설립했다. 올해는 벤처기업 인증을 완료했으며, 연관 단체들과 정보보호 산업 발전 및 관련 네트워크를 구축하고 있다. 서울비즈 biz@seoul.co.kr
  • 딥페이크 범죄 기승에 국정원 “SNS 개인정보 공개 최소화”

    딥페이크 범죄 기승에 국정원 “SNS 개인정보 공개 최소화”

    국정원, ‘국제범죄 위험 알리미’ 시작“범죄 피해 발생시 원상회복 어려워”국가정보원은 신종 국제범죄 수법과 예방법을 제공하는 대국민 안내 서비스를 시작한다고 26일 밝혔다. 국정원은 이날 국제범죄정보센터가 해외에서 수집한 국제범죄 유형과 피해 실태 등을 분석한 비정기 소식지 ‘국제범죄 위험 알리미’ 서비스를 홈페이지와 페이스북을 통해 제공한다고 밝혔다. 이날 공개된 소식지에는 신종 사이버 사기인 ‘딥페이크 범죄’에 대한 정보가 실렸다. 딥페이크 범죄는 타인의 얼굴과 목소리를 모방해 피해자를 속여 금전 등을 갈취하는 범죄다. 회사 고위 임원 목소리를 모방해 거액을 송금하도록 속이거나 친구 얼굴을 모방해 실제 영상통화를 한 뒤 돈을 빌려 달라는 범죄 수법 등이 소개돼 있다. 국정원은 지난 1월 일반 여성의 얼굴 사진으로 ‘딥페이크 음란물’을 제작해 금전을 요구하는 피해사례가 있었고, 해외에서는 딥페이크 수법이 보이스피싱에도 악용되고 있다며 주의를 당부했다. 소셜네트워크서비스(SNS)상 개인정보 공개를 최소화하고, 딥페이크가 의심될 경우 당사자만 알 수 있는 고향, 출신학교, 지인 이름 등을 확인할 필요가 있다며 딥페이크 예방법도 알렸다. 국정원은 “국제범죄의 경우 범죄 조직과 범행에 사용되는 서버 등 범죄수단이 주로 해외에 있어 일단 피해가 발생하면 원상회복이 쉽지 않다”고 했다. 김헌주 기자 dream@seoul.co.kr
  • 류호정 “딥페이크 소지 처벌법 발의”…국민의힘 하태경도 참여

    류호정 “딥페이크 소지 처벌법 발의”…국민의힘 하태경도 참여

    일반인까지 노리는 ‘딥페이크‘ 소지만해도 처벌 알페스 방지법 발의했던 국힘 하태경도 참여딥페이크 영상물 소지하면 ‘1년 징역’ 정의당 류호정 의원이 18일 성폭력범죄의 처벌 등에 관한 특례법 일부개정법률안, 일명 ‘딥페이크 소지 처벌법’을 발의한다. 법안에는 과거 ‘알페스처벌법’을 대표발의했던 국민의힘 하태경 의원도 공동발의자로 참여한다. 딥페이크 영상은 인공지능 기술을 이용해 기존 인물의 얼굴이나 특정 부위를 영화 CG처럼 합성한 영상합성물을 말한다. 류 의원이 발의하는 딥페이크 소지 처벌법의 내용은 간단하다. 류 의원은 해당 법안에 ‘제1항 또는 제2항의 편집물등 또는 복제물을 소지·구입·저장 또는 시청한 자는 1년 이하의 징역 또는 1000만원 이하의 벌금에 처한다’는 내용의 조항을 삽입했다. 법안이 통과되면 ‘딥페이크 영상물’을 가지고 있는 것만으로 처벌받게 된다. 일반인으로까지 이어지는 ‘딥페이크 피해’ 딥페이크 영상은 주로 여성 연예인인들이 타깃이 돼 사진과 영상에 얼굴을 합성해 성적 대상화로 삼는다. 이미 설현, 제니, 쯔위 등이 딥페이크 피해를 겪은 바 있다. 이와 관련한 청원도 올라왔다. 지난 12일 국민청원 게시판에는 ‘여성 연예인들을 고통받게 하는 불법 영상 ’딥페이크‘를 강력히 처벌해주세요’라고 제목으로 청원이 올라왔다. 청원인은 이 글에서 “전 세계 딥페이크 영상은 1만여개이며 급격히 증가하고 있으며, 특히 딥페이크 영상 속 피해자들의 대부분이 한국 여성 연예”이라며 강력한 처벌과 수사를 촉구했다. 연예인과 다양한 유명인뿐만 아니라 일반인도 딥페이크 피해의 대상이되고 있다. 광주경찰청 사이버수사대는 지난해 9월부터 12월까지 얼굴 합성프로그램을 써서 대학 동기 13명의 얼굴과 타인의 신체사진을 합성하고 이를 SNS에 유포한 A씨를 구속했다. 딥페이크의 피해에 모든 사람이 노출돼 있는 셈이다.알페스 처벌법 한 배 탔던 ‘류호정·하태경’…이번엔? 올초 하 의원은 알페스 제작·유포처벌법을 발의했다. 해당 법안에는 류 의원도 공동발의자로 참여했다. 하 의원은 공동발의에 참여한 류호정 정의당 의원, 이병훈 더불어민주당 의원의 이름을 거명하며 “초당적 협력에 깊이 감사한다”고 밝히기도 했다. 이번에는 턴을 바꿔 류 의원이 대표발의한 딥페이크 처벌법에 하 의원이 공동발의자로 이름을 올렸다. 당시 류 의원은 공동발의자로 이름을 올린 이유를 입장문에서 밝혔다. 류 의원은 “동영상뿐만 아니라, 글과 그림 역시 성적 피해가 될 수 있이다. ‘대상자의 의사에 반하여’, ‘성적 욕망 또는 수치심을 유발할 수 있는 형태로’ 이뤄지는 모든 ‘디지털성범죄’를 제대로 처벌해야 한다는 것이 저의 일관된 정치적 입장이다”고 설명했다. 이에 이번 법안에는 하 의원이 류 의원의 대표발의 법안에 공동 발의자로 이름을 올렸다. 하 의원은 서울신문과의 통화에서 “알페스 처벌해야 한다는 것을 주장해 왔고, 딥 페이크 역시 처벌하는데 찬성한다. 이것이 일관된 입장”이라고 공동발의에 이름을 올린 이유를 설명했다. 이번 법안에는 하태경 의원 외에도 더불어민주당 정춘숙 의원, 기본소득당 용혜인 의원 등이 발의에 동참했다. 신형철 기자 hsdori@seoul.co.kr
  • 여가부, 디지털 성범죄 관련 정책간담회 개최

    정영애 여성가족부 장관은 22일 정부서울청사에서 법무부, 경찰청 등 관계부처 및 민간 전문가 등이 참석한 가운데 정책간담회를 갖고 디지털 성범죄 관련 정책 개선 방안을 모색했다. 이번 간담회는 텔레그램 성착취 사건 등을 계기로 지난해 4월 ‘디지털 성범죄 근절 대책’ 1년을 맞이해 그동안 대책의 추진 상황을 점검하고, 관계부처와 전문가 등과 함께 최근 디지털 성범죄 양상과 정책적 대응 방안을 논의하기 위해 마련됐다. 참석자들은 디지털 성범죄 근절을 위한 법과 제도의 개선이 많이 이뤄졌으나 이를 현장에 잘 적용시키는 것이 중요하다고 말했다. 특히 이미지 합성(딥페이크) 등 새로운 형태의 디지털 성범죄가 증가하고 있어 이러한 변화를 고려한 정책적 접근과 보완의 필요성을 언급했다. 또 범죄 예방 및 피해방지를 위해 도입된 온라인 그루밍과 신분 위장수사를 실효성 있게 운영하기 위해서는 체계적인 준비와 사전 교육이 필요하며, 무엇보다 청년 대상 교육 확대 등 국민들의 인식 전환을 위한 범부처 협력이 중요하다고 제안했다. 최광숙 선임기자 bori@seoul.co.kr
  • “가짜뉴스, 조작영상 꼼짝마”…딥페이크 찾아내는 모바일 앱 등장

    “가짜뉴스, 조작영상 꼼짝마”…딥페이크 찾아내는 모바일 앱 등장

    전 세계적으로 가짜뉴스가 심각한 사회적 문제가 되고 있다. 최근에는 영상을 합성해 전문가들조차도 혼란스럽게 만드는 가짜뉴스들이 나오고 있는 상황이다. 이런 상황에서 국내 연구진이 딥페이크 영상을 잡아내는 모바일 어플리케이션(앱)을 개발해 주목받고 있다. 카이스트 전산학부 이흥규 교수팀은 학내 창업기업 디지털이노텍과 함께 인공지능을 기반으로 동영상이나 사진 등 디지털콘텐츠의 위변조를 탐지해 낼 수 있는 소프트웨어 ‘카이캐치’를 모바일 앱 형태로 개발해 서비스를 시작한다고 30일 밝혔다. 연구팀은 지난해 11월 딥페이크와 위변조 사진 탐지기술을 개발해 화제가 되기도 했다. 사람의 얼굴을 대상으로 하는 딥페이크 기술은 얼굴 교체, 재현, 속성변환이라는 3가지 방식이 주로 사용된다. 얼굴교체와 재현은 가짜뉴스나 음란물 제작에 악용되기도 하고 얼굴 속성변환은 영상증거 조작에 악용되기도 한다. 연구팀은 이 같은 딥페이크 생성 유형에는 상관없이 영상의 미세 변형신호 흔적과 미세 이상신호 흔적을 탐지해 낼 수 있도록 했다. 신호처리와 인공지능 기술이 적용된 카이캐치는 얼굴 영역의 미세변형, 코, 입, 얼굴 윤곽 등 얼굴 내 기하학적 왜곡 발상 가능영역의 이상신호 흔적을 분석해 내 딥페이크를 찾아낸다. 카이캐치는 avi나 mp4 형식의 딥페이크 의심 동영상을 개별 프레임으로 자른 뒤 분석 대상 프레임을 이미지로 변환한 다음 딥페이크 여부를 탐지한다. 동영상 내 얼굴이 지나치게 작거나 얼굴이 상당부분 잘린 상태만 아니라면 정확한 탐지가 가능하다고 연구팀은 밝혔다. 분석 결과는 0~100까지 퍼센트로 표시되는데 숫자가 높을수록 딥페이크일 확률이 높다는 것이다.사진 위변조 탐지의 경우도 카이캐치 앱에 어떤 형태의 이미지 파일이든 상관없이 앱에 올리면 위변조가 의심되는 부분과 함께 사진의 진위여부를 알려준다. 카이캐치는 일단 안드로이드 기반 모바일 환경에서 사용될 수 있도록 개발돼 구글스토어에서 ‘카이캐치’를 검색해 앱을 내려받으면 일반인들도 간단하게 딥페이크나 사진 위변조를 알아낼 수 있게됐다. 연구팀은 애플 iOS 기반의 앱과 영어, 중국어, 일본어 앱도 출시할 예정이다. 이흥규 교수는 “카이캐치는 인공지능과 미세이상신호 흔적 분석기법을 활용해 다양한 유형의 변형을 잡아낼 수 있도록 개발됐다”라며 “우리가 예측하지 못하거나 모르는 변형기법을 사용하더라도 90% 내외의 높은 신뢰도로 딥페이크와 사진 위조를 잡아낼 수 있다”라고 설명했다. 유용하 기자 edmondy@seoul.co.kr
  • 딸 ‘축제 여왕’ 시키겠다고…엄마가 딥페이크 영상 협박에 해킹까지

    딸 ‘축제 여왕’ 시키겠다고…엄마가 딥페이크 영상 협박에 해킹까지

    美 고교서 시스템 해킹해 부정투표치어리더팀 동료에 자살권유 협박범죄 적발로 퇴학…모녀 재판 앞둬미국에서 학부모가 자식을 위해 학교 선거 계정을 해킹하고, 딥페이크 기술을 이용해 친구들을 협박하는 등의 범죄를 저질러 사회에 충격을 주고 있다. 워싱턴포스트(WP)는 16일(현지시간) ‘플로리다주의 한 고등학교에서 지난해 10월 개최한 ‘홈커밍 퀸’(고교 축제 여왕) 선발대회에서 한 엄마가 딸을 위해 학교 시스템을 해킹한 것이 적발됐다’고 보도했다. 사법당국의 수사를 받은 엄마는 로라 로즈 캐럴(50)로 그는 당시 212건의 학생 계정에 접근했고, 이를 통해 얻은 학생들의 개인정보을 이용해 자신의 집 컴퓨터와 휴대전화로 수백번이나 딸에게 투표한 혐의를 받고 있다. 실제 캐럴의 딸은 이 대회에서 우승했지만 해킹을 통한 부정투표가 밝혀지면서 퇴학을 당한 상태다. 이들 모녀는 재판을 앞두고 있다. 또 NBC방송은 펜실베이니아주에서 한 엄마가 딸의 치어리더 팀원들을 딥페이크(특정 인물의 얼굴과 음성을 합성해 만든 가짜 영상물) 기술을 활용한 사진과 영상물로 괴롭혔다고 전했다. 보도에 따르면 라파엘라 스폰(50)은 사이버 폭력으로 여러명의 치어리더 팀원들에게 피해를 입혔고, 이중에는 자살을 권유하는 영상을 받은 이도 있었다. 대부분의 가짜 영상은 딸의 팀원들이 누드로 포즈를 취하거나, 술을 마시고 전자담배를 피우는 것 등이었다. 이는 치어리더 팀에서 퇴출될 수 있는 행위다. 치어리더 팀은 해당 지역의 한 체육관 소속이다. 수사당국은 스폰이 사이버폭력을 행사한 대상은 “임의로 선택된 게 아니었다”며 의도성이 있었다고 전했다. 당국은 특히 스폰이 컴퓨터에 전문 지식을 갖추지 않은 일반인이라는 점을 강조했다. 딥페이크 기술을 이용한 사이버폭력을 누구나 쉽게 저지를 수 있다는 점이 충격적이라는 설명이다. 워싱턴 이경주 특파원 kdlrudwn@seoul.co.kr
  • 온라인서 알게 된 여성 얼굴 영상에 합성…‘딥페이크’ 20대 구속

    온라인서 알게 된 여성 얼굴 영상에 합성…‘딥페이크’ 20대 구속

    딥페이크 50여편 해외 성인사이트 게시 온라인으로 알게 된 여성의 얼굴을 성 영상물에 합성해 50여 차례 유포한 20대가 구속됐다. 전북경찰청 사이버범죄수사대는 성폭력특별법 위반(허위 영상물 등의 반포 등)과 정보통신망법 위반(불법 정보의 유통 금지 등)으로 A씨를 구속했다고 25일 밝혔다. A씨는 온라인에서 알게 된 피해자의 얼굴을 성 영상물에 합성한 ‘딥페이크’ 57편을 해외 성인 사이트에 게시한 혐의를 받고 있다. 지난해 8월부터 최근까지 공연음란 행위를 하는 성 영상물을 촬영하고 이를 트위터 등에 게시해 판매한 혐의도 받고 있다. 딥페이크는 특정 인물의 얼굴을 특정 영상에 합성한 편집물로 주로 성 착취물에 악용되고 있다. 최근에는 연예인뿐 아니라 일반인으로 그 대상이 확대돼 심각한 사회문제가 되고 있다. A씨는 온라인을 통해 알게 된 피해자를 ‘사이버 스토킹’하는 차원에서 범행을 저지른 것으로 조사됐다. 김광수 전북청 사이버범죄수사대장은 “검거 시 5년 이하 징역, 5000만원 이하 벌금에 처해진다”며 “사이버상의 모든 불법행위 흔적을 추적해 엄단하겠다”고 밝혔다. 최선을 기자 csunell@seoul.co.kr
  • 경찰,연예인 딥페이크 영상 판매한 10대 등 6명 검거...2명 구속

    인공지능 기술 등을 활용해 인물의 얼굴이나 신체를 합성하는 일명 ‘딥페이크’ 기술을 이용해 제작된 연예인 허위 영상물을 유포한 10대 등 6명이 경찰에 붙잡혔다. 부산경찰청은 연예인 딥페이크 허위영상물을 판매한 10대 A군 등 2명을 성폭력처벌법 위반 혐의로 구속하고 4명을 불구속 입건 했다고 25일 밝혔다.경찰은 이외에도 현재 13건에 대해 내사를 진행 중이다. 구속된 A군 등 2명은 K-POP 가수 150여 명의 얼굴을 합성한 딥페이크 사진 3039개와 성 착취 영상물 1만1천373개를 90차례에 걸쳐 판매해 150만원을 받은 혐의를 받고 있다. 이들은 해외 사회관계망서비스(SNS)를 통해 판매광고를 하고 연락이 온 사람에게 해당 영상이 저장된 곳의 아이디와 비밀번호를 알려줬다. 이들은 “ 용돈을 벌려고 딥페이크 영상을 판매했다”고 경찰에 진술했다. 10대인 B 군도 국내 가수 14명의 얼굴을 합성한 딥페이크 사진 163개와 일반 성착취물 379개를 보유하며 판매하다가 적발됐고,경찰은 판매 서버를 임대한 20대도 함께 검거했다. 이밖에 국내 가수 3명의 얼굴을 합성한 불법 허위영상물 5건을 인터넷을 통해 판매한 20대 C씨 도 붙잡혔다. 경찰관계자는 “불법 허위 영상물의 대다수는 속칭 지인능욕물이나 연예인 합성 허위 영상물이 차지하고 있다”며 “10대 도 구속 수사 될 수 있어 각별한 주의가 필요하다”고 말했다. 경찰은 자체 사이버범죄 예방 교육 전문 강사를 활용해 디지털 성범죄에 취약한 학생 등을 대상으로 예방 교육도 병행해 나갈 방침이다. 성폭력 처벌법 제14조의2는 허위 영상물을 편집,합성,가공할 경우 5년 이하,5천만원 이하 형에 처하도록 규정하고 있고,판매 할 경우 7년 이하 징역형에 처할 수 있도록 하고 있다. 부산김정한 기자 jhkim@seoul.co.kr
  • “용돈 벌려고” 연예인 딥페이크 영상 판매한 10대 구속

    “용돈 벌려고” 연예인 딥페이크 영상 판매한 10대 구속

    부산경찰, 허위 영상 관련 4건 10∼20대 6명 적발 인공지능 기술을 활용해 얼굴이나 신체를 영상물에 합성하는 일명 ‘딥페이크’ 기술로 제작된 연예인 허위 영상물을 유포한 10대와 20대가 잇따라 검거됐다. 부산지방경찰청은 성폭력처벌법 위반 혐의로 연예인 딥페이크 영상물을 판매한 4개의 사건을 적발해 10대 A군 등 2명을 구속하는 등 관련자 6명을 검거했다고 25일 밝혔다. A군 등 구속된 2명은 K팝 가수 150여명의 얼굴을 합성한 딥페이크 사진 3039개와 일반 성착취 영상물 1만 1373개를 보유한 뒤 이를 90차례에 걸쳐 모두 150만원을 받고 판매한 혐의를 받고 있다. 이들은 트위터나 디스코드 등 해외 사회관계망서비스(SNS)를 통해 영상물 판매를 광고했고, 연락이 온 사람으로부터 금전을 받고 해당 영상이 저장된 곳의 아이디와 비밀번호를 알려주는 방식으로 판매했다. 해당 영상은 이들이 인터넷 검색을 통해 수집한 것으로 전해진다. A군 등은 경찰에서 “용돈을 벌려고 시작했다”고 진술했다. 또 다른 10대인 B군은 올해 1월 일반인 9명의 얼굴을 합성한 딥페이크 사진 11건을 해외 SNS를 통해 판매하고 광고하다 불구속 입건됐다. 20대인 C씨는 올해 1월 국내 가수 3명의 얼굴을 합성한 불법 허위영상물 5건을 인터넷을 통해 판매했다. 10대인 D군도 국내 가수 14명의 얼굴을 합성한 딥페이크 사진 163개와 일반 성착취물 379개를 보유하며 판매하다가 적발됐고, 경찰은 판매 서버를 임대한 20대도 함께 검거했다. 경찰은 이외에도 13건에 대해 내사를 진행 중이라고 설명했다. 성폭력 처벌법 제14조의2는 허위 영상물을 편집, 합성, 가공할 경우 5년 이하, 5000만원 이하 형에 처하도록 규정하고 있고, 판매할 경우 7년 이하 징역형에 처할 수 있도록 하고 있다. 경찰은 “불법 허위 영상물의 대다수는 속칭 ‘지인능욕물’이나 연예인 합성 허위 영상물이 차지하고 있다”면서 “비록 10대라 할지라도 구속 수사 될 수 있어 각별한 주의가 필요하다”고 강조했다. 경찰은 자체 사이버범죄 예방 교육 전문 강사(7명)를 활용해 디지털 성범죄에 취약한 학생 등을 대상으로 예방 교육도 병행해 나가겠다고 설명했다. 신진호 기자 sayho@seoul.co.kr
  • 알페스와 딥페이크 논란···‘디지털 성범죄’가 늘어나고 있는 이유는?

    알페스와 딥페이크 논란···‘디지털 성범죄’가 늘어나고 있는 이유는?

    최근 알페스와 딥페이크의 성적 대상화 논란이 불거지면서 디지털 성범죄에 대한 제도적 보완을 촉구하는 목소리가 높아지고 있다. 청와대 국민청원 홈페이지에는 알페스와 딥페이크 포르노 이용자를 처벌해달라는 글이 등장했고 각각 20만 명이 넘는 사람들이 동의했다. 대체 알페스와 딥페이크는 무엇일까.알페스(RPS)란? 알페스는 ‘Real Person Slash’의 약자인 RPS를 빠르게 읽은 말로, 실존 인물의 애정 관계 등을 상상하여 창작해낸 소설이나 웹툰 등의 창작물을 말한다. 1990년대 아이돌 문화가 등장하면서 창작된 팬픽의 하위 장르이며 실존인물 간의 성적 관계, 특히 남성 아이돌의 동성애를 소재로 삼는다. 알페스의 내용은 완전한 허구인데, 문제는 노골적인 표현이나 지나친 성적 묘사다. 단순한 팬심으로 창작되었다고 하기에는 지나친 성행위가 표현되고 있고, 특히 아직 미성년인 아이돌 멤버 간의 동성애를 조장한다는 것이 문제가 되어 하나의 디지털 성폭력의 사례로 논란이 되고 있는 것이다. 딥페이크(Deepfake)란? 한편 딥페이크(Deepfake)는 인공지능(AI) 기술의 하나로 특정 인물의 얼굴을 다른 인물의 신체에 합성한 기법이다. 최근 이 딥페이크 기술을 이용하여 고인이 된 가수의 공연을 보고, 가상현실(VR) 속에서 사별한 아내를 남편이 다시 만나는 장면이 연출되기도 하면서 인공지능 기술의 긍정적인 측면이 부각되기도 했다. 하지만 딥페이크 또한 성적 대상화에 노출되는 경우가 빈번하다. 지난 2019년 네덜란드의 사이버 보안연구 회사인 딥트레이스(Deeptrace)가 발간한 보고서에 따르면 전 세계 딥페이크 영상의 96%가 포르노 영상이며 피해자의 25%는 한국 여성 연예인이었다는 사실이 드러났다. 실제로 웹사이트에 ‘딥페이크’라는 키워드를 검색하면 유명 여성 아이돌 그룹 멤버의 얼굴이 성인 비디오(AV)에 합성된 모습을 쉽게 찾아볼 수 있다. 성적 대상화된 알페스와 딥페이크 제작물이 늘어나는 이유? 최근 이러한 성적 대상화된 알페스와 딥페이크 제작물이 줄어들기는커녕 오히려 증가하고 있는 이유는 무엇일까. 바로 ‘처벌 규정의 미비’이다. 딥페이크 관련 처벌법은 지난해 성폭력범죄의 처벌 등에 관한 특례법 일부개정법률로 신설되었으나 제작 또는 반포한 자에 한하여 처벌한다는 점에서 딥페이크 포르노를 소비한 ‘단순 이용자’에 대한 처벌 규정이 전무한 상황이다.알페스의 경우 지난달 19일 국민의 힘 하태경 의원과 이준석 전 최고위원이 알페스 및 섹테 제조자 및 유포자에 대한 수사를 의뢰한 상황이지만 알페스 자체가 영상물이 아닌 글이나 사진이기 때문에 기존 성범죄 처벌 법률로 적용하기에 어려운 점이 있어 사실상 알페스는 제작자와 유포자에 대한 처벌 규정조차 존재하지 않는 상황이다. 또 하나의 이유는 바로 ‘디지털 성범죄에 대한 무감각한 죄의식’이다. 알페스와 딥페이크 음란물 제작 자체가 상대에게 행하는 직접적인 성착취의 행위가 아니기 때문에 상대적으로 ‘덜 심각한 성범죄’라고 인식하거나 심지어는 성폭력이 아니라고 인식하기 쉽다는 것이다. 실제로 SNS상에선 “제2의 N번방 사태가 아니냐”는 의견도 나오고 있지만 “직접적으로 상대를 성 착취한 심각한 성범죄 행위와 비교하기엔 무리가 있다”며 다른 성폭력 사건과는 별개의 문제로 보고 있는 사람들도 있다. 가장 큰 문제는 젠더 갈등이다? 사실 가장 큰 문제는 바로 무의미한 젠더 갈등으로 변질되고 있다는 점이다. 피해자의 주 성별이 알페스는 남성, 딥페이크는 여성인 만큼 알페스는 여성의 문제, 딥페이크는 남성의 문제라고 여겨지고 있다. 하지만 성적 대상화된 알페스와 딥페이크의 대상은 남녀 구분 없이 그 누구도 해당될 수 있기 때문에 젠더 갈등의 문제가 아닌 하나의 디지털 성범죄의 문제로 인식해야 한다. 현재 알페스와 딥페이크에 대한 논란은 전문가 사이에서도 처벌 여부에 대한 의견이 갈릴 정도로 애매모호한 부분들이 많아 복잡한 상황이다. 그러나 어떠한 경우에도 성적 대상화된 제작물은 영상이든 글이든 매개체와는 관계없는 명백한 범죄에 해당하는 문제이기 때문에 엄격하게 판단하여 처벌해야 한다. 따라서 의미 없는 젠더 구분의 논리보다는 대부분이 공감할 수 있는 사회적 합의를 도출하여 이를 제도화하는 것이 무엇보다 선행되어야 할 것이다. 글·영상 임승범 인턴기자 seungbeom@seoul.co.kr
  • 중국 아이유 닮은꼴 ‘차이유’ 실제 모습 공개…충격에 빠진 누리꾼들

    중국 아이유 닮은꼴 ‘차이유’ 실제 모습 공개…충격에 빠진 누리꾼들

    가수 아이유의 닮은꼴로 중국에서 인기를 끌었던 중국 여성의 실물로 추정되는 사진이 공개돼 누리꾼들이 충격에 빠졌다. 화제의 중국의 아이유 ‘차이유’의 사진을 보면 진짜 아이유라도 해도 믿을 정도의 비슷한 외모를 가지고 있다. 아이유의 눈매와 얼굴형은 물론 하얀 피부까지 도플갱어를 방불케하는 외모로 화제를 모았다. 차이유는 틱톡 앱을 통해 아이유 특유의 표정, 옷차림 등을 따라하며 주목을 받았다. 일부 중국 누리꾼들은 그를 진짜 아이유로 착각하기도 했고, 아이유를 닮은 외모는 인기의 주요 요인이 됐다. 하지만 그의 실제 모습이 공개되며 누리꾼들은 충격에 빠졌다. 딥페이크(deepfake) 기술을 이용해 보정해 온라인에 올린 것으로 추정되는 원본 사진이 한 누리꾼에 의해 공개됐기 때문이다. 사진에서는 아이유를 닮았다고 말하기 어려운 모습을 하고있다.딥페이크 기술이란 AI기술의 핵심인 딥러닝(deep learning)과 가짜를 의미하는 페이크(fake)의 합성어로, 딥러닝을 이용해 영상 속 원본 이미지를 다른 이미지로 교묘하게 바꾸는 기술을 말한다. 이를 본 일부 누리꾼들은 “딥페이크 기술을 이용해 아이유와 닮은 외모를 만들어 인기를 얻으려 한것”이라며 비난에 나섰다. 강경민 콘텐츠 에디터 maryann425@seoul.co.kr
  • [단독] 누군가 내게 보낸 음란물… 女 80% “가해자 모른다”

    [단독] 누군가 내게 보낸 음란물… 女 80% “가해자 모른다”

    성폭력 가해자인 남성 A씨는 지난해 6월 자택에서 휴대전화를 이용해 페이스북에 접속한 뒤 모르는 사이인 여성 피해자에게 성관계를 요구하는 메시지를 보냈다. A씨는 피해자에게 신체 사진을 보내 달라고 하거나 자신의 신체 사진을 전송하는 등 3일 동안 총 9회에 걸쳐 성적 수치심과 혐오감을 일으키는 문자와 사진을 보냈다. A씨는 지난해 11월 벌금 200만원을 선고받았다. 디지털 기기를 이용한 사이버성폭력 범죄가 갈수록 기승을 부리는 가운데 통신매체를 통해 문자(글), 사진, 영상 등 형태의 음란물을 전송받는 피해를 경험한 여성이 10명 중 4명일 만큼 심각한 상황인 것으로 조사됐다. 17일 한국형사정책연구원이 경찰청에 제출한 ‘불법촬영·사이버성폭력 피해 실태 및 대응 방안 연구’ 연구용역 보고서에 따르면 국내 만 14~39세 여성 중 사이버성폭력·불법촬영 피해 경험이 있는 사람 3390명 가운데 42.2%가 음란물을 전송받은 적이 있다고 응답했다. 가해자가 누군지를 묻는 질문에 ‘모르는 사람’이라는 응답이 전체의 79.7%를 차지했다. 연구원은 “온라인의 특성상 모르는 사람인 척 접근해 음란물을 전송하는 경우도 있어 실제 음란물 전송 가해자 중 상당수는 아는 사람일 가능성이 있다”고 설명했다. 10~20대 피해자의 경우 가해자가 ‘학교 선배나 동창, 후배’인 경우가 가장 많았고, 30대 피해자 사이에서는 ‘남자친구나 연인’(전 연인 포함), ‘직장 상사나 선후배, 동료’가 주된 가해자였다. 연구원은 기존 공식 통계에는 반영되지 않았던 ▲딥페이크(특정인의 사진을 합성한 영상 편집물) 등 허위 영상물 제작·유포 피해 ▲불법촬영물 등을 이용한 협박·강요 피해 실태도 조사했다. 처벌 조항은 지난해 성폭력처벌법에 신설됐다. 두 범죄 유형의 피해 경험률은 각각 4.4%로 조사됐다. 불법촬영 피해 경험률은 전체 응답자의 13.4%를 차지했다. 주된 피해 장소는 지하철(38.3%), 공중화장실(16.7%), 길거리·버스정류장(16.7%) 등이었다. 실제로 성폭력 가해자인 남성 B씨는 2018년 3월~2019년 4월 무음 카메라 애플리케이션을 이용해 지하철역, 지하철 전동차 안, 버스정류장, 버스 안, 횡단보도 등에서 여성 피해자들을 상대로 동영상 104개와 사진 372장을 불법촬영해 징역 10개월에 집행유예 3년을 선고받았다. 하지만 피해자들은 불법촬영·사이버성폭력 피해를 당해도 ‘신원 노출’과 ‘경찰의 소극적 대처’, ‘가해자의 보복’ 등을 우려해 신고하지 않는 것으로 조사됐다. 피해자들은 또 ‘성범죄물 제작자 처벌 강화’(28.1%)와 ‘가해자 신상공개 확대’(18.0%) 등의 정책이 필요하다고 봤다. 연구원은 “불법촬영과 사이버성폭력에 대한 대응책으로서 피해자들의 불안감을 줄일 수 있는 보호 정책 마련이 가장 우선돼야 한다”며 “가해자들에 대해 명확하고 실효성 있게 처벌을 강화해야 한다”고 밝혔다. 오세진 기자 5sjin@seoul.co.kr
  • 이루다로 촉발된 젠더 논쟁... 개인정보 유출이란 본질 외면

    이루다로 촉발된 젠더 논쟁... 개인정보 유출이란 본질 외면

    스타트업 스캐터랩이 심리 테스트 명목으로 수집한 100억건의 카카오톡 대화를 인공지능(AI) 챗봇 이루다의 개발에 사용한 사실이 드러나자 서비스 운영을 중단했다. 그런데 ‘이루다를 성노예로 만드는 법’ 등을 공유했던 일부 남성 커뮤니티를 중심으로 운영 중단에 반발하는 목소리가 커지면서 젠더(성)갈등으로 비화되는 사태가 벌어졌다. 개인정보 유출 피해자들은 성대결이 부각되면서 스캐터랩의 개인정보 유출과 AI 윤리라는 본질적인 문제가 가려질까 우려하고 있다. 남성 이용자가 많은 남초 커뮤니티는 AI를 성희롱하고 성노예화하는 것이 비판의 대상이 된다면 일부 트위터 여성 이용자들이 즐기는 알페스(RPS) 문화 역시 성범죄라며 공격했다. Real Person Slash의 줄임말인 알페스는 남성 아이돌 팬픽션(아이돌이 주인공이 되는 소설)에서 나온 문화로, 남성 연예인을 성적 대상화하는 소설 등의 창작물을 일컫는다. 남초 커뮤니티에서는 알페스를 실존 인물의 얼굴을 나체 사진 등에 합성하는 딥페이크에 준하는 성범죄라고 주장한다. 여성들이 모인 여초 커뮤니티 이용자들은 에펨코리아, 루리웹 등 남초 커뮤니티에 일반인 여성의 사진을 당사자 동의 없이 올리고 성희롱성 댓글을 다는 비공개 게시판이 있음을 폭로하며 반격했다. 당사자 동의 없이 소셜네트워크서비스(SNS)에서 여중생, 여고생 등 미성년자의 노출사진 등을 퍼와 공유하는 공공연한 성폭력이 벌어지고 있다는 주장이다. 젠더갈등은 청와대 국민청원 게시판의 동의 인원 세 대결 양상으로 번졌다. 알페스 이용자를 처벌해달라는 국민 청원에는 14일 기준 19만명 이상이 동의했다. 남초 커뮤니티의 성희롱 게시판을 고발하는 청원에는 18만명이 넘었다. 두 청원 모두 정부 공식 답변 기준인 20만명 동의를 앞두고 있다. 전문가 의견은 엇갈린다. 서혜진 더라이트하우스 변호사는 “팬픽 문화에서 분화된 알페스는 딥페이크와는 달리 표현의 자유를 넓게 인정해 저작표현물로도 볼 수 있다”면서도 “실존 인물이 성적 수치심을 느낄 정도의 수위로 표현하는 음란물이라면 팬들의 놀이문화로 용인될 수는 없을 것”이라고 지적했다. 서승희 한국사이버성폭력대응센터 대표는 “남초 커뮤니티는 알페스가 지인 능욕을 하는 딥페이크라는 프레임으로 접근하고 있지만 알페스는 팬픽에 불과하다”고 했다. 남초커뮤니티 비공개게시판에 일반인 사진을 올려 성희롱을 한 것에 대해선 “나체 사진이거나 노출 사진이 아닌 일상사진을 올린 건 처벌하긴 어렵다”면서도 “만약 당사자 동의 없이 올린 사진이 성폭력처벌법 14조 1항에 따라 몰래 찍은 불법촬영이라면 커뮤니티를 운영하는 정보통신사업자도 책임질 수 있다”고 말했다. 경찰 관계자는 “시각적으로 명백히 음란물임이 드러나는 딥페이크와 달리 알페스는 글이라 해석의 여지가 있다”며 “물론 알페스를 음란물로 판단한다면 명예훼손죄나 성폭력특별법으로 처벌할 여지는 있다”고 했다. 최영권 기자 story@seoul.co.kr
  • 알페스 이어 딥페이크도 靑 청원 등장... “강력 처벌해주세요”

    알페스 이어 딥페이크도 靑 청원 등장... “강력 처벌해주세요”

    남자 아이돌을 성적 대상화 해 쓴 팬픽(팬이 스타를 주인공으로 쓰는 소설)인 알페스(RPS, Real Person Slash)가 논란이 된 가운데, 여성 연예인 얼굴을 기존 영상에 합성하는 딥페이크(Deepfake)물에 대한 수사와 강력 처벌을 요구하는 국민청원이 올라왔다. 지난 12일 청와대 국민청원 게시판에는 ‘여성 연예인들을 고통받게 하는 불법 영상 딥페이크를 강력히 처벌해주세요’라는 제목의 글이 올라왔다. ‘딥페이크’란 인공지능(AI)을 이용해 특정 인물의 얼굴이나 신체를 합성한 영상을 만들어내는 기술이다. 최근 성인용 비디오 등에 특정 연예인의 얼굴을 합성한 딥페이크 물이 온라인에서 유포되면서 논란이 되고 있다. 해당 글 청원인은 “구글, 트위터 등에서 딥페이크 영상을 쉽게 검색할 수 있고 수많은 사이트가 생성되고 있다”며 “특히 딥페이크 영상 피해자 대부분이 한국 여성 연예인”이라고 지적했다. 청원인은 “딥페이크는 엄연한 성폭력이다. 여성 연예인들이 성범죄 행위의 피해자가 되었을 뿐 아니라 불법으로 해당 딥페이크 영상이 판매되기도 한다”라고 비판했다. 그러면서 “피해자의 영상은 각종 소셜미디어에 유포되어 걷잡을 수 없이 퍼지고 있으며, (피해자들은) 성희롱, 능욕 등 악성 댓글로 고통받는다”라고 말했다. 그는 “피해자 중에는 사회 초년생인 미성년 여자 연예인들도 있다. 그들이 공공연하게 성범죄에 막연히 노출되고 있는 현실에 딥페이크 사이트 운영자와 이용자에 대한 강력한 처벌과 수사를 촉구한다. 딥페이크는 명백한 범죄”라고 강조했다. 해당 청원은 글이 올라온 지 하루 만인 13일 오후 1시 21만 명이 넘는 인원이 동의했다. 30일 이내에 20만 명의 동의를 받을 경우, 해당 청원에 대해 청와대나 관계부처가 답한다.전날인 지난 11일에는 남성 아이돌을 성적 대상화하거나 동성애 주인공으로 삼는 팬픽인 알페스 제작자와 독자들을 처벌해달라는 국민청원글이 올라오기도 했다. 이는 최근 한 래퍼가 자신의 인스타그램을 통해 “실존 인물을 대상으로 변태적 성관계를 하는 소설과 그림을 판매하고 집단으로 은폐하며 옹호하는 사람들이 있다”라고 주장하면서 공론화됐다. 청원인은 “알페스는 실존하는 남자 아이돌을 동성애 소설 주인공으로 등장시켜 차마 입에 담기도 어려운 적나라한 표현을 통해 성관계나 성폭행을 묘사하는 성범죄”라고 설명했다. 그러면서 “이미 수많은 남자 연예인이 이러한 알페스 문화를 통해 성적 대상화되고 있다. 피해자 상당수는 아직 미성년자이거나 갓 사회초년생이 된 아이돌”이라고 주장했다. 해당 청원인은 “알페스 이용자들 또한 자신의 행동이 범죄라는 사실을 알면서도 ‘우리들이 계속 아이돌을 소비해주기에 시장이 유지되는 것’이라는 태도로 일관하고 있다”라고 지적했다. 그러면서 “적극적으로 알페스 이용자들을 수사해 강력히 처벌해달라. 실존 인물을 대상으로 적나라한 성범죄 소설이 유통되지 않게 하는 규제 방안도 마련해 달라”라고 밝혔다. 해당 청원은 13일 오후 1시 기준 17만 명이 넘는 사람들이 동의했다. 임효진 기자 3a5a7a6a@seoul.co.kr
  • 성착취물 범죄 자수·자백하면 감형…‘피해자다움’ 오해 소지 예시는 삭제

    성착취물 범죄 자수·자백하면 감형…‘피해자다움’ 오해 소지 예시는 삭제

    상습범은 최대 29년 3개월형까지 선고여성계 “반성 감경요인 악용 소지 남아”아동·청소년 성착취물 범죄에 대해 최대 29년 3개월의 징역형을 선고하는 양형기준이 내년 1월 시행된다. 죄질이 나쁘거나 상습적인 범죄에 대해 권고 형량은 높이면서도 자수 또는 자백을 통해 수사에 협조하면 형을 감경해 주기로 했다. 여성계는 디지털 성범죄 양형기준이 처음 마련된 것에 의미를 두면서도 관대한 감경 사유를 문제 삼았다. 이르면 오는 11일 성명문을 발표한다. 8일 대법원 양형위원회는 전날 전체회의를 열고 디지털 성범죄 양형기준을 확정 의결했다. 일선 재판부는 내년부터 이 양형기준을 참고해 형을 선고한다. 아동·청소년 성착취물 제작 범죄는 징역 5~9년 선고(기본)를 기준으로 삼는다. 여기에 특별가중·감경인자를 감안해 감경(징역 2년 6개월~6년) 또는 가중(징역 7~13년) 구간에서 형량을 선고한다. ‘범행 수법 매우 불량’ 등 특별가중인자가 1개 더 많으면 징역 7~13년, 2개 더 많으면 징역 7년~19년 6개월로 상한이 올라간다. 다수범 또는 상습범은 최대 29년 3개월까지 선고할 수 있도록 했다. 수사 협조를 유도하기 위해 자수를 하거나 내부고발을 하면 특별감경인자, 자백으로 관련자 처벌·후속 범죄 저지 등 수사에 기여한 경우 일반감경인자로 삼는 것도 특징이다. 특별감경인자가 많으면 형량 구간이 ‘기본→감경’으로 달라질 수 있지만, 일반감경인자는 구간 내에서 형량의 범위에만 영향을 미칠 수 있다. 또 피해자인 아동·청소년의 특수성, 보호 필요성을 고려해 ‘처벌불원’은 특별감경인자가 아닌 일반감경인자에 포함시켰다. 피해자가 처벌을 원치 않는다는 이유로 형량이 크게 낮아지는 걸 막겠다는 취지다. ‘형사처벌 전력 없음’의 감경인자에 대해선 다수 피해자를 상대로 하거나 상당 기간 반복적으로 범행한 경우 감경을 고려해선 안 된다는 제한 규정도 신설했다. 특별가중인자인 ‘피해자에게 심각한 피해를 야기한 경우’의 정의 규정에서 자살·자살 시도 등 극단적 예시는 삭제했다. 피해자에게 범죄 피해에 따른 고통을 강요하거나 ‘피해자다움’을 요구하는 것으로 오해될 수 있어서다. 카메라로 다른 사람의 신체를 불법 촬영하고 이를 영리 목적으로 유포하면 최대 징역 18년까지 선고할 수 있도록 권고했다. 타인의 얼굴을 성착취물과 합성하는 ‘딥페이크’ 등 허위 영상물을 이용한 범죄도 영리 목적으로 유포했다면 최대 징역 9년까지 선고가 가능하다. 여성계는 ‘피해자의 심각한 피해’ 정의에서 자살 등을 삭제한 것은 성인지 감수성을 반영했다는 점에서 긍정적인 평가를 내렸다. 다만 텔레그램 성착취 공동대책위원회가 삭제를 요구했던 ‘진지한 반성’ 등 감경 요인이 유지된 것은 미흡하다는 지적이 나온다. 이현숙 탁틴내일 대표는 “진지한 반성 같은 감경 사유는 악용될 소지가 있다”며 “아동·청소년 알선 최고형이 18년에 그치거나 성착취물 판매·배포 등은 상습 가중 규정이 없는 점도 아쉽다”고 말했다. 서승희 한국사이버성폭력대응센터 대표도 “(성착취물) 회수 노력을 특별감경인자로 두면 디지털 장의사에게 돈을 주고 감경받을까 우려된다”고 밝혔다. 김헌주 기자 dream@seoul.co.kr김주연 기자 justina@seoul.co.kr
  • 성착취물 소지 처벌 못했는데… ‘n번방 방지법’ 1300명 잡았다

    성착취물 소지 처벌 못했는데… ‘n번방 방지법’ 1300명 잡았다

    올해 3월부터 8개월간 아동·청소년 성착취물 등을 소지한 혐의로 1300여명이 검거돼 처벌을 앞둔 것으로 확인됐다. 지난 4월 말 국회에서 이른바 ‘텔레그램 n번방 방지법’이 통과되지 않았더라면 성착취물을 내려받아 보고 휴대전화 등에 저장한 이들은 법망을 피했을 가능성이 크다. 불법 성착취물 공급자뿐만 아니라 이를 소비하는 행위도 엄벌해 달라는 시민들의 끈질긴 요구 덕에 디지털 성범죄를 뿌리 뽑을 전환점이 마련됐다는 해석이 나온다. 지난 12일 경찰청이 한병도 더불어민주당 의원실에 제출한 자료에 따르면 지난 3월 25일 경찰청에 디지털 성범죄 특별수사본부가 설치된 후부터 이달 5일까지 성착취물과 관련해 2549명이 검거되고 이 중 220명이 구속됐다. 범죄 유형별로 보면 성착취물 등을 소지한 혐의로 붙잡힌 인원은 전체의 50.3%인 1281명(구속 13명)으로 집계됐다. 불법 영상 유포 혐의가 798명으로 두 번째로 많았고 영상 제작·운영자는 430명이 붙잡혔다. 영상물 소지로 입건된 사람 가운데 아동·청소년을 대상으로 하거나 협박·강요를 통해 제작한 성착취물을 소지한 사람이 98.8%(1265명)로 절대다수였다. 나머지 16명은 불법 촬영물, 딥페이크 등 불법 합성물 등을 갖고 있어 적발됐다. 피의자를 연령대별로 보면 20대 피의자가 1058명(41.5%)으로 가장 많았고 10대 피의자가 752명(29.5%)으로 뒤를 이었다. 디지털 성범죄 사건으로 피해를 본 사람은 889명으로 파악됐는데 주로 10대와 20대였다. 성착취물 등 불법 촬영물을 소지한 피의자를 처벌할 수 있게 된 것은 성폭력범죄의 처벌 등에 관한 특례법 개정안이 국회 본회의를 통과해 지난 5월 19일부터 적용됐기 때문이다. 기존 법은 불법 촬영물을 제작·임대·제공한 사람만 처벌하고 소비자는 벌하지 않았다. 개정안은 불법 촬영물을 소지·구입·저장 또는 시청한 사람을 3년 이하의 징역 또는 3000만원 이하의 벌금에 처하도록 했다. 국회는 애초 지난 3월 5일 ‘텔레그램 디지털 성범죄’를 해결해 달라는 국민동원청원을 반영해 성폭력처벌법을 개정했지만 미흡하다는 질타를 받았다. 그러나 같은 달 16일 텔레그램에서 아동 성착취물 등을 제작·유포한 ‘박사방’ 사건이 터지면서 성착취물 소비자를 처벌하라는 청원이 잇따르자 부랴부랴 후속 입법에 나섰다. 국회가 이례적으로 두 달도 안 돼 같은 법을 개정한 것은 디지털 성범죄의 폐해에 대한 국민적 분노가 그만큼 컸기 때문이었다. 경찰은 불법 촬영물 소지자에 대한 수사에 집중하고 있다. 박사방에 ‘무료회원’으로 대화방에 입장해 불법 영상을 내려받은 305명을 입건했고 n번방에서 공급한 불법 촬영물을 소지한 720명도 수사 중이다. 한 의원은 “불법 촬영 범죄는 유포로 이어져 2·3차 피해를 일으키는 중대한 범죄행위”라면서 “경찰이 특수본을 꾸린 만큼 디지털 성범죄가 근절될 수 있도록 철저히 수사해야 한다”고 지적했다. 오세진 기자 5sjin@seoul.co.kr
  • “이 동영상 조작됐네”… 손쉽게 잡아내는 토종 SW 개발

    “이 동영상 조작됐네”… 손쉽게 잡아내는 토종 SW 개발

    자체 수집한 30만장 실험자료 바탕 인공신경망 활용, 영상 변형물 포착“아주 정교한 영상도 90% 이상 탐지”지난해 미국에서는 전현직 대통령의 얼굴을 합성한 가짜뉴스 영상이나 유명 연예인을 합성한 불법 동영상이 유통돼 논란이 된 바 있다. 연예인뿐만 아니라 헤어진 연인의 얼굴을 다른 나체 사진이나 성인물 동영상과 합성한 뒤 온라인상에 유통시키는 경우가 자주 발생해 사회적 문제가 되고 있는 상황이다. 인공지능과 디지털 기술의 발달로 실제와 구분할 수 없을 정도로 정밀하게 영상을 위변조하는 ‘딥페이크’를 쉽게 잡아내기 어렵기 때문에 생기는 일들이다. 이런 상황에서 이흥규 카이스트 전산학부 교수와 교내 벤처기업 디지탈이노텍 공동연구팀은 인공신경망을 이용해 디지털 형태의 사진 변형 여부를 정확하고 손쉽게 찾아낼 수 있는 소프트웨어 ‘카이캐치’를 개발했다고 3일 밝혔다. 기존 위변조 탐지 기술이 이론 검증을 위한 논문 발표 수준이었다면 이번에 개발된 기술은 세계에서는 두 번째로 실용화 단계에 도달한 것으로 평가받고 있어 주목받고 있다.기존의 디지털 영상 포렌식 기술은 유형별로 수행되는 영상 변형에 대응해 개발됐기 때문에 하나의 영상에 여러 종류의 변형이 가해지거나 어떤 변형이 수행된 것인지 전혀 알 수 없는 디지털 영상 분석에서는 정확성과 신뢰도가 크게 떨어진다. 이 때문에 극소수 전문가들의 주관적 판단에만 의존해야 한다는 문제점까지 안고 있었다. 그런데 연구팀은 자체적으로 만든 ‘디지털 이미지 위변조 식별 웹서비스’를 통해 수집한 약 30만장의 영상 자료와 신경망 기반 포렌식 영상자료, 딥페이크 분석을 위한 실험영상 자료를 바탕으로 ‘카이캐치’를 만들었다. 이번 기술은 잘라 붙이기, 복사 붙이기, 지우기, 물체 크기 변화, 이동, 리터칭처럼 자주 사용하고 손쉬운 변형 방법은 물론 다양한 영상 변형을 인지할 수 있다. 또 어떤 식으로 변형됐는지 알 수 없는 영상에 대해서도 평균 탐지 정확도 90~95%, 변형 영역에 대한 추정 확률 90%로 탐지하는 데 성공했다. 이 교수는 “인공지능 기술을 융합한 영상 포렌식 기술과 픽셀 수준의 변형을 탐지해 아무리 정밀하게 변형한 영상정보도 거의 완벽하게 잡아낼 수 있다”고 말했다. 유용하 기자 edmondy@seoul.co.kr
  • 텔레그램방에서 ‘가짜 나체’ 합성…1년간 피해자 최소 10만명

    텔레그램방에서 ‘가짜 나체’ 합성…1년간 피해자 최소 10만명

    인공지능(AI)을 이용해 여성 얼굴에 가짜 나체 사진을 합성해주는 텔레그램 대화방 피해자가 지난 1년간 10만명이 넘는 것으로 조사됐다고 영국 BBC방송이 20일(현지시간) 보도했다. 민간 정보업체 센시티의 최근 보고서에 따르면 문제의 텔레그램 대화방은 사람들이 여성의 사진을 전달하면 ‘딥페이크 봇’(딥페이크를 만드는 인공지능)이 옷을 삭제해주는 서비스를 제공한다. 딥페이크란 실존 인물의 얼굴이나 신체를 인공지능 기술을 이용해 다른 인물이나 이미지에 감쪽같이 합성한 편집물을 뜻한다. 해당 텔레그램 대화방은 사진을 받고 몇 분 만에 편집을 완료하며, 비용도 청구하지 않는다고 보고서는 전했다. 텔레그램 대화방 1곳을 통해서만 지난해 7월부터 1년간 약 10만 4852명의 여성이 가짜 나체 사진이 유포되는 피해를 본 것으로 파악됐다. BBC는 몇몇 여성의 동의를 얻고 그들의 사진을 이 대화방에 제출한 결과, 실제로 편집물을 받았다고 전했다. 다만 한 사진에선 배꼽이 횡격막 쪽에 달리는 등 편집물이 사실적이진 않았다고 설명했다. ‘P’라고만 알려진 이 대화방 운영자는 BBC에 “이 서비스는 오락물일 뿐 폭력 행위는 없다”면서 “사진 퀄리티도 사실적이지 않아, 이를 이용해 누군가를 협박하려는 사람도 없을 것”이라고 주장했다. 그러나 딥페이크봇은 그 어떤 사진이라도 무차별적으로 편집해 피해가 급격히 확산할 수 있다고 보고서는 지적했다. 딥페이크 봇에 의뢰된 사진 중 일부는 미성년자도 있는 것으로 조사됐다. 조지오 파트리니 센시티 대표는 “사진이 노출된 SNS 계정만으로도 충분히 공격 대상이 될 수 있다“고 경고했다. 문제의 서비스는 특히 러시아 SNS 사이트인 VK에서 많이 광고되고, 이용자 대다수가 러시아 등 구소련 국가 출신이라고 보고서는 밝혔다. 전문가들은 이처럼 딥페이크를 활용한 범죄가 증가하고 있지만 이를 규제할 법적 장치는 미비하다고 지적한다. 책 ‘딥페이크와 인포컬립스’의 저자 니나 식은 ”딥페이크물이 더욱 정교해지는 건 시간 문제“라며 ”우리의 법 제도는 이 문제를 해결하기에 적합하지 않다“고 지적했다. 그는 ”페이크 포르노 피해자들을 생각하면 절망적인 상황“이라며 ”이들은 사생활 침해와 모욕감으로 인생이 완전히 뒤집힐 수 있다“고 우려했다. 신진호 기자 sayho@seoul.co.kr
  • “너무 정교한 A양 비디오”… 여배우 딥페이크 영상 일본서 꼬리밟혀

    “너무 정교한 A양 비디오”… 여배우 딥페이크 영상 일본서 꼬리밟혀

    여성 연예인의 가짜 포르노 동영상을 만들어 인터넷에 공개한 ‘딥페이크’(Deepfake) 범죄가 일본에서 처음 적발된 가운데 딥페이크 기술이 날이갈 수록 정교해지고 있다. 최근에는 딥페이크 탐지 기술도 함께 발전하고 있다. 2일 교도통신에 따르면 도쿄도 경찰본부인 경시청은 여성 연예인 딥페이크를 제작·공개한 혐의로 구마모토현 거주 대학생인 하야시다 다쿠미(21)와 효고현에 사는 시스템 엔지니어 오쓰키 다카노부(47)를 명예훼손 및 저작권법 위반 혐의로 체포했다. 두 사람은 AI를 활용해 포르노 비디오에 등장하는 여배우 이미지에 피해자가 된 여성 연예인을 교묘하게 합성하는 방법으로 딥페이크를 제작해 인터넷에 공개한 혐의를 받고 있다. 교도통신은 이런 유형의 딥페이크 사건이 일본에서 적발된 것은 처음이라고 밝혔다. 딥페이크는 ‘딥러닝’과 ‘가짜’(fake)라는 의미를 담은 신조어다. AI의 고급이미지 생성 기술을 사용해 합성 방식으로 만드는 진짜 같은 가짜 동영상을 뜻한다. AI가 합성하려고 하는 사람의 표정과 습관, 음성을 학습해 영상을 합성한다.네덜란드 사이버 보안기업 ‘딥 트레이스’가 발표한 보고서에 따르면 지난해 이 회사가 확인한 딥페이크만 1만 4678건으로, 전년 대비 84% 증가했다. 이 중 96%가 유명 할리우드 여배우 등 유명인이었다. 우리나라에서도 텔레그램을 통해 모인 이들이 성착취 동영상을 제작하고 유포했던 ‘n번방’ 사건에서 일부 피의자들이 딥페이크 기술을 악용하기도 했다. 이들은 피해 여성의 사진을 음란물에 합성해 유포하는 범죄를 저질렀다. 하지만 딥페이크 기술 발전만큼 딥페이크를 탐지하는 기술도 발전하고 있다. 지난달 1일 마이크로소프트는 동영상에 딥페이크 기술을 적용했는지 여부를 감별하는 ‘비디오 어센터케이터’를 선보였다. 이외에도 구글, 페이스북 또한 딥페이크 탐지 기술을 개발하고 있다. 윤수경 기자 yoon@seoul.co.kr
위로