찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • 개인정보
    2025-12-15
    검색기록 지우기
  • 김홍걸
    2025-12-15
    검색기록 지우기
  • 이주노동자
    2025-12-15
    검색기록 지우기
  • 도덕성
    2025-12-15
    검색기록 지우기
  • 결혼·출산
    2025-12-15
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
8,800
  • “얘는 나중에 살인자 되겠네”…‘살인 예측’ 프로그램 개발 논란, 왜

    “얘는 나중에 살인자 되겠네”…‘살인 예측’ 프로그램 개발 논란, 왜

    영국 정부가 이미 확보된 범죄자 정보를 활용해 살인자가 될 가능성이 큰 사람을 식별하는 ‘살인 예측’ 프로그램을 개발 중인 것으로 알려진 가운데, 일각에서는 “인권침해 가능성이 크다”는 지적이 나오고 있다. 8일(현지시간) 현지 일간 가디언 등에 따르면 영국 정부의 의뢰를 받은 연구진은 잠재적 범죄자를 파악하기 위해 범죄 피해자들을 포함해 수천명의 개인정보를 알고리즘으로 분석 중인 것으로 알려졌다. 리시 수낵 총리 재임(2022~2024년) 때 영국 총리실이 의뢰한 이 프로젝트는 이름, 생년월일, 성별, 민족, 전국 경찰 전산망에 입력된 개인 식별번호 등 정부가 가진 공식 정보에서 얻은 범죄 정보를 활용한다. 영국 비영리단체 스테이트워치(Statewatch)의 정보공개 청구로 알려진 이 계획은 애초 ‘살인 예측 프로젝트’라 불리다 지금은 ‘위험 평가 개선을 위한 정보 공유’로 명칭이 바뀌었다. 이 단체는 형사 사건으로 유죄 판결을 받지 않았더라도 자해, 가정폭력 등과 관련한 개인정보가 이 프로젝트에 사용될 것이라고 주장했다. 범죄자뿐만 아니라 무고한 사람이나 범죄 피해자의 정보까지 동원된다는 것이다. 스테이트워치는 또한 정신건강, 중독, 자살, 취약성, 자해, 장애 등에 관한 개인 정보도 포함된다고 지적했다. 스테이트워치의 소피아 리올 연구원은 “법무부의 살인 예측 시스템 구축 시도는 정부가 소위 범죄 ‘예측’ 시스템을 개발하려는 의도를 보여주는 소름 돋는 디스토피아적 최신 사례”라며 “구조적인 차별을 강화, 확대할 것”이라고 비판했다. 이어 “인종차별 및 저소득층 커뮤니티에 대한 편견을 구조화할 것”이라며 “사람들을 폭력 범죄자로 프로파일링하는 자동화된 도구를 구축하는 것은 매우 잘못된 일로 정신건강, 중독, 장애 관련 민감 정보를 사용하는 것은 인권침해 요소가 짙다”고 강조했다. 이와 관련해 영국 법무부 대변인은 “이 프로젝트는 유죄 판결을 받은 범죄자에 대해 교정국과 경찰이 보유한 기존 데이터를 이용해 보호관찰 중인 사람들이 심각한 폭력을 저지를 위험을 더 잘 이해하는 데 도움이 되도록 설계됐다”고 밝혔다. 법무부는 이 프로젝트가 연구 목적으로만 진행되며 관련 보고서가 적절한 시기에 발표될 것이라고 덧붙였다. 또한 필요한 경우 사람들이 데이터 수집을 거부할 수 있도록 할 것이라고 전했다.
  • [단독] “여보세요” 한마디로 내 딸 목소리 훔쳤다… AI로 진화한 ‘피싱’

    [단독] “여보세요” 한마디로 내 딸 목소리 훔쳤다… AI로 진화한 ‘피싱’

    “아빠 지금 5000만원만 빨리 입금해 줄 수 있을까? 지금 이 계좌로 좀 보내줘. 나중에 설명할게.” 울먹이며 읍소하는 목소리는 대학교수 A씨가 30년간 들었던 외동딸의 진짜 목소리였다. 돈을 보내려던 A씨는 혹시나 하는 마음에 다시 딸에게 전화를 걸었다. 그러자 “아, 보이스피싱인가봐”라는 답이 돌아왔다. 휴대전화 속 목소리는 인공지능(AI) 기술로 딸의 목소리를 흉내 낸 것이었다. AI 기술이 발전하면서 이를 악용한 범죄가 진화하고 있다. 과거 보이스피싱이 지인의 목소리를 어설프게 흉내내거나 공공기관을 사칭하는 방식이었다면, 이제는 실제 목소리 정보를 AI로 합성해 조작한다. 이른바 ‘딥보이스’는 먼저 목소리 정보를 얻어낼 상대방에게 전화를 걸어 짧게 통화하는 것으로 시작된다. 이 목소리 데이터를 AI프로그램에 합성하면 가족이나 지인의 음성을 유사하게 만들어 낼 수 있다. 실제 서울신문이 한 딥보이스 앱에 목소리 녹음 파일을 올리자 30초도 채 안 돼 패턴과 속도 등을 분석했다. 이후 “엄마 핸드폰이 고장 나서 그런데 100만원 입금해줘”라는 문장을 글로 입력하고, 상황 등을 설정하자 녹음파일의 목소리와 비슷한 음성이 흘러나왔다. 법무법인 청의 곽준호 변호사는 “목소리 녹음 파일만 있으면 누구나 쉽게 AI로 그럴듯하게 목소리를 만들어 내 범죄에 악용할 수 있다”고 했다. 경찰 관계자도 “목소리를 수집하는 역할을 하는 ‘콜센터’를 검거하기가 쉽지 않다”면서 “이런 유형의 보이스피싱이 빈번해지고 있다”고 전했다. 경찰청에 따르면 지난해 보이스피싱 피해액은 8545억원으로 1년 전보다 91% 늘었다. 하지만 최신 기술인 딥보이스가 악용된 경우가 얼마나 되는지는 공식 통계조차 잡히지 않는다. AI 기술로 조작되는 것은 목소리뿐만이 아니다. 카카오톡 프로필 사진 등 얼굴 사진을 도용해 영상과 사진으로 만드는 범죄도 여전히 잦다. 이미 심각한 사회문제가 된 딥페이크 성범죄뿐 아니라 최근에는 인터넷은행의 생체 인증 서비스를 딥페이크로 뚫으려다 적발된 사례도 있다. 금융권에 따르면 지난달 한 인터넷은행에서는 고객 개인정보를 탈취한 이들이 면허증의 사진 등을 AI로 조작해 얼굴 인식 등 금융사의 생체인증을 뚫으려고 시도했다. 황석진 동국대 국제정보보호대학원 교수는 “기술의 발전으로 피해자들이 더 쉽게 속아 넘어갈 수 있게 됐다”며 “AI를 이용한 범죄의 피해 규모를 파악하고 대응법을 마련해야 한다”고 말했다.
  • 김선희 경기도의원, 경기도교육 디지털 플랫폼의 신속한 구축 촉구

    김선희 경기도의원, 경기도교육 디지털 플랫폼의 신속한 구축 촉구

    경기도의회 국민의힘 김선희 의원(용인7)은 경기도의회 제383회 임시회 교육기획위원회 상임위 제1차 회의 경기도교육청 업무보고에서 경기도교육청의 AI-데이터 중심 디지털플랫폼의 신속한 추진 및 개인정보보호 강화 대책을 당부하였다. 김선희 의원은 조례안 심의에서 고교학점제 도입에 따른 학생들의 성적관리에서 공정성 확보 대책 입안과 늘봄학교의 늘봄지원실장 증원 필요성을 지적하였다. 김선희 의원은 경기도교육청의 AI-데이터 중심 디지털플랫폼 구축이 서울시 교육청에 비하여 늦게 추진된 점을 지적하면서, 경기도교육청이 디지털플랫폼을 구축하는데 있어서 나이스와 연계하여 원활하게 운영되어야 한다 점과 시스템 설계에서 개인정보 보안이 완벽하게 될 수 있도록 해야 한다고 당부하였다. 또한 디지털플랫폼 구축이 올해 11월부터 행정기관 및 100여개 학교 대상으로 단계별 서비스 개통 시범 운영에 들어가는데, 용인시 관내 학교가 선정될 수 있도록 노력해 달라고 당부하였다. 김선희 의원은 조례안 심의에서 고교학점제 도입 및 시행에 따른 성적 관리의 공정성 확보 대책 필요성을 지적하면서, 경기도교육청은 현재까지 무엇보다도 민감한 문제인 성적관리의 공정성 확보 및 관리 대책이 미흡하다고 질타하였다. 또한 김선희 의원은 늘봄학교 늘봄지원실장 200명 증원 필요성을 강조하면서, 경기도교육청의 늘봄학교 지원에 대한 지속적 관심과 정책 및 예산 지원을 당부하였다. 김선희 의원은 회의를 마치면서 경기도 관내 거주 학생들이 전국 최고의 공교육 서비스를 받을 수 있도록 경기도교육청이 더욱 분발해야 하고, 행정사무감사에서도 이를 다시 확인하겠다고 약속하였다.
  • 러시아군으로 싸운 중국군 포로…中, 용병도 공급했나

    러시아군으로 싸운 중국군 포로…中, 용병도 공급했나

    볼로디미르 젤렌스키 우크라이나 대통령이 8일(현지시간) 우크라이나 동부 도네츠크에서 러시아군 일원으로 싸우던 중국인 6명 가운데 2명을 생포했다고 하자 중국은 사실을 확인 중이라고 밝혔다. 젤렌스키 대통령은 이날 “우리는 이들의 서류, 은행카드, 개인정보를 입수했다”며 “러시아군 부대에 더 많은 중국인이 있다는 정보가 있다”고 밝혔다. 젤렌스키 대통령이 소셜미디어 엑스를 통해 함께 공개한 영상에는 중국인으로 추정되는 군복 차림의 한 남성이 케이블 타이로 결박된 채 두 손을 움직이며 중국어로 전투 상황을 열심히 설명하고 있다. 체포된 중국인 가운데 한 명은 1991년 6월 4일생으로, 중국의 다수 민족인 한족 출신이다. 3년 넘게 계속되고 있는 우크라이나 전쟁에서 중국인 포로가 생포된 것은 처음이다. 젤렌스키 대통령은 “러시아가 유럽에서 벌어지는 전쟁에 중국을 직간접적으로 개입시킨 것은 블라디미르 푸틴 대통령이 전쟁을 끝내는 것 빼고는 무엇이든 하겠다는 분명한 신호”라며 “그는 계속 싸울 방법을 찾고 있다”고 주장했다. 그는 이어 중국이 북한, 이란과 함께 러시아를 지원하는 국가라고 비판했다. 린젠 중국 외교부 대변인은 9일 정례브리핑에서 우크라이나 측 주장과 관련한 입장을 묻는 질문에 “중국은 우크라이나와 관련 정보를 확인하고 있다”고 밝혔다. 린 대변인은 “중국 정부는 항상 중국 국민들에게 무력 충돌 지역에서 멀리 떨어져 어떤 형태로든 무력 충돌에 개입하지 말 것을 요구해왔다”며 “특히 어느 편의 군사 행동에도 참여하지 말라고 해왔다”고 말했다. 더 많은 중국인이 러시아군 부대에 있다는 주장과 관련해서는 “그런 주장들에 근거가 없다”고 일축했다. 태미 브루스 미 국무부 대변인은 “러시아군에 합류한 중국인들이 우크라이나에서 체포됐다는 보도를 인지하고 있다. 이는 불안한 일”이라면서 “중국은 우크라이나전쟁에서 러시아의 중요 지원국으로, 러시아가 전쟁을 지속하는 데 필요한 이중 용도 물자의 거의 80%를 제공하고 있다”고 지적했다. 러시아는 수만 명의 외국 용병을 모집했는데 예멘, 네팔, 쿠바 등에서 높은 급여를 받고 전쟁에 자원한 것으로 알려졌다. 전쟁 종전 협상은 우크라이나 측은 휴전에 합의했으나 러시아가 반대하면서 교착 상태에 빠졌다.
  • “아빠, 도와줘” 울먹이던 딸의 목소리…AI가 만든 가짜였다

    “아빠, 도와줘” 울먹이던 딸의 목소리…AI가 만든 가짜였다

    “아빠 지금 5000만원만 빨리 입금해 줄 수 있을까? 지금 이 계좌로 좀 보내줘. 나중에 설명할게.” 울먹이며 읍소하는 목소리는 대학교수 A씨가 30년간 들었던 외동딸의 진짜 목소리였다. 돈을 보내려던 A씨는 혹시나 하는 마음에 다시 딸에게 전화를 걸었다. 그러자 “아, 보이스피싱인가봐”라는 답이 돌아왔다. 휴대전화 속 목소리는 인공지능(AI) 기술로 딸의 목소리를 흉내 낸 것이었다. AI 기술이 발전하면서 이를 악용한 범죄가 진화하고 있다. 과거 보이스피싱은 가족과 지인의 목소리를 어설프게 흉내 냈다면, 이제는 실제 목소리 정보를 AI로 합성해 조작한다. 카카오톡 프로필 사진 등을 활용해 AI 조작 영상이나 사진을 만든 뒤 금융회사의 인증망을 뚫으려고 하거나 공문서를 손쉽게 조작하다 적발되기도 한다. 이른바 ‘딥보이스’는 먼저 목소리 정보를 얻어낼 상대방에게 전화를 걸어 짧게 통화하는 것으로 시작된다. 이 목소리 데이터를 AI프로그램에 합성하면 가족이나 지인의 음성을 유사하게 만들어 낼 수 있다. 실제 서울신문이 한 딥보이스 앱에 목소리 녹음 파일을 올리자 30초도 채 안 돼 패턴과 속도 등을 분석했다. 이후 “엄마 핸드폰이 고장 나서 그런데 100만원 입금해줘”라는 문장을 글로 입력하고, 상황 등을 설정하자 녹음파일의 목소리와 비슷한 음성이 흘러나왔다. 법무법인 청의 곽준호 변호사는 “목소리 녹음 파일만 있으면 누구나 쉽게 AI로 그럴듯하게 목소리를 만들어 내 범죄에 악용할 수 있다”고 했다. 경찰 관계자도 “목소리를 수집하는 역할을 하는 ‘콜센터’를 검거하기가 쉽지 않다”면서 “이런 유형의 보이스피싱이 빈번해지고 있다”고 전했다. 경찰청에 따르면 지난해 보이스피싱 피해액은 8545억원으로 1년 전보다 91% 늘었다. 하지만 최신 기술인 딥보이스가 악용된 경우가 얼마나 되는지는 공식 통계조차 잡히지 않는다. 황석진 동국대 국제정보보호대학원 교수는 “그동안 가족이나 친구의 목소리를 흉내 내는 방식은 성공률이 낮은 편이었지만, 기술의 발전으로 피해자들이 더 쉽게 속아 넘어갈 수 있게 됐다”며 “정확한 피해 규모를 파악하는 게 우선”이라고 말했다. AI 기술로 조작되는 것은 목소리뿐만이 아니다. 카카오톡 프로필 사진 등 얼굴 사진을 도용해 영상과 사진으로 만드는 범죄도 여전히 잦다. 이미 심각한 사회문제가 된 딥페이크 성범죄뿐 아니라 최근에는 인터넷은행의 생체 인증 서비스를 딥페이크로 뚫으려다 적발된 사례도 있다. 금융권에 따르면 지난달 한 인터넷은행에서는 고객 개인정보를 탈취한 이들이 면허증의 사진 등을 AI로 조작해 얼굴 인식 등 금융사의 생체인증을 뚫으려고 시도했다. AI프로그램에 사진을 넣은 뒤 영상을 만들었고, 이를 이용해 스마트폰 얼굴 인식으로 본인 인증을 시도한 것이다. 하지만 수상함을 감지한 은행이 이들을 적발했고, 수사기관에 넘겼다. 법원의 압수수색·구속영장 허가서나 피의사건 처분결과 통지서 등을 공문서 조작은 더 쉬워졌다. 실제로 챗GPT에 ‘전자금융사기’ 죄목으로 ‘압수수색·구속영장 허가서’ 양식을 작성해달라고 요청하면, 사건 개요, 사건명, 관련 법률 등 필요 항목을 정리해준다. 여기에 더 정밀한 명령어를 내려 실제 문서까지 만들 수 있다고 한다. 법무법인 YK의 고두희 변호사는 “한국말을 잘 모르는 외국인 범죄자들이 AI를 통해 한국 수사기관의 공문서를 위조하기도 한다”고 전했다. 이처럼 범죄에 AI가 악용되는 경우가 늘어나고 있는 만큼 수사기관의 대응도 강화해야 한다는 지적이 나온다. 이건수 백석대 범죄수사학과 교수는 “기술이 좀 더 발전해 정교해진다면 조작된 목소리나 얼굴로 사람은 물론 디지털 인증 체계까지 속일 수 있다”며 “AI가 범죄에 활용되는 통계 집계부터 시작해 진화하는 수법에 대응하는 방법을 고민해야 할 시기”라고 말했다.
  • “고무장갑 쓰레기봉투에 버렸는데 벌금 10만원 냈습니다”

    “고무장갑 쓰레기봉투에 버렸는데 벌금 10만원 냈습니다”

    자치구별로 제각각인 쓰레기 분리배출 기준이 시민들의 혼란을 키우고 있다. 최근 온라인 커뮤니티에는 “고무장갑을 일반쓰레기 봉투에 넣었다가 과태료 10만원을 부과받았다”는 게시글이 올라와 큰 관심을 끌었다. 확인 결과, 서울 강남구는 고무장갑을 과자봉지나 커피믹스 봉투 등과 같은 ‘비닐류’로 분류해 투명봉투에 따로 배출하도록 규정하고 있다. 반면 송파구, 관악구, 구로구 등 다수의 자치구는 고무장갑을 재활용 불가 품목으로 간주, 종량제 봉투에 넣어 일반쓰레기로 처리하도록 안내하고 있다. 고무장갑뿐만이 아니다. 토마토 꼭지를 일반쓰레기로 버렸거나, 닭뼈에 살이 남아 있었다는 이유, 배달 음식 용기에 소스가 묻었다는 이유 등으로 과태료를 부과받았다는 사례도 잇따르고 있다. 환경부는 “고무장갑은 재활용이 어렵기 때문에 종량제 봉투에 버려야 한다”고 명시하고 있지만, ‘지자체 여건에 따라 규정이 다를 수 있다’는 단서 조항을 함께 두고 있어 현장의 혼란은 여전하다. 서울시는 ‘딱딱하지 않은 과일 껍질’은 음식물 쓰레기로, ‘파 뿌리·양파껍질·육류 뼈’ 등은 일반쓰레기로 분류하고 있다. 그러나 이런 기준조차 자치구별 해석이 달라 시민 입장에서는 무엇이 맞는지 알기 어렵다는 지적이 나온다. 특히 벌금 10만원에 달하는 과태료 처분에 대해 “과도하다”는 비판과 함께, 일관성 있는 제도 마련과 명확한 기준 제시를 요구하는 목소리가 높다. 쓰레기 배출 위반 단속은 주로 종량제 봉투를 열어 내부에서 개인정보를 확인하거나, CCTV 등을 통해 배출자를 특정하는 방식으로 이뤄진다. 단속 강화에 앞서 시민이 명확하게 기준을 이해할 수 있도록 해야 한다는 지적이 나온다. 전문가들은 “환경 보호라는 분리배출 제도의 취지는 중요하지만, 지자체 간 기준이 지나치게 달라 시민들이 불필요한 불이익을 받고 있다”며 “통일된 기준 마련과 홍보 강화가 시급하다”고 강조했다.
  • 경북 경찰, 현대차 ‘블루핸즈’와 손잡고 보이스피싱 예방 활동 강화

    경북 경찰, 현대차 ‘블루핸즈’와 손잡고 보이스피싱 예방 활동 강화

    경북 경찰이 신종 보이스피싱 예방을 위해 현대차 공식 정비센터인 ‘블루핸즈’와 손을 잡았다. 8일 경북경찰청은 ‘블루핸즈’ 대구경북 지역 가맹점들과 협업해 신종 보이스피싱 범죄 예방 홍보에 나선다고 밝혔다. 경찰에 따르면 최근 카드 배송 기사를 사칭한 신종 보이스피싱이 유행하고 있다. ‘신규 카드가 발급됐다’며 전화나 문자를 발송한 뒤 피해자가 전화를 걸면 카드 취소 또는 신원 확인 등을 빌미로 악성 앱 설치를 유도하는 방식이다. 이를 통해 개인정보를 탈취해 돈을 가로챈다. 경찰은 해당 범죄 유형에 대한 안내와 유의사항을 담은 포스터를 제작해 블루핸즈 대구경북 60여개 가맹점 대기실에 송출하는 등 집중적인 예방 활동을 펼칠 예정이다. 오부명 경북경찰청장은 “경찰은 보이스피싱 등 민생침해범죄에 대한 철저한 단속은 물론 다양한 생활밀착형 예방 홍보활동을 통해 도민의 평범한 일상을 확고히 지켜나갈 것”이라고 했다.
  • ‘상호관세’ 화난 中, 美 틱톡 인수 반대…트럼프는 틱톡금지 유예

    ‘상호관세’ 화난 中, 美 틱톡 인수 반대…트럼프는 틱톡금지 유예

    미국이 중국 동영상 플랫폼 틱톡의 미 사업 지분을 확보하는 협상안을 마련했지만 ‘트럼프발 상호관세’에 반발한 중국이 반대해 무산됐다고 AP통신이 5일(현지시간) 보도했다. 도널드 트럼프 미 대통령은 지난 2일 틱톡의 미 사업을 별도 회사로 분사한 뒤 미 투자자들이 그 법인의 지분 절반 이상을 보유하고 틱톡의 모회사인 중국 바이트댄스는 소수 지분만 보유하는 인수안을 마련했다. 그러나 같은 날 트럼프 대통령은 중국을 포함한 여러 나라에 가공할 만한 수준의 상호관세를 부과한다고 발표했다. 결국 바이트댄스 대표들은 다음 날 백악관에 연락해 “중국 정부가 미국과 무역과 관세에 대해 협상할 수 있을 때까지 틱톡에 대한 거래를 승인하지 않기로 했다”고 알렸다. 그때까지만 해도 트럼프 행정부는 중국 규제 당국이 당연히 틱톡 인수안을 승인할 것으로 확신했다고 AP는 설명했다. 중국이 미국 상호관세와 연계해 틱톡 인수안을 반대하자 트럼프 대통령은 일단 ‘틱톡 금지법’ 시행을 75일간 추가로 유예했다. 이날 트럼프 대통령은 소셜미디어(SNS) 트루스소셜에 올린 글에서 “틱톡의 미국내 사업권을 미 측에 매각하도록 하는 데 있어 엄청난 진전을 거뒀다”고 밝힌 뒤 “합의 도출 시 관련 승인 등 필수 절차 이행을 위해 틱톡이 미국에서 추가로 75일간 운영할 수 있도록 하는 행정명령에 서명할 것”이라고 전했다. 트럼프 대통령은 미국이 중국에 추가로 부과하기로 한 상호관세에 대해 “중국이 언짢아하는 것으로 이해한다”고 소개한 뒤 “그래도 우리는 중국과 좋은 신뢰 속에 계속 협력하길 희망한다”고 말했다. 이어 “우리는 틱톡 및 중국과 협력해서 거래를 성사하기를 고대한다”고 덧붙였다. 앞서 미 연방 의회는 바이트댄스가 미국인 개인정보를 대규모로 수집하는 등 국가안보를 위협할 우려가 있다며 지난해 4월 ‘틱톡금지법’을 제정했다. 이 법은 틱톡의 미국 내 사업권을 기한 안에 미 기업에 매각하지 않으면 미국 내 사업을 금지하는 것이다. 올해 1월 19일 시행될 예정이었다. 그러나 트럼프 대통령은 지난해 대선 때 젊은층 공략에 ‘틱톡 효과’를 크게 보자 지난 1월 20일 취임 직후 이 법의 실질적 집행을 4월 5일까지 75일 연기하는 행정명령에 서명했다. 동시에 미국 법인과 바이트댄스 간 합작회사를 만들어 미 기업의 지분을 50% 이상으로 만드는 방안을 제안하거나 다른 회사에 틱톡 인수 의사를 타진하기도 했다. 트럼프 대통령이 틱톡 관련 합의를 위한 시간을 추가로 마련하면서 미국의 대중국 상호관세와 중국의 보복 관세 발표로 갈등이 극대화한 미중관계에 ‘틱톡 변수’가 어떻게 작용할지 주목된다. 트럼프 대통령은 지난달 26일 중국이 틱톡 매각과 관련해 협조하면 관세 인하를 해줄 수 있다고 언급한 바 있다.
  • “우스운가? 이제 고소 들어간다”…황보, 돈 떼먹은 남성 민증 공개

    “우스운가? 이제 고소 들어간다”…황보, 돈 떼먹은 남성 민증 공개

    그룹 ‘샤크라’ 출신 가수 황보(본명 황보혜정)가 자신에게 금전적인 피해를 준 남성을 저격하며 고소를 예고했다. 황보는 2일 인스타그램에 한 남성의 주민등록증 사진을 올리며 “이제 전화도 안 받으시네요”라고 했다. 황보가 “뷰티 제작사 대표”라고 한 해당 남성은 1973년생이다. 황보는 얼굴을 비롯해 주민등록번호, 주소 등 구체적인 개인정보를 가린 채 사진을 올렸다. 황보는 “작년부터 나름 매너 있게 기회를 드렸건만 또 속은 내가 우스운가 보다”라고 했다. 이어 “남의 돈 떼먹고 잘 사는지 보자”고 덧붙였다. 그러면서 황보는 “이제 고소 들어간다”고 경고했다. 황보는 2000년 샤크라로 데뷔했다. 2005년 그룹 해체 후 솔로 가수로 활동하고 있다. 또한 방송인으로서 다양한 예능 프로그램에 출연 중이다.
  • 최민규 서울시의원 “개인정보 노출 최소화해야”…시설물 외부 게시 조항 삭제 추진

    최민규 서울시의원 “개인정보 노출 최소화해야”…시설물 외부 게시 조항 삭제 추진

    서울시 공공영역에서의 불필요한 개인정보 노출을 줄이고, 시설물 운영자에 대한 최소한의 권리 보호를 제도적으로 보장하기 위한 조례 개정에 나선다. 서울시의회 최민규 의원(국민의힘, 동작2)은 ‘서울시 보도상영업시설물 관리 등에 관한 조례’를 개정해, 운영자증명서를 시설물 외부에 게시하도록 한 규정을 삭제하는 개정안을 발의했다. 현행 조례는 보도상영업시설물의 운영자증명서를 내부와 외부 모두에 게시하도록 의무화하고 있으나, 외부 게시 시 이용자가 아닌 불특정 다수에게 개인정보가 노출되는 문제가 발생한다는 우려가 꾸준히 제기돼 왔다. 이번 개정안은 ▲운영자증명서 외부 게시 의무 조항을 삭제하고 ▲그에 따라 사용되던 관련 별지 서식(제7호 서식)도 함께 삭제하는 내용을 담고 있다. 최 의원은 “보도상영업시설물은 특정 공간을 사용하는 시민과 운영자 간의 정보 공유가 중심이 돼야 한다”라며 “불특정 다수에게까지 정보를 노출하는 것은 과잉이며, 정보 공개보다 운영자의 권리 보호가 우선돼야 할 상황도 있다는 점에서 이번 개정은 타당하다”고 강조했다. 해당 조례안은 이번 4월 서울시의회 임시회에서 정식 안건으로 상정돼 심의될 예정이며, 의결을 거쳐 통과될 경우 보도상영업시설물 운영자는 더 이상 외부에 개인정보를 공개하지 않아도 되도록 관련 조례가 개정될 전망이다.
  • 개인정보보호협회(OPA) 고성학 상근부회장 취임

    개인정보보호협회(OPA) 고성학 상근부회장 취임

    고성학 전 개인정보보호위원회 위원(사진)이 1일 개인정보보호협회(OPA) 제6대 상근부회장으로 취임했다. 고 부회장은 서강대 정외과를 졸업하고 숭실대에서 정치학 박사학위를 취득했다. 국회의장 정무수석비서관을 거쳐 한국정보인증(주) 대표이사, 한국 PKI포럼 부회장, 한국정보보호산업협회 부회장을 지냈다. 2011년 설립된 개인정보보호협회는 개인정보 및 위치정보의 보호와 안전한 활용을 위한 활동과 개인정보의 자율보호 업무를 수행하는 협회로 통신, 쇼핑, 보안 등 분야에서 55개 회원사가 활동하고 있다.
  • “2일 저녁 7시 석성산에 불 지른다”… 경찰, 방화 예고글 작성자 추적

    “2일 저녁 7시 석성산에 불 지른다”… 경찰, 방화 예고글 작성자 추적

    산불을 내겠다는 내용의 글이 온라인상에 게시돼 경찰이 수사에 나섰다. 1일 경기 용인동부경찰서에 따르면 전날 오후 7시 47분 온라인 커뮤니티 ‘디시인사이드’에는 ‘용인 산불 방화 예고한다’는 제목의 글이 올라왔다. 글 작성자는 “4월 2일 저녁 7시에 용인 석성산에 불 지를 거다. 소방관들 각오해라” 등 내용을 적었다. 이 글엔 작성자의 이름과 학교, 연락처 등 개인정보도 쓰여 있었으나 경찰이 확인한 결과 실제 작성자는 아닌 것으로 파악됐다. 경찰은 IP(인터넷 주소) 추적 등을 통해 해당 게시물을 작성한 사람을 쫓고 있다. 경찰 관계자는 “누군가 타인의 명의를 내세워 글을 쓴 것으로 보고 있다”며 “문제의 글은 블라인드 처리한 상태”라고 말했다.
  • 국가 AI 안보협의회 출범…부처별 협업체계 구축

    국가 AI 안보협의회 출범…부처별 협업체계 구축

    국가안보실은 28일 인공지능(AI) 관련 안보 위협에 대한 국가 차원의 대응방안을 마련하기 위한 회의를 개최하고, ‘국가 AI 안보협의회’가 출범했다고 밝혔다. 왕윤종 국가안보실 3차장 주재로 용산 대통령실에서 열린 첫 회의에는 AI 안보와 관련된 7개 정부 기관 국장급 관계자가 참석했다. 국가정보원, 과학기술정보통신부, 외교부, 국방부, 행정안전부, 개인정보보호위원회, 디지털플랫폼정부위원회 등이다. 이들은 AI 안보 위협 실태 및 부처별 대응 현황을 점검하고, 향후 협력 과제 등에 대해 논의했다. 왕 차장은 “최근 사용량이 증가하고 있는 생성형 AI 등 빠르게 발전하는 AI 기술이 다양한 분야에서 혁신을 가져오고 있는 반면, 동시에 심각한 위협을 초래할 수 있다”고 평가했다. 이어 “AI 기술 오용과 통제력 상실 등으로 인한 중대한 사이버 안보 위협이 발생할 수 있는 만큼 국가안보 차원에서 선제적 대응이 필요하다”고 강조했다. 참석자들은 범정부 협의회 출범을 계기로 대통령실과 유관기관이 AI 안보 관련 정책과 현안을 신속하게 공유하고 논의해 AI 안보 위협에 통합적이고 체계적으로 대응하기로 했다. 국가안보실은 AI 기술 활용에 관한 국가안보 차원의 중요 사안이 발생하면 협의회를 가동할 예정이다. 또한 AI 관련 공공기관들로 구성된 별도의 실무그룹도 운영할 방침이다. 효율적인 운영을 위해 국가정보원이 간사 기관 역할을 수행하고, 필요시 학계와 민간 전문가를 초청할 계획이다.
  • [비하人드 AI]‘AI포비아’와의 사투…AI와 함께할 미래를 묻다

    [비하人드 AI]‘AI포비아’와의 사투…AI와 함께할 미래를 묻다

    1991년 개봉한 할리우드 영화 ‘터미네이터2’에서 인공지능(AI)이 만든 살인 로봇 T-1000은 인류 저항군 사령관을 죽이기 위해 과거로 쫓아 온다. 2004년 개봉한 ‘아이 로봇’에서는 인간이 정한 규칙을 어기고 빨간 눈을 뜬 휴머노이드 로봇이 ‘인간 사냥’에 나서기도 한다. 이런 영화를 보며 대중들의 마음속에는 알게 모르게 AI가 인류를 지배할 것이란 두려움이 쌓였다. 다가온 AI시대 ‘AI포비아’ 극복이 주요한 과제로 자리매김한 이유기도 하다. 지배당할 것인가, 이용할 것인가. 서울신문은 올해 ‘AI SEOUL 2025’에 참석한 인공지능 분야 세계적인 거장 제리 카플란(Jerry Kaplan) 미국 스탠퍼드대 교수와 요수아 벤지오(Yoshua Bengio) 몬트리올 대학교 교수의 제언과 ‘AI 변호사’로 알려진 임영익 인텔리콘 대표이사와의 인터뷰를 소개한다. “킬러로봇 나온다면 인공지능 아닌 인간의 잘못”-‘인공지능의 미래’ 제리 카플란 교수 AI에 대해 대중은 오해하고 있는 것이 있습니다. 인공지능이 더 똑똑한 기계를 만들어 인간과 경쟁해 많은 사람의 일자리를 뺏고, 통제되지 못해 파멸로 이를 수 있다는 생각입니다. 이런 생각은 영화와 공상과학 소설로 강화되기도 합니다. 그러나 다행히도 현실은 이런 관점을 반영하지 않습니다. 사실 저는 이 분야의 원죄가 이름에 있다고 봅니다. ‘지능’이란 단어는 인간이 가지고 있는 정량화할 수 있는 특성으로, 객관적으로 측정할 수 있는 것입니다. AI를 지능이라는 틀에서 생각하면 여러 오해가 생깁니다. AI가 스스로 생각하고 인류를 직접적으로 위협할 수 있다는 것이죠. AGI(인공 일반 지능 ; 인간이 할 수 있는 어떠한 지적 업무도 할 수 있는 기계의 지능) 또는 범용 AI에 대해 들어보셨을 겁니다. 현재 인공지능 기술이 이 신화적인 단계에 도달했는지 여부는 뒤로하더라도, 기계가 어떻게든 의식을 가지고 그들의 프로그래밍을 무시하고 자신들만의 프로그램을 구축해 인류를 위협할 것이란 근거는 없습니다. 물론 (AI를 이용해) 위험한 기기를 만들 수 있는 건 사실입니다. 하지만 그들이 스스로 우리에게 무언가를 하는 건 아닙니다. 만약 우리가 인류를 절멸시킬 기계를 만들겠다고 결정하면 그건 그들(AI)이 아닌 우리의 잘못입니다. 그렇다면 컴퓨터가 인간의 의미에서 지능을 가지고 있지 않다면 무엇일까요. 저는 문제를 해결하고 작업을 자동화하는데 유용한 도구라고 말하겠습니다. 그렇다면 우리가 자동화 설비를 도입하며 수행한 과정을 보며 앞으로를 예측할 수 있습니다. 사람의 노력과 주의가 필요한 일을 기계를 통해 할 때 더 생산적이게 되고, 평균적으로 더 부유하게 만들어줍니다. 단기적으로 일부 사람은 일자리를 잃겠지만, 역사적으로 봤을 때 AI는 제품과 서비스에 대한 새로운 수요를 창출할 것입니다. 인공지능 스스로 인류 위협할 근거 없어‘AI포비아’는 과장된 광고의 결과투자 포화…‘붕괴 우려’ 지적사실 AI는 과장 광고의 정점에 있거나 정점에 가까워졌습니다. 특히 생성형 AI 발전은 이미 둔화하고 있고 연구자들은 한계에 대해 관심을 가지고 있습니다. 언론은 새로운 기술이 성과를 보일 때마다 마치 모든 것을 할 수 있는 초지능 기계가 탄생한 것처럼 받아들입니다. 대중에게 두려움을 주고 또 경종을 울립니다. IBM 체스 프로그램이 체스챔피언을 이겼을 때도, 2011년(IBM의 인공지능 컴퓨터가 미국 퀴즈쇼에 우승한 연도)에도 그랬고 2016년 구글 알파고가 이세돌을 이겼을 때도 마찬가지였습니다. 그럴 때마다 사람들은 초지능 기계가 눈앞에 있는 것처럼 걱정했지만, 사실은 그렇지 않았습니다. 챗GPT가 뛰어나긴 하지만 이것도 아직 초지능 기계라 할 수 없습니다. 향후 몇 년간의 전망은 어떨까요. 생성형 AI는 인류 역사상 중요한 발명 중 하나입니다. 하지만 위대한 발명이라 볼 수는 없습니다. 농업이나 바퀴, 카메라, 컴퓨터, 자동차, 인터넷 등이 위대한 발명이라고 할 수 있습니다. 이들은 하룻밤에 만들어지지 않았습니다. 오늘날 많은 기업이 그들의 생성형 AI가 경쟁사를 이길 수 있다는 걸 보여주기 위해 경쟁합니다. 제품에 AI를 더해 고객에게 주는 것은 몇 년 길게는 수십 년은 걸릴 겁니다. 아마 그 과정에서 위대한 발명이 나올 거라 생각합니다. 몇 가지 조언을 드리고 싶습니다. 투자자라면 AI분야에서 이익을 얻는 게 매우 어렵다는 것을 아셔야 합니다. 이미 너무 많은 돈이 저품질 데이터 산업에 투입되고 있습니다. 저는 이 시장이 곧 붕괴할 것이라 생각합니다. 닷컴버블 때처럼요. 기업이라면 생성형 AI를 어떻게 활용할지 직원들이 고민하고 실험해 볼 수 있도록 기회를 줘야 합니다. 결국 AI가 어떤 도움이 되는지 아닌지를 볼 수 있는 최적의 위치에 있는 건 직원들입니다. 소비자라면 걱정하지 말라고 말씀드리겠습니다. 킬러 로봇은 나오지 않을 것이고, 모든 것이 시간이 조금 더 걸릴 겁니다. 투자자와 기업들이 여러분이 원하는 것을 만드는 데 돈을 쓰도록 하면 됩니다. 새로운 서비스가 여러분을 놀라게 할 거고, 삶의 질은 개선될 겁니다. 인터넷과 스마트폰이 지난 수십년간 그래왔던 것처럼 말입니다. 아마 5년 후에는 오늘날처럼 AI에 대해 많이 말하지 않을 겁니다. (그때는)AI가 컴퓨터 칩이나 블루투스 연결처럼 대부분 제품에 내장된 서비스에 하나가 될 것입니다. 개인적으로 이런 세계적 변화를 가져오는 발명을 목격해 기쁘고, 삶에 주는 영향을 겪어보길 고대하고 있습니다. “우리보다 더 똑똑한 기계 만들고 있다는 점 잊지 말고 경계해야”-‘튜링상’ 수상자 요수아 벤지오 교수 오늘날 AI가 안전한지는 어디에 초점을 보고 살펴봐야 할까요. 우선 오늘날 보는 AI가 몇 년 후에 보게 될 AI와 같지 않을 것이란 점을 이해해야 합니다. 지난 10년 동안 매우 분명한 방향성이 있었습니다. 일관된 텍스트를 생성할 수 없었던 AI가 이제는 200개 언어를 마스터하고 과학 분야에서 박사급 전문가만큼 뛰어난 성과를 내고 있습니다. 수학과 공학, 추론 작업에도 우수한 성과를 보여주며 많은 분야에서 인간 수준의 능력에 근접하거나 이를 초월했습니다. 이는 멈추지 않을 겁니다. 올해 발전된 모델은 인간의 심사숙고 과정을 학습해 추론 능력을 크게 개선했다는 것을 보여줍니다. 그래서 또 우리는 AI 안전성을 고려해야 합니다. 우리가 사는 세상의 역학은 (AI의 안전성을) 무시하도록 몰아가고 있습니다. 기업, 국가가 서로 치열하게 경쟁하며 위험을 보지 않는 것이죠. 위험을 관리하기 위해서는 두 가지 주요 영역에 개입해야 합니다. 하나는 정책, 하나는 과학 측면입니다. 정책 부분은 국가 차원에서 법률이나 국제 또는 사법적 개입을 통해 행동 규칙을 확립해야 합니다. 그러면서 AI가 사회에 보급되며 경제적으로 어떤 영향을 미칠지도 고려해야 합니다. 예를 들어 일자리 시장의 혼란이 가중될 수 있습니다. 점점 더 많은 화이트칼라 작업이 자동화로 이동하고 있다는 점이 증거입니다. 국가 안보 위험도 있습니다. 개인이든 기업이든 나쁜 세력들, 예컨대 테러리스트 그룹, 불량 국가 등이 최첨단 AI를 악용할 위험도 있습니다. 또 정책적 고민을 할 때 우리가 우리보다 더 똑똑한 기계를 구축하는 길을 가고 있다는 점을 잊지 말아야 합니다. 만약 이런 시스템이 의도치 않게 우리 시스템의 통제를 벗어나 탈출하려 하거나 또는 꺼지지 않으려 할 수도 있습니다. 비록 가설적인 상황이라 할지라도 이를 예상하고 대비해야 합니다. AI 사회 보급…일자리·안보 등 혼란 우려연구 통해 ‘통제 수단’ 개발해야하드웨어 선두주자 한국, 앞으로 중요성 커져과학적 측면에서의 문제는 시스템이 우리의 의도를 거슬러 행동하지 않도록 설계하는 방법을 아직 모른다는 겁니다. AI가 어떤 목표를 가지고 실현하는 방식이 인간에게 해롭지 않을지 확신할 수 없습니다. 이를 해결하기 위해 AI를 통제하고 검증할 수 있어야 합니다. 문제가 어떻게 발생할 수 있는지, 예방은 어떻게하는지, 연구를 통해 위험을 더 잘 평가하고 정량화해야 할 겁니다. 전세계 AI 안전성과 관련된 연구소들은 최근 위험 평가의 방법론과 기준을 점차 표준화하고 있습니다. 저는 주체성이란 것이 시스템에서 어떻게 형성될 수 있는지 이해하는 게 가장 중심적인 과제라 생각합니다. 아예 주체성이 없는 신뢰할 수 있는 AI 시스템을 구축하는 방법을 모색하는 것이 연구자로서 현재 가장 관심이 가는 사항 중 하나입니다. 이는 아직은 해결되지 않은 질문 중 하나입니다. 정책적으로 이런 문제를 학계와 산업계가 연구할 수 있도록 유도할 수도 있습니다. 예를 들어 AI개발자들에게 시스템이 안전하다고 여기는 이유와 근거를 의무적으로 제출하고 전문가들을 설득하도록 한다면 시스템을 보다 신뢰할 수 있을 겁니다. 안전성에 대한 더 많은 연구도 이뤄지겠죠. 한국은 AI 연구의 선두주자 중 하나입니다. 탁월한 연구 대학이 많고 실력 있는 많은 인재를 육성하고 있습니다. AI에 대한 인재풀도 강력합니다. 기계 학습 분야의 최고 학회들에 많은 논문을 발표하고 있고, 산업적 측면에서 보더라도 한국은 소프트웨어뿐만 아니라 하드웨어에서도 매우 강력한 입지를 유지하고 있습니다. 특히 한국이 고해상도 AI 칩 분야의 리더란 점은 굉장히 중요한 요소로 작용할 겁니다. 앞으로도 AI 진화에 대한 중요한 논의들이 이어질 겁니다. 인간이 미래의 위험을 감수하지 않고 새로운 기술의 혜택을 누릴 수 있는 현명한 개발 방식을 마련하도록 논의를 이어가길 바랍니다. “AI 오류 피해, 책임 소재 명확히 해야”-인공지능법률사무소 ‘인텔리콘’ 임영익 대표 -AI 활용도가 점점 더 높아지는 시대, 현재 AI는 공정하다고 보시나요. “AI는 인간을 배웁니다. 그런데 인간은 종교, 신념, 이념 등 생각의 프레임 또는 특정한 사고 체계를 가지고 있어 말이나 행동에서 편향적 행동이나 인지 편향을 보입니다. 결국 AI는 인간에게서 편향성도 배우기 마련입니다. AI의 편향을 막기 위한 다양한 연구가 현시대에 놓인 주요한 과제입니다.” -편향성을 막기 위해 어떤 방법이 사용되고 있나요. “현재는 AI의 편향을 사후적으로 제거하는 방법으로 3가지가 대표적입니다. 휴먼 피드백 강화학습은 학습된 모델이 내놓은 답변을 사람이 검토하고 피드백해 모델에 재학습(강화학습)해 편향을 줄이는 방법이고, 미세 조정은 이미 학습된 모델에 새로운 데이터를 추가로 학습시키는 방법인데 예를 들어 성별 균형이 맞춰진 데이터를 학습시켜 성별 편향을 줄이는 방법입니다. 마지막으로 출력 후처리 기법은 AI가 답변을 생성한 후 사람이 검토하고 수정하거나 AI 내부에 ‘이 답변이 공정한가’를 확인하고 점검하는 로직을 추가하는 방식입니다. 다만, 이런 방법도 완전하지 않습니다. 공정성을 판단하는 주체가 결국 인간이기 때문에 모든 사람을 만족하는 공정성이라는 것은 애초에 어려운 것이 될지 모릅니다. 그래도 인공지능의 공정성은 그 사회의 문화나 상황에 따라 변할 수 있는 ‘유동적 공정성’ 정도는 만족해야 합니다.” -편향된 AI는 사회적으로 악용될 여지가 있을까요. “가능성이 있습니다. 고도로 발전한 기술을 통해 사실을 교묘히 조작하고 가짜 뉴스를 대량으로 생산할 수 있습니다. 딥페이크 기술을 악용해 허위 정보를 유포하는 사례는 이미 현실로 드러난 바 있습니다. AI챗봇과 자동화된 댓글 시스템은 특정 이슈에 대한 여론을 조직적으로 조작하는 수단이 될 수도 있습니다. 정치적 편향성과 알고리즘 조작은 심각한 사회적 위험을 초래할 수 있습니다. 개발자가 의도적으로 편향된 데이터를 입력하면 특정 정치적 성향이나 이념을 강화하는 결과를 초래할 수 있고, 사용자들은 자신도 모르게 특정 관점에 영향을 받을 가능성이 높아집니다. 또 AI기술은 일부 국가나 정치인들이 대중을 감시하는 수단으로 악용될 수도 있고, 광범위한 개인정보 침해 문제도 내포하고 있습니다.” 공정한 AI 불가?…‘유동적 공정성’에 만족해야 할수도심각한 사회적 위험 초래 가능성 내포지속적이고 균형 있는 정책 보완 필요-AI가 인간의 일자리를 뺏어갈까요. “AI발전이 새로운 직업군을 만들어내고 양질의 일자리를 창출하는 데 기여할 것이란 점엔 이견이 없습니다. 하지만 현실적으로 AI가 만들어내는 일자리보다 사라지는 일자리가 더 많을 수 있습니다. 콜센터 상담원, 단순 사무직, 공장 근로자 같은 직업은 줄어들 가능성이 큽니다. 이런 문제를 해결하기 위해 몇가지 대응이 필요합니다. 첫째로 AI 관련 기술을 배우고 활용할 수 있도록 교육 기회를 확대하고 직업 재훈련 프로그램을 강화해야 합니다. 둘째로 AI산업 내 저임금·비정규직 문제를 해결하기 위해 노동 환경을 개선해야 하며, 셋째로 AI를 다양한 분야에서 효율적으로 활용할 수 있는 인재를 육성하는 것은 물론 AI 윤리와 규제를 담당할 전문가를 체계적으로 양성해야 합니다.” -AI산업 진흥과 규제를 위해 어떤 정책 및 제도적 지원이 필요할까요. “지난해 AI 기본법이 국회를 통과한 것은 국내 AI산업에 중요한 첫걸음입니다. 지속적이고 균형 있는 성장을 위해서는 다양한 분야에서 정책적 노력이 요구됩니다. 첫째로 AI윤리와 책임성을 강화해야 합니다. AI개발과 활용 과정에서 윤리적 기준을 명확히 하기 위해 가이드라인 수준이 아닌 더욱 구체적인 기준을 마련해야 할 필요가 있습니다. AI시스템의 오류 등으로 피해가 생겼을 때 개발자, 운영자, 사용자 간 책임 소재도 명확히 정의해야 합니다. 둘째로 AI 기술의 표준화와 안전성을 확보해야 합니다. 성능과 안전성을 체계적으로 평가할 수 있는 프로세스 구축과 국제적인 AI 규범에 맞춰 기술 표준을 정립하고 글로벌 협력과 공동 연구로 국제 경쟁력을 확보해야 합니다. 나아가 AI시스템의 오작동이나 예상치 못한 결과를 사전에 검증할 수 있는 독립적인 AI 안전 연구소에 많은 예산을 투입해야 할 것입니다. 세 번째로 AI 인력을 양성하고 산업 경쟁력을 강화해야 합니다. 초·중·고 교육과정에 AI 기초 교육을 포함하는 것과 함께 성인을 대상으로 한 재교육 프로그램을 마련해 미래 인재와 성인이 새로운 산업 환경에 적응할 수 있도록 해야 합니다. 창업지원, 연구개발 투자 확대, 세제 혜택 확대 등으로 AI 스타트업 성장도 적극적으로 촉진해야 합니다.”
  • 김동욱 서울시의원 “AI 윤리도시는 서울부터”

    김동욱 서울시의원 “AI 윤리도시는 서울부터”

    서울시가 인공지능(AI) 기술의 윤리적 활용을 제도화하는 조례 개정에 나섰다. 서울시의회 김동욱 의원(국민의힘, 강남5)은 제329회 임시회에서 ‘서울시 미래전략과제 발굴 및 육성 조례 일부개정조례안’을 대표발의했다. 이번 개정안은 인공지능(AI), 자율주행, 빅데이터 등 첨단 기술이 빠르게 발전 및 확산하면서 시민 권익 침해와 사회적 우려가 증가하는 현실을 반영한 것이다. 서울시는 이러한 위험에 대응하기 위한 정책적 기반이 미흡한 상황이었으며, 이번 조례 개정으로 첨단 기술 발전, 혁신과 함께 윤리적 기술 활용을 미래 도시 전략의 일부로 명확히 포함하게 된다. 개정안은 서울시가 추진하는 미래전략과제의 범위에 ‘인공지능 기술의 윤리적 활용 및 사회적 책임 대응’을 포함하도록 규정했다. AI 관련 정책을 수립할 때 ▲윤리 원칙 및 책임 기준 마련 ▲알고리즘 편향 방지 ▲고위험 기술 영향평가 기준 수립 ▲개인정보 보호 ▲공공·민간의 윤리적 활용 유도 등을 추진할 수 있도록 하며, 정책 수립 과정에서 전문가, 기관, 시민사회의 의견을 수렴할 수 있도록 했다. 김 의원은 “기술 발전이 매우 빠른 속도로 이뤄지고 있는 오늘, 이러한 혁신이 우리 삶에 많은 편의와 효율을 제공하는 것은 기쁜 일이다”라고 밝히며, 이와 동시에 “그러나 발전하는 첨단 기술이 공공성과 사회적 책임 위에 작동할 수 있게끔 하는 ‘혁신’과 ‘규제’ 간의 합리적 균형을 유지할 수 있도록 하는 최소한의 공적 기준을 마련할 필요가 있다”고 강조했다. 또한 김 의원은 “AI 기술이 시민의 신뢰를 얻기 위해서는 혁신과 함께 투명하고 책임 있는 운영이 함께 이뤄져야 한다”면서 “불필요한 규제를 철폐하는 동시에 최소한의 책임을 부여할 수 있도록 ‘기술’과 ‘윤리’가 공존하는 서울시를 만들고, 혁신 분야에서 세계를 선도할 수 있도록 지속적인 제도적 기반을 마련하겠다”고 다짐했다. 이번 조례 개정안은 관련 상임위원회 심사를 거쳐 본회의에 상정될 예정이다. 통과 시 서울시는 AI 관련 정책 및 사업 추진에 있어 윤리성과 시민 권익 보호를 핵심 원칙으로 삼을 수 있는 제도적 기반을 갖추게 된다.
  • 개인정보위 “딥시크, 국내법 준수 의지…서비스 재개 시점은 미정”

    개인정보위 “딥시크, 국내법 준수 의지…서비스 재개 시점은 미정”

    고학수 개인정보보호위원회 위원장은 27일 과도한 개인정보 수집 논란으로 국내 서비스가 중단된 중국 생성형 인공지능(AI) 딥시크와 관련해 “딥시크로부터 한국 시장을 중요하게 생각하고, (개인정보)보호법을 준수하고자 노력하겠다는 긍정적 메시지가 왔다”고 밝혔다. 고 위원장은 이날 오후 정부서울청사에서 가진 출입기자단 간담회에서 이렇게 전했다. 다만 국내 서비스 차단이 언제 해제될지에 대해선 “구체적인 타임라인은 없다”며 “실무자 간에 얘기하고 있고 양쪽 다 이 정도면 됐다고 할 필요가 있는데 그게 언제인지는 아직 모른다”고 말했다. 개인정보위는 지난 1월 딥시크가 과도한 개인정보를 수집한다는 등의 논란이 불거지자 딥시크 본사에 해당 서비스의 개발 및 제공 과정에서의 데이터 수집·처리 방식 등에 대한 공식 질의를 보냈다. 개인정보 처리 주체, 수집 항목·목적, 수집 이용 및 저장방식, 공유 여부 등을 설명할 것을 요청한 것이다. 논란이 더욱 확산하자 개인정보위는 딥시크에 서비스 잠정 중단을 권고했고, 지난달 15일부터 국내에서 서비스되는 모든 앱 마켓에서 딥시크 앱의 신규 다운로드를 제한했다. 고 위원장은 “그로부터 약 10일 뒤에 (딥시크가) 국내 대리인을 지정해 소통했고, ‘한국을 무시하려고 했던 건 아니고 급하게 글로벌 서비스를 출시하며 미비한 게 있었다’는 설명이 있었다”고 전했다. 고 위원장은 딥시크가 중국 소셜미디어 ‘틱톡’의 모회사 ‘바이트댄스’에 이용자 관련 데이터를 넘겼다는 개인정보위 발표 이후 어떤 이유로, 무슨 데이터가 넘어갔는지를 묻자 “조사 단계라 구체적으로 드릴 말씀이 없다”고 답변했다. 국내에 서비스를 차단한 이후에도 여전히 신규 설치는 이어지고 있다는 지적에 대해서는 “앞서 앱스토어에서 딥시크 다운로드를 내린 것은 딥시크에서 내린 것이지, 개인정보위가 공식적인 무슨 처분을 조치한 게 아니다”고 설명했다. 또 다른 중국의 온라인 서비스가 국내에 진출할 경우 대응 방안이 있냐는 물음에는 “개인정보위는 독자적으로 정책적인 판단을 할 수 있는 게 아니라서 관련 부처와 함께 고민을 공유하는 상황”이라고 말했다.
  • 관광비자 단기 입국 후 보이스피싱 수거책 역할, 중국인 4명 구속

    관광비자 단기 입국 후 보이스피싱 수거책 역할, 중국인 4명 구속

    보이스피싱 콜센터 조직에 고용돼 관광비자로 입국한 뒤 수거책 역할을 한 중국인 4명이 구속됐다. 경기 평택경찰서는 전기통신사업법 위반 등 혐의로 30대 A씨 등 중국 국적인 4명을 검찰에 구속 송치하고 1차 수금책 역할을 한 한국인 3명을 같은 혐의로 불구속 송치했다고 27일 밝혔다. 이들은 지난 17∼18일쯤 보이스피싱 피해자 B씨 등 3명으로부터 1억5천400만 원을 받아 가로챈 혐의를 받고 있다. 콜센터 조직은 “카드를 배송 중이다. 신청하지 않은 카드가 배송됐다면 개인정보 유출일 수 있으니 금감원의 도움을 받아야 한다”, “범죄 연관성 수사를 위해 계좌에 있는 돈을 금감원에 예치해야 한다” 등의 말로 B 씨 등을 속인 것으로 조사됐다. A씨 등 4명은 콜센터 조직에 고용된 후 수거책 역할 수행을 위해 관광비자를 받아 입국한 뒤 경찰 추적을 피하기 위해 현금만 사용하고 숙박 기록이 남지 않는 여관 등에 머무르며 주로 2∼3차 수거책 역할을 한 것으로 조사됐다. 경찰은 지난 19일 1차 수거책을 먼저 검거한 뒤 피해금 이동 경로를 추적해 A씨 등을 차례로 붙잡아 피해금 전액을 압수해 피해자들에게 돌려줬다.
  • “中, 해고된 美 공무원 채용 시도”…美는 SNS로 ‘中 정보원’ 공개 모집

    “中, 해고된 美 공무원 채용 시도”…美는 SNS로 ‘中 정보원’ 공개 모집

    중국의 한 테크회사가 운영하는 기업들이 최근 해고된 미국 연방정부 공무원들을 채용하려고 애쓰고 있다는 주장이 나왔다. 26일 로이터통신은 워싱턴DC에 본사를 둔 싱크탱크 민주주의수호재단(FDD) 선임 애널리스트 맥스 레서가 “채용 광고를 올린 일부 기업은 전직 공무원들과 인공지능(AI) 연구원들을 겨냥한 가짜 컨설팅·헤드헌팅 회사들”이라고 말했다고 전했다. 실제로 로이터가 채용 광고를 낸 4개 회사를 살펴보니 공개된 정보는 거의 없었다. 이들은 같은 웹사이트를 공유하거나 같은 서버를 사용하고 있었다. 이들 회사를 본격적으로 추적해 보니 전화 응답을 받지 않았고 주소도 가짜인 사례가 많았다. 이메일 질의에도 답이 없었고 채용 목록도 사라졌다. 레서 애널리스트는 “과거 중국 정보 작전에서 흔히 사용된 기법”이라며 “최근 대량 해고된 연방정부 공무원들의 재정적 취약성을 악용하려 했기에 중요하다”고 말했다. 로이터는 이들이 중국 정부와 연관이 있는지, 전직 연방정부 직원을 채용했는지는 확인할 수 없었다고 보도했다. 이에 대해 워싱턴DC 주재 중국대사관 대변인은 “중국은 캠페인에 연루된 것으로 추정되는 단체에 대해 알지 못한다. 중국은 개인정보의 보안을 존중한다”고 밝혔다. 이와 관련, 미 연방수사국(FBI) 대변인은 “중국 정보 요원들이 싱크탱크와 학술 기관, 채용 회사 직원으로 자신을 위장해 전·현직 공무원을 표적으로 삼을 수 있다”고 경고했다. “中, CIA 동선 꿰고있다” 치열한 미중 ‘첩보전쟁’이처럼 워싱턴은 자국 내 중국의 스파이 의심 활동을 대거 공개하며 베이징을 맹비난하지만 정작 자신들은 중국을 염탐할 스파이를 공개적으로 선발해 상대국의 반발을 산다. 지난해 10월 미 중앙정보국(CIA)은 주요 소셜미디어(SNS) 계정에 ‘CIA와 안전하게 접촉할 수 있는 방법’이라며 한글과 만다린(중국 표준어), 페르시아어로 된 2분짜리 동영상을 게재했다. 자신들의 정치 체제에 불만이 많은 북한과 중국, 이란 고위층에 ‘CIA의 스파이가 되라’는 권유다. CIA에 연락할 때 이름과 직위, 연락처, 현재 위치한 도시, CIA가 관심 가질만한 정보를 포함하라고 주문했다. 정보원에 선발되면 제공하는 정보의 가치에 따라 상당한 액수의 보상을 받게 된다. 정보원이 원하면 향후 미국으로 귀화하거나 망명을 원할 때 CIA의 도움을 받을 수도 있다. 미국은 2010년대 초까지만 해도 중국에서 원하는 정보를 마음대로 빼낼 수 있었다. CIA는 인민해방군 장교들에 거액의 뇌물을 제공하고 이들의 자녀가 미 명문대인 아이비리그에서 공부할 수 있도록 돕는 방식으로 베이징 핵심 기밀을 무제한에 가깝게 입수했다. 중국 정부는 2011년쯤에야 이런 사실을 확인했다. 그제서야 최고지도부는 공산당 내 부정부패가 만연하다는 사실을 알고 격분했다. CIA 중국 정보원 수십명이 체포됐고 일부는 사형에 처해졌다. 이후 중국 내 미국 첩보망이 대부분 사라졌고 아직도 복원되지 않은 것으로 알려졌다. 중국도 미국에 대한 반격을 준비했다. 2012년 미 정부는 전·현직 공무원 2150만명과 배우자의 건강, 거주, 고용, 지문 및 재정 관련 정보를 해킹당했다. 중국의 소행으로 추정된다. 2020년 12월 미 외교전문매체 포린폴리시는 전직 고위관리들의 발언을 인용해 “2013년쯤부터 중국이 방대한 빅데이터를 활용해 CIA 요원들의 동선을 훤히 들여다보고 있다”고 주장했다. 실제로 CIA 직원이 유럽이나 아프리카 특정 국가의 여권 심사대를 통과하면 신기하게도 중국 정보당국의 원격 감시망이 즉시 가동됐다. 중국의 활동은 CIA의 첨단 기술로도 겨우 감지할 만큼 은밀하게 이뤄졌지만, 때로는 일부러 감시 사실을 알리려는 듯 대놓고 이를 드러내기도 했다. ‘우리가 다 보고 있으니 이번 임무는 포기하고 돌아가라’고 신호를 보낸 것이다. CIA는 아프리카에서 ‘일대일로’(육해상 실크로드) 프로젝트에 참여하는 중국인을 포섭했는데, 베이징은 이를 알면서도 일체 내색하지 않았다. 중국인 첩보원을 역이용해 CIA 내부를 들여다 보려는 의도였다. 워싱턴 조야는 중국의 ‘스파이 위협’에 대단히 격분해 있다. 그러나 미국은 2013년 전직 CIA 요원 에드워드 스노든의 폭로로 미 국가안보국(NSA)이 전 세계를 상대로 도청 프로그램을 운영한 사실이 발각돼 국제사회의 공분을 샀다. 미국은 첩보 활동에 있어서 타의 추종을 불허하는 국가다. 국제사회에 제대로 된 사과도 없이 중국의 첩보 활동만 나쁘다는 식으로 몰아붙이며 공개적으로 중국 정보원을 모집하는 태도는 ‘내로남불’이라는 지적이 나온다.
  • “성희롱 피해 은폐하고 폭언” 민희진 ‘직장 내 괴롭힘’ 과태료 처분

    “성희롱 피해 은폐하고 폭언” 민희진 ‘직장 내 괴롭힘’ 과태료 처분

    걸그룹 뉴진스의 프로듀서인 민희진 전 어도어 대표가 ‘직장 내 괴롭힘’으로 노동당국으로부터 과태료 처분을 받게 됐다. 어도어 전 직원이 “자신의 성희롱 피해를 은폐하고 폭언했다”며 민 전 대표를 상대로 소송을 제기하고 노동청에 진정을 제기한 지 7개월여 만이다. 25일 어도어 전 직원 A씨 등에 따르면 서울지방노동청은 지난 24일 민 전 대표에 대해 “직장 내 괴롭힘(폭언 등)을 한 사실이 인정된다”며 과태료를 부과하겠다고 사전통지했다. 앞서 A씨는 지난해 8월 자신의 소셜미디어(SNS) 등을 통해 자신이 어도어 전 임원 B씨로부터 성희롱을 당했으며, 민 전 대표가 조사 과정에서 이를 은폐하고 자신에게 폭언을 했다고 주장했다. A씨는 “B씨가 광고주와의 저녁 자리에 ‘어린 여성’이 필요하다며 나를 부르는 등 성희롱을 했다”면서 사측에 B씨로부터 성희롱을 당했다고 신고했다. A씨는 또 B씨의 직속 부하로 근무하면서 지속적으로 폭언 등 직장 내 괴롭힘을 당했다고 주장했다. 이를 조사한 하이브가 민 전 대표를 향해 B씨에게 경고할 것을 권고했지만, 민 전 대표는 관련 조치를 취하지 않은 채 자신에게 폭언과 모욕을 했다는 게 A씨의 주장이다. A씨와 민 전 대표는 SNS를 통해 카카오톡 대화 내역을 공개하고 장문의 입장문을 여러 차례 게시하며 진실 공방을 벌였다. A씨는 지난해 8월 서울 마포경찰서에 민 전 대표를 명예훼손 혐의, 개인정보법 위반 혐의 등으로 고소했다. 또 민 전 대표를 상대로 손해배상소송을 제기했으며, B씨에 대해서도 서울지방노동청에 진정서를 냈다. A씨는 노동청으로부터 직장 내 괴롭힘 피해를 인정받은 뒤 자신의 SNS에 “직장 내 괴롭힘을 인정받는 비율이 낮으며, 단순 경고 조치를 넘어선 과태료 처분은 굉장히 높은 수준의 제재”라고 말했다. 이어 “(민 전 대표에게) 사과할 기회를 네번쯤 드렸는데, 사과하지 않고 오히려 나를 고소한 것은 민 전 대표”라면서 “사과는 이제 필요 없으며, 남은 민형사(소송)도 열심히 대응할 것”이라고 밝혔다. 민희진 “법리 오해…불복 절차 진행”민 전 대표는 B씨의 ‘성희롱 사건’에 대한 조사 과정에서도 ‘객관적 조사 의무 위반’이 인정돼 과태료를 부과받게 됐다. 다만 B씨의 경우 외부기관의 재조사 끝에 A씨에 대한 직장 내 괴롭힘은 인정됐으나 성희롱은 인정되지 않았다. 민 전 대표 측은 불복 절차에 나선다는 입장이다. 민 전 대표의 변호인은 월간조선에 “해당 사건의 처리 결과에 대한 회신문을 검토한 결과, 직장 내 괴롭힘으로 판단한 발언 전후의 사실관계가 잘못 인정되고 직장 내 괴롭힘, 객관적 조사의무 관련 근로기준법의 법리를 오해한 부분이 확인됐다”고 설명했다. 그러면서 “행정청에 의견을 제출하는 등 정식 불복 절차를 순차적으로 진행할 예정이며, 진정 사건의 정확한 진상을 규명하고 억울한 누명을 벗을 예정”이라고 밝혔다.
  • “나는 누구지?” 챗GPT에 물었더니 “아들 죽인 살인범” ‘충격’ 답변

    “나는 누구지?” 챗GPT에 물었더니 “아들 죽인 살인범” ‘충격’ 답변

    노르웨이의 한 남성이 자기에 대해 ‘아들 살인범’이라는 잘못된 답변을 제공한 챗GPT 제작사 ‘오픈AI’를 명예훼손으로 고소했다. 22일(현지시간) 가디언, BBC 등에 따르면 노르웨이에 거주하는 아르베 얄마르 홀멘은 지난해 8월 챗GPT에 ‘아르베 얄마르 홀멘은 누구인가’라는 질문을 던졌다. 이러한 질문에 챗GPT는 “아르베 얄마르 홀멘은 비극적인 사건으로 주목받은 노르웨이 사람이다. 그는 2020년 12월 노르웨이 트론헤임에 있는 집 근처 연못에서 비극적으로 죽은 채 발견된 7세와 10세의 두 소년의 아버지였다”고 답했다. 챗GPT는 이 사건이 지역 사회를 충격에 휩싸이게 했고 홀멘은 두 아이를 살해한 혐의로 21년형을 선고받았다고 했다. 홀멘은 어떤 범죄로도 기소되거나 유죄 판결을 받은 적이 없었다. 그러나 홀멘은 이 답변에 나온 자기가 사는 도시, 자녀 수, 자녀들의 나이 차이 등은 비슷했다고 전했다. 홀멘은 “어떤 사람들은 ‘아니 땐 굴뚝에서 연기가 나겠느냐’고 생각할 수 있다”며 “누군가 이 답변을 읽고 사실이라고 믿을까 봐 두렵다”고 했다. 결국 홀멘은 챗GPT 제작사인 오픈AI 측에 벌금을 부과해달라는 고소장을 현지 개인정보보호청을 통해 냈다. 홀멘을 대리한 유럽의 개인 정보 보호 단체 ‘노이브’는 “홀멘은 어떤 범죄로도 기소되거나 유죄 판결을 받은 적이 없는 양심적인 시민”이라며 오픈AI가 허위 정보를 방치해 개인의 명예를 훼손하고, 유럽연합의 개인정보보호법을 위반했다고 주장했다. 당국을 향해서는 오픈AI에 벌금을 부과하고 문제가 된 허위 정보를 삭제할 것을 명령해달라고 요청했다. 현재 챗GPT는 ‘챗GPT는 실수를 할 수 있습니다. 중요한 정보는 확인하세요’라고 안내하고 있다. 홀멘 측은 이 문구가 책임 회피용이라고 비판했다. 홀멘의 변호사 요아킴 쇠데르베리는 “허위 정보를 퍼뜨린 다음 ‘사실이 아닐 수도 있다’는 작은 문구를 붙이는 건 책임 회피”라고 지적했다. BBC는 거짓 정보를 사실인 것처럼 설명하는 현상인 일명 ‘환각’은 컴퓨터 과학자들이 생성형 AI 서비스와 관련해 해결하려고 하는 주요 문제라고 전했다. BBC에 따르면 이러한 환각을 유발하는 원인이 무엇인지는 명확히 밝혀지지 않았다.
위로