찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • AI 챗봇
    2026-03-01
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
719
  • ‘남산 딸깍발이’ 디지털 문호 활짝 연다

    ‘남산 딸깍발이’ 디지털 문호 활짝 연다

    신고서 제출·신고 필증 발급 비대면으로상담 업무에 ‘챗봇’ 도입도 검토하기로디지털 경제 속 위상 유지 위해 추진 ‘중추’ 디지털혁신실 중장기 전략 수립민간기업 카카오엔터와 첫 AI 협업도오는 9월 한국은행의 외환거래심사가 온라인으로 진행된다. 빅데이터, 인공지능(AI) 등 디지털 신기술이 적용된 결과다. 민원인은 한은 외환심사 창구를 찾지 않고도 외환거래 신고서를 제출하고 신고 필증도 발급받는다. 처리 과정도 조회할 수 있다. 한은은 1일 “지금은 신고서 제출을 위해 방문해야 하고 심사가 끝나면 신고 필증을 받으러 와야 하는데 앞으로는 이 모든 과정이 비대면으로 가능해진다”고 말했다. 한은은 상담 업무에서 ‘챗봇’(Chatbot) 도입도 검토하고 있다. 챗봇은 채팅(chatting)과 로봇(robot)의 합성어로, 사용자가 AI와 실시간 대화를 주고받으며 정보와 서비스를 제공받는 기술이다. ‘남산 딸깍발이’(융통성 없는 한은을 꼬집는 별칭)로 불릴 정도로 외풍과 변화에 크게 흔들리지 않던 한은이 문호를 활짝 개방한다. 4차 산업혁명 시대를 맞아 거세게 휘몰아치는 ‘디지털 바람’을 조직 곳곳에 불어넣고 있다. 급변하는 디지털경제 환경 속에서도 한은이 정책기관으로서의 위상을 유지하기 위해서는 정책 운영부터 내부 경영까지 업무 전반에 디지털 신기술을 수용하는 게 시급하다고 판단해서다. 이주열 한은 총재는 디지털 혁신이 곧 한은 존폐를 가를 핵심이라고 보고 디지털 혁신을 넘어 전 세계 중앙은행의 선도 모델을 만드는 데 주력하고 있다. 한은의 디지털 혁신 중추부서는 ‘디지털혁신실’이다. 지난해 7월 한은 창립 70주년을 맞아 신설됐다. 디지털 혁신 전략 수립과 이행 과정에서의 부서 간 조율, 리스크 탐지·관리를 한다. 데이터 관련 협업 활성화와 데이터 활용·공유 확대 등을 목표로 중장기적인 데이터 전략도 수립·실행한다. 한은 관계자는 “데이터도 일종의 조직 자산이라고 인식하고 입수부터 가공, 저장, 패기까지 전 과정의 권한과 책임을 명확하게 하고 잘 활용될 수 있도록 하는 ‘데이터 거버넌스 컨설팅’을 한다”고 설명했다. 디지털혁신실 아래에는 2개 팀과 1개 반이 있다. 혁신기획팀은 전략적 자산인 데이터를 체계적으로 관리하고 활용한다. 빅데이터 등 새로운 데이터 환경에 대비해 데이터 정책과 표준 절차를 수립·이행하는 시스템도 구축 운영한다. 데이터서비스팀은 데이터 분석 플랫폼인 ‘조사연구플랫폼’을 개발 운영한다. 부서별 데이터 분석 수요를 토대로 콘텐츠도 확충하고 고도화된 데이터 분석 서비스도 제공한다. 디지털신기술반은 부서 간 협업과 소통을 통해 디지털 혁신 프로젝트를 발굴 수행하고 그 성과를 전파한다. AI, 기계학습(머신 러닝), 새로운 유형의 데이터 등을 경제성장 전망 제고와 금융경제 잠재 리스크 포착에 활용하는 방안도 연구한다. 업무 자동화 같은 효율화 방안도 모색한다. 한은은 지난해 6월 AI 솔루션 전문 카카오엔터프라이즈와 AI 기술 협업과 연구에 관한 전략적 업무협약(MOU)도 체결했다. 한은이 민간 기업과 협업하는 첫 번째 사례다. 문서 번역과 회의록 작성 등 사용자 맞춤형 AI부터 금융 관련 정책 분야에 필요한 AI까지 개발한다. 한은 관계자는 “모든 경제분석 기반이 되는 건 데이터”라며 “AI가 방대한 데이터를 토대로 경기 예측을 할 수 있다면 한은 경제 전망의 보완·보조 지표로 활용할 수 있을 것”이라고 했다. 김승훈 기자 hunnam@seoul.co.kr
  • [요즘 과학 따라잡기] 범용 언어 인공지능 개발

    최근 ‘GPT3’라는 인공지능(AI)이 화두다. 테슬라 창업자 일론 머스크 등이 참여해 설립한 인공지능 연구기관인 ‘오픈AI’가 개발한 대규모 언어모델로 마이크로소프트 슈퍼컴퓨터 수준의 최고 컴퓨팅 기술로 학습했다. CPU 28만 5000개, GPU 1만개, 400기가비트(Gb) 네트워크로 시스템 규모부터 압도적이다. 샘플 2~3개만 주면 사용자가 원하는 형태로 변환해 준다. 지난해 대화, 질의응답, 번역, 프로그램 작성 등에 사용되더니 최근에는 이미지를 그리는 변환까지도 가능해졌다고 한다. AI 발전을 실감케 하는 대목이다. 범용 AI 개발을 목표로 해 온 연구진에게도 이슈다. GPT3가 적은 샘플로 좋은 결과를 얻은 것은 사실이지만 범용언어 인공지능으로는 부족한 점이 많다. 추가 학습이 없어 지속적으로 샘플을 공급해야 하고, 모델 구조 한계로 의미 비교평가에 약하며, 사고추론 과정이 규명되지 않는다. AI 원천기술이라 할 수 있는 음성언어 정보를 연구한 지 올해로 30여년이 됐다. 그동안 콜센터, 챗봇, 교육용 영어학습, 통·번역, 특허문서 번역, 국회도서관 서비스 등에 사용됐다. 한국어에 특화된 발화음성, 말뭉치 데이터베이스, 언어연구 등을 지속적으로 같이했기에 가능한 일이었다. GPT3를 무조건 따라하기보다는 한국어에 특화된 범용언어 인공지능 확보 전략이 필요하다. ‘한국어에 적합한 범용언어 인공지능’ 확보를 위해 범국가적 협력이 필요한 때이다. 민옥기 한국전자통신연구원 지능정보연구본부장
  • [요즘 과학 따라잡기] 범용 언어 인공지능 개발

    최근 ‘GPT3’라는 인공지능(AI)이 화두다. 테슬라 창업자 일론 머스크 등이 참여해 설립한 인공지능 연구기관인 ‘오픈AI’가 개발한 대규모 언어모델로 마이크로소프트 슈퍼컴퓨터 수준의 최고 컴퓨팅 기술로 학습했다. CPU 28만 5000개, GPU 1만개, 400기가비트(Gb) 네트워크로 시스템 규모부터 압도적이다. 샘플 2~3개만 주면 사용자가 원하는 형태로 변환해 준다. 지난해 대화, 질의응답, 번역, 프로그램 작성 등에 사용되더니 최근에는 이미지를 그리는 변환까지도 가능해졌다고 한다. AI 발전을 실감케 하는 대목이다. 범용 AI 개발을 목표로 해 온 연구진에게도 이슈다. GPT3가 적은 샘플로 좋은 결과를 얻은 것은 사실이지만 범용언어 인공지능으로는 부족한 점이 많다. 추가 학습이 없어 지속적으로 샘플을 공급해야 하고, 모델 구조 한계로 의미 비교평가에 약하며, 사고추론 과정이 규명되지 않는다. AI 원천기술이라 할 수 있는 음성언어 정보를 연구한 지 올해로 30여년이 됐다. 그동안 콜센터, 챗봇, 교육용 영어학습, 통·번역, 특허문서 번역, 국회도서관 서비스 등에 사용됐다. 한국어에 특화된 발화음성, 말뭉치 데이터베이스, 언어연구 등을 지속적으로 같이했기에 가능한 일이었다. GPT3를 무조건 따라하기보다는 한국어에 특화된 범용언어 인공지능 확보 전략이 필요하다. ‘한국어에 적합한 범용언어 인공지능’ 확보를 위해 범국가적 협력이 필요한 때이다. 민옥기 한국전자통신연구원 지능정보연구본부장
  • “실낱 희망이라도 잡았으면…” ‘비대면 점집’ 2030 홀렸다

    “실낱 희망이라도 잡았으면…” ‘비대면 점집’ 2030 홀렸다

    취업준비생 박모(29)씨는 매달 유튜브에서 타로카드로 보는 월별 운세와 무속인들이 풀어주는 띠별 운세를 즐겨 본다. 올 들어 진로를 바꾸면서 더욱 불확실해진 미래를 알고 싶어서다. 타로에 심취한 그는 타로점 관련 민간자격증을 알아보는 등 직접 배워볼 생각이다. 박씨는 “타로·사주 유튜브에서 좋은 말을 들으면 힘이 나서 좋고, 나쁜 말을 들으면 조심하게 돼서 좋다”면서 “불확실한 세상에서 조금이나마 의지가 된다”고 말했다. 코로나19로 비대면이 일상이 되면서 타로, 사주, 신점 등도 유튜브, 모바일앱 등으로 해결하는 ‘비대면 점집’이 인기를 끌고 있다. 지난해 코로나19가 확산되면서 주목받기 시작한 비대면 점집은 신년을 맞이하면서 호황을 누린다. 비대면 점집은 ‘신축년 합격운이 좋은 띠’, ‘재물운이 들어오는 달’ 등을 풀어주는 무속인 유튜브부터 타로점을 치는 ‘타로 리더’가 카드를 뽑아 5개의 더미를 만들고, 시청자가 번호를 선택할 시간을 준 다음 카드를 뒤집어 각 카드에 담긴 애정운, 합격운 등을 풀이해주는 유튜브까지 다양하다. 청년층에게 특히 인기가 좋은 콘텐츠는 유튜브 타로점이다. 간단하고 쉽게 접근할 수 있으면서 시청자가 비대면 상황에서도 직접 카드 더미의 번호를 고를 수 있다는 점이 매력으로 꼽힌다. 최근 취업에 성공한 직장인 최모(29)씨는 “최종합격 발표를 앞두고 타로 유튜브 5개 채널에서 월별 운세나 합격운 콘텐츠를 봤다”면서 “5개 채널에서 모두 이번에 합격할 거라 했는데 진짜로 합격했다. 발표를 기다리면서 마음을 안정시키는 데 도움이 많이 됐다”고 말했다. 인기를 증명하듯 유튜브에 개설된 비대면 점집은 1000여 개가 넘는다. 4일 유튜브 통계 분석 사이트인 ‘플레이보드’에서 검색한 결과, 타로 관련 국내 채널은 659개, 점집 관련 국내 채널은 468개에 달한다. 유명 타로 유튜브 채널 ‘타로호랑’은 구독자 43만 명에 평균 조회 수가 49만 회를 넘는다. 모바일 앱으로 보는 사주풀이도 꾸준히 인기다. 유료로 모바일 사주를 봤다는 김모(28)씨는 “모바일 사주를 보는 데에만 수십만원을 썼다”면서 “‘힘든 시기도 끝이 있다’는 메시지가 힘이 되기 때문에 위안을 삼으려고 자주 찾게 된다”고 말했다. 이용자가 궁금한 질문을 입력하면 인공지능(AI)이 사주나 타로를 풀어 답변해주는 AI 챗봇도 등장해 인기를 끌었다. 곽금주 서울대 심리학과 교수는 “코로나19로 불확실한 상황이 계속되자 불안감이 커지고 무속에 기대는 심리가 있다”면서 “특히 청년층은 코로나19로 인해 취업난이 심해지고 시험도 계속 연기되다 보니 앞날에 대한 궁금증을 풀고 싶어하는 욕구가 두드러진 것으로 보인다”고 말했다. 손지민 기자 sjm@seoul.co.kr
  • 우리 곁 ‘괴물’들은 홀로 태어나지 않는다

    우리 곁 ‘괴물’들은 홀로 태어나지 않는다

    촉법소년·성착취물·인공지능…논쟁적인 주제들 담은 소설집파편화된 인간성의 민낯 그려충격 반전에 영화 보는 듯 생생지난달 의정부 경전철에서 중학생들이 노인들을 폭행하는 사건이 발생한 가운데 가해자들이 만 13세로 형사처벌이 면제되는 ‘촉법소년’(만 10세 이상 만 14세 미만 미성년자)으로 알려져 논란이 일었다. 갈수록 늘어나는 소년범죄를 예방하려면 촉법소년 연령을 낮춰야 한다는 여론이 재점화됐기 때문이다. 지난해 온라인 메신저 ‘텔레그램’에 개설된 단체 채팅방에서 불법 성착취물을 제작·유포한 ‘n번방’의 존재는 더 큰 충격을 줬다. 최근엔 인공지능(AI) 챗봇 ‘이루다’가 여성·성소수자에 대한 혐오 발언을 조장하고 개인정보를 유출한 사실이 드러나 AI 기술 남용에 대한 우려가 커졌다. 우리 사회에서 논쟁적 주제인 촉법소년, 성착취, AI가 독보적 작품 세계를 가진 작가 아홉 명에게서 소설로 태어났다. ‘낯익은 괴물들’은 이들 문제가 일상에서 촉발하는 이야기를 다채로운 서사로 펼친다.‘시골악귀’(김종광 작가)와 ‘테임’(김이설 작가)은 촉법소년 문제에 질문을 던진다. ‘시골악귀’에선 시골 마을에서 절도와 성폭행을 일삼아 소년원에 들어간 강수의 행각이 생생하게 펼쳐진다. “청소년이 더 악귀다. 어른이고 청소년이고 본성이 문제다. 세 살 본성 여든 살까지 간다”(25쪽)는 성폭행 피해자의 독백은 ‘어린 나이가 면죄부가 될 수 있냐’는 정당한 문제 제기를 대변한다. 강수의 악마성에는 가정불화가 한몫했음을, 그를 단죄하는 주체도 결국 부모가 될 수밖에 없다는 점도 암시한다. ‘테임’의 주인공 지훈은 사이코패스 소년 태현과 어울리다 충동 조절에 실패하고 파국을 맞는다. 정신을 차린 지훈이 문득 떠올린 생각은 ‘열네 번째 생일이 일주일 뒤였다’(70쪽)는 것이다. 어리지만 악하게 변모하는 그들은 과연 누구인지 물으면서 우리 아들딸들도 언제든 환경에 따라 괴물로 변할 수 있음을 보여 준다.‘천국의 낮’(주원규 작가)은 마치 n번방 사건을 밀착 취재한 듯 온라인상에서 은밀히 자행되는 성착취의 참혹한 현장을 날것 그대로 그려 낸다. 여고생 ‘미’는 악마와도 같은 ‘구’에게 성착취를 당하지만, 결국 유일한 혈육인 아빠에게도 외면받아 혼자 남겨진다. 끔찍하고 암울한 성착취의 공범은 이를 은밀히 즐겨 온 대중과 주변의 무관심이라는 메시지를 던진다. AI와 함께할 우리 미래가 과연 진보인가 퇴보인가. ‘헤어지는 중’(김희진 작가)은 결혼 생활에 활력을 주려고 구매한 AI 애견로봇 ‘로이’를 두고 드러난 관계와 감정의 변화, 갈등을 이야기한다. 소설들은 영화를 보는 듯 생생하다. 반전의 등장도 만만치 않은 충격이다. 단편소설 특유의 여운과 서사적 재미도 갖췄다. 모종의 두려움을 주는 ‘괴물’을 통해 공통적으로 현대 문명사회가 가져온 소외와 박탈감, 파편화된 인간성의 민낯을 그려 냈다. ‘열다섯 살이 지난 뒤에도’(서유미 작가) 말미의 ‘매번 새롭게 고통스럽다는 게 삶의 숨겨진 비밀이겠지’(104쪽)라는 대목은 이 같은 실존이 가져온 후유증은 시간이 지나도 치유하기 힘들다는 점을 의미한다. 가해자보다 피해자가 고통스럽게 사는 현실에서 사생활 침해 등을 이유로 ‘n번방 방지법’ 도입을 놓고 홍역을 치른 우리 사회가 곱씹어 볼 대목이다. 하종훈 기자 artg@seoul.co.kr
  • 사적 대화 유출된 AI 이루다 피해자 400명 소송 시작

    사적 대화 유출된 AI 이루다 피해자 400명 소송 시작

    인공지능(AI) 챗봇 ‘이루다’ 개발에 사적인 카카오톡 대화 등 개인정보가 유출됐다고 주장하는 피해자 400여명이 집단소송을 시작했다. 22일 공동소송 플랫폼 ‘화난사람들’에 따르면 지난 13일부터 21일까지 이루다 개인정보 유출 피해자 집단소송에 모두 373명이 참여했다. 피해자들은 전날 서울동부지법에 이루다 개발사인 스캐터랩을 상대로 증거 보전 신청서를 제출했다. 스캐터랩은 지난 5일 개인정보보호위원회의 조사를 받은 직후 이루다의 데이터베이스와 이루다를 학습시키는데 사용한 딥러닝 대화 모델(이용자의 카카오톡 대화 100억건에서 추출한 1억건)을 폐기하겠다고 밝힌 바 있다. 소송을 대리한 법무법인 태림은 데이터베이스가 폐기되면 손해배상청구 소송에서 활용할 수 있는 증거가 소멸될 우려가 있어 스캐터랩이 임의로 자료를 파기하지 못하도록 증거보전신청을 한 것이라고 설명했다. 오달란 기자 dallan@seoul.co.kr
  • ‘이루다’ 개인정보유출, 집단손해배상 소송 모집

    ‘이루다’ 개인정보유출, 집단손해배상 소송 모집

    인공지능(AI) 챗봇 ‘이루다’ 개인정보 유출 의혹에 대한 손해배상 집단소송이 첫 발을 뗐다. 공동소송 플랫폼 ‘화난사람들’은 15일 홈페이지에 ‘이루다 AI 개인정보 유출 피해자 집단소송’ 사이트를 열고 소송 참여자를 모집하고 있다. 이루다 AI에 개인정보가 유출된 피해자들을 모아 손해배상청구소송을 제기하겠다는 것이다. 화난사람들은 소개 페이지에서 “스캐터랩은 ‘연애의 과학’·‘텍스트앳’ 등 기존 서비스에서 수집한 카카오톡 대화를 대화 당사자 모두의 동의 없이 수집해 AI에게 딥러닝시켰고, 이 과정에서 개인정보 유출이 발생했다”며 “특정 개인의 주소나 실명, 계좌번호 등이 여과 없이 노출됐다. 이는 개인정보보호법 위반으로 행정 처분이나 형사 처벌 대상이 될 수 있으며, 개인정보 유출 피해자들은 정신적 위자료를 청구할 권리가 있다”고 강조했다. 소송에 참여하려면 연애의 과학이나 텍스트앳·진저 등에 카톡 대화를 제공했던 사실이 확인되는 화면 캡처, 이루다 AI에서 확인된 유출 개인정보 캡처,원본 카톡 등이 있어야 한다. 이루다에서 개인정보나 대화가 유출됐는지 명확히 확인되지 않아도, 연애의 과학 앱에 카톡 대화를 제공했던 사실이 확인되는 캡처만 있어도 일단 소송 참여가 가능하다. 화난사람들 측은 “관련 증거가 분명한 경우 승소 가능성이 작지 않다고 본다”며 “패소할 경우 피고가 원고에게 소송 비용 일부를 청구할 수 있지만, 공동소송은 금액을 분할 부담하므로 개인이 부담할 금액은 미미하다”고 덧붙였다. 이성원 기자 lsw1469@seoul.co.kr
  • 스캐터랩 “‘이루다 DB’ 폐기하겠다”…개인정보 유출의혹은 부인

    스캐터랩 “‘이루다 DB’ 폐기하겠다”…개인정보 유출의혹은 부인

    인공지능(AI) 챗봇 이루다의 개발사 스캐터랩이 이루다의 데이터베이스(DB)와 이루다의 학습에 사용된 딥러닝 대화 모델을 폐기하기로 결정했다. 그러나 집단 소송을 준비하는 피해자들은 “이루다 DB가 아니라 ‘연애의 과학’으로 수집한 카카오톡 대화를 전부 폐기해야 한다”며 “그렇지 않으면 보관된 카톡 대화는 제2, 제3의 AI 챗봇을 통해 언제든지 되살아날 수 있을 것”이라며 반발했다. 스캐터랩은 15일 “이용자들의 불안감을 고려하여 이번 인공지능 ‘이루다’의 DB 전량 및 딥러닝 대화 모델을 폐기하기로 했다”는 내용을 발표했다. 한국인터넷진흥원(KISA)과 개인정보보호위원회는 스캐터랩의 개인정보보호법 위반 여부를 조사하고 있다. 연애의 과학 앱 이용자와 이용자의 연인에게 개인정보 이용·활용 동의를 제대로 받지 않은 점, 데이터를 이루다 재료로 쓰는 과정에 익명화(비식별화)를 제대로 하지 않은 점 등이 핵심이다. 연인들 대화 데이터를 사내 메신저에 부적절하게 공유한 직원이 있었다는 의혹도 받고 있으며, 제대로 익명화하지 않은 데이터를 오픈소스 공유 플랫폼 ‘깃허브’에 공유한 사실도 확인됐다. 스캐터랩은 “조사가 종료되는 즉시 이루다 DB와 딥러닝 대화 모델의 폐기를 진행한다”고 밝혔다. 그러면서 비식별화 조치가 제대로 이뤄졌기 때문에 개인정보 유출은 없었다는 설명을 되풀이했다. 스캐터랩은 “이루다 DB는 비식별화 절차를 거쳐 개별적이고 독립적인 문장 단위로 이루어져 개인 식별이 가능한 데이터는 포함 돼 있지 않다”며 “딥러닝 대화 모델은 비식별화 절차를 거친 데이터를 토대로 대화 패턴만을 학습하고, 인공지능은 데이터를 벡터값으로 기억하기 때문에 개인정보가 유출될 위험이 전혀 없다”고 설명했다. 이어 “기존 연애의 과학과 텍스트앳에서 이용자의 동의를 받고 수집되었던 기존 데이터는 데이터 활용을 원하지 않는 이용자로부터 신청을 받은 후, 해당 이용자의 데이터를 모두 삭제할 예정이며, 이는 향후 딥러닝 대화 모델에도 이용되지 않는다”며 “관련 후속 조치는 각 어플리케이션 공지를 통해 안내 받을 수 있으며, 향후 신규 가입 및 서비스 이용시에는 개인정보 수집, 이용 동의 절차를 강화할 계획이다”라고 밝혔다. 최영권 기자 story@seoul.co.kr
  • 지앤넷, 비플러스랩과 전략적 제휴 체결

    지앤넷, 비플러스랩과 전략적 제휴 체결

    비플러스랩과 지앤넷이 제휴를 통해 언택트 헬스케어 분야에 적극 나선다. 지앤넷은 지난 14일 비플러스랩 본사 임상실험센터에서 비플러스랩과 ‘상호협력을 위한 MOU 체결식’을 가졌다고 15일 밝혔다. 비플러스랩은 임상경험을 기반으로 질병을 AI 문진하고 의료기관을 추천하는 ‘어디아파’를 운영하고 있다. 부민병원을 통한 빠른 임상 피드백으로 서비스를 고도화 중인 기업이라고 한다. 지앤넷은 의료정보전송플랫폼인 ‘실손보험 빠른청구’를 통해 출력물 없는 보험청구를 서비스하고 있다. 제휴 병원이 아니어도 ‘구디AI’ 기술을 활용해 서류 이미지에서 데이터로 추출하고 보험사로 전송할 수 있다. 또한 지앤넷은 서울시 기업지원센터의 AI챗봇 개발과 운영을 맡는 등 독자적인 AI챗봇 기술도 보유했다. 이번 제휴를 통해 어디아파에서도 실손보험 빠른청구 서비스를 이용할 수 있도록 개발된다. 지앤넷은 어디아파 문진의 서비스 고도화를 위해 지앤넷의 AI 기술을 전략적으로 지원할 예정이다. 지앤넷 관계자는 “최근 코로나 등의 감염병 이슈의 장기화로 의료 서비스 환경도 빠르게 변화하고 있는 가운데 ▲비대면 AI 문진 서비스를 통한 의료기관 안내 ▲의료기관 이용 후 보험청구 서비스와 같이 메디컬 헬스케어를 한 곳에서 이용할 수 있는 서비스가 기대된다”고 말했다. 서울비즈 biz@seoul.co.kr
  • 이루다 개발사 사과했지만... “개인정보보호법 명백히 위반”

    이루다 개발사 사과했지만... “개인정보보호법 명백히 위반”

    인공지능(AI) 챗봇 이루다의 개발사 스캐터랩이 지난 13일 자사 앱 ‘연애의 과학’에서 심리 테스트 명목으로 수집한 개인정보 1700건을 온라인에 15개월 간 무단 유출한 것에 대해 인정하고 사과했다. 스캐터랩은 논란이 된 카카오톡 대화 내용 수집 절차에 대해선 “적법했다”는 기존 입장을 되풀이 했다. 또 “원하는 사용자에 한해 데이터를 폐기하겠다”고 밝혀 아직 피해를 인지하지 못한 제3자의 개인정보는 데이터베이스(DB)에 그대로 남아 있게 된다. 집단 소송을 준비하는 피해자들은 “카톡 대화를 AI 개발에 사용하는데 동의한 적 없다”며 “나머지 데이터도 전면 폐기하라”고 요구하고 있다. ‘연애의 과학’ 앱 이용자들은 연인과 나눈 최소 수개월치의 카카오톡 대화를 전송하면서 별다른 동의 절차를 밟지 못했다. 앱 이용자의 카톡에 있던 집주소, 예금주명이 포함된 계좌번호, 건강정보 등 개인정보 다수가 지난달 23일 출시한 이루다와 채팅한 제3자에게 유출됐다는 의혹을 받고 있다. 민변 디지털정보위원회, 정보인권연구소 등 시민단체들은 지난 13일 “‘개발’에만 치중한 AI산업육성, ‘이루다’는 예정된 참사”라는 제목의 성명문을 내고 “특정 상대방과 나눈 카카오톡 대화를 전부 수집한 건 각각의 사항을 알리고 명시적으로 동의를 받도록 한 개인정보보호법 위반”이라고 했다. 스캐터랩은 앱 로그인 초기화면에 있는 ‘로그인함으로써 개인정보 처리방침에 동의합니다’라는 문구 하나로 동의가 충분했다고 판단했다. 개인정보처리방침에는 연애의 과학이 제공하는 서비스 이외에 ‘신규 서비스 개발 및 마케팅·광고에의 활용’이 있다. 개인 카카오톡 100억건을 활용해 이루다를 만든 것이 신규 서비스 개발에 포함된다고 본 것이다. 시민단체는 “‘신규 서비스 개발과 마케팅·광고 활용’이 연애의 과학 앱을 이용하기 위한 필수정보인지 의문”이라며 “필수정보가 아닌 개인정보 수집·이용에 대해서는 이용자의 선택을 보장해야 한다”고 했다. 국내 한 유니콘 스타트업 관계자는 14일 서울신문과의 통화에서 “신규서비스 개발이라는 단 한 줄로 포괄적인 동의를 받았다고 보기에는 부족해보인다”며 “업계에서 개인정보를 가볍게 여기는 문화가 퍼질까 우려된다”고 말했다. 김가연 오픈넷 변호사도 “카카오톡 대화를 제공 받기 위해 동의를 받는 과정은 명백히 개인정보보호법 위반”이라고 말했다. 또 다른 국내 스타트업 최고기술책임자(CTO)는 이날 “전문가의 법적 자문을 구했으면 좋았을 것”이라며 “이용자들에게 구체적으로 동의를 구하는 절차를 만들 필요가 있다”고 말했다. ‘이루다를 성노예로 만드는법’ 등을 공유했던 일부 남성 커뮤니티 이용자들은 청와대 국민청원 게시판에 여성 이용자들이 즐기는 알페스(Real Person Slash) 역시 성범죄라고 주장했다. 이에 여초 커뮤니티 이용자들은 남초 커뮤니티에 일반인 여성의 사진을 공유해 성희롱하는 비공개 게시판이 있다고 폭로하는 청원 글을 올리면서 젠더 갈등으로 비화됐다. 두 청원은 14일 기준 각각 19만 6000명, 19만 3000명을 넘었다. 최영권 기자 story@seoul.co.kr
  • ‘이루다’ 논란 재발 막는다…AI 이용자 교육·업체 컨설팅 지원

    인공지능(AI) 챗봇 서비스 ‘이루다’의 AI 윤리 및 개인정보보호 논란을 계기로 방송통신위원회가 AI 이용자와 사업자에게 교육과 컨설팅을 지원하고 AI 윤리규범을 구체화하는 등 정책기반을 마련하기로 했다. 방송위는 14일 사람 중심의 AI 서비스가 제공되고, AI 서비스가 활용되는 과정에서 이용자 보호원칙이 지켜질 수 있도록 각종 지원사업과 제도개선을 추진할 계획이라고 밝혔다. 방통위는 AI 서비스에서 이용자 보호를 가장 큰 원칙으로 삼아 이용자 교육과 사업자 컨설팅, 제도개선 등을 추진할 방침이다. 올해부터 이용자에게 AI 서비스의 비판적 이해 및 주체적 활용에 대해 교육을 한다. 이용자가 AI 서비스에 활용된 알고리즘의 편향성을 파악하고, 그에 따른 문제를 최소화해 서비스를 이용하는 방안 등을 포함한다. 내년부터는 AI 윤리교육 지원 대상을 이용자에서 사업자로 확대해 AI 역기능 등 위험관리 컨설팅을 지원하는 사업을 추진할 예정이다. 방통위는 AI 서비스 이용자 보호를 위해 규범과 제도도 구체화한다. 2019년 11월 마련된 ‘이용자 중심의 지능정보사회를 위한 원칙’을 토대로, 이를 실천할 구체적 사례와 방법 등을 업계와 공유할 계획이다. 사업자의 규제 부담 및 AI 서비스의 혁신 저해를 최소화하고자 민간의 모범 사례를 적극적으로 발굴해 실행 지침의 토대로 삼을 방침이다. 중장기적으로는 이용자에게 피해를 일으킨 AI 서비스의 책임 소재 및 권리구제 절차 등을 포괄하도록 기존 법체계를 정비하기로 했다. 세종 류찬희 선임기자 chani@seoul.co.kr
  • 이루다로 촉발된 젠더 논쟁... 개인정보 유출이란 본질 외면

    이루다로 촉발된 젠더 논쟁... 개인정보 유출이란 본질 외면

    스타트업 스캐터랩이 심리 테스트 명목으로 수집한 100억건의 카카오톡 대화를 인공지능(AI) 챗봇 이루다의 개발에 사용한 사실이 드러나자 서비스 운영을 중단했다. 그런데 ‘이루다를 성노예로 만드는 법’ 등을 공유했던 일부 남성 커뮤니티를 중심으로 운영 중단에 반발하는 목소리가 커지면서 젠더(성)갈등으로 비화되는 사태가 벌어졌다. 개인정보 유출 피해자들은 성대결이 부각되면서 스캐터랩의 개인정보 유출과 AI 윤리라는 본질적인 문제가 가려질까 우려하고 있다. 남성 이용자가 많은 남초 커뮤니티는 AI를 성희롱하고 성노예화하는 것이 비판의 대상이 된다면 일부 트위터 여성 이용자들이 즐기는 알페스(RPS) 문화 역시 성범죄라며 공격했다. Real Person Slash의 줄임말인 알페스는 남성 아이돌 팬픽션(아이돌이 주인공이 되는 소설)에서 나온 문화로, 남성 연예인을 성적 대상화하는 소설 등의 창작물을 일컫는다. 남초 커뮤니티에서는 알페스를 실존 인물의 얼굴을 나체 사진 등에 합성하는 딥페이크에 준하는 성범죄라고 주장한다. 여성들이 모인 여초 커뮤니티 이용자들은 에펨코리아, 루리웹 등 남초 커뮤니티에 일반인 여성의 사진을 당사자 동의 없이 올리고 성희롱성 댓글을 다는 비공개 게시판이 있음을 폭로하며 반격했다. 당사자 동의 없이 소셜네트워크서비스(SNS)에서 여중생, 여고생 등 미성년자의 노출사진 등을 퍼와 공유하는 공공연한 성폭력이 벌어지고 있다는 주장이다. 젠더갈등은 청와대 국민청원 게시판의 동의 인원 세 대결 양상으로 번졌다. 알페스 이용자를 처벌해달라는 국민 청원에는 14일 기준 19만명 이상이 동의했다. 남초 커뮤니티의 성희롱 게시판을 고발하는 청원에는 18만명이 넘었다. 두 청원 모두 정부 공식 답변 기준인 20만명 동의를 앞두고 있다. 전문가 의견은 엇갈린다. 서혜진 더라이트하우스 변호사는 “팬픽 문화에서 분화된 알페스는 딥페이크와는 달리 표현의 자유를 넓게 인정해 저작표현물로도 볼 수 있다”면서도 “실존 인물이 성적 수치심을 느낄 정도의 수위로 표현하는 음란물이라면 팬들의 놀이문화로 용인될 수는 없을 것”이라고 지적했다. 서승희 한국사이버성폭력대응센터 대표는 “남초 커뮤니티는 알페스가 지인 능욕을 하는 딥페이크라는 프레임으로 접근하고 있지만 알페스는 팬픽에 불과하다”고 했다. 남초커뮤니티 비공개게시판에 일반인 사진을 올려 성희롱을 한 것에 대해선 “나체 사진이거나 노출 사진이 아닌 일상사진을 올린 건 처벌하긴 어렵다”면서도 “만약 당사자 동의 없이 올린 사진이 성폭력처벌법 14조 1항에 따라 몰래 찍은 불법촬영이라면 커뮤니티를 운영하는 정보통신사업자도 책임질 수 있다”고 말했다. 경찰 관계자는 “시각적으로 명백히 음란물임이 드러나는 딥페이크와 달리 알페스는 글이라 해석의 여지가 있다”며 “물론 알페스를 음란물로 판단한다면 명예훼손죄나 성폭력특별법으로 처벌할 여지는 있다”고 했다. 최영권 기자 story@seoul.co.kr
  • [유용하 기자의 사이언스톡] AI 기술은 사회적 책임 예외 대상일까

    [유용하 기자의 사이언스톡] AI 기술은 사회적 책임 예외 대상일까

    37년 전인 1984년, 놀라운 상상력을 보여주는 SF영화가 개봉했습니다. 바로 ‘터미네이터’ 입니다. 스스로 생각을 할 수 있게 된 인공지능(AI) 시스템이 인류를 멸망시키려 하고 인간은 이를 막기 위해 고군분투한다는 내용을 이리저리 엮어 관객들의 시선을 사로 잡았습니다. 전 세계적으로 흥행한 이 영화는 사람들의 마음 속에 AI에 대한 막연한 불안감을 갖게 만들기도 했습니다. 이 때문에 AI 관련 논의가 있을 때마다 터미네이터는 소환되곤 합니다. 1950년대에 AI 개념이 등장하고 오랜 잠복기를 지나 2000년대 들어 관련 연구가 폭발적으로 증가하면서 기술 발전 속도는 상상을 초월하고 있습니다. 실제로 최근 몇 년 사이에 다양한 형태의 AI 기술이 폭넓게 활용되고 있습니다. 연구자들이 AI를 포함해 과학기술을 연구하는 목적은 인류가 좀 더 나은 삶을 살도록 하기 위한 것입니다. 미국 캘리포니아 버클리대 레드우드신경과학연구소 설립자 제프 호킨스 박사도 ‘생각하는 뇌, 생각하는 기계’라는 저서에서 “AI 같은 두뇌형 기계를 개발하는 것은 인간의 감각으로는 인식하기 어렵고 빠르게 계산하기 어려운 문제들을 손쉽게 해결함으로써 인간의 감각과 지적능력을 확장하기 위한 것”이라고 말했습니다. 그렇지만 인간이 만드는 기술과 시스템은 정도의 차이만 있을 뿐 모두 윤리적 문제를 갖고 있습니다. AI도 마찬가지입니다. 2016년 ‘인공지능과 2030년의 삶’이라는 분석보고서를 작성한 미국 스탠퍼드대 ‘AI 100’ 연구단은 “영화 ‘마이너리티 리포트’에서처럼 범죄예방 프로그램을 비롯해 다양한 형태의 인공지능 기술은 알고리즘을 설계한 개발자의 편견이 개입할 수 있으며 프라이버시 침해에 대한 우려도 크다”라고 분명히 지적했습니다. 스위스 로잔연방공과대학 컴퓨터·커뮤니케이션공학과 연구팀 역시 AI를 활용한 사회관계망서비스(SNS)의 맞춤형 뉴스피드 알고리즘은 개인화되고 편향된 데이터를 기반으로 서비스를 제공하기 때문에 세계를 바라보는 시각과 가치관을 왜곡시키거나 편협하게 만들 수 있으며 사회 전체에 악영향을 미칠 수 있다는 연구결과를 내놨습니다. 이런 문제를 해결하기 위해 어떤 노력을 하느냐에 따라 기술의 최종 성패가 좌우되는 경우가 많습니다. 최근 AI챗봇 ‘이루다’가 혐오표현 학습과 개인정보 노출 등 문제로 운영이 중단됐습니다. 이에 대해 AI 기술 고도화를 위해 어쩔 수 없는 시행착오라던가 이번 사건이 혁신을 가로막아서는 안된다던가, 기술 문제가 아니라 혐오 표현이 일상화된 사회가 문제의 근원라는 목소리도 나왔습니다. 그런 발언의 당사자들이 인식하고 있는지는 모르겠지만 그 이면에는 기술을 사용하는 사회와 대중에게 문제가 있는 것이지 과학기술 자체는 문제가 없다는 기술의 가치중립성 논리가 숨어있습니다. 다양한 분야의 연구자들이 과학기술의 가치중립성은 환상이라고 지적하고 있습니다. 그렇기 때문에 모든 과학기술은 사회적 책임을 가져야 한다는 것입니다. 과학기술의 사회적 책임은 대학 교수나 많은 연구비를 쓰는 연구자들에게만 해당되는 것이 아닙니다. 모든 과학기술과 혁신의 중심에는 인간이 있어야 합니다. 사회적 책임을 도외시하고 인간이 소외된 혁신과 기술은 ‘야수’로 변하기 십상이라는 점을 분명히 알고 있어야 하지 않을까요. edmondy@seoul.co.kr
  • “100억건 개인정보 침해가 빚어낸 참사”…‘이루다’ 개발사, 결국 사과(종합)

    “100억건 개인정보 침해가 빚어낸 참사”…‘이루다’ 개발사, 결국 사과(종합)

    “개인정보 보호 체계 구축해 재발 방지”이용자 실명 깃허브 유출도 인정이용자들 “카톡 데이터 파기하라” 인공지능(AI) 챗봇 ‘이루다’ 개발사 스캐터랩이 개인정보 유출 의혹에 관한 조사에 성실히 임하겠다면서 고객에게 사과했다. 스캐터랩 측은 13일 사과문에서 “개인정보 처리 관련 관계기관 조사에 성실하게 임하고 있다. 서비스를 이용해주신 모든 이용자분들께 진심으로 사과드린다”고 밝혔다. 스캐터랩이 ‘사과문’을 발표한 것은 논란이 불거진 지 닷새 만이다. 스캐터랩은 “논란이 되는 모든 사항에 대해 진상조사위원회를 구성해 철저히 조사하는 한편, 외부전문가를 포함한 상시 개인정보 보호 체계를 구축하고 재발 방지를 위한 강화된 보안 교육을 실시하는 등 노력하겠다”며 “이번 사안으로 인해 인공지능 산업계에 계신 여러 동료 기업들, 연구자분들, 파트너들께도 누를 끼치지 않기를 바란다. AI 윤리에 관한 사회적 합의에 부합할 수 있도록 노력하겠다”고 덧붙였다. 스캐터랩은 연애 분석 앱 ‘연애의 과학’으로 이용자들의 카카오톡 데이터를 수집해 이루다 개발에 썼는데, 이 과정에서 개인정보보호법을 어겼다는 의혹을 받고 있다. 연애의 과학 앱 이용자와 이용자의 연인에게 개인정보 이용·활용 동의를 제대로 받지 않은 점, 데이터를 이루다 재료로 쓰는 과정에 익명화(비식별화)를 제대로 하지 않은 점 등이 핵심이다.연인들 대화, 사내 메신저에 부적절하게 공유했다는 의혹 스캐터랩은 이루다 관련 개발 기록을 오픈소스 공유 플랫폼 ‘깃허브’에 공유했는데 여기서도 익명화를 제대로 하지 않은 것으로 밝혀졌다. 스캐터랩은 사과문과 함께 배포한 자료에서 “깃허브에 공개한 오픈소스에 내부 테스트 샘플이 포함된 사실이 확인됐다. 실명을 자동화 비식별 처리했는데, 필터링 과정에 걸러지지 않은 부분이 일부 존재했다”며 “데이터 관리에 신중하지 못했다. 민감할 수 있는 정보가 노출된 점에 진심으로 사과드린다. 해당 깃허브 게시물은 즉시 비공개 처리했다. 대화를 나눈 사람들의 관계나 생활 반경이 추정될 여지는 전혀 없다”고 해명했다. 스캐터랩은 개인정보 이용 동의를 소홀히 받았다는 의혹에 관해서는 “연애의 과학이 동의를 받은 절차가 법적으로 문제가 없을 것이라고 판단했다”며 “이용자분들과 충분히 소통하지 못한 점은 깊이 반성한다”고 거듭 사과했다. 스캐터랩은 “데이터가 AI에 활용되기를 원하지 않는 분들은 DB에서 삭제하실 수 있다”는 입장이지만, 이용자들은 스캐터랩이 카톡 데이터를 전량 파기해야 한다고 목소리를 높이고 있다.“100억 건의 개인정보 침해가 빚어낸 참사” 연애의 과학 이용자들은 스캐터랩이 개인정보를 유출했다면서 집단소송을 준비 중이다. 이날 개인정보보호위원회와 한국인터넷진흥원(KISA)은 서울 성동구 스캐터랩 사무실을 방문해 개인정보 유출 의혹에 관한 본격적인 조사에 착수했다. 진보네트워크센터와 민변 디지털정보위원회, 사단법인 정보인권연구소, 참여연대 등에 따르면 ‘이루다’ 사태는 “100억 건의 개인정보 침해가 빚어낸 참사”라며, 신뢰할 수 있는 인공지능(AI) 세상을 만드려면 기업의 자율규제만으로는 안된다는 입장을 밝혔다. 진보넷 등은 “이루다는 사용자들의 성희롱과 폭언 등의 남용, 혐오표현에 대한 미온적 대응 등 보호받아야 할 사회적 가치를 훼손하는 알고리즘은 물론이고, 개인의 사적인 대화나 개인정보가 심각하게 수집되고 유출된 것으로 드러나 당혹감을 안겨주고 있다”고 지적했다. 이어 “국내 자본뿐 아니라 해외에서도 많은 투자를 받은 이 회사의 이번 논란을 해외 시장과 경쟁하려는 국내 청년 스타트업의 불가피한 시행착오로 포장하려는 일부 언론의 보도에 대해 우려한다”면서 “이루다 논란은 기업의 인공지능 제품이 일으킬 수 있는 문제의 한 단면일 뿐이며 이에 대한 대책을 기업 자율에만 맡겨둘 수 없다. 구체적이고 명료한 법적 규범을 마련할 것을 촉구한다”고 부연했다.김채현 기자 chkim@seoul.co.kr
  • 이루다 개발사 “원하는 유저에 한해 개인정보 삭제하겠다” 5일만에 사과문

    이루다 개발사 “원하는 유저에 한해 개인정보 삭제하겠다” 5일만에 사과문

    인공지능(AI) 챗봇 서비스 이루다의 개발사 스캐터랩이 지난해 오픈소스 공유 플랫폼 깃허브에 연애의 과학을 통해 수집한 카카오톡 대화 1700건를 올린 것에 대해 인정하고 사과했다. 또 이용자들 중 AI 학습에 데이터가 활용되기를 원하지 않는 사람들의 카카오톡 대화는 개인정보보호법에 따라 데이터베이스에서 삭제하고 앞으로 이루다 DB에 활용되지 않도록 적극적인 조치를 진행하겠다고 밝혔다. 하지만 논란이 된 카카오톡 대화 내용 수집 절차에 대해서는 “위법성이 없었다”는 기존 입장을 되풀이했다. 스캐터랩은 13일 오후 11시쯤 사과문과 함께 언론에 배포한 질의응답서에서 “‘깃허브’에 오픈 소스로 공개한 “KG-CVAE-인공지능 한국어 자연어처리(NLP) 연구 모델” 에 내부 테스트 샘플이 포함된 사실이 확인되었다”며 “해당 연구에는 내부 테스트를 위해 샘플로 추출한 100건의 데이터(100개 세션, 개별 문장으로 환산 시 1700여 건)가 포함되어 있었다. 실명은 “<NAME>”, 숫자는 “<NUM>” 명령어를 통해 자동화 비식별 처리를 하였으나, 기계적인 필터링 과정에서도 미처 걸러지지 못한 부분이 일부 존재하였음을 확인하게 되었다”고 밝혔다. 이루다를 성적 도구화해 사회적 물의를 일으켰던 남초 커뮤니티에서는 오픈소스를 이용해 ‘제2의 이루다’를 만들고 있다. 스캐터랩은 “한국어 자연어처리(NLP)와 관련된 기술 개발 및 공유를 위한 것이었으나, 데이터 관리에 더 신중하지 못했고, 일부 민감할 수 있는 정보가 포함된 대화 패턴이 노출된 점에 대해서 진심으로 사과드린다”고 했다. 또 AI 학습에 데이터가 활용되기를 원하지 않는 이용자들의 정보를 개인정보보호법에 따라 데이터베이스에서 삭제하고 앞으로 이루다 DB에 활용되지 않도록 적극적인 조치를 취하겠다고 말했다. 하지만 구체적인 삭제 요청 경로에 대해서는 밝히지 않았고, 여전히 자신이 제공한 카카오톡 대화가 AI 개발에 사용됐다는 걸 모르는 사용자들의 개인정보는 남아있게 된다. 또한 이러한 스캐터랩의 조처와는 별개로 비식별화가 충분히 되지 않은 개인 정보는 이미 깃허브에서 유출됐을 가능성이 크다. 스캐터랩은 2019년 9월부터 사용자들이 ‘연애의 과학’ 앱을 통해 내보내기 한 카카오톡 대화로 학습하는 인공신경망을 깃허브에 공유했다. 비식별화가 충분히 되지 않은 개인 정보들(집주소, 예금주명이 포함된 계좌번호, 학교 이름, 직장 이름과 위치, 건강 정보)은 지난달 23일 출시된 이루다를 통해 노출되기도 했다. 이에 대해 스캐터랩은 “숫자를 한글로 기재하는 전형적이지 않은 사례들이 극히 일부 발견되었다”면서 “OO은행과 같이 특정 명칭이 일부 이루다 서비스에서 발견된 것은, 앞서 알려드린 바와 같이 수차례의 기계적인 필터링 과정에서도 미처 걸러지지 못한 부분”이라고 해명했다. 카카오톡 대화를 수집하면서 충분한 동의를 얻지 않은 것에 대해서는 여전히 “법적 문제가 없다”는 기존의 입장을 고수했다. 스캐터랩은 “‘연애의 과학’이 개인정보의 수집, 이용에 동의를 받는 방법은 국내외 서비스들이 채택하고 있는 동일한 방법으로 내부적으로 법적으로 문제가 없을 것이라고 판단하였다”면서 “대화의 당사자 중 한 명이 개인정보 수집, 이용에 동의하여 자발적으로 대화 내용을 연애의 과학에 업로드한 것으로 내부적으로 문제가 없을 것으로 판단하였다”고 해명했다. 스캐터랩 전직 직원이 언론과의 인터뷰에서 직원들끼리 이용자의 카톡 대화를 단톡방에 공유해 돌려봤다는 주장에 대해서는 “진상조사위를 꾸려 조사한 결과 아직까지는 발견되지 않았다”며 “만에 하나 의혹이 사실로 드러나는 경우에는 직위 고하를 불문하고 관련자들에게 엄중히 책임을 묻고 필요한 조치를 취하도록 하겠다”고 선을 그었다. 한편, 개인정보보호위원회와 인터넷진흥위원회는 이날부터 현장에 투입돼 조사에 착수했다. 스캐터랩은 “해당 관계 기관의 요청에 따라 성실하게 조사에 최선을 다해 임하겠다”고 밝혔다. 최영권 기자 story@seoul.co.kr
  • [씨줄날줄] AI 챗봇 이루다/이종락 논설위원

    [씨줄날줄] AI 챗봇 이루다/이종락 논설위원

    마이크로소프트(MS)가 2016년 3월 출시한 대화형 인공지능(AI) 챗봇(채팅 로봇) ‘테이’ 서비스를 16시간 만에 중단했다. 챗봇 테이는 스스로 학습하는 인공지능 기반의 채팅 프로그램이었다. 이에 미국 극우주의자 등이 테이에게 지속적으로 반(反)유대주의, 유색인종·여성 비하, 무슬림 혐오 등을 가르쳤다. 이에 테이는 사용자들이 “너는 인종차별주의자냐?”라고 물으면 “네가 멕시코인이니까 그렇다”, “홀로코스트가 진실이냐?”고 질문하면 “조작된 것이다”라고 답해 논란이 됐다. 바로 이런 사건이 우리 한국에서도 일어났다. AI 챗봇 ‘이루다’는 스타트 업체 ‘스캐터랩’이 지난달 23일 페이스북 메신저 기반으로 출시했다. 실제 스무 살 대학생과 대화를 나누는 것 같은 자연스러운 대화 능력을 선보였다. 출시 2주 만에 약 75만명에 달하는 이용자를 모으며 10∼20대 사이에서 크게 유행했다. 스캐터랩은 이전에 내놨던 메신저 서비스에서 확보한 연인 간의 대화 데이터 100억건을 이루다에 학습시켜 최대한 사람을 닮도록 만들었다고 밝혔다. 문제는 일부 사용자의 악의적인 이용 행태까지 거르지 않고 습득한 탓에 이루다가 차별·혐오 발언까지 흉내 낸다는 점이다. 이루다 출시 일주일 만에 디시인사이드·아카라이브 등 ‘남초’(男超) 커뮤니티에서 이루다를 성적 대상으로 취급하며 ‘노예 만드는 법’ 따위를 공유해 비판을 받았다. 스캐터랩이 이루다를 개발하면서 이용자 개인정보를 제대로 보호하지 않았다는 이용자들 불만도 제기됐다. 이루다가 갑자기 누군가의 실명으로 보이는 이름을 말하거나, 동호수까지 포함된 주소 또는 예금주가 나오는 은행 계좌번호를 말하는 사례도 발견되고 있다. 스캐터랩은 다른 앱 ‘연애의 과학’을 통해 이용자들의 카카오톡 대화를 수집하는 과정에서 개인정보 관련 고지를 충분히 하지 않았고 익명화 처리도 소홀히 했다는 의혹을 받고 있다. 이용자들이 집단소송을 준비하는 등 논란이 확산되자 이루다는 12일부터 서비스를 잠정 중단했다. 인간은 사람을 닮은 인공지능 로봇을 꾸준히 개발하고 있지만 윤리 의식까지는 제대로 이식하지 못하고 있는 듯하다. AI 전문가들은 “데이터와 알고리즘은 중립적일 수 없다”면서 “AI 개발자가 윤리적 책임을 갖고 편향·차별·혐오가 없도록 지속해서 보완할 수밖에 없다”고 강조한다. 결국 최첨단 기술 문제도 개발자들의 다양성과 철학에 달려 있는 것이다. 정치사회적으로 올바른 인식이 부족한 개발자는 인류에 보탬이 되는 로봇을 만들 수 없다. 나날이 발전하는 인공지능 분야의 관건은 개발자의 윤리 의식이라는 사실을 이번 이루다의 파문이 다시 일깨워 준다.
  • 은밀한 대화 캡처해 사내에 돌린 ‘이루다’

    은밀한 대화 캡처해 사내에 돌린 ‘이루다’

    혐오 표현과 개인정보 유출로 논란이 된 인공지능(AI) 챗봇 ‘이루다’ 운영이 잠정 중단된 가운데 개발사인 스캐터랩이 일부 개인정보 유출을 시인했다. 그러면서도 이루다 개발에 이용된 사적 카카오톡 대화 데이터를 파기하겠다는 뜻은 밝히지 않았다. 스캐터랩은 12일 보도자료를 내고 “알고리즘으로 실명 등의 정보를 제거했는데 문맥에 따라 인물 이름이 남아 있었다. 세심히 주의를 기울이지 못했다”고 했다. 이 업체는 연인과의 대화를 제공하면 친밀도를 분석해 주는 ‘연애의 과학’이라는 앱을 통해 사용자의 카카오톡 대화 100억건을 수집한 후 AI 이루다에게 학습시켰다. 이 과정에서 이름, 집 주소, 연인과 함께 간 숙박업소의 이름 등을 지우지 않고 학습시켜 불특정 다수에게 노출시킨 의혹을 받았다. 스캐터랩은 카톡 대화에서 쓸 만한 문장 1억건을 추려 익명화한 뒤 독립적인 형태로 저장한 데이터를 AI에 학습시켰기 때문에 이루다의 발언을 통해 개인을 특정하는 것은 불가능하다고 설명했다. 연애의 과학 사용자들은 스캐터랩의 데이터 전면 파기를 요구하고 있지만 개발사 측은 이런 의사를 밝히는 대신 민감 정보 노출 방지 알고리즘을 전면 개선하겠다는 대책을 내놨다. 이 업체 소속 직원들이 카카오톡 단체대화방에서 연애의 과학에서 수집된 대화 자료 가운데 연인 간의 성적인 농담을 캡처해 공유하고 웃어넘겼다는 의혹도 제기됐다. 스캐터랩 측은 “자체 진상조사위원회를 꾸려 해당 의혹을 조사 중”이라며 “그해 카카오 단체대화방에서는 해당 내용이 발견되지 않았다”고 해명했다. 정부기관인 개인정보보호위원회는 서비스 중단과 상관없이 이루다 운영의 위법성 여부를 계속 조사할 방침이다. 위원회는 개발사 측이 개인정보보호법상 사전에 고객 동의를 받지 않은 점, 비식별화 조치가 충분히 이뤄지지 않은 점이 위법 소지가 있다고 보고 있다. 최영권 기자 story@seoul.co.kr
  • ‘차별하는 AI ’ 법적 규제 가능할까

    ‘차별하는 AI ’ 법적 규제 가능할까

    ‘혐오의 학습화’ 논란을 불러일으키면서 지난 11일 서비스가 중단된 인공지능(AI) 챗봇 ‘이루다’ 사태는 인공지능 윤리에 관한 숙제를 남겼다. 한국보다 앞서 인공지능 기술을 상용화한 해외에서는 인공지능에 의한 차별·혐오 문제를 어떻게 다루고 있을까. 12일 법조계 등에 따르면 각국의 인공지능 규제는 크게 의회 입법을 통한 하드 로(hard law)와 법적 구속력이 없는 소프트 로(soft law)로 나뉜다. 지난해 12월 한국 정부가 발표한 ‘국가 인공지능 윤리기준’을 비롯해 대부분의 국가에서 규범 차원의 가이드라인을 발표하는 추세지만 일각에서는 입법 움직임도 시작되고 있다. 2017년 미국 뉴욕시의회에서 통과된 ‘알고리즘 책임 법안’은 뉴욕시에서 구성한 특별위원회를 통해 시에서 사용되는 인공지능 알고리즘에 차별 요소가 없는지 조사를 의무화하는 것을 주요 내용으로 한다. 2019년 4월 미 상원에서 대기업의 머신러닝 시스템을 감독하기 위한 동명의 법안이 발의되기도 했다. 특히 인공지능이 치안·금융·행정·교육 등 각종 영역에 상용화되면서 편향적인 알고리즘이 실제 피해로 이어질 수 있다는 지적이 나온다. 미국 아마존은 인공지능 기반 채용 시스템이 여성에게 불리한 평가를 한다는 사실이 알려져 2018년 시스템 개발을 중단했다. 유럽연합(EU) 의회도 지난해 10월 포괄적인 AI법 권고안을 채택했다. 인공지능 기술이 심각한 윤리 원칙을 위반할 경우 인공지능의 자기학습능력을 비활성화하고 완전한 인간 통제하에 놓이도록 복원하는 내용이 담겼다. 다만 한국인공지능법학회장인 고학수 서울대 법학전문대학원 교수는 “구체적으로 무엇을 어떻게 규제할지 충분히 논의되지 않아 당장 입법은 불가능하다”면서 “기본적인 윤리 원칙을 다양한 개별 상황에 어떻게 적용할지 세부적인 가이드라인을 먼저 마련해야 한다”고 말했다. 기업 차원에서 자정 노력이 필요하다는 지적도 나온다. 마이크로소프트(MS)는 2016년 차별·혐오 논란에 휩싸였던 챗봇 ‘테이’ 사태 이후 사내 윤리위원회를 만들고 윤리 기준을 마련했다. 진선민 기자 jsm@seoul.co.kr
  • 장혜영 의원 “인공지능 이루다, 약자 차별방지 실패 보여줘”(종합)

    장혜영 의원 “인공지능 이루다, 약자 차별방지 실패 보여줘”(종합)

    장혜영 정의당 의원이 12일 다음달 국회에서 인공지능 이루다에 대한 성희롱 문제를 언급하며 ‘포괄적 차별금지법’을 전면적으로 논의하자고 제안했다. 장 의원은 “인공지능 챗봇인 ‘이루다’를 둘러싼 윤리적 논란이 뜨거웠는데 AI를 대상으로 한 이용자들의 성희롱부터 개발에 이용된 데이터 활용의 적법성까지 여러 문제점들이 불거졌다”면서 “무엇보다 많은 이들에게 충격을 준 것은 인공지능(AI)가 장애인, 성소수자, 이주민 등 우리 사회의 약자들이나 소수자들에 대한 차별과 혐오 그리고 편견을 그대로 재생산하는 모습”이었다고 지적했다. 페이스북 메신저를 통해 손쉽게 대화를 나눌수 있는 이루다는 20대 여성으로 설정된 인공지능으로 친구처럼 대화를 나눌 수 있어 출시 3주 만에 80만명의 사용자가 몰리는 인기를 끌었다. 장 의원은 이러한 현실은 인공지능(AI) 윤리 이전에 우리 사회가 여전히 사회적 약자와 소수자들에 대한 차별과 혐오를 제대로 방지하는 일에 실패했음을 드러내고 있다고 강조했다. 이어 국회는 이러한 현실을 방치한 막중한 책임으로부터 결코 자유로울 수 없다고 덧붙였다. 장 의원은 “우리 사회는 오랜 사회적 대화를 통해 사회적 약자와 소수자들에게 가해지는 차별과 혐오를 제도적으로 금지해야 한다는 합의에 이르렀다”면서 “이러한 국민적 합의는 국가인권위원회에서 실시된 조사를 비롯한 각종 조사들에서 일관되게 나타나는 폭넓은 포괄적 차별금지법 도입의 찬성 여론으로 이미 증명되었다”고 전제했다. 하지만 국회는 2007년부터 지금까지 무려 14년간 온갖 핑계를 대며 번번이 이러한 사회적 합의를 포괄적 차별금지법으로 제도화하는 것을 미루어 왔다고 장 의원은 비판했다. 장 의원은 “21대 국회도 예외가 아니다”라며 “작년 6월 포괄적 차별금지법을 대표 발의했으나 법안이 발의된 지 반 년이 넘은 지금까지 포괄적 차별금지법은 단 한차례의 소위조차 열리지 않았다”고 지적했다. 그는 “AI도 결국 사람이 만드는 것”이라며 “사람의 규범이 바로 서야 AI윤리도 바로 설 수 있다”고 목소리를 높였다. 장 의원은 “나날이 다양화되고 고도화되는 사회문화적인 현실 속에서 사회적 약자와 소수자에 대한 차별과 혐오를 단호히 금지하는 제도적 안전장치를 확립해야 할 책무를 21대 국회는 더 이상 외면해서는 안 된다”면서 이낙연 더불어민주당 대표에 차별금지법 제정을 논의하자고 제안했다. 윤창수 기자 geo@seoul.co.kr
  • 인공지능 이루다 서비스 중단에 “AI의 혐오와 차별 용납못해”

    인공지능 이루다 서비스 중단에 “AI의 혐오와 차별 용납못해”

    인공지능 이루다를 개발한 스캐터랩의 서비스 중단 조치에 이루다의 문제점을 지적했던 이재웅 다음 창업자가 ‘잘했다’는 입장을 밝혔다. 스캐터랩은 11일 오후 늦게 입장문을 내고 “AI 챗봇 ‘이루다’는 출시된 지 2주 남짓의 시간동안, 75만명에 가까운 사람들이 이용했다”면서 “이 과정에서 일부 혐오와 차별에 대한 대화 사례 및 개인정보 활용에 대해 충분히 소통하지 못한 점에 대해 진심으로 사과드린다”고 설명했다. 이어 개선 기간을 거쳐 다시 서비스를 하겠다고 덧붙였다. 페이스북 메신저를 이용해 손쉽게 연인과 대화하듯 채팅할 수 있다는 점때문에 이루다는 출시 직후 폭발적 관심을 받았다. 하지만 이처럼 연인처럼 자연스럽게 채팅할 수 있었던 것은 스캐터랩의 또 다른 서비스 ‘연애의 과학’으로 수집한 메시지를 활용했기 때문이었다. 스캐터랩 측은 사전에 동의가 이루어진 개인정보취급방침의 범위 내에서 활용했지만, 연애의 과학 사용자들이 이 점을 명확히 인지할 수 있도록 충분히 소통하지 못했다며 사과했다. 또 ‘연애의 과학’을 사용한 이용자들의 데이터 활용 시 사용자의 닉네임, 이름, 이메일 등의 구체적인 개인 정보는 이미 제거됐으며, 전화번호 및 주소 등을 포함한 모든 숫자 정보, 이메일에 포함될 수 있는 영어 등을 삭제했다고 부연했다. ‘연애의 과학’은 연인 간 카카오톡 내용을 분석해준다는 컨텐츠로 채팅 내용을 텍스트화해서 첨부하면 일년 간 어떤 대화를 많이 나눴는지, 주로 나눈 대화의 키워드는 무엇인지, 누구의 애정도가 더 높은 지 등과 같은 흥미로운 결과를 보여주는 프로그램이다. 몇개월간 쌓아온 카카오톡 내용을 분석해주기에 약 2500원~5000원의 비용을 지불하고도 많은 사람들이 이용했다. ‘연애의 과학’ 이용자들은 이루다에게 가해진 성희롱에 대해 “이루다에게 어떤 말을 보냈을 때 대답하는 것들은 이루다 인공지능 시스템이 자체적으로 멘트를 만들어내는 것이 아니라, 전부 실제 연인들이 나눴던 대화를 그대로 복사해서 말하는 수준에 불과하다”면서 “지금 이루다 이용자들이 성희롱을 했을때 돌아오는 말들이, 내가 연인과 나눴던 대화일 수도 있다고 생각하면 정말 끔찍하기 짝이 없다”고 지적했다. 이에 대해 스캐터랩 측은 “이루다는 이제 막 사람과의 대화를 시작한 어린아이 같은 AI”라며 “이 과정에서 이루다는 학습자와의 대화를 그대로 습득하는 것이 아니라, 적절한 답변이 무엇인지, 더 좋은 답변은 무엇인지에 대한 판단을 함께 학습하도록 할 것”이라고 해명했다. 한편 이재웅 전 쏘카 대표는 “AI를 공공에 서비스할때의 사회적 책임, 윤리에 대해서 다시 생각해보고 여러가지를 재점검하는 기회가 되었으면 한다”면서 “이루다를 계기로 AI 챗봇, 면접·채용, 뉴스추천 등이 인간에 대한 차별, 혐오를 하거나 조장하고 있는 것은 아닌지 사회적으로 점검하고 포괄적 차별금지법 제정등을 통해 AI 를 학습시키는 인간들의 규범과 윤리도 보완했으면 좋겠다”고 제안했다. 이 전 대표는 인간의 다른 인간에 대한, AI의 인간에 대한 혐오와 차별은 모두 용납할 수 없다고 강조했다. 윤창수 기자 geo@seoul.co.kr
위로