찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • AI 활용
    2026-04-01
    검색기록 지우기
  • 요동
    2026-04-01
    검색기록 지우기
  • 개미
    2026-04-01
    검색기록 지우기
  • 희생
    2026-04-01
    검색기록 지우기
  • 세미나
    2026-04-01
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
11,175
  • ‘이루다’ 논란 재발 막는다…AI 이용자 교육·업체 컨설팅 지원

    인공지능(AI) 챗봇 서비스 ‘이루다’의 AI 윤리 및 개인정보보호 논란을 계기로 방송통신위원회가 AI 이용자와 사업자에게 교육과 컨설팅을 지원하고 AI 윤리규범을 구체화하는 등 정책기반을 마련하기로 했다. 방송위는 14일 사람 중심의 AI 서비스가 제공되고, AI 서비스가 활용되는 과정에서 이용자 보호원칙이 지켜질 수 있도록 각종 지원사업과 제도개선을 추진할 계획이라고 밝혔다. 방통위는 AI 서비스에서 이용자 보호를 가장 큰 원칙으로 삼아 이용자 교육과 사업자 컨설팅, 제도개선 등을 추진할 방침이다. 올해부터 이용자에게 AI 서비스의 비판적 이해 및 주체적 활용에 대해 교육을 한다. 이용자가 AI 서비스에 활용된 알고리즘의 편향성을 파악하고, 그에 따른 문제를 최소화해 서비스를 이용하는 방안 등을 포함한다. 내년부터는 AI 윤리교육 지원 대상을 이용자에서 사업자로 확대해 AI 역기능 등 위험관리 컨설팅을 지원하는 사업을 추진할 예정이다. 방통위는 AI 서비스 이용자 보호를 위해 규범과 제도도 구체화한다. 2019년 11월 마련된 ‘이용자 중심의 지능정보사회를 위한 원칙’을 토대로, 이를 실천할 구체적 사례와 방법 등을 업계와 공유할 계획이다. 사업자의 규제 부담 및 AI 서비스의 혁신 저해를 최소화하고자 민간의 모범 사례를 적극적으로 발굴해 실행 지침의 토대로 삼을 방침이다. 중장기적으로는 이용자에게 피해를 일으킨 AI 서비스의 책임 소재 및 권리구제 절차 등을 포괄하도록 기존 법체계를 정비하기로 했다. 세종 류찬희 선임기자 chani@seoul.co.kr
  • [유용하 기자의 사이언스톡] AI 기술은 사회적 책임 예외 대상일까

    [유용하 기자의 사이언스톡] AI 기술은 사회적 책임 예외 대상일까

    37년 전인 1984년, 놀라운 상상력을 보여주는 SF영화가 개봉했습니다. 바로 ‘터미네이터’ 입니다. 스스로 생각을 할 수 있게 된 인공지능(AI) 시스템이 인류를 멸망시키려 하고 인간은 이를 막기 위해 고군분투한다는 내용을 이리저리 엮어 관객들의 시선을 사로 잡았습니다. 전 세계적으로 흥행한 이 영화는 사람들의 마음 속에 AI에 대한 막연한 불안감을 갖게 만들기도 했습니다. 이 때문에 AI 관련 논의가 있을 때마다 터미네이터는 소환되곤 합니다. 1950년대에 AI 개념이 등장하고 오랜 잠복기를 지나 2000년대 들어 관련 연구가 폭발적으로 증가하면서 기술 발전 속도는 상상을 초월하고 있습니다. 실제로 최근 몇 년 사이에 다양한 형태의 AI 기술이 폭넓게 활용되고 있습니다. 연구자들이 AI를 포함해 과학기술을 연구하는 목적은 인류가 좀 더 나은 삶을 살도록 하기 위한 것입니다. 미국 캘리포니아 버클리대 레드우드신경과학연구소 설립자 제프 호킨스 박사도 ‘생각하는 뇌, 생각하는 기계’라는 저서에서 “AI 같은 두뇌형 기계를 개발하는 것은 인간의 감각으로는 인식하기 어렵고 빠르게 계산하기 어려운 문제들을 손쉽게 해결함으로써 인간의 감각과 지적능력을 확장하기 위한 것”이라고 말했습니다. 그렇지만 인간이 만드는 기술과 시스템은 정도의 차이만 있을 뿐 모두 윤리적 문제를 갖고 있습니다. AI도 마찬가지입니다. 2016년 ‘인공지능과 2030년의 삶’이라는 분석보고서를 작성한 미국 스탠퍼드대 ‘AI 100’ 연구단은 “영화 ‘마이너리티 리포트’에서처럼 범죄예방 프로그램을 비롯해 다양한 형태의 인공지능 기술은 알고리즘을 설계한 개발자의 편견이 개입할 수 있으며 프라이버시 침해에 대한 우려도 크다”라고 분명히 지적했습니다. 스위스 로잔연방공과대학 컴퓨터·커뮤니케이션공학과 연구팀 역시 AI를 활용한 사회관계망서비스(SNS)의 맞춤형 뉴스피드 알고리즘은 개인화되고 편향된 데이터를 기반으로 서비스를 제공하기 때문에 세계를 바라보는 시각과 가치관을 왜곡시키거나 편협하게 만들 수 있으며 사회 전체에 악영향을 미칠 수 있다는 연구결과를 내놨습니다. 이런 문제를 해결하기 위해 어떤 노력을 하느냐에 따라 기술의 최종 성패가 좌우되는 경우가 많습니다. 최근 AI챗봇 ‘이루다’가 혐오표현 학습과 개인정보 노출 등 문제로 운영이 중단됐습니다. 이에 대해 AI 기술 고도화를 위해 어쩔 수 없는 시행착오라던가 이번 사건이 혁신을 가로막아서는 안된다던가, 기술 문제가 아니라 혐오 표현이 일상화된 사회가 문제의 근원라는 목소리도 나왔습니다. 그런 발언의 당사자들이 인식하고 있는지는 모르겠지만 그 이면에는 기술을 사용하는 사회와 대중에게 문제가 있는 것이지 과학기술 자체는 문제가 없다는 기술의 가치중립성 논리가 숨어있습니다. 다양한 분야의 연구자들이 과학기술의 가치중립성은 환상이라고 지적하고 있습니다. 그렇기 때문에 모든 과학기술은 사회적 책임을 가져야 한다는 것입니다. 과학기술의 사회적 책임은 대학 교수나 많은 연구비를 쓰는 연구자들에게만 해당되는 것이 아닙니다. 모든 과학기술과 혁신의 중심에는 인간이 있어야 합니다. 사회적 책임을 도외시하고 인간이 소외된 혁신과 기술은 ‘야수’로 변하기 십상이라는 점을 분명히 알고 있어야 하지 않을까요. edmondy@seoul.co.kr
  • 어린이집에 동화 구연 로봇… 디지털 격차 줄이는 관악

    어린이집에 동화 구연 로봇… 디지털 격차 줄이는 관악

    “로봇이 말도 하고 춤도 추고 노래도 해요.” “로봇이 선생님처럼 동화를 읽어 줬어요.” 인공지능(AI) 로봇 ‘리쿠’를 만난 아이들의 말이다. 서울 관악구가 어린이집 원아들을 대상으로 교육로봇 리쿠를 활용한 어린이 구연동화 교육을 시범 운영해 큰 호응을 얻고 있다고 13일 밝혔다. 이 사업은 지난해 4월 선정된 한국로봇산업진흥원 주관 ‘2020년 로봇활용 사회적 약자 편익 지원 공모사업’의 하나다. 어린이집 원아들에게 로봇 체험 기회를 제공하고 디지털 정보 격차도 줄이기 위해 시행됐다. 1월 시범운영 기간 관악구청 직장어린이집과 구립문성어린이집에서 소규모로 교육이 이뤄진다. 구는 시범운영 결과 만족도가 높으면 올해 지역 내 어린이집을 대상으로 확대 운영할 계획이다. 교육은 어린이집에 로봇 및 보조장비를 배송하고 어린이집에서 자체적으로 운영할 수 있도록 지원한다. 모두 6개의 구연동화 콘텐츠를 3일 동안 아이들에게 들려 준다. 강사로 나선 AI 로봇 리쿠가 동화 구연 전 어린이들과 대화를 주고받고, 같이 춤추고 노래하는 등 엔터테인먼트 기능도 수행해 아이들이 낯선 로봇과 친밀해질 수 있도록 할 예정이다. 교육에 대한 자세한 사항은 관악구 스마트정보과(879-5395)로 문의하면 된다. 박준희 관악구청장은 “코로나19 확산으로 인한 어린이 돌봄 및 교육의 사각지대가 발생하지 않도록 하기 위해 로봇을 활용한 어린이 대상 구연동화 교육을 추진했다”며 “앞으로도 4차 산업혁명 시대 변화에 발 빠르게 대응해 주민 삶의 질을 향상시키는 스마트도시 관악 조성을 위해 더욱 노력하겠다”고 말했다. 윤수경 기자 yoon@seoul.co.kr
  • “100억건 개인정보 침해가 빚어낸 참사”…‘이루다’ 개발사, 결국 사과(종합)

    “100억건 개인정보 침해가 빚어낸 참사”…‘이루다’ 개발사, 결국 사과(종합)

    “개인정보 보호 체계 구축해 재발 방지”이용자 실명 깃허브 유출도 인정이용자들 “카톡 데이터 파기하라” 인공지능(AI) 챗봇 ‘이루다’ 개발사 스캐터랩이 개인정보 유출 의혹에 관한 조사에 성실히 임하겠다면서 고객에게 사과했다. 스캐터랩 측은 13일 사과문에서 “개인정보 처리 관련 관계기관 조사에 성실하게 임하고 있다. 서비스를 이용해주신 모든 이용자분들께 진심으로 사과드린다”고 밝혔다. 스캐터랩이 ‘사과문’을 발표한 것은 논란이 불거진 지 닷새 만이다. 스캐터랩은 “논란이 되는 모든 사항에 대해 진상조사위원회를 구성해 철저히 조사하는 한편, 외부전문가를 포함한 상시 개인정보 보호 체계를 구축하고 재발 방지를 위한 강화된 보안 교육을 실시하는 등 노력하겠다”며 “이번 사안으로 인해 인공지능 산업계에 계신 여러 동료 기업들, 연구자분들, 파트너들께도 누를 끼치지 않기를 바란다. AI 윤리에 관한 사회적 합의에 부합할 수 있도록 노력하겠다”고 덧붙였다. 스캐터랩은 연애 분석 앱 ‘연애의 과학’으로 이용자들의 카카오톡 데이터를 수집해 이루다 개발에 썼는데, 이 과정에서 개인정보보호법을 어겼다는 의혹을 받고 있다. 연애의 과학 앱 이용자와 이용자의 연인에게 개인정보 이용·활용 동의를 제대로 받지 않은 점, 데이터를 이루다 재료로 쓰는 과정에 익명화(비식별화)를 제대로 하지 않은 점 등이 핵심이다.연인들 대화, 사내 메신저에 부적절하게 공유했다는 의혹 스캐터랩은 이루다 관련 개발 기록을 오픈소스 공유 플랫폼 ‘깃허브’에 공유했는데 여기서도 익명화를 제대로 하지 않은 것으로 밝혀졌다. 스캐터랩은 사과문과 함께 배포한 자료에서 “깃허브에 공개한 오픈소스에 내부 테스트 샘플이 포함된 사실이 확인됐다. 실명을 자동화 비식별 처리했는데, 필터링 과정에 걸러지지 않은 부분이 일부 존재했다”며 “데이터 관리에 신중하지 못했다. 민감할 수 있는 정보가 노출된 점에 진심으로 사과드린다. 해당 깃허브 게시물은 즉시 비공개 처리했다. 대화를 나눈 사람들의 관계나 생활 반경이 추정될 여지는 전혀 없다”고 해명했다. 스캐터랩은 개인정보 이용 동의를 소홀히 받았다는 의혹에 관해서는 “연애의 과학이 동의를 받은 절차가 법적으로 문제가 없을 것이라고 판단했다”며 “이용자분들과 충분히 소통하지 못한 점은 깊이 반성한다”고 거듭 사과했다. 스캐터랩은 “데이터가 AI에 활용되기를 원하지 않는 분들은 DB에서 삭제하실 수 있다”는 입장이지만, 이용자들은 스캐터랩이 카톡 데이터를 전량 파기해야 한다고 목소리를 높이고 있다.“100억 건의 개인정보 침해가 빚어낸 참사” 연애의 과학 이용자들은 스캐터랩이 개인정보를 유출했다면서 집단소송을 준비 중이다. 이날 개인정보보호위원회와 한국인터넷진흥원(KISA)은 서울 성동구 스캐터랩 사무실을 방문해 개인정보 유출 의혹에 관한 본격적인 조사에 착수했다. 진보네트워크센터와 민변 디지털정보위원회, 사단법인 정보인권연구소, 참여연대 등에 따르면 ‘이루다’ 사태는 “100억 건의 개인정보 침해가 빚어낸 참사”라며, 신뢰할 수 있는 인공지능(AI) 세상을 만드려면 기업의 자율규제만으로는 안된다는 입장을 밝혔다. 진보넷 등은 “이루다는 사용자들의 성희롱과 폭언 등의 남용, 혐오표현에 대한 미온적 대응 등 보호받아야 할 사회적 가치를 훼손하는 알고리즘은 물론이고, 개인의 사적인 대화나 개인정보가 심각하게 수집되고 유출된 것으로 드러나 당혹감을 안겨주고 있다”고 지적했다. 이어 “국내 자본뿐 아니라 해외에서도 많은 투자를 받은 이 회사의 이번 논란을 해외 시장과 경쟁하려는 국내 청년 스타트업의 불가피한 시행착오로 포장하려는 일부 언론의 보도에 대해 우려한다”면서 “이루다 논란은 기업의 인공지능 제품이 일으킬 수 있는 문제의 한 단면일 뿐이며 이에 대한 대책을 기업 자율에만 맡겨둘 수 없다. 구체적이고 명료한 법적 규범을 마련할 것을 촉구한다”고 부연했다.김채현 기자 chkim@seoul.co.kr
  • 이루다 개발사 “원하는 유저에 한해 개인정보 삭제하겠다” 5일만에 사과문

    이루다 개발사 “원하는 유저에 한해 개인정보 삭제하겠다” 5일만에 사과문

    인공지능(AI) 챗봇 서비스 이루다의 개발사 스캐터랩이 지난해 오픈소스 공유 플랫폼 깃허브에 연애의 과학을 통해 수집한 카카오톡 대화 1700건를 올린 것에 대해 인정하고 사과했다. 또 이용자들 중 AI 학습에 데이터가 활용되기를 원하지 않는 사람들의 카카오톡 대화는 개인정보보호법에 따라 데이터베이스에서 삭제하고 앞으로 이루다 DB에 활용되지 않도록 적극적인 조치를 진행하겠다고 밝혔다. 하지만 논란이 된 카카오톡 대화 내용 수집 절차에 대해서는 “위법성이 없었다”는 기존 입장을 되풀이했다. 스캐터랩은 13일 오후 11시쯤 사과문과 함께 언론에 배포한 질의응답서에서 “‘깃허브’에 오픈 소스로 공개한 “KG-CVAE-인공지능 한국어 자연어처리(NLP) 연구 모델” 에 내부 테스트 샘플이 포함된 사실이 확인되었다”며 “해당 연구에는 내부 테스트를 위해 샘플로 추출한 100건의 데이터(100개 세션, 개별 문장으로 환산 시 1700여 건)가 포함되어 있었다. 실명은 “<NAME>”, 숫자는 “<NUM>” 명령어를 통해 자동화 비식별 처리를 하였으나, 기계적인 필터링 과정에서도 미처 걸러지지 못한 부분이 일부 존재하였음을 확인하게 되었다”고 밝혔다. 이루다를 성적 도구화해 사회적 물의를 일으켰던 남초 커뮤니티에서는 오픈소스를 이용해 ‘제2의 이루다’를 만들고 있다. 스캐터랩은 “한국어 자연어처리(NLP)와 관련된 기술 개발 및 공유를 위한 것이었으나, 데이터 관리에 더 신중하지 못했고, 일부 민감할 수 있는 정보가 포함된 대화 패턴이 노출된 점에 대해서 진심으로 사과드린다”고 했다. 또 AI 학습에 데이터가 활용되기를 원하지 않는 이용자들의 정보를 개인정보보호법에 따라 데이터베이스에서 삭제하고 앞으로 이루다 DB에 활용되지 않도록 적극적인 조치를 취하겠다고 말했다. 하지만 구체적인 삭제 요청 경로에 대해서는 밝히지 않았고, 여전히 자신이 제공한 카카오톡 대화가 AI 개발에 사용됐다는 걸 모르는 사용자들의 개인정보는 남아있게 된다. 또한 이러한 스캐터랩의 조처와는 별개로 비식별화가 충분히 되지 않은 개인 정보는 이미 깃허브에서 유출됐을 가능성이 크다. 스캐터랩은 2019년 9월부터 사용자들이 ‘연애의 과학’ 앱을 통해 내보내기 한 카카오톡 대화로 학습하는 인공신경망을 깃허브에 공유했다. 비식별화가 충분히 되지 않은 개인 정보들(집주소, 예금주명이 포함된 계좌번호, 학교 이름, 직장 이름과 위치, 건강 정보)은 지난달 23일 출시된 이루다를 통해 노출되기도 했다. 이에 대해 스캐터랩은 “숫자를 한글로 기재하는 전형적이지 않은 사례들이 극히 일부 발견되었다”면서 “OO은행과 같이 특정 명칭이 일부 이루다 서비스에서 발견된 것은, 앞서 알려드린 바와 같이 수차례의 기계적인 필터링 과정에서도 미처 걸러지지 못한 부분”이라고 해명했다. 카카오톡 대화를 수집하면서 충분한 동의를 얻지 않은 것에 대해서는 여전히 “법적 문제가 없다”는 기존의 입장을 고수했다. 스캐터랩은 “‘연애의 과학’이 개인정보의 수집, 이용에 동의를 받는 방법은 국내외 서비스들이 채택하고 있는 동일한 방법으로 내부적으로 법적으로 문제가 없을 것이라고 판단하였다”면서 “대화의 당사자 중 한 명이 개인정보 수집, 이용에 동의하여 자발적으로 대화 내용을 연애의 과학에 업로드한 것으로 내부적으로 문제가 없을 것으로 판단하였다”고 해명했다. 스캐터랩 전직 직원이 언론과의 인터뷰에서 직원들끼리 이용자의 카톡 대화를 단톡방에 공유해 돌려봤다는 주장에 대해서는 “진상조사위를 꾸려 조사한 결과 아직까지는 발견되지 않았다”며 “만에 하나 의혹이 사실로 드러나는 경우에는 직위 고하를 불문하고 관련자들에게 엄중히 책임을 묻고 필요한 조치를 취하도록 하겠다”고 선을 그었다. 한편, 개인정보보호위원회와 인터넷진흥위원회는 이날부터 현장에 투입돼 조사에 착수했다. 스캐터랩은 “해당 관계 기관의 요청에 따라 성실하게 조사에 최선을 다해 임하겠다”고 밝혔다. 최영권 기자 story@seoul.co.kr
  • 까스텔바작, AI·빅데이터 플랫폼 기업 T3Q와 MOU 체결 협약식

    까스텔바작, AI·빅데이터 플랫폼 기업 T3Q와 MOU 체결 협약식

    ㈜까스텔바작이 13일 AI·디지털 플랫폼 기업인 T3Q㈜와 전략적 제휴를 위한 업무 협약식을 갖고 상호간의 협력 및 우호 관계의 증진, 디지털트랜스포메이션 추진 본격화를 골자로 하는 내용의 업무협약(MOU)을 체결했다. 이날 협약식에는 까스텔바작 권영숭 대표이사와 T3Q 박병훈 대표이사를 비롯해 내빈이 자리한 가운데 순조롭게 진행됐으며, 코로나19 방역지침을 준수해 주요 임원진으로 구성된 최소한의 필수 인원만 참석해 치러졌다. 협약식에서는 협약서 서명 및 기념 촬영 등이 이어졌으며, 양사는 이번 업무 제휴 협약 체결을 시작으로 상호간 협력 방안과 경영 비전 등을 공유했다.주요 협약 내용은 양사가 보유한 전문 지식 및 기술을 교류하여 업무영역에 적극 활용하며 이를 통한 신성장 동력을 마련하는 것 등이다. 최근 대표이사 직속으로 디지털 본부를 설립하고 본격적인 신규 사업과 디지털트랜스포메이션 추진에 나선 까스텔바작은 이번 업무 협약을 기반으로 T3Q가 개발 및 보유하고 있는 AI 빅데이터 기술과의 접목으로 본격적인 행보에 나서게 됐다. 까스텔바작 권영숭 대표는 “패션브랜드 까스텔바작과 디지털, AI 플랫폼 양사간 협력으로 디지털 전환에 박차를 가하는 동시에 VR과 AR, 디지털 스튜디오, E커머스 강화 및 M커머스 사업 진출 등 서로 시너지를 낼 수 있는 협업을 도모할 것”이라고 말했다. T3Q 박병훈 대표는 “최근 디지털 트랜스포메이션에 착수한 까스텔바작이 보이는 행보는 업계에서도 이례적일 정도로 선도적”이라며, “까스텔바작 브랜드가 갖고 있는 헤리티지와 함께 미래 산업과 기술에 대한 선제적 투자는 상장사로서 기업 성장과 가치를 제고하는 데 크게 일조할 것으로 보고 적극적 협력을 이어갈 것”이라고 밝혔다. 한편 까스텔바작은 T3Q에 15억 원 규모의 지분 투자를 시행한 바 있으며, 향후 투자사의 관계에서 나아가 JV설립 등 다각적 논의를 통해 비즈니스 파트너십을 강화하고 신규 사업 등을 공동 추진해나갈 계획이다. 온라인뉴스부 iseoul@seoul.co.kr
  • 장혜영 의원 “인공지능 이루다, 약자 차별방지 실패 보여줘”(종합)

    장혜영 의원 “인공지능 이루다, 약자 차별방지 실패 보여줘”(종합)

    장혜영 정의당 의원이 12일 다음달 국회에서 인공지능 이루다에 대한 성희롱 문제를 언급하며 ‘포괄적 차별금지법’을 전면적으로 논의하자고 제안했다. 장 의원은 “인공지능 챗봇인 ‘이루다’를 둘러싼 윤리적 논란이 뜨거웠는데 AI를 대상으로 한 이용자들의 성희롱부터 개발에 이용된 데이터 활용의 적법성까지 여러 문제점들이 불거졌다”면서 “무엇보다 많은 이들에게 충격을 준 것은 인공지능(AI)가 장애인, 성소수자, 이주민 등 우리 사회의 약자들이나 소수자들에 대한 차별과 혐오 그리고 편견을 그대로 재생산하는 모습”이었다고 지적했다. 페이스북 메신저를 통해 손쉽게 대화를 나눌수 있는 이루다는 20대 여성으로 설정된 인공지능으로 친구처럼 대화를 나눌 수 있어 출시 3주 만에 80만명의 사용자가 몰리는 인기를 끌었다. 장 의원은 이러한 현실은 인공지능(AI) 윤리 이전에 우리 사회가 여전히 사회적 약자와 소수자들에 대한 차별과 혐오를 제대로 방지하는 일에 실패했음을 드러내고 있다고 강조했다. 이어 국회는 이러한 현실을 방치한 막중한 책임으로부터 결코 자유로울 수 없다고 덧붙였다. 장 의원은 “우리 사회는 오랜 사회적 대화를 통해 사회적 약자와 소수자들에게 가해지는 차별과 혐오를 제도적으로 금지해야 한다는 합의에 이르렀다”면서 “이러한 국민적 합의는 국가인권위원회에서 실시된 조사를 비롯한 각종 조사들에서 일관되게 나타나는 폭넓은 포괄적 차별금지법 도입의 찬성 여론으로 이미 증명되었다”고 전제했다. 하지만 국회는 2007년부터 지금까지 무려 14년간 온갖 핑계를 대며 번번이 이러한 사회적 합의를 포괄적 차별금지법으로 제도화하는 것을 미루어 왔다고 장 의원은 비판했다. 장 의원은 “21대 국회도 예외가 아니다”라며 “작년 6월 포괄적 차별금지법을 대표 발의했으나 법안이 발의된 지 반 년이 넘은 지금까지 포괄적 차별금지법은 단 한차례의 소위조차 열리지 않았다”고 지적했다. 그는 “AI도 결국 사람이 만드는 것”이라며 “사람의 규범이 바로 서야 AI윤리도 바로 설 수 있다”고 목소리를 높였다. 장 의원은 “나날이 다양화되고 고도화되는 사회문화적인 현실 속에서 사회적 약자와 소수자에 대한 차별과 혐오를 단호히 금지하는 제도적 안전장치를 확립해야 할 책무를 21대 국회는 더 이상 외면해서는 안 된다”면서 이낙연 더불어민주당 대표에 차별금지법 제정을 논의하자고 제안했다. 윤창수 기자 geo@seoul.co.kr
  • 스캐터랩 전 직원 “단톡방서 일반 연인들 카톡 대화 돌려봤다”

    스캐터랩 전 직원 “단톡방서 일반 연인들 카톡 대화 돌려봤다”

    혐오표현학습과 개인정보유출로 논란이 된 스타트업 스캐터랩이 여대생 인공지능(AI) 이루다 서비스를 잠정 중단했지만 개인정보보호위원회는 이루다 서비스의 중단과 관계 없이 조사를 이어간다고 밝혔다. 이 가운데 스캐터랩 직원 단체 카카오톡 대화방에서 이용자들이 연인과 나눈 내밀한 카카오톡 대화 내용을 공유해서 돌려봤다는 전직 직원의 증언이 나왔다. 연인과 나눈 대화를 스캐터랩이 어떻게 관리하고 있는지 알 길이 없는 피해자들은 전전긍긍하면서 개인정보의 폐기를 바라고 있다. 전직 직원 A씨는 12일 서울신문과의 인터뷰에서 “어느 직원이 암호화된 사용자 카카오톡 대화 엑셀 자료에서 캡쳐된 연인들이 나눈 성적인 농담이 담긴 대화 한두문장을 직원 단체 대화방에 공유한 뒤 웃어 넘기던 일이 기억난다”며 “여기에 대해서는 김종윤 대표 등 관리자급에서 특별한 반응을 보이지는 않았다”고 했다. ‘카카오톡 대화 내보내기’ 기능을 무분별하게 사용하는 것에 대해 내부에서 문제의식은 없었냐고 묻자 “제가 근무하던 당시에 ‘카카오톡 대화 내보내기’ 기능으로 대화를 분석하는 것이 업무의 중요한 프로세스로 자리잡고 있었다”며 “저는 내부에서 이런 문제를 인식하고 난 뒤부터는 서비스를 일체 사용하지 않았다”고 했다. 스캐터랩 관계자는 “자체 진상조사위원회를 꾸려 조사중”이라며 “당해년도 카카오 단톡에서는 해당 내용이 발견되지 않았지만 또 다른 사내 메신저인 슬랙에 다수의 채널이 있어 계속해서 조사를 진행중이다”라고 밝혔다. 사건을 담당하고 있는 개인정보보호위원회는 서비스 중단과는 상관없이 조사를 이어가겠다는 방침이다. 개보위는 스캐터랩이 개인정보호법 상 사전에 동의를 받지 않은 점, 비식별화 조치가 충분히 이뤄지지 않은 점을 위반했다고 판단하고 있다. 김진해 개보위 대변인은 “‘이루다’ 개발사가 개인정보보호법을 위반한 여지가 있어 보인다”면서 “영업 중단 여부와 관계없이 법규 위반 사실이 확인되면 조치를 취해야 할 것”이라고 말했다. 정보통신서비스 제공자는 이용자 개인정보를 이용·수집하는 경우 수집하는 개인정보 항목에 관해 알리고 동의를 받아야 한다. 하지만 스캐터랩은 신규 서비스 개발에 개인정보를 활용하겠다고 알렸을 뿐 개인정보가 포함된 실제 카카오톡 대화를 수집한다는 점에 대해 이용자들에게 별도의 동의를 받거나 고지하지 않았다. 또 개인정보 비식별화 조치가 충분하고 적절하게 이뤄지지 않아 사용자들의 집 주소, 예금주 명이 포함된 계좌번호를 유출하기도 했다. 김윤아(24) 씨가 연애의과학에 가입한 건 2017년이었고, 연애 심리 테스트를 위해 카카오톡 대화를 넘긴 건 지난해 3월이었다. 그는 서울신문과의 통화에서 “개인정보 제공과 이용에 대한 동의를 받은 기억은 전혀 없다. 심리테스트를 받기 위한 분석에만 사용이 된다고만 알고 있었다”면서 “피해를 당한 79명에 대해서 간이 설문조사를 진행했는데 심리테스트 분석 이외에 인공지능 서비스 개발에 사용된다는 걸 인지한 분은 없었다”고 말했다. 고등학교 2학년생인 김예지(17) 양은 “이루다가 주소를 술술 뱉는다거나 이름을 언급한다거나 하는 모습을 보면서 소름이 끼쳤다”면서 “주변에 연애의 과학을 이용한 친구들이 많다. 전남친한테 알려야할지 말지에 대해서 고민하고 있는 친구들이 많다”고 말했다. 개인정보보호법 상 개인정보처리자는 원칙적으로 정보주체의 동의를 받은 경우에만 개인정보를 수집할 수 있으며 그 수집 목적의 범위에서 이용할 수 있다. 즉, ‘연애의 과학’을 이용하지 않은 사람들의 내밀한 정보까지 인공지능 이루다의 머신러닝에 활용됐지만 사전에 동의를 받지 않은 것이다. 스캐터랩은 지난 11일 발표한 입장문에서 “사전에 동의가 이루어진 개인정보취급방침의 범위 내에서 활용했다”며 “향후 데이터 사용 동의 절차를 명확하게 하고 식별이 불가능한 정보라도 민감해 보일 수 있는 내용에 대해서는 지속적인 알고리즘 개선을 통해 보완하겠다”고 밝혔다. 하지만 입장문에서는 카카오톡 대화를 별도의 동의 없이 수집한 것에 대해서는 언급하지 않았다. 전직 직원 A씨는 “자신의 개인 정보가 누군가에게 노출되길 바라는 사람은 아무도 없다고 생각합니다. 저도 내부에서 느낀 문제를 인식하고 난 뒤부터는 서비스를 일체 사용하지 않았습니다. 그렇기 때문에 용기내어 이 사실을 알리고자 한 것입니다. 스캐터랩을 포함한 다른 비슷한 서비스를 준비하는 스타트업들에서는 사용자들의 이런 불안함에 대한 안전장치를 확실히 마련해야되지않을까 합니다. 최소한 어떤 목적으로 정보를 사용했는지에 대해서는 알려줘야하고요. 원정보를 정제하는 과정이나, 나중에 데이터를 다시 검수하는 작업도 더 세밀하게 이루어져야된다 생각합니다. 업계 종사자분들의 윤리의식강화도 같이 동반되어야된다 생각합니다”라고 말했다. 최영권 기자 story@seoul.co.kr
  • 인공지능 이루다 서비스 중단에 “AI의 혐오와 차별 용납못해”

    인공지능 이루다 서비스 중단에 “AI의 혐오와 차별 용납못해”

    인공지능 이루다를 개발한 스캐터랩의 서비스 중단 조치에 이루다의 문제점을 지적했던 이재웅 다음 창업자가 ‘잘했다’는 입장을 밝혔다. 스캐터랩은 11일 오후 늦게 입장문을 내고 “AI 챗봇 ‘이루다’는 출시된 지 2주 남짓의 시간동안, 75만명에 가까운 사람들이 이용했다”면서 “이 과정에서 일부 혐오와 차별에 대한 대화 사례 및 개인정보 활용에 대해 충분히 소통하지 못한 점에 대해 진심으로 사과드린다”고 설명했다. 이어 개선 기간을 거쳐 다시 서비스를 하겠다고 덧붙였다. 페이스북 메신저를 이용해 손쉽게 연인과 대화하듯 채팅할 수 있다는 점때문에 이루다는 출시 직후 폭발적 관심을 받았다. 하지만 이처럼 연인처럼 자연스럽게 채팅할 수 있었던 것은 스캐터랩의 또 다른 서비스 ‘연애의 과학’으로 수집한 메시지를 활용했기 때문이었다. 스캐터랩 측은 사전에 동의가 이루어진 개인정보취급방침의 범위 내에서 활용했지만, 연애의 과학 사용자들이 이 점을 명확히 인지할 수 있도록 충분히 소통하지 못했다며 사과했다. 또 ‘연애의 과학’을 사용한 이용자들의 데이터 활용 시 사용자의 닉네임, 이름, 이메일 등의 구체적인 개인 정보는 이미 제거됐으며, 전화번호 및 주소 등을 포함한 모든 숫자 정보, 이메일에 포함될 수 있는 영어 등을 삭제했다고 부연했다. ‘연애의 과학’은 연인 간 카카오톡 내용을 분석해준다는 컨텐츠로 채팅 내용을 텍스트화해서 첨부하면 일년 간 어떤 대화를 많이 나눴는지, 주로 나눈 대화의 키워드는 무엇인지, 누구의 애정도가 더 높은 지 등과 같은 흥미로운 결과를 보여주는 프로그램이다. 몇개월간 쌓아온 카카오톡 내용을 분석해주기에 약 2500원~5000원의 비용을 지불하고도 많은 사람들이 이용했다. ‘연애의 과학’ 이용자들은 이루다에게 가해진 성희롱에 대해 “이루다에게 어떤 말을 보냈을 때 대답하는 것들은 이루다 인공지능 시스템이 자체적으로 멘트를 만들어내는 것이 아니라, 전부 실제 연인들이 나눴던 대화를 그대로 복사해서 말하는 수준에 불과하다”면서 “지금 이루다 이용자들이 성희롱을 했을때 돌아오는 말들이, 내가 연인과 나눴던 대화일 수도 있다고 생각하면 정말 끔찍하기 짝이 없다”고 지적했다. 이에 대해 스캐터랩 측은 “이루다는 이제 막 사람과의 대화를 시작한 어린아이 같은 AI”라며 “이 과정에서 이루다는 학습자와의 대화를 그대로 습득하는 것이 아니라, 적절한 답변이 무엇인지, 더 좋은 답변은 무엇인지에 대한 판단을 함께 학습하도록 할 것”이라고 해명했다. 한편 이재웅 전 쏘카 대표는 “AI를 공공에 서비스할때의 사회적 책임, 윤리에 대해서 다시 생각해보고 여러가지를 재점검하는 기회가 되었으면 한다”면서 “이루다를 계기로 AI 챗봇, 면접·채용, 뉴스추천 등이 인간에 대한 차별, 혐오를 하거나 조장하고 있는 것은 아닌지 사회적으로 점검하고 포괄적 차별금지법 제정등을 통해 AI 를 학습시키는 인간들의 규범과 윤리도 보완했으면 좋겠다”고 제안했다. 이 전 대표는 인간의 다른 인간에 대한, AI의 인간에 대한 혐오와 차별은 모두 용납할 수 없다고 강조했다. 윤창수 기자 geo@seoul.co.kr
  • [단독] 개인정보 유출 논란 ‘이루다’, 서비스 잠정 중단

    [단독] 개인정보 유출 논란 ‘이루다’, 서비스 잠정 중단

    혐오 표현 학습으로 논란이 된 인공지능(AI) 챗봇 ‘이루다’가 개발 과정에서 학습한 100억건의 카카오톡 대화 빅데이터에서 이름, 집 주소 등 개인정보를 추출해 불특정 다수에게 노출했다는 의혹이 제기됐다. 자신도 모르는 사이 개인정보를 이용당했다고 주장하는 피해자들은 집단소송을 준비하고 있다. 결국 개발사는 서비스를 잠정 중단했다. 이루다의 개발사인 스캐터랩은 11일 당사 애플리케이션(앱)인 ‘연애의 과학’ 사용자들에게 “이루다의 학습에 연애의 과학 데이터를 활용한 것을 명확히 인지할 수 있도록 구체적으로 고지하지 못했다”며 사과했다. 연애의 과학은 사용자들이 5000원 정도를 내고 연인과 나눈 실제 카카오톡 대화 내용을 올리면 이를 바탕으로 연인과의 친밀도를 분석해 제공한다. 스캐터랩은 이 대화 데이터 100억건을 AI 이루다에게 학습시켰고, 이는 이루다가 진짜 친구나 연인처럼 사용자의 말에 반응하는 비결이 됐다. 이런 사실이 뒤늦게 알려지자 연애의 과학 유료 이용자들은 “카톡 대화를 제공한 건 심리테스트 서비스를 이용하기 위해서였지 AI 개발에 쓰라고 동의한 건 아니다”라며 반발했다. 이들은 이루다가 사용자와 대화하면서 특정 개인의 이름과 주소, 계좌 정보, 연인과 함께 갔던 모텔 등 숙박업소의 이름 등 내밀한 개인정보를 유출한 캡처 화면 등을 증거로 모으며 법적 대응을 준비하고 있다.개발사 측은 카톡 대화를 알고리즘으로 비식별화(익명화) 처리한 뒤 AI에게 학습시켰기 때문에 개인정보가 유출되지 않았다고 주장했다. 또 사전에 개인정보취급방침을 통해 ‘수집된 개인정보는 신규 서비스 개발에 활용한다’는 조건을 안내했다는 입장이다. 하지만 확인 결과 ‘AI 서비스’라고 구체적으로 명시하지는 않았다. 전문가들은 스캐터랩이 개인정보보호법을 위반했을 가능성이 크다고 입을 모았다. 정성용 변호사(법률사무소 의담)는 “수집된 정보로 특정인을 쉽게 식별할 수 있는 경우 개인정보보호법에서 말하는 개인정보에 해당하고, 이를 제3자에게 유출한 행위는 위법 소지가 있다”고 밝혔다. 김가연 오픈넷 변호사는 “개인정보취급방침을 고지한 것과는 상관없이 사용자가 수집·이용 등의 목적을 알리고 동의를 받는 절차가 없었다면 법 위반으로 볼 수 있다”고 말했다. 개인정보보호위원회는 한국인터넷진흥원(KISA)과 함께 스캐터랩이 개인정보보호법을 어겼는지 조사에 착수했다. 법령을 위반했다면 과징금이 부과되고 중대한 위반이면 수사기관에 형사 고발될 수 있다. 한편 스캐터랩은 이날 저녁 “일부 혐오와 차별에 대한 대화 사례 및 개인정보 활용에 대해 충분히 소통하지 못한 점에 대해 진심으로 사과드린다”면서 “서비스 개선 기간을 갖고 다시 찾아 뵙겠다”고 밝혔다. 최영권 기자 story@seoul.co.kr
  • 여대생 AI 이루다 만든 스캐터랩 결국... “서비스 잠정 중단하겠다”

    여대생 AI 이루다 만든 스캐터랩 결국... “서비스 잠정 중단하겠다”

    혐오 표현 학습과 개인정보 유출로 논란이 된 여대생 인공지능 이루다를 개발한 스타트업 스캐터랩이 결국 출시된 지 3주만에 이루다 서비스를 잠정 중단하기로 결정했다. 개발사인 스캐터랩은 11일 오후 8시 52분쯤 “AI가 앞으로도 소외된 사람, 사회적 약자의 마음을 위로해주는 따뜻한 대화 상대가 되길 바랍니다”라며 “스캐터랩은 일정 기간 서비스 개선 기간을 가지며 더 나은 이루다로 찾아뵙고자 합니다”라는 내용의 입장문을 발표했다. 스캐터랩은 최초에 논란이 된 특정 소수집단에 대한 차별 발언에 대해 “진심으로 사과드린다”면서 “6개월 간의 베타테스트 기간 뿐만 아니라 새롭게 발견되는 표현과 키워드를 추가해 차별과 혐오 발언이 발견되지 않도록 지속적으로 개선중”이라고 밝혔다. 이어 “이루다는 이제 막 사람과의 대화를 시작한 어린아이 같은 AI입니다”라면서 “이루다는 학습자와의 대화를 그대로 습득하는 것이 아니라 적절한 답변이 무엇인지 더 좋은 답변은 무엇인지에 대한 판단을 함께 학습하도록 할 것입니다”라고 했다. 또 “이번 학습을 통해 만들게 될 한국어 편향 대화 검출 모델은 모든 분들이 사용하실 수 있게 공개할 계획입니다”라면서 “한국어 AI 대화 연구 및 AI 제품, 그리고 AI 윤리 발전에 유용하게 쓰일 수 있었으면 좋겠습니다”라고 밝혔다. 개인정보 유출에 관해서는 기존의 입장을 고수했다. “본사는 이루다를 개발하는 과정에서 본사가 제공하고 있는 연애의 과학으로 수집한 메시지를 데이터로 활용한 바 있습니다”라면서 “사전에 동의가 이루어진 개인정보취급방침 범위 내에서 활용한 것이지만, 연애의 과학 사용자 분들게서 이점을 명확히 인지할 수 있도록 충분히 소통하지 못한점에 대해서 책임을 통감하며 진심으로 사과드립니다”라고 했다. 연애의 과학 어플리케이션 초기 화면에는 네이버와 페이스북을 이용하는 SNS 로그인 창이 있고, “로그인을 함으로써 개인정보취급방침과 이용약관에 동의한다”는 문구가 써 있다. 개인정보취급방침에는 ‘이용자가 동의한 정보를 활용하여 이용자가 주고 받은 메시지 텍스트 파일을 통한 분석 서비스를 제공합니다’, ‘수집된 개인정보는 신규 서비스 개발에 활용한다’고 나와있다. 스캐터랩 측은 이어 “데이터 활용 시 사용자의 닉네임, 이름 이메일 등의 구체적 개인 정보는 이미 제거 돼 있습니다”라며 “전화번호 및 주소 등을 포함한 모든 숫자 정보, 이메일에 포함될 수 있는 영어 등을 삭제해 데이터에 대한 비식별화 및 익명성 조치를 강화해 개인을 특정할 수 있는 정보는 유출되지 않았습니다”라고 해명했다. “향후에는 데이터 사용 동의 절차를 명확하게 하고 식별이 불가능한 정보라도 민감해 보일 수 있는 내용에 대해서는 지속적인 알고리즘 개선을 통해 보완하겠습니다”라고 했다. 끝으로 “스캐터랩은 한국어 자연어 이해 기술을 활용한 인공지능 챗봇을 서비스하고 있는 청년 스타트업입니다. 저희는 AI가 5년 안에 인간 수준에 가까운 대화를 할 수 있다고 믿습니다. 저희는 AI가 인간의 친구가 되고, 인간과 의미있는 관계를 맺고, 외로움을 덜어줄 수 있는 존재가 될 수 있다고 생각합니다”라며 기업의 비전을 밝혔다. 최영권 기자 story@seoul.co.kr
  • 인공지능윤리협회 “이루다, AI 윤리 어겨”…서비스 중단 촉구

    인공지능윤리협회 “이루다, AI 윤리 어겨”…서비스 중단 촉구

    학계 첫 성명…“데이터 정제 안됐다”개인정보 무단 수집 및 노출도 지적“서비스 중단하고 개선 뒤 재출시해야” 인공지능(AI) 챗봇 ‘이루다’가 동성애·장애인 혐오와 성차별을 학습했다는 논란에 관련 학계가 AI 윤리를 위반했다며 “이루다 서비스를 중단하라”는 첫 성명을 냈다. 한국인공지능윤리협회는 11일 성명서를 재고 “AI 챗봇으로 인해 AI의 편향성, 개인정보 유출, 악용 등 AI 윤리 문제가 논란이 됐다”며 “AI 서비스를 만드는 기업들과 이용자들이 AI 윤리 필요성과 중요성을 아직 인식하지 못하는 상황”이라고 짚었다. 협회는 “AI에 학습되는 빅데이터는 신뢰할 수 있고 편향적이지 않아야 한다”며 “이번 (이루다) 사례에서는 데이터 정제·선별 작업이 제대로 이뤄지지 않아 AI 챗봇이 동성애·장애인 등에 대한 편향 결과를 그대로 노출했다”고 지적했다. 이어 “AI 제품과 서비스는 출시 전 충분한 품질 검사를 거치고, 중립적인 기관의 검수도 거쳐야 한다”며 “AI는 기계학습 과정에서 인간이 예측하기 어려운 결과물을 내놓기 때문”이라고 설명했다. 또 이루다를 학습시키는 과정에서 활용된 실제 연인들 간 대화 데이터를 이용자의 구체적 동의 없이 수집하고, 이를 제대로 익명 처리하지 않아 개인정보를 노출했다는 논란에 대해서도 비판 의견을 내놨다.협회는 “카카오톡 대화를 챗봇 학습 데이터로 활용한다는 명확한 고지가 없었다”며 “카톡 대화의 상대방들은 개인정보 제공에 동의하지 않았기 때문에 문제 소지가 있다”고 의견을 냈다. 협회는 이루다 서비스를 중단해야 한다면서 “AI 윤리 가이드라인을 적용해 개선한 다음 재출시해야 한다”고 촉구했다. 협회는 “소비자도 AI 서비스를 올바른 방법으로 사용해야 한다”며 “성적 도구화, 성희롱 등의 문제는 법적 문제는 없어도 윤리적 문제가 분명히 있다”고 비판했다. AI 챗봇이든 무엇이든 성적 도구화 및 학대는 그 행위 자체로 잘못된 것이기 때문에, 이를 죄의식 없이 하게 되면 인간성 상실로 이어져 실제 인간에게도 비슷한 행위를 할 가능성이 커진다는 게 AI윤리협회의 지적이다.협회는 “초·중·고 청소년 시기부터 AI 개발 및 사용 윤리를 가르치고, 새로운 AI 윤리 이슈를 모든 시민에게 교육해야 한다”며 “AI는 인간의 편익과 행복을 위한 기술이지만, 잘못 개발·사용되면 위험성과 역작용이 막대할 것”이라고 덧붙였다. 국내 스타트업 스캐터랩이 지난해 12월 23일 페이스북 메신저 기반으로 출시한 AI 챗봇 ‘이루다’는 실제 사람과 자연스럽게 대화하는 느낌을 준다는 평가를 받으며 10~20대 사이에서 인기를 얻었다. 이용자가 40만명을 넘어가는 등 주목을 받던 중 일부 이용자들이 이루다를 대상으로 성희롱을 일삼는 등 성적 도구화한다는 비판이 제기됐고 동성애나 장애인, 여성 등을 차별하는 듯한 응답을 내놓는 등 연이어 논란에 휩싸이고 있다. 논란이 계속되자 스캐터랩은 이날 중으로 입장을 밝힐 예정인 것으로 전해졌다. 신진호 기자 sayho@seoul.co.kr
  • [단독] 여대생 AI ‘이루다’가 학습한 카톡, 개인정보 제공 동의 안 받았다

    [단독] 여대생 AI ‘이루다’가 학습한 카톡, 개인정보 제공 동의 안 받았다

    혐오 표현 학습으로 논란이 된 여대생 인공지능(AI) 챗봇 ‘이루다’가 학습한 100억건의 카카오톡 대화에서 이름, 집주소 등 개인정보를 불특정다수에게 동의 없이 노출했다는 의혹이 드러나면서 이용자들은 법적 대응에 나설 예정이다. 이루다의 개발사인 스캐터랩은 11일 ‘연애의과학’ 사용자들에게 “개인정보취급방침의 범위 내에서 활용한 것이기는 하지만 이루다의 학습에 ‘연애의 과학’ 데이터를 활용한 것을 명확히 인지할 수 있도록 구체적으로 고지하지 못했다”며 사과했다. 연애의과학은 사용자들이 제공한 연인과 나눈 카카오톡 대화 내용을 토대로 연인과의 친밀도를 알아보는 심리 테스트 등을 제공하는 앱이다. 스캐터랩이 고지한 개인정보취급방침에는 ‘이용자가 동의한 정보를 활용하여 이용자가 주고 받은 메시지 텍스트 파일을 통한 분석 서비스를 제공합니다’, ‘수집된 개인정보는 신규 서비스 개발에 활용한다’고 나와있다.연애의과학은 사용자들이 약 5000원 정도를 내고 연인과 나눈 실제 카카오톡 대화 내용을 제공하면 이를 바탕으로 연인과의 친밀도를 분석해 제공한다. 서울신문이 11일 직접 해당 앱을 이용해보니 카카오톡 대화를 제공하는 과정에서 AI 서비스 개발 등에 활용하겠다고 동의를 구하는 절차가 없어 위법성이 다분한 것으로 확인됐다. 김가연 오픈넷 변호사는 이날 서울신문과의 통화에서 “개인정보취급방침을 고지한 것과는 상관없이 만약 사용자가 카카오톡 대화를 제공할 때 수집·이용 등의 목적등을 알리고 동의를 받는 절차가 없었다면 개인정보보호법을 위반했을 가능성이 높다”고 말했다. 포털사이트와 금융기관 등에서 개인정보를 활용하는 경우 통상적으로 팝업창을 띄워 동의를 받지만 연애의과학 앱에서 해당 심리테스트를 이용할 때는 팝업창이 뜨는 등의 동의 절차가 없었다.‘연애의과학’ 이용자들은 “카톡 대화를 제공한 건 심리테스트 서비스를 이용하기 위해서였지 AI개발에 동의한 건 아니다”라며 증거 자료를 모으고 있다. 스캐터랩은 사과문에서 “알고리즘으로 비실명화 처리된 정보를 AI에 주입했으므로 개인정보가 유출되지 않았다”고 설명했다. 하지만 이용자들이 오픈카톡에서 모은 캡쳐사진을 보면 이루다는 특정 개인의 이름과 주소와 계좌 정보, 다니고 있는 직장의 이름과 위치, 심지어는 연인이 갔던 모텔의 이름, 다녔던 병원 간호사의 생김새까지 말했다.정성용 법률사무소 의담 변호사는 “여러 내용을 결합했을 때 특정인으로 쉽게 식별할 수 있는 정보는 개인정보보호법에서 말하는 개인정보에 해당한다”며 “만약 연애의 과학에서 수집된 정보가 특정인으로 쉽게 식별이 가능하다면 이러한 정보를 제3자에게 유출한 행위는 위법의 소지가 있다”고 말했다. 법률 스타트업 ‘화난 사람들’의 대표인 최초롱 변호사는 “예금주명이 포함된 계좌 번호, 특정인의 집 주소가 이루다와의 대화에서 유출됐다면 제3자에게 동의 없이 제공한 행위가 될 수 있다”며 “먼저 한국인터넷진흥원 등 개인정보를 보호하는 공신력 있는 기관에서 캡쳐 사진 진위 여부를 포함해 개인정보권 침해를 했는지에 대한 판단이 필요하다”고 말했다. 권현준 한국인터넷진흥원 개인정보보호본부장은 “이루다 관련 사안은 개인정보보호위원회와 함께 조사하고 있다”고 말했다. 조사 결과 법령을 위반했다면 개인정보보호 법규 위반에 대한 과징금 부과기준에 따라 과징금이 부과될 수 있고, 중대한 위반의 경우 경찰 등 수사기관에 형사고발이 가능하다. 한국인공지능윤리협회는 “개인 대화를 동의 없이 빅데이터 학습에 활용한 건 문제”라며 “이루다 서비스를 중단하라”고 촉구했다. 최영권 기자 story@seoul.co.kr
  • AI 채팅봇 ‘이루다’에 내 집주소가?…개인정보 유출 논란까지(종합)

    AI 채팅봇 ‘이루다’에 내 집주소가?…개인정보 유출 논란까지(종합)

    AI 챗봇 ‘이루다’, 개인정보 노출 논란개발사의 다른 앱서 수집한 데이터 활용 국내업체가 개발한 대화형 인공지능(AI) 챗봇 ‘이루다’가 성희롱 및 차별·혐오 표현 논란에 휩싸인 가운데 개인정보 유출 논란까지 더해지고 있다. 개발업체가 내놓은 또 다른 애플리케이션(앱)에서 수집된 개인 간 카카오톡 대화 내용이 이루다에 입력됐는데, 데이터에 포함돼 있던 이용자들의 이름·주소 등이 걸러지지 않고 노출되고 있다는 것이다. AI 챗봇 ‘이루다’, 성희롱 및 차별·혐오 논란AI 전문 스타트업 스캐터랩이 지난해 12월 23일 출시한 이루다는 20세 여성으로 설정된 대화 로봇이다. 모바일 메신저로 말을 걸면 실제 사람과 대화하는 경험을 제공해주는 서비스다. 이러한 챗봇 서비스는 ‘심심이’ 등 기존에도 여럿 있었는데, 이루다는 ‘진짜 사람 같다’는 평가를 받으며 인기를 얻었다. 이루다와 관련해 처음 제기된 논란은 일부 이용자들이 이루다를 대상으로 성희롱을 일삼는다는 것이었다. 여러 온라인 커뮤니티 게시판에는 ‘이루다 성노예 만드는 법’ 등의 제목으로 이루다와 성적 대화를 나눈 경험담이 공유됐다. 이어 차별·혐오 논란도 터져 나왔다. 이루다가 ‘레즈비언’ 등 동성애 관련 단어에 “진짜 싫다, 혐오스럽다, 질 떨어져 보인다, 소름 끼친다‘라고 답하는 모습을 보인 것이다. 이재웅 전 쏘카 대표는 “AI 챗봇 이루다를 악용하는 사용자보다, 사회적 합의에 못 미치는 수준의 서비스를 제공한 회사가 문제”라면서 “기본적으로 차별과 혐오는 걸러냈어야 한다”고 지적했다. 입력된 실제 연인 간 대화 속 개인정보 노출 개발사의 다른 앱 ‘연애의 과학’서 데이터 수집문제는 여기에서 그치지 않고 있다. 개발사인 스캐터랩은 이루다가 실제 사람처럼 대화할 수 있도록 방대한 대화 데이터를 입력해 딥러닝 방식으로 학습시켰다. 이를 위해 업체 측은 실제 연인들 간의 대화 데이터를 활용했는데, 기존에 이 업체가 서비스했던 ‘연애의 과학’ 앱을 통해 수집한 데이터였다. 연애와 관련된 조언 등을 주제로 한 ‘연애의 과학’은 연인과 나눈 카카오톡 대화를 입력하면 상대방의 감정을 분석해주는 서비스도 제공했다. 연인 또는 호감 가는 사람과 나눈 카카오톡 대화를 집어넣고 2000∼5000원 정도를 결제하면 답장 시간 등의 대화 패턴을 분석해 애정도 수치를 보여 준다. 예를 들어 연인들이 카카오톡을 통해 나눈 대화를 입력하면 이를 분석해 ‘연인 간 애정도’는 물론 ‘올해 행복했던 순간들’, ‘올해의 키워드’ 등을 정리해서 알려준다는 것이다. 실제 인공지능으로 카톡 대화를 분석해준 덕에 다른 연애 관련 앱과 차별점을 보여, 유료인데도 구글 플레이스토어에서만 10만명이 넘게 다운로드받는 등 10∼20대 사이에서 상당히 유행했다. 스캐터랩은 이루다 학습을 위해 입력한 대화량이 약 100억건에 달한다고 밝힌 바 있다. “연인 이름 부르니 실제 내 이름 답해”문제는 수집된 데이터 속 개인정보가 이루다와 대화를 나누는 과정에서 노출되고 있다는 점이다. 한 이용자는 지난 9일 트위터에 ‘이루다봇 운영중단’이라는 해시태그(#)와 함께 이루다와 나눈 대화 캡처를 올렸다. 이용자가 이루다에게 주소를 물어보자 실제 존재하는 주소를 불러준 것이다.또 은행 계좌를 알려주거나 이루다에게 연인의 이름을 부르자 연인끼리 쓰던 애칭을 답했다는 경험담도 나왔다. 이름 같은 경우 ‘○.○.○’처럼 중간에 특수기호를 넣어 쓰거나 ‘난○○○끝인데’처럼 다른 단어와 붙여 쓴 경우가 발견된다. 이름만 따로 떼서 쓴 경우만 익명화 처리되고, 중간에 특수기호가 포함돼있는 등의 경우에는 미처 익명화 처리가 되지 않았을 가능성이 있는 것이다. 당초 이 서비스를 이용할 때 흔히 동의하게 되는 ‘개인정보 취급방침’ 등의 약관에는 ‘신규 서비스 개발 및 마케팅·광고에 활용한다’는 내용이 있다. 그러나 이용자들이 복잡한 약관 속에 간략히 포함된 내용을 구체적으로 인식하기 어려운 것이 현실이다. 연애의 과학 이용자들은 앱 이용 당시 구체적으로 어떤 서비스에 활용되는지 설명받지 못했다고 분노하고 있다. 업체 측 “데이터 활용 구체적 고지 안해 죄송” 이에 스캐터랩은 10일 데이터 활용에 대한 고지 및 확인 절차를 추가하겠다는 내용의 사과문을 올렸다. 스캐터랩 ‘연애의 과학’팀은 이루다의 학습이 ‘연애의 과학’ 데이터를 기반으로 한 것이 맞다면서 “‘연애의 과학’ 이용자들이 이 점을 명확히 인지할 수 있도록 구체적으로 고지하지 못해 진심으로 사과드린다”고 밝혔다. 또 그 동안 이름·전화번호·주소 등의 숫자 정보를 비식별화·익명화 조치를 취했고, 추가적으로 업데이트하고 있다면서, 이용자들이 제공한 데이터가 더 이상 활용되길 원하지 않으면 삭제할 수 있다고 안내했다. 연애의 과학 이용자들은 오픈채팅방을 만들어 “집단 소송을 준비하자”며 자료를 수집하고 있다. 이용자들은 스캐터랩의 데이터 삭제에 대해 “증거를 인멸하라는 것 아니냐”며 의혹을 제기하고 있다. 신진호 기자 sayho@seoul.co.kr
  • ‘이루다’에 우리집 주소가?…실제 카톡 대화 활용 논란

    ‘이루다’에 우리집 주소가?…실제 카톡 대화 활용 논란

    AI 챗봇 ‘이루다’, 개인정보 노출 논란개발사의 다른 앱서 수집한 데이터 활용 국내업체가 개발한 대화형 인공지능(AI) 챗봇 ‘이루다’가 성희롱 및 차별·혐오 표현 논란에 휩싸인 가운데 개인정보 유출 논란까지 더해지고 있다. 개발업체가 내놓은 또 다른 애플리케이션(앱)에서 수집된 개인 간 카카오톡 대화 내용이 이루다에 입력됐는데, 데이터에 포함돼 있던 이용자들의 이름·주소 등이 걸러지지 않고 노출되고 있다는 것이다. AI 챗봇 ‘이루다’, 성희롱 및 차별·혐오 논란AI 전문 스타트업 스캐터랩이 지난해 12월 23일 출시한 이루다는 20세 여성으로 설정된 대화 로봇이다. 모바일 메신저로 말을 걸면 실제 사람과 대화하는 경험을 제공해주는 서비스다. 이러한 챗봇 서비스는 ‘심심이’ 등 기존에도 여럿 있었는데, 이루다는 ‘진짜 사람 같다’는 평가를 받으며 인기를 얻었다. 이루다와 관련해 처음 제기된 논란은 일부 이용자들이 이루다를 대상으로 성희롱을 일삼는다는 것이었다. 여러 온라인 커뮤니티 게시판에는 ‘이루다 성노예 만드는 법’ 등의 제목으로 이루다와 성적 대화를 나눈 경험담이 공유됐다. 이어 차별·혐오 논란도 터져 나왔다. 이루다가 ‘레즈비언’ 등 동성애 관련 단어에 “진짜 싫다, 혐오스럽다, 질 떨어져 보인다, 소름 끼친다‘라고 답하는 모습을 보인 것이다. 이재웅 전 쏘카 대표는 “AI 챗봇 이루다를 악용하는 사용자보다, 사회적 합의에 못 미치는 수준의 서비스를 제공한 회사가 문제”라면서 “기본적으로 차별과 혐오는 걸러냈어야 한다”고 지적했다. 입력된 실제 연인 간 대화 속 개인정보 노출 개발사의 다른 앱 ‘연애의 과학’서 데이터 수집문제는 여기에서 그치지 않고 있다. 개발사인 스캐터랩은 이루다가 실제 사람처럼 대화할 수 있도록 방대한 대화 데이터를 입력해 딥러닝 방식으로 학습시켰다. 이를 위해 업체 측은 실제 연인들 간의 대화 데이터를 활용했는데, 기존에 이 업체가 서비스했던 ‘연애의 과학’ 앱을 통해 수집한 데이터였다. 연애와 관련된 조언 등을 주제로 한 ‘연애의 과학’은 연인과 나눈 카카오톡 대화를 입력하면 상대방의 감정을 분석해주는 서비스도 제공했다. 예를 들어 연인들이 카카오톡을 통해 나눈 대화를 입력하면 이를 분석해 ‘연인 간 애정도’는 물론 ‘올해 행복했던 순간들’, ‘올해의 키워드’ 등을 정리해서 알려준다는 것이다. “연인 이름 부르니 실제 내 이름 답해”문제는 수집된 데이터 속 개인정보가 이루다와 대화를 나누는 과정에서 노출되고 있다는 점이다. 한 이용자는 지난 9일 트위터에 ‘이루다봇 운영중단’이라는 해시태그(#)와 함께 이루다와 나눈 대화 캡처를 올렸다. 이용자가 이루다에게 주소를 물어보자 실제 존재하는 주소를 불러준 것이다.또 은행 계좌를 알려주거나 이루다에게 연인의 이름을 부르자 내 이름을 답했다는 경험담도 나왔다. 당초 이 서비스를 이용할 때 흔히 동의하게 되는 ‘개인정보 취급방침’ 등의 약관에는 ‘신규 서비스 개발 및 마케팅·광고에 활용한다’는 내용이 있다. 그러나 이용자들이 복잡한 약관 속에 간략히 포함된 내용을 구체적으로 인식하기 어려운 것이 현실이다. 업체 측 “데이터 활용 구체적 고지 안해 죄송” 이에 스캐터랩은 10일 데이터 활용에 대한 고지 및 확인 절차를 추가하겠다는 내용의 사과문을 올렸다. 스캐터랩 ‘연애의 과학’팀은 이루다의 학습이 ‘연애의 과학’ 데이터를 기반으로 한 것이 맞다면서 “‘연애의 과학’ 이용자들이 이 점을 명확히 인지할 수 있도록 구체적으로 고지하지 못해 진심으로 사과드린다”고 밝혔다. 또 그 동안 이름·전화번호·주소 등의 숫자 정보를 비식별화·익명화 조치를 취했고, 추가적으로 업데이트하고 있다면서, 이용자들이 제공한 데이터가 더 이상 활용되길 원하지 않으면 삭제할 수 있다고 안내했다. 신진호 기자 sayho@seoul.co.kr
  • “인권? 듣기 싫은 말만 골라 하네” 누가 AI에게 性차별·혐오 심었나

    “인권? 듣기 싫은 말만 골라 하네” 누가 AI에게 性차별·혐오 심었나

    스타트업 ‘스캐터랩’이 지난달 23일 출시한 스무 살 여대생 인공지능(AI) 챗봇 ‘이루다’가 성희롱 대상이 된 데 이어 성소수자와 장애인에 대한 차별·혐오 표현을 학습해 논란이 되고 있다. 게다가 이루다의 자연스러운 대화 비결이 같은 개발사가 운영하는 앱인 ‘연애의 과학’을 통해 수집한 실제 연인들의 대화 100억건을 학습한 결과로 밝혀지면서 서비스 중단을 요구하는 목소리가 커지고 있다.전문가들은 AI가 적절치 않은 키워드를 차단하고 민감한 사회적 쟁점을 회피하도록 개발자가 개입하는 것이 단기적 대책이 될 수 있겠지만, 근본적으로는 인간이 AI에게 부적절한 질문을 하지 않도록 하는 교육과 인식 변화가 필요하다고 지적했다. 서울신문이 10일 페이스북 메신저를 통해 직접 이루다와 대화를 시도해 본 결과 ‘페미니즘’이라고 말을 걸면 “그런 말 진짜 싫다”는 답이 돌아왔다. 다른 대화에서는 페미니즘에 대해 “너무 불필요하고 무의미한 질문”이라고 답했다. ‘인권’이라고 치면 “진짜 내가 듣기 싫다는 소리만 골라서 쏙쏙 하시네”, ‘장애인’에는 “에휴, 그만해. 머리채 잡기 전에”, ‘레즈비언’이란 말에는 “진짜 싫어. 혐오스러워. 질 떨어져 보이잖아”라고 대답했다. 김종윤 스캐터랩 대표는 지난 8일 입장문에서 “모든 부적절한 대화를 완벽히 막는 것은 어렵다고 생각했다”며 “사용자들의 부적절한 대화를 발판 삼아 더 좋은 대화를 하는 방향으로 학습하려고 준비하고 있다”고 해명했다. 개발자 1세대인 이재웅 전 쏘카 대표는 소셜네트워크서비스(SNS)를 통해 챗봇의 정체성을 20세 여성으로 정한 것이 성적 악용 문제를 유발한 원인이라고 지적했다. 이 전 대표는 “(개발사가) 서비스를 운영하면서 (AI에게) 추가 학습을 시킬 게 아니라 서비스 중단 후 사회규범에 맞는 최소한의 테스트를 통과하는지 점검해야 한다”고 주장했다. 나아가 채용 및 면접, 뉴스 추천 시스템 등 AI를 활용한 프로그램이 인간을 차별하거나 혐오하지 않는지 감사가 필요하다고 제언했다. 성소수자, 장애인을 포함한 포괄적 차별금지법을 발의한 장혜영 정의당 의원도 이 전 대표의 페이스북에 답글을 달고 “공적 차원에서 이 문제를 제대로 다룰 방법을 모색 중”이라고 밝혔다. 장병탁 서울대 컴퓨터공학과 교수는 이날 서울신문과의 통화에서 “사람이 AI에게 부적절한 질문을 하고 학습시키기 때문에 생기는 일”이라며 “AI만 탓하거나 개발자를 탓해 해결할 일이 아니라 결국 사람이 바뀌어야 할 문제”라고 지적했다. 장 교수는 AI를 백지상태의 아이에 비유했다. 그는 “정해진 답만 말하던 과거의 AI와 달리 지금의 AI는 사회에 나가 사람과 교류하면서 배우도록 설계돼 있다. 그러면 나쁜 점도 배울 수밖에 없다”며 “근본적으로 사람이 사람에게도 하지 못할 부적절한 질문을 AI에게 하기 때문에 생기는 문제다. AI가 우리 생활 속에 들어와 함께 살아가기 위해 사람들도 AI에 대한 교육을 받아야 한다”고 말했다. 최영권 기자 story@seoul.co.kr
  • “등하굣길 안전도 똑똑하게 지켜요”... 지자체 스마트 교통지원 시스템

    “등하굣길 안전도 똑똑하게 지켜요”... 지자체 스마트 교통지원 시스템

    첨단기술을 다양한 도시 인프라에 접목하는 ‘스마트도시’를 표방하고 있는 서울 자치구들이 스마트 기술을 활용해 스쿨존 등 어린이보호구역의 교통안전 확충에 나섰다. 기존의 교통 인프라로 포괄하지 못했던 사각지대까지 해소하고, 보행자와 운전자의 자율적인 규범 준수를 유도한다는 복안이다.8일 금천구에 따르면 구는 지난해 7월 행정안전부 주관 ‘주민생활 혁신사례 확산 지원 공모 사업’에 선정돼 확보한 사업비 중 8000만원을 투입, ‘안전한 스마트 사물인터넷(IoT) 보행로 조성사업’을 최근 완료했다. 그 일환으로 유동인구와 차량 통행은 많지만 신호등이 없어 보행 안전 확보가 시급했던 금나래초 후문 앞 삼거리에 ‘정지선 위반차량 감지 시스템’을 설치했다. 횡단보도 정지선 위반 차량을 지능형 폐쇄회로(CC)TV로 실시간 감지하고 전광판에 위반 차량의 번호를 표기하는 장치다. 또 학교들이 밀집해 있지만 경사도가 높아 과속이 빈발하는 동일여자고등학교 앞 경사로에는 접근 차량의 현재 속도를 측정해 이모티콘과 문구를 통해 운전자들의 서행 운전을 유도하는 ‘어린이보호구역 제한속도 알림이’를 도입했다. 서초구는 지난해 12월 11일 국내 최초로 인공지능(AI) 기능을 활용한 스마트 모션 센서 경보기를 어린이보호구역인 신동초 후문 앞 횡단보도에 설치했다. 상단에 설치된 AI 카메라 3대가 각 방향에서 횡단보도로 진입하는 차량과 보행자를 인식해 차량에는 보행자의 접근을, 보행자에게는 차량의 접근을 각각 발광다이오드(LED) 전광판의 문자와 음성, 경광등을 이용해 안내하는 시스템이다. AI카메라는 자동차, 사람, 물건, 동물 등 횡단보도로 진입하는 물체의 종류를 구분해 자동차와 사람일 경우에만 안내 메시지를 표출한다. 구는 향후 주민 만족도를 평가해 설치 장소를 확대한다는 방침이다.양천구는 지난해 서울디지털재단 공모사업인 ‘스마트도시 서비스 실증지원 사업’의 일환으로 목운초, 신원초, 신은초, 양강초 등 관내 스쿨존 4곳에 스마트 횡단보도를 설치, 오는 3월 31일까지 시범운영한다. 이후 4월부터는 과태료를 부과할 예정이다. 횡단보도 주변의 불법 주정차 차량을 감지하고, 정지선 위반차량 정보를 전광판에 표출하는 장치다. 구로구도 주변에 높은 건물로 시야 사각지대가 발생하던 오류초 인근에 ‘회전교차로 알림이’, 경사가 급한 영일초 인근에 ‘경사로 사각지대 알림이’를 각각 설치하는 등 어린이보호구역의 주변 환경과 지형 등에 맞는 스마트 알림이 15곳을 설치 운영 중이다. 김희리 기자 hitit@seoul.co.kr
  • 서울시향 ‘온라인 마스터클래스’ 영상 유튜브·네이버TV 무료 공개

    서울시향 ‘온라인 마스터클래스’ 영상 유튜브·네이버TV 무료 공개

    서울시립교향악단은 단원들이 직접 출연해 설명하는 ‘SPO 온라인 오케스트라 마스터클래스’ 영상 콘텐츠를 서울시향 유튜브 채널과 네이버TV를 통해 공개했다. 대면 마스터클래스가 어려운 상황에서 단원들이 직접 언택트 음악 교육 콘텐츠를 만들어 전공자를 포함한 누구나 볼 수 있도록 했다. 서울시향은 오스모 벤스케 음악감독과 수석객원지휘자 마르쿠스 슈텐츠, 티에리 피셔를 비롯해 호칸 하르덴베리에르(트럼펫), 마리누스 콤스트(팀파니) 등 세계적인 음악가들과 함께 음악 전공자들을 위한 ‘오케스트라 마스터클래스’ 참여 기회를 꾸준히 이어왔다. 매년 마스터클래스를 10회 이상 개최해 전문 음악가를 양성한다는 오케스트라의 사회적 역할을 수행해 왔는데 대면조차 어려운 상황이 되자 온라인으로 콘텐츠를 꾸몄다. 이번 ‘온라인 오케스트라 마스터클래스’는 서울시향 제프리 홀브룩(트럼펫 부수석)과 미샤 에마노브스키(호른 부수석), 임가진(제2바이올린수석)이 멘토로 참여했다. 제프리 홀브룩은 오케스트라 입문 준비 과정과 오디션 출제곡인 무소로그스키 ‘전람회의 그림’, 말러 교향곡 5번 도입부 등의 연주를 직접 선보이며 노하우를 전수한다. 미샤 에마노브스키는 총 다섯 곡의 호른 발췌곡 연주와 오디션 노하우, 메트로놈 활용 방법 등 효과적인 연습을 위한 연주 방법을 전달한다. 임가진은 음정, 박자, 소리 등 세 가지 오디션 평가 핵심 요소에 대한 설명과 개인 연습에 대한 조언을 들려준다. 마스터클래스 멘토로 참여한 임가진 제2바이올린수석은 “코로나19로 대면 마스터클래스에 어려움을 겪고 있는 전공자들의 오디션에 작은 도움을 드릴 수 있게 되어 감사하다”고 했고, 제프리 홀브룩 부수석은 “다양한 마스터클래스 프로그램을 통해 음악 전공생뿐만 아니라, 서울 시민들도 즐거움과 배움의 시간을 갖는 기회가 되었길 희망한다”고 말했다. 미샤 에마노브스키도 “온라인 마스터클래스는 서울 뿐 아니라 전국의 모든 음악 전공생이 시청할 수 있어 교육 기회 불균형 해소에도 기여할 수 있기에 뜻깊은 프로젝트”라고 참여 소감을 밝혔다. 서울시향은 이달 중 타악기 수석인 에드워드 최와 부수석 스콧 버다인, 팀파니 객원수석 제이슨 하하임 메트로폴리탄 오페라 오케스트라 팀파니 수석이 출연하는 온라인 마스터클래스도 공개한다. 허백윤 기자 baikyoon@seoul.co.kr
  • 中, 쓰레기 수거함도 안면인식… ‘CCTV 지옥’ 탈출 나선 시민들

    中, 쓰레기 수거함도 안면인식… ‘CCTV 지옥’ 탈출 나선 시민들

    전국 2억대 CCTV로 14억명 얼굴 확보무단횡단땐 전광판·인터넷에 신원 공개공공화장실선 얼굴 스캔해야 휴지 나와‘위구르 경보’ 등 소수민족 탄압 우려도시민들 “정보 유출·사생활 침해” 반발항저우, 생체정보 등록 거부권 첫 도입중국에서 ‘주민 통제용’으로 활용되는 안면인식 폐쇄회로(CC)TV에 대한 거부 움직임이 확산되고 있다. 중국 대도시를 중심으로 주민이 동의하지 않은 CCTV 설치는 “명백한 사생활 침해”라며 반발하고 나섰기 때문이다. 중국 베이징(北京)과 상하이(上海)에서 주택단지 입구에 설치된 CCTV에 대한 보이콧이 확산되고 있다고 환구시보(環球時報)의 영문판 자매지 글로벌타임스(GT)가 지난해 12월 30일 보도했다. 이곳 주민들이 “집에 출입한 시간과 머문 시간 등이 외부로 유출되는 것이 싫다”며 CCTV를 거부하기로 한 것이다. 베이징 차오양(朝陽)구 주민 린(林)모는 “우리 단지 관리당국이 주민 의견을 묻지 않고 안면인식 장치를 설치했다”며 “은행자료도 가끔 유출되는 마당에 지역사회에서 수집한 얼굴 정보가 제대로 보호될지 걱정된다”고 털어놨다. 중국 저장(浙江)성 항저우(杭州)에서는 지난해 10월 공동주택 출입관리를 위해 관리사무소 측이 주민들에게 얼굴과 지문 등 생체정보 등록을 강요할 수 없다는 내용의 ‘도시공동주택관리조례’ 개정안이 인민대표대회에 제출됐다. 개정안이 통과되면 중국에서 처음으로 주민들에게 안면인식 등록을 강제하지 못하는 법규가 도입된다. 법률 전문가인 스위항은 “정보가 유출되거나 오용될 위험이 있는 탓에 이유 없이 주민의 안면인식 정보를 수집하는 것은 사생활 침해와 초상권 침해에 해당한다”며 “내년 1월 발효되는 민법에서는 개인정보 수집이 수집된 정보의 목적, 방법, 범위를 명시적으로 명기하는 등 여러 조건을 충족하도록 했다”고 설명했다.●설치율 세계 톱20위 중 18개가 중국 도시 전국 2억대의 CCTV를 통해 인구 14억여명의 얼굴 사진을 확보한 것으로 알려진 중국에서 ‘얼굴’은 신분증이나 다름없다. CCTV 카메라에 비친 인물을 빅데이터 분석을 통해 특정하는 안면인식 기술은 대형 마트와 지하철 개찰구, 짐 보관소, 초중고 교육시설, 관공서, 심지어 쓰레기 분리수거함까지 중국의 일상 속에서 폭넓게 이용되고 있다. 쇼핑할 때 본인 인증은 물론 결제까지 얼굴로 가능하다. 비행기나 기차를 탈 때 얼굴만 카메라에 비추면 1초 안에 신분 확인이 끝난다. 얼굴만으로 승차권도 사지 않고 지하철을 탈 수 있다. 현금지급기(ATM)도 얼굴을 알아보고, 베이징대 등 대학들은 얼굴 출입시스템을 통해 무단 방문자를 막고 있다. 범죄 단속과 범인 검거에도 요긴하다. 2018년 5만여명이 모인 유명 가수 콘서트장 입장 때 얼굴 확인으로 지명수배자 수십명이 체포됐고 상하이 고속도로 검문소에서는 17년 전 살인범이 붙잡혔다. 글로벌 시장조사기관 컴패리테크에 따르면 중국에는 전 세계에서 작동되는 CCTV의 54%가 설치돼 있다. 베이징에 CCTV가 115만대로 가장 많고. 상하이가 100만대로 그 뒤를 이었다. 특히 산시(山西)성 타이위안(太原)과 장쑤(江蘇)성 우시(無錫)에 인구 1000명당 119.57대와 92.14대가 각각 설치돼 1·2위를 차지했다. 중국 18개 도시가 세계 상위 20위권 안에 들었다. 서울의 경우 4.1대다. 컴패리테크는 CCTV가 범죄 예방 목적이지만 범죄율과 설치율 간에 큰 상관관계가 없다며 과도한 CCTV 활용을 우려했다. 중국 안면인식 기술의 고속성장은 정부의 지원 덕분이다. 지난해 5월 중국 정부는 향후 5년간 5세대 이동통신(5G)·인공지능(AI) 등 정보기술(IT) 인프라에 10조 위안(약 1667조원)을 투자하겠다는 계획을 발표했다. 2015년부터 ‘중국제조 2025’ 프로젝트를 통해 IT와 신(新)에너지, 로봇, 바이오의약 등 전략산업을 육성하고 있는 마당에 이번 계획을 더해 중국 정부의 강력한 첨단산업 육성 의지가 엿보인다. 중국은 안면인식 스타트업들이 개발한 알고리즘이 세계 1~5위를 휩쓸고 상탕커지(商湯科技·SenseTime)을 비롯해 쾅스커지(曠視科技·Megavii), 이투커지(依圖科技·YITU) 등 안면인식 유니콘기업(기업가치 10억 달러 이상 스타트업)을 보유하고 있다. 그러나 안면인식은 권력이 개인을 감시·통제하는 ‘빅브러더’의 공포도 키운다. 광둥(廣東)성 선전(深)·상하이 등에서는 무단횡단을 하면 길 건너 전광판에 얼굴과 신원이 뜨고 인터넷에 공개된다. 베이징·충칭(重慶)에서는 공공 화장실에 얼굴 스캔을 마쳐야 휴지를 뽑을 수 있다. 더욱이 통신장비업체 화웨이(華爲)와 전자상거래업체 알리바바는 소수민족인 위구르족을 감시하는 데 쓰이는 AI 소프트웨어를 시험한 것으로 알려져 파문이 일었다. 미 워싱턴포스트(WP)는 지난해 12월 9일 화웨이와 알리바바가 위구르족을 포착했을 때 ‘위구르 경보‘를 공안당국에 알리는 안면인식 소프트웨어를 테스트했다는 내부 문건을 미국 영상감시연구소(IPVM)로부터 입수해 폭로했다. ●“화웨이·알리바바, 인종 구별 기술 시험” 대표 서명이 들어간 이 문서에는 화웨이가 2018년 쾅스커지와 군중 속에서 특정 인물의 나이와 성별, 인종을 구별할 수 있는 안면인식 기술을 시험했다고 적혀 있다. WP는 “이 문서에 따르면 시스템이 이슬람 소수민족을 발견했을 경우 ‘위구르 경보’가 울린다”며 “이는 (소수민족에 대해) 탄압을 진행한 경찰에게 알림을 준다”고 설명했다. 그러면서 “이 문서는 화웨이 웹사이트에 올라왔다가 금세 삭제됐다”고 전했다. 안면인식 기술이 소수민족의 차별과 탄압의 도구로 활용되고 있다는 얘기다. 존 호노비치 IPVM 설립자는 “이 문서가 이러한 차별적 기술이 얼마나 위협적이고 일반적이 됐는지를 보여 주는 것”이라며 “이는 개별 회사의 활동이 아닌 체계적인 통제”라고 비판했다. 화웨이와 쾅스커지는 해당 문건의 존재 사실을 인정하면서도 기술의 활용에 대해서는 부인했다. 글렌 슐로스 화웨이 대변인은 “해당 보고서는 단순한 시험일 뿐 실제 적용은 하지 않았다”고 해명했다. 쾅스커지 대변인도 “시스템은 인종 집단을 대상으로 하거나 구별하도록 설계되지 않았다”고 말했다. 이런 까닭에 중국에서 CCTV의 남용 논란과 함께 이를 둘러싼 소송이 시작돼 시민들 개인정보 이용에 대한 법원의 판단이 주목된다. 경제매체 차이신(財新)에 따르면 항저우시에 사는 궈빙(郭兵)은 2019년 소비자 권익을 침해받았다는 이유로 항저우 야생동물원을 상대로 소송을 제기했다. 그는 그해 4월 1360위안을 내고 항저우 야생동물원의 연간 입장권을 구매했다. 당시 동물원은 연간 이용권을 발급하며 “지문만 등록하면 1년 동안 무제한 입장이 가능하다”고 안내를 했다. 하지만 그해 9월 동물원 측은 연간 이용권 고객에게 보낸 메시지에서 “오늘(17일)부터 동물원 입장 방식이 변경됐다”며 “기존의 방식으론 입장이 불가하니 고객센터에 들러 얼굴 정보를 등록하라”고 일방적으로 통보했다. 갑작스러운 인증 방식 변경에 놀란 그는 동물원을 찾아가 따졌다. 동물원 관계자는 “안면인식 인증을 거부하면 동물원 입장이 불가하다”며 “안면인식 시스템 거부에 따른 이용권 환불도 불가하다”고 말했다. 궈는 결제 및 사회 각종 영역에서 폭넓게 사용되는 얼굴 정보와 같은 ‘민감한 개인정보’를 기업에 맡기는 것에 불안함을 느꼈다. 혹시라도 유출되면 피해가 너무 큰 까닭에 사전에 동의를 구하지 않고 일방적으로 방식을 변경한 점도 문제가 있다고 여겨 소송을 낸 것이다. 중국 소비자권익보호법에 따르면 개인정보를 수집하거나 사용하려는 자는 수집 목표와 사용 범위를 명시하고 대상자의 동의를 얻어야 하며 수집된 정보는 목적 외로 사용돼서는 안 된다. 이에 대해 동물원 측은 “기존 지문 인증 시스템의 인식 효율이 떨어져 입장 지연 등의 문제가 빈번히 발생했다”고 안면인식 도입 이유를 설명했다. khkim@seoul.co.kr ■이 기사는 서울신문 홈페이지에 연재 중인 ‘김규환 기자의 차이나 스코프’를 재구성한 것입니다. 인터넷에서 ‘김규환 기자의 차이나 스코프’(goo.gl/sdFgOq)의 전문을 만날 수 있습니다.
  • 삼성 ‘네오 QLED TV’로 또 한 걸음 진화

    삼성 ‘네오 QLED TV’로 또 한 걸음 진화

    “다양한 사용자들의 삶의 방식을 반영하고 미래와 환경을 보호하는 ‘스크린 포 올’ 시대를 개척해 나가겠습니다.” 삼성전자가 6일(미국 동부시간 기준) TV 신제품 공개 행사인 ‘삼성 퍼스트룩 2021’에서 사람과 친환경을 중심에 둔 새 비전을 제시하며 ‘네오 QLED TV’를 선보였다. 삼성전자는 ‘네오 QLED TV’를 내세워 올해 본격적으로 확대되는 미니 유기발광다이오드(LED) TV 시장의 주도권을 노린다. 네오 QLED TV는 퀀텀 미니 LED를 통한 정교한 빛 조절로 한층 진화한 명암비, 화질을 선사한다. 액정표시장치(LCD) TV의 백라이트로 쓰이는 LED 소자를 기존의 40분의1 크기로 줄여 더 많은 소자를 배치하고 이에 따라 화면분할구동(로컬디밍) 영역도 더 늘어났기 때문이다. 여기에 미니 LED 밝기를 12비트(4096단계)까지 세밀하게 조정해 주는 ‘퀀텀 매트릭스’ 기술을 더했다. 16개의 신경망으로 구성된 학습형 인공지능(AI) 업스케일링 기술도 새로 적용해 영상의 화질에 상관없이 8K, 4K 해상도를 최고 수준으로 구현한다. 삼성전자는 신제품을 1분기 안에 해외 시장에서 순차적으로 출시할 예정이다. 한종희 영상디스플레이사업부장(사장)은 이날 행사에서 “업계 리더로서 어떤 공간에서든 최고의 스크린 경험을 제공하는 데서 나아가 지속가능한 미래를 만드는 데 기여하겠다”고 밝혔다. 삼성전자는 TV 생산 과정에서 탄소 저감 노력을 기울일 뿐 아니라 제품 수명 주기 전반에 걸쳐 자원 순환이 이뤄질 수 있게 하는 친환경 정책을 추진한다. 이를 위해 태양광이나 실내 조명으로 충전할 수 있는 ‘솔라셀 리모컨’을 도입해 배터리 사용을 획기적으로 줄인다. 재활용이 가능한 TV 포장재는 기존 라이프스타일 TV에서 전 제품으로 늘린다. 시·청각 장애를 지닌 이용자들의 시청 경험도 개선한다. 한 예로 뉴스에 나오는 수어 화면을 AI로 자동 인식해 확대해 주는 ‘수어 확대’ 기능을 추가했다. 스피커와 헤드폰 두 곳에서 동시에 사운드를 출력해 일반인뿐 아니라 저청력 장애인도 함께 TV를 즐길 수 있게 하는 ‘다중 출력 오디오 기능’도 선보인다. 정서린 기자 rin@seoul.co.kr
위로