찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • 알파고
    2025-12-15
    검색기록 지우기
  • 내란음모
    2025-12-15
    검색기록 지우기
  • 베트남
    2025-12-15
    검색기록 지우기
  • 소비자물가
    2025-12-15
    검색기록 지우기
  • 트레일러닝
    2025-12-15
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
908
  • 음성으로 쇼핑하라… ‘AI 스피커 전쟁’

    음성으로 쇼핑하라… ‘AI 스피커 전쟁’

    아마존ㆍ구글 AI스피커에 쇼핑 접목 中 알리바바 자체 개발 AI 선보여 네이버ㆍ카카오 등 후발주자 경쟁요즘 네이버, 카카오, SK텔레콤, KT 등 정보통신기술(ICT) 기반 업체들은 인공지능(AI) 스피커에 ‘음성 쇼핑’ 기능을 담느라 분주하다. AI 스피커를 만들어서 왜 ‘장사’에 몰두하는 걸까. 인간에 가까워져서 인간이 원하고 필요한 것을 가장 잘 아는 것이 AI의 궁극적 목표다. 그러기 위해서 AI는 학습을 해야 하는데 반드시 ‘지식창고’, 즉 데이터베이스가 있어야 한다. 2016년 이세돌 9단을 꺾은 알파고가 프로기사들의 기보 수천만개를 학습했다는 걸 생각하면 쉽다. 지식창고가 크고 다양할수록 AI는 똑똑해진다.특히 상거래 플랫폼 시장은 AI 데이터베이스 확보 경쟁이 펼쳐지는 전쟁터다. ‘어떤 사람이 어떤 것을 원하는가’와 관련된 데이터베이스를 쌓기에 가장 적합한 활동이 상거래이기 때문이다. 2014년 10월 에릭 슈밋 구글 회장은 “구글의 최대 경쟁자는 빙(Bing)이나 야후 같은 검색 서비스가 아닌 아마존”이라고 말했다. 이렇게 일찌감치 상거래 플랫폼의 패권을 잡은 미국·중국 기업들은 AI 분야에서 우리나라보다 몇 발 앞서 나가고 있다. 7억 5000만명이라는 중국 내수시장을 가진 알리바바는 지난달 15일(현지시간) 자체 개발한 AI로 미국 스탠퍼드대의 인공지능 대회에서 사상 최초로 인간보다 뛰어난 독해능력을 선보였다.음성 쇼핑을 가장 먼저 준비해 온 아마존은 2014년 최초로 음성 주문 서비스를 선보인 뒤 최근엔 아마존 프라임에서 판매하는 모든 상품을 음성으로 주문할 수 있게 만들었다. 최근 문을 연 무인 편의점 ‘아마존고’를 통해 아마존이 얻는 가장 큰 보물도 따지고 보면 양질의 빅데이터다. 아마존고에 들어온 손님들은 말로 주문을 하지 않아도 편의점에 설치된 모든 장비를 통해 인종, 나이, 성별과 쇼핑 방식, 상품 카테고리별 체류시간 등의 정보를 아마존에 내주고 있기 때문이다.구글은 지난해 초 ‘구글홈’에 음성 쇼핑 기능을 추가하고 세계 최대 유통업체인 월마트를 비롯해 코스트코 및 타겟 등 대형 유통 사업자들과 연합전선을 구축했다. 지난해 12월부터는 아마존의 경쟁사인 이베이와 제휴를 맺고 AI 비서인 ‘어시스턴트’를 통해 원하는 상품을 쉽고 편리하게 찾을 수 있는 기능을 포함시켰다. 한발 늦게 출발한 국내기업들은 이제 막 음성 쇼핑을 통해 사용자 행동을 데이터화하는 시스템을 구축하는 단계다. 빠르게 보급되고 있는 AI 스피커가 그 첨병 역할을 하고 있다. AI 스피커를 통해 기업은 사용자 음성 패턴과 상거래 관련 데이터를 동시에 축적할 수 있다.SK텔레콤은 자회사인 SK플래닛의 ‘11번가’와 연계해 음성 명령만으로 11번가의 상품을 주문할 수 있는 서비스를 제공하고 있다. KT도 ‘기가지니2’로 롯데리아 홈서비스를 출시하는 등 상거래 기능을 강화했다. LG유플러스는 네이버와 손잡고 출시한 AI 스피커 ‘프렌즈 플러스’를 통해 LG생활건강, GS리테일의 제품을 시중보다 저렴한 가격에 당일 배송으로 구매할 수 있도록 하고 있다. 네이버는 ‘배달의 민족’과 클로바 프렌즈를 연동해 목소리만으로 배달 음식을 주문할 수 있는 음성 주문 서비스를 선보였다. AI 스피커 ‘카카오 미니’를 판매하고 있는 카카오 역시 지난달 대규모 업데이트를 통해 카카오톡 안에서 상품을 주문, 결제까지 할 수 있는 자체 상거래 플랫폼을 도입했다. 업계 관계자는 “상거래 플랫폼의 주도권을 가진 사업자가 결국 AI 시장의 리더십을 가져갈 것”이라면서 “이를 위한 글로벌 정보기술(IT) 기업들의 전쟁이 이미 시작됐다”고 말했다. 김민석 기자 shiho@seoul.co.kr
  • “인공지능(AI), 이미 악용 단계 돌입” 전문가들 경고

    “인공지능(AI), 이미 악용 단계 돌입” 전문가들 경고

    미사일로 바뀐 드론(무인항공기)이나 여론을 조종하는 가짜 영상, 또는 자동화된 해킹 프로그램은 범죄자 손에 들어간 인공지능(AI)이 가져올 일부 위협에 지나지 않는다고 AI 분야 최고 전문가 26인이 경고하고 나섰다. 학계와 시민단체, 그리고 업계의 기관 14곳의 전문가 26명은 이달 이틀간 영국 옥스퍼드에서 ‘AI의 위험성’에 관한 워크숍을 가졌다. 그 결과를 바탕으로 한 ‘AI 악용 보고서’(The Malicious Use of Artificial Intelligence)는 불량 국가(테러지원국)나 범죄자, 또는 테러리스트들은 이미 AI를 악용할 수준에 있으며 그 기회는 무르익어가고 있다고 경고한다. 100쪽 분량의 이번 보고서에서 전문가들은 AI가 악용될 가능성이 가장 높은 분야로 디지털과 현실세계, 그리고 정치까지 3가지로 꼽았다. 이번 보고서에는 미국 비영리 AI 연구 단체 ‘오픈 AI’(Open AI)와 디지털권리 단체 ‘프런티어전자재단’(The Electronic Frontier Foundation), 그리고 미국 안보 싱크탱크 센터 ‘신미국안보센터’(Center for a New American Security)도 참여했다. AI 시스템의 설계자들은 자신들이 개발하는 기술이 악용될 가능성을 줄이기 위해 지금까지 이상으로 노력해야만 한다고 말한다. 또 이번 보고서는 각 나라 정부가 새로운 법안을 검토해야만 한다고 주장한다. 보고서의 주된 제안은 다음과 같다.   · 정책 입안자들과 기술 연구원들은 AI의 악용을 이해하고 대비하기 위해 협력한다.  · AI는 긍정적인 면이 많지만, 양날의 검과 같은 기술임을 이해하고 연구자나 기술자들은 악용 가능성을 염두에 두고 이를 미리 적극적으로 대응해야 한다.  · 컴퓨터 보안과 같이 양날의 검과 같은 기술을 오랫동안 취급해온 분야에서 모범 사례를 배워야 한다.  · AI의 악용과 관련한 위험을 방지하고 완화하는 다양한 분야의 이해 관계자를 적극적으로 확충한다. 이번 보고서에 대해 영국 케임브리지대학 산하 실존적위험연구센터(CSER·Centre for the Study of Existential Risk)의 샤하르 아빈 박사는 BBC 뉴스와의 인터뷰에서 “먼 미래보다는 현재나 5년 안에 사용될 분야에 중점을 뒀다”고 말했다. 특히 우려되는 점은 ‘강화 학습’(reinforcement learning)으로 불리는 새로운 분야다. 인간의 예시나 지침이 없는 상태에서 AI는 초인적인 수준으로 지식을 습득한다. 아빈 박사는 가까운 미래에 AI가 어떻게 ‘악의적’으로 변할 수 있는지 몇 가지 가능한 시나리오를 공개했다.   · 인간을 뛰어넘은 구글 딥마인드의 AI 바둑 프로그램 ‘알파고’와 같은 기술을 해커가 이용하면 데이터나 프로그램 코드의 패턴을 읽을 수 있다.  · 범죄자가 드론을 구매해 얼굴 인식 기술을 탑재한 뒤 표적이 되는 사람을 공격할 수 있다. · ‘봇(bot)’이라는 자동게시프로그램을 이용해 실제 사람이 올린 것처럼 ‘가짜’ 영상을 유포해 정치적 여론을 조작할 수 있다. · 해커들은 목표물을 속이기 위해 음성 합성을 사용할 수 있다. 영국 옥스퍼드대 인류미래연구소의 마일즈 브런디지 연구원은 “AI는 시민과 조직, 그리고 국가 수준으로 위험 예측을 바꿀 것이다. 범죄자들은 AI에 인간 수준의 해킹이나 피싱 기술을 학습하게 하거나 사생활을 없애는 감시와 자료수집, 그리고 억압 기술을 기억하게 하는 등 안보에 엄청나게 큰 영향을 줄 것”이라고 우려했다. 이와 함께 “AI 시스템이 인간의 능력 수준에 도달하는 것뿐만 아니라 이를 크게 능가하는 경우는 많다”면서도 “초인적 해킹과 감시, 설득, 그리고 물리적 대상 식별에 더해 인간 이하이긴 하지만 인간의 노동력을 쓰는 것보다 훨씬 더 확장성이 있는 AI 능력의 영향은 성가시긴 하지만 필요하다”고 말했다. CSER의 책임자로 보고서를 공동 집필한 숀 오아이기어태이그 박사는 “AI는 현재 상황을 단번에 바꿀 수 있다. 이 보고서는 앞으로 5~10년 동안 세계가 어떤 모습일지 예측한다”고 설명했다. 또 “우리는 AI의 악용에 매일 위험에 노출될 수도 있는 세상에서 살고 있다. 우리는 이 문제를 자신의 문제로 파악해야 한다”면서 “위험은 실제로 존재하기 때문”이라고 말했다. 이어 “지금 결정하지 않으면 안 되는 사안이 몇 가지 있다”면서 “이번 보고서는 전 세계의 정부와 기관, 그리고 개개인이 행동을 취하도록 촉구하는 것”이라고 덧붙였다. 사진=123rf.com 윤태희 기자 th20022@seoul.co.kr
  • 수능 영어 대입 비중 ‘뚝’… 4등급도 서울대 합격

    올해 서울대 정시 모집에서 영어 4등급을 받은 학생이 합격하는 등 영어 변별력이 크게 떨어진 것으로 나타났다. 서울대와 고려대 정시 합격자 중 영어 2등급 이하 비율이 40%에 육박하는 것으로 분석됐다. 영어 과목이 절대평가로 치러지면서 대학이 점수 반영 비율을 낮췄기 때문이다. 종로학원하늘교육은 2018학년도 서울대 정시 최초 합격자 수능 성적을 분석한 결과 2등급 이하 비율이 39%로 추정된다고 7일 밝혔다. 고려대도 최초 합격자 중 영어 2등급 이하가 37%로 분석됐다. 영어는 올해부터 절대평가로 치러져 원점수(100점 만점) 기준으로 90점 이상 1등급, 80~89점 2등급, 70~79점 3등급, 60~69점 4등급을 받았다. 서울대는 절대평가 시행에 따라 영어 성적이 한 등급 내려갈 때마다 0.5점만 감점했다. 1등급 학생과 4등급 학생 간 점수 차가 1.5점밖에 나지 않았다는 얘기다. 이 때문에 영어 4등급을 받고도 수학 만점을 받아 공대에 합격한 사례도 있었다. 고려대 역시 2등급은 1점 감점하고, 3등급부터는 한 등급 내려갈 때 2점 감점하는 등 급간 점수 차를 크게 벌리지 않았다. 반면 연세대는 영어 1등급에 100점으로 주고 2등급은 95점, 3등급은 87.5점, 4등급은 75점을 줘 점수 차를 벌렸다. 올해 이 대학 정시 최초 합격자 가운데 영어 2등급 이하 비율은 2% 안쪽인 것으로 추정된다. 서울대와 연세대, 고려대 모두 공대에서 컴퓨터학과가 합격선이 가장 높은 것으로 나타났다. 바둑 인공 지능(AI) ‘알파고’의 영향으로 프로그래머 인기가 크게 높아진 데다 올해부터 학교에서 소프트웨어 교육이 도입되는 분위기도 반영된 것으로 분석됐다. 임성호 종로학원하늘교육 대표는 “지난해까지는 영어 2등급 이하 점수를 받고 서울대에 진학하는 건 불가능에 가까웠다”면서 “서울대가 영어 급간 점수 격차를 좁히면서 영어를 못봤어도 국어, 수학, 탐구 영역을 잘봤으면 만회할 수 있게 됐다”고 말했다. 유대근 기자 dynamic@seoul.co.kr
  • <김규환 기자의 차이나 스코프>굴욕당한 중국 핵잠수함 이번엔 확실한 굴기?

    <김규환 기자의 차이나 스코프>굴욕당한 중국 핵잠수함 이번엔 확실한 굴기?

    오성홍기(五星紅旗)를 당당히 내건 중국의 최신형 핵잠수함이 지난달 12일 중국과 일본의 영유권 분쟁지역인 동중국해에서 갑작스레 수면 위로 떠오르는 굴욕을 맞봤다. ‘093A형’으로 불리는 중국의 ‘상(商)급’ 핵잠수함은 이날 양국의 영유권 분쟁 지역인 센카쿠(尖閣·중국명 釣魚島) 열도 인근 해역에 진입했다가 잠수함의 소음이 너무 심해 일본 해상자위대에 꼬리를 잡히는 바람에 이틀 간 쫓겨 다녔다고 홍콩 사우스차이나모닝포스트(SCMP)가 보도했다. 잠수함이 수면 위로 모습을 드러냈다는 것은 ‘항복’을 뜻하는 만큼 G2로 부상한 중국으로서는 쉽사리 잊혀지기 어려운 능멸을 당한 셈이다. SCMP는 “생존을 위해 최대한 은밀하고 조용히 움직이는 잠수함이 다른 나라 해군 함정 앞에서 모습을 드러내는 것은 매우 이례적”이라며 사실상 항복을 의미한다고 전했다. 당시 잠수함이 오성홍기를 매단 채 부상한 것이 센카쿠열도에 대한 영유권을 주장하기 위해서라는 일각의 시각도 있지만, 전문가들의 견해는 이와 다르다. 앤서니 웡(黃東) 마카오국제군사학회 회장은 “영유권을 주장하기 위해서라면 센카쿠열도에서 수면으로 떠올랐어야지 왜 공해상에서 부상했느냐”고 의혹을 제기했다. 잠수함은 물 속에서 아무도 모르게 움직이는 것이 기본이다. 수상함보다 자체 방어능력이 취약한 잠수함은 적에게 움직임이 포착되면 더 이상 작전수행이 불가능해지기 때문이다. 이번에 발각된 093A형 잠수함은 과거 ‘091형’인 ‘한(漢)급’ 핵잠수함의 소음 문제를 극복하기 위해 중국이 나름대로 심혈을 기울여 제작한 것으로 알려졌다. 현재 인도양과 서태평양에서 작전 중인 중국 해군의 핵잠수함은 2006년 취역한 ‘093형’ 2척과 이를 개량한 093A형 2척 등으로 이뤄져 있다. 최신형 093A형은 미 해군의 주력인 로스앤젤레스급 핵잠수함에 대적할 수 있을 것이라고 기대를 한몸에 받았지만, 이번 사건으로 한계가 드러났다는 게 군사 전문가들의 대체적인 분석이다. 2004년 091형 잠수함이 센카쿠열도 인근에서 일본 해상자위대에게 발각됐을 당시에도 추격을 받았지만 수면 위로 떠오르지 않은 채 중국 영해로 되돌아온 전례가 있다. 이에 따라 중국 해군은 미 해군의 기술적 지원을 받는 일본 해상자위대의 잠수함 탐지·추적 능력에 관심이 모아진다. 앞서 2015년 미 해군과 일본 해상자위대는 오키나와를 거점으로 난세이(南西)제도의 태평양 쪽을 광범위하게 탐지할 수 있는 잠수함 음향감시시스템(SOSUS)을 부설했다. 최신형 SOSUS의 가동으로 미·일은 서해와 동중국해에서 태평양으로 빠져나가는 중국 잠수함의 대부분을 탐지 가능한 것으로 전해졌다. 이런 가운데 중국이 감지되지 않아 은밀하게 기동하는 스텔스 잠수함 기술에서 미국을 따라잡았다는 주장을 펴 주목된다. 마웨이밍(馬偉明) 해군 소장은 최근 중국 관영 중앙방송(CCTV)과의 인터뷰에서 “모든 엔진 출력을 전기로 변환하는 통합전기추진체계(IEPS)와 림 구동 펌프 제트(Rim-driven Pump-jet) 엔진이 중국 해군의 최신형 핵잠수함에 장착됐다”며 “이들은 세계를 선도하는 기술로 비슷한 기술을 개발해 온 미국을 크게 앞선다”고 강조했다. 림 구동 펌프 제트는 둥근 원통 모양의 전기 모터 내부에서 회전 날개를 돌려 추진력을 만드는 방식이다. 축이 없고 물거품을 적게 만들어 기존 엔진보다 훨씬 조용하다. 지금까지 중국 잠수함은 소음이 커 쉽게 꼬리가 잡힌다는 조롱을 받았으나 이런 첨단 기술의 적용으로 이제 상황이 바뀌었다는 게 중국 군사 전문가들의 주장이다. 콜린 코 싱가포르 난양대 교수는 “중국이 스텔스 잠수함의 운용으로 작전 및 전략 능력을 높이면 중국의 해양 군사력은 크게 강화될 것”이라고 분석했다. 최신 공격형 핵잠수함인 ‘095형’과 탄도미사일 장착 잠수함인 ‘096형’에 스텔스 잠수함 기능이 적용될 것으로 알려졌다. 특히 중국의 최신 스텔스 잠수함 등에는 첨단무기인 ‘전자총’도 장착될 공산이 크다. 마 소장은 “새로운 추진 시스템의 궁극적인 목표는 전자총을 장착하는 데 필요한 문제를 해결하기 위한 것”이라고 밝혔다. 전자총은 강력한 전자기파를 발사해 전자 장비를 무력화시키는 에너지 무기를 뜻한다. 전자총은 탄도미사일과 극초음속 크루즈 미사일, 극초음속 비행체 등의 위협에 맞설 수 있는 까닭에 미국과 러시아, 인도 등도 개발에 열을 올리고 있다. 중국 해군은 이와 함께 핵잠수함에 인공지능(AI)을 도입해 잠수함 지휘관의 실전 대응능력을 높이는 방안도 본격 추진하고 있다. 현재 핵잠수함에 적용되는 컴퓨터는 민간 기업 등에서 쓰는 최첨단 컴퓨터에 한참 뒤처진다. 실제 전투가 벌어졌을 때 초래되는 충격과 열, 전자기 방해 등에 견디기 위해서는 무엇보다 내구성이 우선돼야 하기 때문이다. 이에 소나(SONAR·수중음파탐지기)가 받아들이는 신호를 해석하고 판단을 내리는 일은 거의 전적으로 승무원이 맡아서 한다. 하지만 급속히 발전하는 AI를 핵잠수함에 도입해야 할 필요성은 커지고 있다. 소나는 물론 잠수함의 센서, 첩보위성, 해저 음파탐지기 등에서 수집되는 정보의 양이 갈수록 방대해지는 데다 AI가 잠수함 지휘관에 도움을 줄 수 있는 영역이 확대되기 있기 때문이다. 예컨대 소나에서 받아들인 신호를 제대로 해석하기 위해서는 해수의 염분과 수온 등을 모두 고려해야 한다. 이런 작업에서 AI가 탁월한 능력을 발휘할 수 있다. 적의 위협을 탐지하는 능력도 AI가 인간보다 더 빠르다. AI는 감정을 지니지 않는다는 점에서도 인간 지휘관의 약점을 보완할 수 있다. 깊고 어두운 바닷속에서 수개월 간 잠수함 내부의 좁은 공간에서 지내야 하는 만큼 핵잠수함 지휘관은 심각한 스트레스에 시달릴 수 있다. 이러한 스트레스는 실제 전투의 결정적인 순간에 오판을 내리게 할 우려가 있다. AI는 감정의 흔들림 없이 냉철한 판단을 내릴 수 있다. 구글의 AI 알파고가 바둑에서 보여준 것처럼 인간 지휘관이 생각해 낼 수 없는 독창적인 전략을 제시할 수도 있다. 주민(朱民) 중국과학원 연구원은 ”AI는 최근 수년간 중국 잠수함 기술 연구에서 가장 뜨거운 주제 중 하나“라면서 ”AI는 수중 전쟁의 양상을 바꿀 수 있는 ‘게임 체인저’의 잠재력을 지니고 있다“고 말했다. 미 해군의 잠수함 기술 연구에 관여하는 조 마리노는 “중국이나 러시아가 스텔스, 센서, 무기 등과 결합한 AI에서 우위를 차지한다면 미국의 수중 지배력에 심각한 위협을 줄 수 있을 것”이라며 미국도 잠수함에 AI 도입을 적극적으로 검토해야 한다고 지적했다. 하지만 AI를 실제 적용하기에는 적지 않은 장애물이 있다는 견해도 있다. 알파고가 나온 후 2년 만에 처음 크기의 10분의 1로 줄었다고 하지만, AI는 아직 대용량 컴퓨터가 필요하다. 잠수함의 좁은 공간에 적용하기가 쉽지 않다는 얘기다. 전투 시 충격과 열에 견딜 정도의 내구성도 필요하다. 핵잠수함 AI를 연구하는 한 과학자는 ”이는 코끼리를 구두 상자 안에 넣는 것과 비슷하다“고 어려움을 털어놨다. 실제 전투에서 AI가 자의적인 판단을 내릴 때 발생할 위험도 고려해야 할 요인이다. 주민 연구원은 ”제어가 안 되는 AI가 한 대륙을 파괴할 정도의 핵무기를 지닌 잠수함을 장악한다면 그 결과는 어떨지 상상이 안 간다“면서 ”이는 핵잠수함에 AI를 도입할 때 반드시 고려해야 할 위험 요소“라고 말했다. 김규환 선임기자 khkim@seoul.co.kr
  • 과학자-수요자 이어주는 ‘아이디어 복덕방’ 생긴다

    과학자들의 연구 성과를 산업화로 연결해 주는 아이디어 복덕방, 위험 물질이나 장비를 수시 점검해 주는 연구실 안전관리 같은 연구개발(R&D)과 관련한 새로운 직업들이 탄생할 전망이다. 과학기술정보통신부는 이 같은 내용이 포함된 연구개발서비스업 혁신역량 강화 지원사업을 본격 추진한다고 31일 밝혔다. 연구개발서비스업은 영리를 목적으로 R&D를 수행 또는 위탁 개발하거나 각종 지원을 통해 새로운 가치를 창출하는 업종이다. 알파고를 개발한 구글의 딥마인드도 대표적인 인공지능 연구개발서비스 기업으로 꼽힌다. 과기정통부는 특히 연구산업 혁신성장전략에 따른 10대 중점 연구관리 서비스 분야를 정해 집중 지원·육성할 방침이다. 가장 눈에 띄는 분야는 기술·아이디어 중계 서비스다. R&D를 수행하는 연구자와 그 결과물을 이용하고자 하는 적절한 수요자를 찾아 연결하고 관련 정보를 제공해 주는 등 ‘아이디어 복덕방’이라고 할 수 있는 업종이다. 또 이공계 분야 연구실에서는 위험한 화학물질과 장비를 다루는 경우가 많은 만큼 이에 대한 안전 컨설팅과 교육, 점검 서비스를 제공하는 연구안전 서비스도 눈길을 끈다. 유용하 기자 edmondy@seoul.co.kr
  • [박형주의 세상 속 수학] 갇혀 있는 창의성

    [박형주의 세상 속 수학] 갇혀 있는 창의성

    2016년 봄에 우리나라를 찾아와서 충격을 주었던 알파고가 업그레이드된 모습으로 중국에 나타나 세계 최강이라는 커제에게 전승을 거둔 뒤에 은퇴를 선언하고 바둑판을 떠나는 모습은 초현실적이다. 무협지의 영웅이 신묘한 영약을 얻어서 초인으로 거듭나더니 무림을 평정하고 홀연히 속세를 떠나는 모습이랄까. 이번엔 영화의 주인공으로 다시 찾아왔다. 2017년 서울독립영화제에 출품됐던 다큐멘터리 영화 ‘알파고’는 그의 탄생과 짧은 생을 다룬다. 서울의 어느 시사회장에서 접한 이 영화는 인공지능 시대의 도래를 선언하는 내용일 거라는 내 심증과는 아주 달랐다. 영화 터미네이터에서 인간을 지배하는 전지전능한 인공지능으로 출연하는 스카이넷의 공포보다는 인간의 고유한 역할에 대한 반추와 먹먹함을 유발한다. 프랑스 보르도에 사는 중국계 프로 기사 판후이는 영화에서 관찰자이자 기록자의 역할이다. 어느 날 런던의 구글 딥마인드라는 기업으로부터 바둑 프로젝트와 관련한 초청을 받는다. 자신의 머리에 온갖 측정 장치를 달고 바둑을 두게 하는 실험을 연상하며 런던으로 향하지만, 예상과 달리 컴퓨터 프로그램과 대국을 하게 된 그는 전패의 치욕을 겪게 된다. 유럽에서 오래 살아서 기력이 형편없어졌다는 등의 악성 인터넷 댓글은 그에게 큰 상처를 남긴다. 딥마인드 팀은 판후이의 도움으로 알파고 알고리즘의 치명적인 결함을 발견한다. 예상 외의 국지적 손실이 전체 판세에 연쇄적이고 과도한 영향을 미치는 현상에 고심하지만, 시간에 쫓겨서 알고리즘 미세 조정에 그친다. 영화의 대부분은 서울의 장면들로 이루어져 있다. 알파고와 이세돌 대국의 역사적 가치와 함께 두고두고 회자될 만한 신묘한 수로 두 개의 수를 소개한다. 알파고의 제1국 37수와 이세돌의 제4국 78수다. 바둑 전문가들을 충격에 빠트린, 이전의 인간이라면 두지 않았을 전인미답의 수다. 이세돌은 알파고의 37수를 바둑의 아름다움을 드러낸 수라고 극찬한다. 우리가 아는 창의력도 어떤 틀 안에 있는 게 아닌가라는 말도 덧붙인다. 나만의 창의성이라고 생각했던 것조차도 교육, 관습, 관례대로의 틀 안에 갇혀 있던 것은 아닐까. 그 틀 밖에 그 모든 것을 넘는 신묘한 수 나만의 37수가 있을지도 모르는데. 영화에서 알파고의 37수는 인간의 창의력과 그 한계에 대한 새로운 질문을 끄집어내는 방아쇠 역할을 한다. 인간의 관습에서 자유로운 알파고의 파격적 창의성에 속수무책으로 무너진 이세돌은 3연패를 기록한다. 여기서 깊은 좌절과 고뇌의 산물로 나오는 카운터펀치가 4국의 78수다. 이전의 이세돌이라면 두지 않았을, 알파고에게 통상보다 훨씬 많은 90여수까지 두어 보며 계산하도록 강요한 ‘신의 한 수’로 회자되는 바로 그 수다. 인공지능은 인간성을 파괴하며 일자리를 빼앗아 가는, 언젠가 인류를 지배할지도 모르는 인류의 공적이라고? 영화는 말한다. 이세돌의 78수는 기계를 통해 인간다움(humanness)이 확장되고 성장할 수 있음을 입증한다고. 교육받은 대로라면 검토해 보지도 않았을 수를 단 세 번의 대국 만에 이제는 편견 없이 가능성의 범주에 두게 됐다는 것, 그 사유의 확장성에 주목하는 것이다. 이제 기계에 인간이 판판이 깨지는 게임이 된 바둑은 설 자리를 잃을 거라고? 영화 마지막의 엔딩 롤에 이런 자막이 나온다. ‘알파고 이후 바둑을 배우려는 사람들이 대거 늘면서 세계적인 바둑판 부족 현상이 보도되었다.’
  • 600년 간 해독되지 않은 ‘미스터리 암호’ AI가 풀까?

    600년 간 해독되지 않은 ‘미스터리 암호’ AI가 풀까?

    인공지능(AI)이 세계에서 가장 미스터리한 책으로 알려진 ‘보이니치 필사본’을 해독할 수 있을 거라는 주장이 나왔다. 보이니치 필사본은 탄소연대측정에 따라 15세기에 쓰여진 것으로 추정되는 책이다. 여러 그림 및 알려지지 않은 문자와 언어로 쓰여있다. 책의 이름은 1912년 당시 이 책을 입수한 사람의 이름에서 유래했다. 문서가 발견된 이후 많은 암호학자들이 이 문서를 해독하려 했지만 단 한 단어도 성공하지 못했다. 이 때문에 보이니치 필사본은 암호학계의 성배로 불리는 동시에, 정교하게 만들어진 의미없는 내용이라는 주장도 있다. 캐나다의 AI 전문가 그레그 콘드랙 박사는 인공지능(AI)이 600년 간 풀리지 않은 미스터리한 책을 번역할 ‘구원투수’가 될 것으로 예상했다. 그는 지난해 '고수'들을 연이어 물리치면서 '포커계의 알파고'로 떠오른 AI ‘딥스택’(DeepStack)을 개발한 캐나다 앨버타대학의 컴퓨터공학과 AI연구소 소속이다. 콘드랙 박사는 최근 현지 언론과 한 인터뷰에서 “보이니치 필사본의 언어는 통계학적인 알고리즘을 통해 풀어낼 수 있다. 이 알고리즘은 유엔인권선언을 380개 언어로 번역할 때 97%의 정확성을 보인적이 있다”고 설명했다. 이어 “해당 알고리즘을 보이니치 필사본에 적용시킨 결과, 보이니치 필사본의 언어는 히브리어와 유사한 것으로 나타났다. 모음은 삭제돼 있고, 농부, 빛, 공기, 불 과 같은 단어들이 포함돼 있는 것으로 보인다”고 덧붙였다. 콘드랙 박사는 보이니치 필사본의 일부가 여성의 건강과 관련된 내용을 담고 있는 것으로 추정하고 있다. 또 히브리어에 대해 매우 잘 알고 있고, 동시에 역사가인 사람이라면 보이니치 필사본을 해독할만한 단서를 찾아내기에 유리할 것이라고 예측했다. 다만 보이니치 필사본의 복잡성을 고려했을 때, AI의 해독능력뿐만 아니라 사람의 번역이 보완되어야 할 것으로 보인다고 설명했다. 송혜민 기자 huimin0217@seoul.co.kr
  • [유용하 기자의 사이언스 톡] AI 판사가 더 공정할까

    [유용하 기자의 사이언스 톡] AI 판사가 더 공정할까

    인공지능(AI) 기술은 정말 빠르게 발전하고 있습니다. 지난해 말에는 구글의 딥마인드에서 개발한 AI ‘알파고 제로’가 등장해 사람들을 깜짝 놀라게 했습니다. 2016년 이세돌 9단과의 대국에서 압승을 거둔 ‘알파고 리’를 비롯해 많은 AI들은 기존의 수많은 데이터들을 바탕으로 딥러닝 기술로 능력치를 높입니다. 그렇지만 알파고 제로는 바둑이나 체스, 장기의 기본 규칙만 알고 인공신경망 기술을 활용해 스스로 게임의 이치를 터득한 뒤 기존의 알파고들과 게임한 결과 차례로 격파해 나갔다고 합니다.이 때문에 일부에서는 조만간 강(强)인공지능이 등장하는 것 아니냐는 우려까지 나오고 있습니다. 그렇지만 전문가들은 강인공지능은 아직 요원한 이야기라고 하니 아직까지는 걱정할 필요가 없을 것 같기도 합니다. 하루가 다르게 변하는 AI 기술 소식을 들으면서 사람들은 정치적 문제가 걸려 있거나 판단이 쉽지 않은 범죄 사실에 대한 판결을 내릴 때 ‘인공지능 판사’를 도입하면 더 공정하지 않을까라고 말하곤 합니다. ●AI도 인종적 편견 갖고 판단 내려 살인죄로 유죄 판결을 받은 양극성 장애를 가진 여성에게 몇 년의 징역을 선고해야 할까, 이전에 경범죄를 저지른 범죄 경력도 없다면 재판 중 보석 신청을 받아들여야 할까 등 쉽게 판단을 내릴 수 없는 문제들이 미국 전역 판사들의 책상에 쌓여 있다고 합니다. 이 때문에 판결을 내릴 때 인공지능의 도움을 받는 것은 어떨까 하는 목소리가 미국 내에서도 높아지는 것 같습니다. 그렇다면 과연 일반인들이 생각하는 것처럼 ‘인공지능 판사’의 판결이 인간이 내리는 결정보다 나을까요. 결론부터 말씀드리면 “인공지능 판사가 사람이 내리는 결정보다 결코 낫지 않다”입니다. 미국 다트머스대 컴퓨터과학과 연구팀은 미국 법무부에서 활용하는 범죄자 재범 가능성 판단 알고리즘 프로그램인 ‘콤파스’가 내린 결정과 사람이 내린 결정을 비교해 봤습니다. 콤파스는 현재 미국 법원에서 범죄자의 보석금 액수나 형량 등의 판단을 내릴 때 활용되고 있는 AI입니다. 연구팀은 플로리다주 브로워드카운티에서 재판을 기다리고 있는 약 1만명의 범죄자 중 무작위로 1000명을 선택해 콤파스가 판단했던 재범 확률 점수와 향후 2년 동안 체포 기록을 확인했습니다. 그다음 400명의 일반인들에게 콤파스에 입력된 똑같은 정보를 제공하고 재범 가능성을 판단하도록 한 뒤 비교해 본 것입니다. 결과는 사람들이 생각하는 것과 많이 달랐습니다. 사람이 내린 예측 정확도는 67%였고, 인공지능인 콤파스가 내린 예측의 정확도는 65.2%였습니다. 미세한 차이이기는 하지만 사람의 결정이 더 정확했다는 것입니다. 또 다른 실험을 통해 인공지능 역시 사람처럼 흑백 인종적 편견을 갖고 판단을 내린다는 사실을 확인하기도 했습니다. 이들의 연구 결과는 기초과학 및 공학분야 국제학술지 ‘사이언스 어드밴시스’ 1월 17일자에 실렸습니다. 사실 2016년 비영리 탐사보도 매체인 ‘프로푸블리카’에서 콤파스가 백인보다 흑인 범죄자에게 더 과도한 형량과 판결을 내린다고 폭로해 논란이 되기도 했습니다. 이번 실험은 인공지능의 ‘공평무사’를 기대하는 사람들에게 그렇지 않다는 사실을 다시 한번 확인해 준 것이라고 할 수 있습니다. ●AI 기술의 발전 방향 더 지켜봐야 인공지능 기술 역시 사람이 만든 것이니만큼 그 판단 역시 결코 ‘중립적’일 수는 없을 것이라고 생각됩니다. 인공지능의 미래에 대해 무조건 낙관적인 생각을 갖고 있다가 만약 인공지능이 내린 판단이 자신들이 원하는 방향이 아닐 때 뒤늦게 기술에 문제가 있다고 비난하기보다는 지금은 기술의 발전 방향을 차분히 지켜봐야 할 때가 아닌가 싶습니다. edmondy@seoul.co.kr
  • [IT 신트렌드] 설명 가능한 AI가 주는 선물/추형석 소프트웨어정책연구소 선임연구원

    [IT 신트렌드] 설명 가능한 AI가 주는 선물/추형석 소프트웨어정책연구소 선임연구원

    인공지능(AI)기술은 최근 눈부신 성장을 거듭하고 있지만 동시에 어두운 이면도 부상하고 있다. 우리 사회는 앞으로 AI와 공존하게 될 것이다. 그 전제 조건 중 하나가 바로 AI에 대한 신뢰성이다. AI가 자동으로 의사 결정한 이유에 대해 설명이 불가능하다면 인간과의 공존이 어려울 것이기 때문이다. 현재 AI 기술에서 가장 성능이 좋은 ‘딥 러닝’ 기술은 설명이 거의 불가능하다. 이세돌 9단과 대국을 펼친 알파고에도 바둑 지식을 습득하기 위해 딥 러닝 기술이 활용됐다. 그러나 현재 기술력으로는 왜 알파고가 바둑을 잘 두는지에 대해 논리적 인과관계를 설명하지 못한다. 사실 딥 러닝 기반의 AI는 경험적인 결과라고 볼 수 있다. 딥 러닝의 모태가 되는 인공신경망을 다양하게 조합해 시험하고 최적화된 결론을 내는 것이다. 알파고 역시 다양한 인공신경망 구조, 입력값 등을 조정해 가며 최상의 결과를 도출했다. 결국 현대의 AI는 이론적으로 엄밀한 접근보다는 경험적으로 최적화된 결과라고 볼 수 있다. 이런 요인 역시 AI의 인과관계를 설명하기 어려운 측면으로 결론지어진다. 자율주행기술을 예로 들어보자. 자율주행 AI는 주행 영상에서 사물을 인식해 의사 결정을 내린다. 그러나 자율주행 AI가 사고를 냈을 경우 원인이 무엇인지 설명할 수 없다면 자율주행 기술을 현실적으로 활용하는 데 걸림돌이 될 것이다. 그렇기 때문에 딥 러닝의 설명 가능성을 밝혀 내는 것은 우리가 AI와 공존할 수 있는 선제적 조건이 될 수밖에 없다. 인공지능 학계는 딥 러닝의 설명 가능성에 대해 주목하고 있다. 2017년 미국 방위고등연구계획국(DARPA)에서는 ‘설명 가능한 인공지능’ 연구를 발족해 올해 수천만 달러 규모의 연구개발(R&D) 자금이 투입됐다. 한국도 지난해 AI 국가전략프로젝트의 일환으로 차세대 학습, 추론 연구를 추진해 설명 가능한 AI를 연구하는 대열에 합류했다. 지난해 4월에는 컴퓨터 하드웨어 전문기업 NVIDIA가 설명 가능한 자율주행자동차 기술을 공개했다. NVIDIA는 자율주행자동차가 운행하는 의사결정을 설명하여 신뢰성을 확보했다. 아직은 초기 단계이기 때문에 완벽한 설명은 불가능하지만 설명 가능한 AI기술이 가져오는 파급효과는 매우 크다고 볼 수 있다. AI의 설명 가능성에 대한 연구는 신경계 정보처리에 대한 단초도 제공할 것이다. 인간이 정보를 저장하고 추론하는 기능은 아직까지 생리학적으로 규명되지 않았다. 인간의 뇌 구조를 모사한 딥 러닝 기술의 설명 가능성은 역으로 인간의 뇌에 대한 설명 가능성으로 이어질 수 있다. AI가 설명 가능해진다면 미래는 AI과 함께 사는 세상이 될 수 있을 것이다.
  • [홍희경 기자의 출근하는 영장류] 히든트랙

    [홍희경 기자의 출근하는 영장류] 히든트랙

    입사 초 제일 닮고 싶던 동기는 회식에서 고기를 적당하게 구워 내던 녀석이었다. ‘바싹’부터 ‘육즙 많이’까지 천차만별 젓가락들의 요구를 따르느라 이도저도 아닌 삼겹살을 만드는 여느 신입과 다르게 그놈은 절도 있게 ‘집게권’을 행사했다. 이후에도 어떤 불판에서든 그놈과 먹는 고기맛은 좋았다. 한참 뒤 알았다. 그놈은 고기를 잘 굽는 기술자 이상이었다. 굽는 동안 지루함을 잊게 할 너스레, 고기를 삼킬 때 터뜨리는 유쾌함, 배를 채운 뒤 술잔이 돌 때의 진솔함. 그는 고기맛을 넘어 고깃집의 경험 전부를 기획했다. 유행하는 불판이 바뀌는 속도 못지않게 4차 산업혁명 범주에 드는 기술의 발전 속도가 빠르다. 알파고 여파로 인공지능(AI) 담론이 뜨는가 싶더니 요즘 화두는 블록체인이다. 2030세대 중심의 가상화폐 투기 열풍이 블록체인을 올해 키워드로 밀어 올렸다. 가상화폐 거래에 참전할지가 모두의 고민이 됐다. 정부 부처마저 가상화폐 앞에서 ‘투기로 패가망신할 것’이라고 냉소를 보내는 측과 ‘옛날처럼 살다 뒤처질 것’이라고 조바심 내는 측으로 나눠졌다. 법무부가 규정한 대로 지금 가상화폐 거래는 투기다. 실물경제의 생산성과 별개로 기대심리에 부응해 급등락장에 내기 걸듯 이뤄지는 거래, 투기가 확실하다. 다만 현재 금융·통신·물류사들이 주도하는 블록체인 컨소시엄들의 기술 상용화 단계가 되면 시세는 안정될 것이라고 기대한다. 한편에선 가상화폐 거래를 중단하면 블록체인 기술 발전에 불리하다는 주장이 나온다. 일리 있다. 거래를 중단한다고 블록체인 기술 발전이 아예 불가능하지 않겠지만, 마치 임상연구 단계를 건너뛰고 신약 개발을 하는 것처럼 한계가 있을 것이다. 실시간 거래 정보를 중앙 서버 대신 네트워크에 분산 저장하는 블록체인 기술은 작은 오류에도 신뢰를 잃을 수 있는데, 과열된 가상화폐 거래들이 예기치 않게 블록체인 기술의 여러 버전을 겨루게 하고 기술 오류를 찾아 주는 시험대 역할을 하는 것 같다. 작은 오류도 허락되지 않는 기술이란 점은 자율주행차, 드론, 3D프린터, 사물인터넷 등 4차 산업혁명 기술 전반에 나타나는 특성이다. 미미한 확률이라도 해킹과 오작동 문제를 해결하지 못한 자율주행차에게 운전대를 넘기기 싫은 게 사람 심리다. 결국 미래는 기술뿐 아니라 기술을 대하는 우리의 자세까지 열릴 때 시작될 것이다. 당국이 “투기”라는데 “마지막 남은 공정한 기회”라며 달려드는 청년들을 비판하기 전 그 처지와 집단심리에 담긴 함의를 파악하는 일이 중요한 이유다. 3포세대, 흙수저라고 자조하다 “미친 세상, 리셋되면 좋겠어”라고 성내던 청년들이 가상화폐 열풍에 올라탔다. “가상화폐는 투기”라는 질책은 “양극화를 부르는 소득·과세 체계, 대마불사 자산 거래 시장은 ‘투기적 정책’이 아니란 말이냐”는 반론 앞에 무색해졌다. 당면한 기술을 추종할지 쳐부술지 결정에 앞서 긴 안목에서 우리가 어떤 기술을 채택해 어떤 미래를 기획하는 데 합의할 것인지, 지금의 만족을 깨뜨리는 ‘히든트랙’부터 숙고해 볼 일이다. #4차 산업혁명이라는 거짓말 #국가는 잘사는데 왜 국민은 못사는가 saloo@seoul.co.kr
  • [인사]

    ■산업통상자원부 △장관실 장관비서관 박동일 ■고용노동부 △부산지방고용노동청 통영지청장 조우균 ■중소벤처기업부 △정책기획관 오기웅△경남지방중소벤처기업청장 권영학△지역혁신정책과장 성녹영 ■영화진흥위원회 △사무국장 조종국 ■한국언론진흥재단 △검사역실장 이동우△저널리즘위원회 사무처장(연구팀) 김영주△저널리즘지원팀장 정민△언론인연수팀장 박형철△국제교류팀장 김지혁△연구팀장 김선호△조사분석팀장 이원섭△광고협력팀장 안익균△뉴미디어광고팀장 송윤숙△인쇄광고팀장 이내국△방송·옥외광고팀장 홍원철△기획예산팀장 정대필△재무회계팀장 서인식△경영혁신팀장 신윤진△지역언론팀장 정문규△세종·대전총괄지사장 노성환△부산지사장 김동필△광주지사장 나은미△대구지사장 정용재△신문유통팀장 유재권△정보기술팀장 허영△뉴스저작권팀장 황호출△뉴스빅데이터팀장 양승혜△신문과방송편집장 최광범△국제교류지원단장 백민수△매체지원단장 최지훈△지역언론발전단장 기세민△빅데이터활용개발단장 조윤태 ■아시아기자협회 △이사(비상임) 김근상 방은진 이석우 홍명보△글로벌커뮤니케이션팀장 알파고시나씨△미래디자인팀장 이하령 ■서울문화재단 △미디어소통실장 한지연 ■한국과학기술기획평가원(KISTEP) △미래예측본부 사회혁신전략센터장 이승규 ■IBK기업은행 ◇지역본부장급 승진△강북지역본부 박귀남△남부지역본부 김상선△중부지역본부 김형중△인천지역본부 김대길△인천동부지역본부 김재홍△부산지역본부 조기현△부산·경남지역본부 구자원△대구·경북동부지역본부 우종욱△기업은행(중국)유한공사 장광태△WM사업부 오영국△CIB영업본부 이봉영◇지역본부장급 전보△강남지역본부 박상온△강동지역본부 동은주△경동·강원지역본부 이애경△경수지역본부 김성렬△정보보호최고책임자 이병강
  • [하프타임] 이세돌 - 커제 13일 제주 대결

    [하프타임] 이세돌 - 커제 13일 제주 대결

    이세돌(왼쪽ㆍ35) 9단과 커제(오른쪽ㆍ21·중국) 9단이 오는 13일 제주 해비치호텔에서 ‘2018 해비치 이세돌 vs 커제 바둑대국’을 벌인다. 둘은 구글의 바둑 인공지능(AI) ‘알파고’와 상대한 뒤 처음으로 반상에서 만난다. 이세돌 9단은 2016년 3월 알파고와 ‘구글 딥마인드 챌린지매치’를 벌여 인간으론 유일한 1승(4패)을 올렸다. 커제 9단은 지난해 5월 ‘바둑의 미래 서밋’에서 더 강해진 알파고에 3전 전패를 당했다.
  • 이세돌 vs 커제, 13일 제주서 특별대국…알파고 대결 이후 첫 승부

    이세돌 vs 커제, 13일 제주서 특별대국…알파고 대결 이후 첫 승부

    이세돌 9단이 중국랭킹 1위 커제 9단과 특별 대국을 펼친다.3일 한국기원에 따르면, 이세돌 9단과 커제 9단이 오는 13일 제주 해비치호텔에서 ‘2018 해비치 이세돌 vs 커제 바둑대국’에서 만난다. 이세돌 9단과 커제 9단은 한국과 중국을 대표하는 최고의 스타 바둑 기사다. 특히 이세돌 9단과 커제 9단은 구글의 바둑 인공지능(AI) ‘알파고’의 대국 상대로 나서 세계적인 이목을 끌었다. 알파고와 정식으로 맞선 프로기사는 이세돌 9단과 커제 9단 둘뿐이다. 이세돌 9단과 커제 9단은 알파고 대결 이후 처음으로 반상에서 만난다. 이세돌 9단은 2016년 3월 알파고와 ‘구글 딥마인드 챌린지매치’를 벌여 1승 4패를 기록했다. 커제 9단은 지난해 5월 ‘바둑의 미래 서밋’에서 더 강해진 알파고에 3전 전패를 당했다. 이세돌 9단의 1승은 인간이 알파고에 거둔 유일한 승리다. 하지만 이세돌 9단은 커제 9단과 대결에서는 많은 아쉬움을 남겼다. 이세돌 9단은 2015년 11월부터 2016년 11월까지 커제 9단과 13번 만나 3승 10패에 그쳤다. 유독 세계대회 결승 등 굵직한 장면에서 커제 9단을 만나 쓴잔을 들었다. 이세돌 9단은 2016년 몽백합배 결승 5번기 최종국에서 커제 9단에게 반집 패하며 우승을 놓쳤고, 같은 해 농심신라면배 우승 결정국에서도 커제 9단에게 패해 중국에 우승컵을 넘겼다. 삼성화재배에서는 2015년과 2016년 연속으로 4강에서 커제 9단을 만나 결승행 티켓을 내줬다. 한국기원과 해비치가 공동 주최하고 현대자동차와 북경현대가 공동 후원하는 이번 대회 승자는 상금 3000만원과 현대자동차 소형 SUV 코나(중국 현지모델은 엔시노)를 가져간다. 패자는 상금 1000만원을 받는다. 제한시간은 각자 40분에 초읽기 1분 1회씩이다. 현장에서는 이희성 9단이 해설하고 이소용 바둑캐스터가 진행하는 무료 공개해설회도 열린다. 온라인뉴스부 iseoul@seoul.co.kr
  • AI가 아냐, 거대 기업이 문제야

    AI가 아냐, 거대 기업이 문제야

    특이점의 신화/장가브리엘 가나시아 지음/이두영 옮김/글항아리/200쪽/1만 5000원 지난해 3월 구글의 인공지능 알파고와 이세돌 9단의 바둑 대결은 전 세계 사람들에게 인공지능의 위력을 단단히 각인시키는 계기가 됐다. 알파고에 패한 이세돌이 “이세돌이 진 것이니 인류의 패배가 아니다”라고 말했지만 많은 사람들은 인간을 능가할지도 모를 인공지능의 출현에 막연한 불안감을 느꼈다.로봇이 스스로 학습해 주체적으로 행동하며 인간 사회를 혼란에 빠뜨릴지도 모른다는 설정은 그동안 ‘터미네이터’, ‘A.I.’, ‘엑스 마키나’ 등 영화에서 많이 소비되던 주제다. 실제 과학계도 인공지능의 잠재된 위험성에 대해 경고하고 나섰다. 이 책의 서두에는 2014년 5월 우주 물리학자 스티븐 호킹이 영국 일간지 ‘인디펜던트’에 낸 성명을 소개한다. 호킹 박사는 기술이 눈 깜짝할 사이에 발전하고 제어 불능 수준까지 이르러 인류를 위기 상황으로 몰고 갈 것이라고 경고했고, 전 세계 쟁쟁한 과학자들도 이에 동조해 서명했다. 그러나 1970년대부터 인공지능을 연구해 온 저자는 과학자들이 이처럼 예언자적 태도를 취하는 것은 과학적이지 못하다고 비판한다. ‘특이점’이라는 것은 인공지능이 인간의 지능을 넘어서는 시점을 가리키는 표현인데, 제목이 말해 주듯 현재 거론되고 있는 특이점에 대한 각종 기대와 우려는 과학적 근거 없는 ‘신화’일 뿐이라는 것이다. 특이점 신화 뒤에는 거대한 기업들이 존재하고 있다. 이 기업들은 정보기술(IT)의 개발을 주도하면서도 그 기술이 인류를 파멸로 내몰 수도 있다고 경고하는 교묘한 전략을 사용하는데, 이에 대해 저자는 “방화범인 동시에 소방관인 형국”이라고 꼬집는다. 대표적인 IT 기업인 구글은 기술이 인간사회의 규범과 선의 기준을 넘지 못하도록 하는 국제적인 윤리헌장을 제정하는 윤리위원회의 설립을 약속했지만, 또 다른 한편에서는 인터넷에 게시된 정보의 삭제를 요구하는 개인의 요청을 계속 무시하고 있다. 특히 이들 기업은 개인에 대한 통제력이 약화된 국가를 대신해 정보보안이나 금융거래 서비스를 주도하며 개인에 대한 지배력을 강화하고 있다. 결국 우리가 걱정하거나 감시해야 할 대상은 기계 자체가 아니라 기계에 목적성과 규칙을 정하는 기업들이다. 신융아 기자 yashin@seoul.co.kr
  • [이슈 포커스] 자율주행차 사고·의료 로봇 오진 땐 누구 책임?

    [이슈 포커스] 자율주행차 사고·의료 로봇 오진 땐 누구 책임?

    지난해 3월 이세돌의 4차 대국은 인공지능(AI)인 ‘알파고’에게 거둔 인간의 마지막 승리였다. 그후 알파고는 세계 1위 커제를 연이어 물리치는 등 승승장구했다. 그런 알파고의 연승은 그리 오래가지 못했다. 지난 10월 개발된 신형 ‘알파고 제로’는 72시간 만에 알파고를 물리쳤다.의료부터 산업까지 AI의 빠른 발전에 거는 기대감은 높다. 하지만 기대만큼 우려의 목소리도 커지고 있다. 기술의 속도에 비해 일상과 사회 변화에 대한 우리 사회의 논의도, 고민도 부족하다는 것이다. 자율주행차가 사고를 내거나 로봇이 진단한 병명이 틀리면 운전사나 의사의 책임일까, 차량이나 로봇을 제작한 기업의 책임일까. 성균관대 ‘SSK위험커뮤니케이션연구단’이 지난 4월 진행한 인식조사(1000명) 결과, 시민들은 AI가 초래할 위험도를 38.4점(0점=매우 위험, 100점=매우 안전)으로 판단했다. AI를 위협적인 요소로 본 것이다. 또 대처가 필요한 부분을 묻자 ‘인공지능 오류로 인한 인간공격·교통사고’(48.6%)가, 2위인 ‘인간의 일자리 대체’(33.7%)보다 월등히 많았다. 유명인사들도 잇따라 우려를 제기하고 있다. 지난달 일론 머스크 테슬라 최고경영자(CEO)는 “안전한 AI를 만들 확률이 단 5~10%뿐”이라고 예측했다. 스티븐 호킹 케임브리지대 교수도 지난 13일 중국 베이징의 강연에서 “AI가 인류 문명사를 종결지을 수 있고 이런 위험을 피하도록 해야 한다”고 말했다. 먼 미래의 문제라거나 기우라는 반박도 있지만 이미 여러 곳에서 위험 요소들이 감지되고 있다. 지난해 2월 우회전을 하던 구글 자율주행차가 배수로를 보호하는 모래주머니를 피하려다 뒤따라오던 버스와 충돌했고, 3개월 후에는 시속 110㎞로 자율주행하던 테슬라가 하늘과 흰색 트레일러를 구분하지 못하고 트레일러와 충돌해 탑승자가 사망했다. 구글은 전적으로 책임을 인정했지만, 테슬라 사고에 대해 미 도로교통안전국은 운전자 실수를, 미 연방교통안전위원회는 자율주행차를 원인으로 발표하는 등 정반대의 결과를 내놓았다. 한국과학기술기획평가원(KISTEP)의 보고서 ‘인공지능 혁신 토대 마련을 위한 책임법제 진단 및 정책 제언’에 따르면 최근 선진국들은 탑승자보다 제조업체에 사고 책임을 묻고 있다. 미국은 시스템 결함에 의한 사고는 자동차 제조사가 손해배상을 해야 한다. 영국은 탑승자들이 수동과 자율주행 모두 보상하는 차 보험에 가입하돌록 할 계획이다. 국내 보험업계 관계자는 “지난달 삼성화재와 현대화재도 자율주행차용 보험을 선보였다”며 “하지만 교통사고 인명피해에 대한 형사 책임은 AI에게 지울 수 없으니 제조업자, 운행자, 차량 보유자 중 누구에게 책임을 물을지 논란이 될 것”이라고 말했다. AI 쇼핑 주문 오류의 책임 소재도 논란거리다. 올해 1월 “알렉사 나에게 인형의 집을 선물해줘”라는 뉴스의 클로징 멘트를 사용자의 명령으로 인식한 많은 AI스피커(아마존 에코)가 실제 주문을 넣었다. 이 사안에 대해 아마존은 취소·환불 조치했지만 향후 소비자가 개별적으로 대응할 경우, AI의 오류를 입증하기가 쉽지 않을 거라는 전망이 나온다. 또 AI 스피커가 음성 검색 지배력을 이용해 자사 서비스에 혜택을 줄 경우 불공정거래 문제가 발생할 수 있다. AI 알고리즘 감사제도 등의 대안이 꾸준히 제기되는 이유다. AI 의료기기가 환자에게 피해를 주는 상황도 책임소재가 불분명하다. 의사는 증상, 치료법, 예상 위험 등을 환자에게 최대한 설명해야 하는데, AI 알고리즘이나 동작 실패 등은 애초부터 설명하기가 어렵다. 또 의료 책임을 피하기 위해 AI 진단에 의존하는 경향이 생길 수도 있다. 우선 우리나라 식품의약품안전처는 지난달 ‘왓슨 포 온콜로지’(암 진단용) 같은 AI가 의료기기에 해당되지 않는다고 결론을 내렸다. 환자에게 서비스 개념으로 운영하라는 의미다. 하지만 장기적으로 AI 의료기기가 확산되면 책임 소재 공방은 불가피하다. 이외 지난해 미국 캘리포니아의 한 쇼핑몰에서 경비 로봇이 생후 16개월 된 아이를 공격해 찰과상을 입힌 사례처럼 오류에 의한 공격에 대해 로봇, 제조업체, 사용자 등에게 형사상 책임을 물을 수 있을지도 이슈가 될 것으로 보인다. 박소영 KISTEP 부연구위원은 “AI 기술 적용이 확대되는 가운데 사고는 필연적으로 발생한다”며 “최소한의 안전장치인 ‘책임법제’를 설계하기 위해 우리도 범국가적 연구를 진행해야 한다”고 말했다. 이경주 기자 kdlrudwn@seoul.co.kr
  • [임한웅의 의공학 이야기] 왓슨, 빛과 그림자

    [임한웅의 의공학 이야기] 왓슨, 빛과 그림자

    인공지능 ‘알파고’가 이세돌과 바둑 대국을 한 지 벌써 2년이 흘렀다. 최근에는 세기의 대국 뒷이야기를 담은 다큐멘터리 영화도 나왔다. 영화 속 고민에 빠진 이세돌의 모습에서 볼 수 있듯이 그 당시 인공지능 알파고의 등장은 인류에 대한 커다란 위협으로 비쳐졌다. 인공지능 때문에 사라지는 직업들이 열거되고 자신의 일자리를 잃을 수 있다는 걱정이 가득했다.의료계도 마찬가지였다. 알고리즘으로 무장한 인공지능에 의해 의사 10명 중 8명이 사라질 수 있다는 경고가 나올 만큼 위기의식이 팽배했다. IBM의 의료 인공지능 시스템 ‘왓슨’의 국내 도입은 이런 예상이 현실이 될 수도 있다는 확신을 갖게 한 사건이었다. 왓슨 도입 초기만 하더라도 환자들이 의료진의 결정보다 왓슨의 결정을 더 따른다는 식의 자극적 보도가 나오며 의료 현장이 한순간에 변하는 것처럼 느껴졌다. 그 후 여러 병원이 잇달아 왓슨 도입을 발표했고 일부 진료 현장에서 활용하고 있다. 하지만 실제 의료 현장에 미치는 영향은 예상보다 크지 않다. 언론에서 보도한 것처럼 왓슨이 획기적 치료를 제공하는 것도 아니고 실제 환자의 치료에 효과적이라는 의학적 근거가 없다는 것이 가장 큰 이유다. 최근 식품의약품안전처는 왓슨이 의료기기에 해당하지 않는다는 가이드라인을 발표했다. 이에 따라 왓슨을 이용한 진료는 의료수가 항목이 없고 환자 서비스 개념으로 운영하게 됐다. 식약처의 가이드라인은 이미 의료계 내부에서도 예상했던 결과였다. 인도의 한 병원에서 지난해 12월 발표한 암 환자 1000명에 대한 연구 결과에 따르면 전체 환자의 20% 이상에서 의사와 왓슨의 치료 권고안이 달랐다. 특히 폐암의 경우 17.8%에서만 왓슨과 의사의 치료 권고안이 일치했는데, 이는 왓슨의 도입에 대해 좀더 이성적으로 접근해야 한다는 사실을 시사한다. 지금까지 왓슨에 대한 평가는 이전 자료에 근거한 연구를 통해 인간 의사의 결정과 인공지능 의사의 결정이 얼마나 일치하는지 판단하는 것이 대부분이었다. 여기에는 얼마나 정확한 진단과 치료를 제시하는지에 대한 학술적 검증이 이뤄지지 않았다는 문제점이 있다. 따라서 검증받지 않고 더군다나 의료기기로 인정되지도 않은 소프트웨어를 실제 의료 현장에서 쓰는 것은 비록 참고만 하는 것으로 한정하더라도 문제의 소지가 있을 수 있다. 한편으로 인공지능의 의료 분야 도입은 사회적 측면뿐만 아니라 학문적 측면에서 긍정적 효과를 가져왔다. 검증된 사실에 근거한 진단이나 치료보다 경험과 같은 비과학적 판단에 의존했던 의료인들에게 경종을 울리는 계기가 됐다. 또 국내에서 자체적으로 모은 빅데이터를 이용한 인공지능 시스템 개발이 더욱 가속화하고 있다는 점에서 앞으로 다가올 의료혁신을 기대하게 한다. 인공지능의 의료 분야 활용은 질병 예측이나 진단 등 영역이 무궁무진하다. 우리는 가습기살균제 사고를 통해 사람과 관련한 어떤 물건이든 실제 생활에 적용하기 전까지 확실한 검증이 필요하다는 교훈을 얻었다. 인간의 생명을 다루는 의료에서 철저한 검증은 필수인데 기술 개발에 몰두한 나머지 이런 과정을 생략하는 것을 주의해야 한다. 의료 인공지능의 강점이자 무서운 점은 새로운 의료 데이터를 습득해 스스로 인간의 직접적 통제 없이 발전한다는 것이다. 인공지능과 의료용 로봇 같은 새로운 의료기기들을 안전하게 사용하기 위해 현재 의료 제도에서 이들을 어떻게 다뤄야 할지 고민이 필요한 때다.
  • 문 대통령, 시진핑 주석에 옥으로 만든 바둑판 선물받아

    문 대통령, 시진핑 주석에 옥으로 만든 바둑판 선물받아

    중국을 국빈방문 중인 문재인 대통령이 지난 14일 국빈만찬 당시 시진핑 국가주석으로부터 바둑판과 바둑알을 선물 받았다고 청와대가 16일 밝혔다.청와대 관계자는 “시 주석은 지난 14일 정상회담 직후 문 대통령 내외를 위해 주최한 국빈만찬장에서 문 대통령에게 옥으로 만든 매우 아름다운 바둑판과 바둑알을 선물했다”며 “문 대통령이 바둑을 좋아해 시 주석이 선물한 것으로 보인다”고 말했다. 문 대통령은 아마바둑 4단이다. 지난달 13일 필리핀 마닐라에서 아세안 정상회의를 계기로 리커창 중국 총리를 만났을 때도 바둑을 주제로 덕담을 나눴다. 당시 문 대통령은 “리 총리가 바둑을 좋아하는 것으로 알고 있다”며 이창호 9단과 추궈홍 주한대사가 한팀을 이뤄 창하오 9단과 노영민 주중대사와 펼친 화상 바둑 대결을 거론했고, 이세돌 9단이 알파고와의 대국 기록을 담은 책 ‘신의 한 수 인간의 한 수’에 추천사를 쓴 사실이 있다고 소개하기도 했다. 시 주석은 또한 베이징올림픽 마스코트 디자인을 총괄한 한메이린 작가가 그린 말 그림도 문 대통령에게 선물했다. 이에 문 대통령은 정상과 국가, 국민 간 소통을 강화하자는 의미에서 한자로 ‘通’(통)이라고 쓰인 고 신영복 선생의 서화 작품을 시 주석에게 선물로 전했다. 시 주석의 부인인 펑리위안 여사는 김정숙 여사에게 손지갑과 숄, 펑 여사의 노래가 담긴 CD를 선물했다. 펑 여사는 1980년대 중국의 국민가수로 불렸다. 김 여사 역시 경희대에서 성악을 전공하고 서울시립합창단에서 활동한 경력이 있다. 충칭 임일영 기자 argus@seoul.co.kr
  • 시진핑, 문 대통령에 옥 바둑판 선물…김정숙 여사에겐

    시진핑, 문 대통령에 옥 바둑판 선물…김정숙 여사에겐

    중국을 국빈방문 중인 문재인 대통령이 시진핑 국가주석으로부터 바둑판과 바둑알을 선물 받았다고 청와대가 16일 밝혔다.청와대 관계자는 이날 기자들과 만나 “시 주석은 지난 14일 베이징에서의 정상회담 직후 문 대통령 내외를 위해 주최한 국빈만찬장에서 문 대통령에게 옥으로 만들어 매우 아름다운 바둑판과 바둑알을 선물했다”며 “문 대통령이 바둑을 좋아해 시 주석이 선물한 것으로 보인다”고 말했다. 문 대통령은 아마바둑 4단이다. 지난달 13일 필리핀 마닐라에서 아세안 정상회의를 계기로 리커창 중국 총리를 만났을 때도 바둑을 주제로 덕담을 나눴다. 당시 문 대통령은 “리 총리가 바둑을 좋아하는 것으로 알고 있다”며 이창호 9단과 추궈홍 주한중국대사가 한팀을 이뤄 창하오 9단과 노영민 주중대사와 펼친 화상 바둑 대결을 거론했고, 이세돌 9단이 알파고와의 대국 기록을 담은 책 ‘신의 한 수 인간의 한 수’에 추천사를 쓴 사실이 있다고 소개하기도 했다. 시 주석은 또 베이징 올림픽 마스코트 디자인을 총괄한 한메이린 작가가 그린 말 그림도 문 대통령에게 선물했다. 문 대통령은 정상과 국가·국민 간 소통을 강화하자는 의미에서 한자로 ‘通’(통)이라고 쓰인 신영복 선생의 서화 작품을 시 주석에게 선물로 전했다. 시 주석의 부인인 펑리위안 여사는 김정숙 여사에게 손지갑과 숄, 펑 여사의 노래가 담긴 CD를 선물했다. 펑 여사는 1980년대 중국의 국민가수로 불렸고, 김 여사는 대학에서 성악을 전공하고 서울시립합창단에서 활동한 경력이 있다. 온라인뉴스부 iseoul@seoul.co.kr
  • [유용하 기자의 주말 과학산책] 이젠 인공지능이 자살 예방까지...

    [유용하 기자의 주말 과학산책] 이젠 인공지능이 자살 예방까지...

    지난 12일 세계적인 과학저널 ‘네이처’에는 재미있는 연구동향 뉴스가 올라왔습니다.페이스북을 비롯한 여러 IT 관련기업들이 사용자들의 언어패턴을 보고 우울증 증상이나 자해와 관련한 행동을 사전에 파악해 이를 예방하기 위한 기술 개발에 관심을 갖고 있다는 내용이었습니다. IT기업들의 이런 노력은 “SNS에 올리는 글의 언어패턴이나 스마트폰과 상호작용하는 무의식적 태도양식를 통해 개인의 심리적 상태를 파악할 수 있다”는 최근 연구에 기반을 하고 있습니다. 많은 업체들이 자살신호를 자동으로 탐지하는 인공지능(AI) 알고리즘을 개발해 테스트하고 있는데 대표적인 곳이 바로 페이스북입니다. 페이스북은 지난 11월 말에 “자체 개발한 자살예방 도구를 전세계로 확대시킬 것”이라고 발표한 바 있으며 이세돌 9단과의 대결로 잘 알려진 알파고를 개발한 구글도 비슷한 연구를 진행하고 있는 것으로 알려져 있습니다. 많은 IT기업들이 이렇게 자살예방 프로그램 개발에 나서고 있는 것은 미국내 자살시도자들이 점점 늘고 있으며 실제로 15~34세 미국인들의 두 번째 많은 사망원인으로 자살이 부상하고 있기 때문에 사회적 책임차원에서라고 설명하고 있습니다. 오하이오 주립대 스코티 캐시 박사의 연구에 따르면 젊은 층은 자살 직전까지 갈 경우 병원을 찾거나 자살방지 전화 같은 전통적 방식을 이용하지 않고 페이스북이나 트위터 같은 SNS에 도움을 청하는 경향이 많다는 것입니다. 이 때문에 IT 기업들의 이런 자살예방 프로그램들이 자살 시도자들의 숫자를 줄일 수 있을 것이라는 기대감도 큰 것이 사실입니다. 하버드대 심리학과 매튜 녹 박사도 “자살 위험은 시간을 두면서 증가하기 때문에 단기적인 관찰로 예방하는 것은 쉽지 않고 심리학자나 정신과 의사를 만나서도 자살의도를 부인하는 경우가 많다”며 “SNS는 감정이 실시간으로 올라오기 때문에 자살시도자의 심리를 파악하기 가장 좋은 도구”라고 이야기하고 있습니다. 여기에 인공지능 기술인 머신러닝 알고리즘을 적용하면 SNS에 올라온 격정적이고 감정이 실린 글이 ‘단순한 농담’인지 ‘깊은 고민의 흔적’인지 ‘자살의도를 갖고 있는 말’인지 여부를 분간할 수 있다는 것입니다.미국의 위기상담서비스 ‘CTL’이 그동안 상담한 문자메시지 5400만개를 분석한 결과 자살을 생각하는 사람들은 ‘자살’이라는 단어를 거의 사용하지 않는 대신 ‘이부프로펜’이나 ‘다리’ 같은 단어를 많이 사용한다고 합니다. 이 때문에 CTL에 상담을 의뢰하기 위해 문자를 보내는 사람들이 저 같은 단어들을 사용하면 즉각 긴급구조사에게 통보된다고 합니다. 만약 SNS를 통해 장기적으로 한 사람의 심리적 상태를 추적할 수 있다면 자살의향을 좀 더 정확하게 파악할 수 있는 것이 사실입니다. 자살위험 징후가 높아지면 보건의료기관에 즉각 통보해 자해를 예방할 수 있다는 것이 IT 업체들의 설명이지요. 더군다나 IT기업들은 징후 포착시 즉각적으로 의료기관에 연락할 수 있도록 관련 애플리케이션이 스마트폰에 항상 작동할 수 있도록 하겠다는 생각입니다. 취지가 좋다고 해서 항상 좋은 결과를 가져오는 것은 아닙니다. 많은 의학자들과 과학자들이 이런 아이디어에는 동의하지만 몇 가지 걸림돌이 여전히 많다는 지적입니다. 우선 ‘언제, 어떻게 개입할 것인가’라는 문제가 있습니다. 섣부른 개입이 사람들의 심리상태를 더욱 혼란스럽게 만들어 역효과가 날 수 있다는 것입니다. 또 SNS에 올라온 글이나 사진이고 자살방지라는 취지는 좋지만 분명히 개인 프라이버시 침해라는 지적입니다. 페이스북이나 기타 IT기업들이 자살예방이라고 해서 개인의 SNS정보를 무차별적으로 수집하는 것이 과연 바람직할까라는 의문이지요. 사람들은 새로운 기술이 나왔을 때 두 가지 반응을 보입니다. 무조건 기술을 받아들여야 한다는 쪽과 거부하는 쪽입니다. 새로운 기술에 대해서는 항상 중간은 없었던 것 같습니다. 한쪽에서는 기술에 대한 장밋빛 미래만을 얘기하고 다른 한 쪽은 우울한 가능성을 얘기하기 때문일 것입니다. 인공지능이 자살 예방에 천문학 연구를 돕는 시대가 되고 있는 이 즈음에 더욱 필요한 것이 기술의 인문사회학적 고찰이 아닐까 싶습니다. 유용하 기자 edmondy@seoul.co.kr
  • “AI 시대 불안해야 할 것은 터미네이터 아닌 일자리 감소”

    “AI 시대 불안해야 할 것은 터미네이터 아닌 일자리 감소”

    많은 사람들이 인공지능(AI) 기술이 발전하면 영화 ‘터미네이터’에서처럼 기계가 인간을 정복할 것이라는 우려를 하는데 이보다는 일자리 감소에 더 걱정해야 한다는 지적이 나왔다.12일 서울 용산 드래곤시티호텔에서 열린 ‘2017 인공지능 국제 컨퍼런스’ 기조연사로 참석한 톰 미첼 미국 카네기멜론대 교수는 “AI 기술이 만들어내는 일자리 감소, 개인정보 유출 같은 사회 및 경제변화에 초점을 맞추고 대비해야 할 것”이라고 강조했다. 2001~2003년까지 국제인공지능학회(AAAI) 학회장을 맡고 2011~2013년 미국 법무부 과학자문위원회 위원으로 활동했던 미첼 교수는 AI 분야에서 대표적인 연구자다. 미첼 교수는 “최근 10년간 인공지능 기술이 크게 발전해 알파고처럼 바둑 등 특정 분야에서는 컴퓨터가 사람의 실력을 능가하게 되기도 했다”며 “2007년 아이폰이 처음 나왔을 때는 스마트폰에 말을 건다는 것은 상상할 수 없지만 인공지능의 발전으로 가능해졌다”고 말했다. 그는 인공지능의 이런 진화는 컴퓨터가 스스로 요령을 찾아내는 학습방법인 딥러닝 기술 덕분이라고 평가했다. 미첼 교수는 분야별로 탁월한 성능을 보이는 인공지능이 나올 것으로 전망하고 산업계 판도를 바꿀 것이라고 전망했다. 학생이 자주 틀리거나 못하는 분야만 집중적으로 가르치는 인공지능 과외교사, 병변의 형태로 피부암을 진단하는 의사 보조 인공지능이 대표적인 사례다. 그는 AI가 이용하는 데이터를 특정 기업이 독점하지 못하도록 제도를 보완하고 AI를 활용한 공익사업도 만들어야 한다고 주장했다. 이처럼 AI의 등장으로 생기는 문제는 인간 정복이 아니라 ‘일자리 감소’라고 미첼 교수는 지적했다. 미첼 교수는 “사회 변화에 맞춰 근로자들이 재교육을 받을 수 있도록 휴가와 지원금을 지급하는 방안과 프리랜서와 창업가가 안정적으로 생활하도록 세제혜택을 주는 것이 필요하다”고 강조했다. 한편으로 AI가 사용하는 데이터의 유출문제나 자율주행차가 교통사고를 낼 경우 발생할 수 있는 윤리적 문제들에 대한 고민도 필요하다고 지적했다. 유용하 기자 edmondy@seoul.co.kr
위로