찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • 딥러닝
    2026-01-24
    검색기록 지우기
  • 수장
    2026-01-24
    검색기록 지우기
  • 첫 재판
    2026-01-24
    검색기록 지우기
  • 의결
    2026-01-24
    검색기록 지우기
  • 12월 3일
    2026-01-24
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
746
  • 빅데이터 분석 1~2주 안에 끝

    거창해 보이는 인공지능(AI)과 빅데이터 기술을 인터넷 포털에서 정보를 검색하듯 쉽게 업무에 구현하고 활용할 수 있는 솔루션 서비스가 나왔다. 고가의 하드웨어·소프트웨어나 전문가 없이도 AI와 빅데이터를 대중적으로 이용할 수 있는 길이 열린 셈이다. LG CNS는 클라우드 컴퓨팅 기반의 AI 빅데이터 플랫폼 ‘LG CNS DAP’을 출시했다고 29일 밝혔다. LG CNS DAP은 한마디로 복잡한 과정 없이 마우스 클릭 몇 번만으로 원하는 빅데이터 분석 환경 1시간 내 구축할 수 있는 서비스다. LG CNS는 “서비스 화면에 로그인한 뒤 클라우드에 데이터를 올리면 곧바로 분석이 가능하다”며 “빅데이터 분석 환경 구축에 걸리는 시간을 기존 몇 개월에서 1시간 이내로 줄이고, 데이터 분석에 걸리던 시간도 3∼4개월에서 1∼2주까지 단축할 수 있다”고 밝혔다. 산업별·제품별로 다양한 분석 유형을 제공하기 때문에 사용자의 선택폭이 넓다. 다양한 유형 중에서 원하는 것을 선택해 매출 실적이나 주문 정보 같은 데이터를 입력하면 자동으로 분석을 해 준다. LG CNS 관계자는 “200여명의 전문 인력을 활용해 제조 혁신, 디지털 마케팅, 상담 챗봇 서비스 등의 영역에서 30개의 지능화된 서비스를 제공한다”고 말했다. 특히 이미지 인식을 활용한 딥러닝 비전 검사를 통해 제조업의 불량 판정 정확도를 99.98%까지 끌어올릴 수 있다. 이재연 기자 oscal@seoul.co.kr
  • LG전자, 알아서 척척… ‘딥싱큐’ 생활가전

    LG전자, 알아서 척척… ‘딥싱큐’ 생활가전

    LG전자가 인공지능, 로봇, 자동차부품 등 미래 성장사업 개발에 박차를 가하고 있다.인공지능 부문에서 LG전자는 올 1월 가전제품이 고객 생활패턴 및 주변 환경을 학습해 스스로 작동하는 딥러닝 기술 ‘딥싱큐’를 선보였다. 이를 탑재한 ‘디오스’ 냉장고는 사용자의 이용 패턴을 읽어 문을 열지 않는 시간에는 절전 운행하는 기능이 추가됐다. 로봇청소기 ‘로보킹 터보플러스’는 6~7세 어린이의 지능을 갖춘 것으로 평가됐다. 지난달부터는 인천국제공항에서 상업용 로봇 시범 서비스를 시작했다. 청소로봇과 안내로봇 각각 5대가 공항 곳곳을 돌아다니며 안내 서비스를 제공하고 실내 공간을 청소하고 있다. 안내로봇은 LG전자가 독자 개발한 음성인식 플랫폼으로 한국어, 영어, 중국어, 일본어 등 4개 국어를 인식하고 답변한다. 또 자동차 부품 사업을 키우기 위해 2013년 7월 VC사업본부를 신설했다. 차량용 텔레매틱스, 오디오·비디오 내비게이션(AVN) 등 인포테인먼트 제품을 중심으로 전장 부품, 전기자동차용 부품 등 사업을 병행하고 있다. 친환경 전기차 분야에서는 지난해부터 GM ‘쉐보레 볼트 EV’ 부품을 안정적으로 공급하고 있다. 이경주 기자 kdlrudwn@seoul.co.kr
  • “더워” “재료 주문해”… 말귀 알아 듣는 가전

    “더워” “재료 주문해”… 말귀 알아 듣는 가전

    단지 “더워”라고 얘기해도 작동하는 에어컨, 고장 나면 스스로 원격진단을 의뢰하는 세탁기, 부족한 식재료를 주문할 수 있는 냉장고 등 인공지능(AI)을 장착한 똑똑한 가전제품 전쟁이 한창이다. 삼성전자와 LG전자 등 한국산(産)이 세계 시장을 주도하는 가운데, 일본 및 중국 업체가 추격하고 있다.LG전자는 올해부터 모든 가전제품에 자체 개발한 AI 딥러닝 기술 ‘딥씽큐’를 장착하고 있다. 올해 초 가전업계 최초로 선보인 인공지능 ‘휘센 듀얼 에어컨’(왼쪽)이 시작이었는데, 지난 9일 AI 기능을 대폭 강화한 새 제품을 내놓았다. 에어컨 설정 온도가 25도인 상황에서 사용자가 “LG 휘센, 이제 추워”라고 말하면 “희망 온도를 높일까요”라고 묻는다. 이어 사용자가 “1도 높여줘”라고 하면 “26도로 높였습니다”고 응답하고 작동한다. 스스로 진화하기 때문에 대화를 많이 할수록 사용자의 사투리, 말버릇 등을 더 정확히 알아듣는다. LG전자 관계자는 “기존에는 자연어를 이해하는 정도였는데 음성 데이터가 수년간 축적되면서 대화의 맥락을 파악하는 수준으로 발전했다”고 말했다. 지난 4월 내놓은 AI 스피커 ‘스마트씽큐 허브 2.0’는 가전제품의 중앙제어장치 격이다. 사용자가 “세탁 시작해”라고 명령하면 세탁기를 바로 작동시키고 “세탁 언제 끝나”라고 물으면 “20분 남았습니다”는 식으로 답한다.삼성전자 역시 각종 전자제품에 자체 개발한 음성 인식 AI 솔루션인 ‘빅스비’를 탑재하고 있다. ‘셰프컬렉션 패밀리허브 냉장고’(오른쪽)가 대표적인데 날씨나 일정을 물어보면 답을 하고 , 음성으로 인터넷을 검색할 수 있다. 냉장고 문에 있는 대형 디스플레이를 이용해 요리법을 찾거나 부족한 식재료를 주문할 수 있다. 최근 삼성페이로 구매하고 결제하는 기능도 추가했다. 삼성전자 관계자는 “가장 자주 이용하는 가전제품인 냉장고가 각종 집안일을 제어하는 역할까지 하도록 발전시킬 것”이라며 “예를 들어 요리를 하다 주방이 더러워지면 음성으로 청소로봇을 작동시킬 수 있다”고 전했다. ‘플렉스워시 세탁기’는 아예 세탁기 스스로 원격 진단을 의뢰하고 수리 조치를 받는 기능을 넣었다. 계절이나 사용환경 정보를 분석해 최적의 세탁 코스도 스스로 설정한다. 외출 중이라면 세탁기가 어떤 세탁 코스를 선택했고, 빨래 종료까지 남은 시간은 얼마인지 스마트폰을 통해 실시간으로 볼 수 있다. 삼성전자는 2020년까지 전 가전제품에 빅스비를 장착할 계획이다. 이재연 기자 oscal@seoul.co.kr
  • [와우! 과학] 언제든, 누구든 ‘인생샷’ 찍게 해주는 AI 등장

    [와우! 과학] 언제든, 누구든 ‘인생샷’ 찍게 해주는 AI 등장

    언제 어디서 찍어도 ‘인생샷’을 남길 수 있는 인공지능(AI)이 개발됐다. 기즈모도 등 해외 매체의 2일자 보도에 따르면 최근 구글과 매사추세츠공과대학(MIT) 연구진이 개발한 이 인공지능 알고리즘은 사진을 촬영할 때마다 실시간으로 보정해 고퀄리티의 사진을 남길 수 있다. 지금까지는 대다수의 스마트폰 이용자들은 사진을 찍고 난 뒤 사진 보정 애플리케이션을 이용해 원본사진을 불러들이고, 이를 마치 전문가가 찍은 것처럼 직접 보정해왔다. 하지만 이 같은 방식은 비전문가에게는 다소 어렵거나 결과물이 만족스럽지 못할 수 있다는 단점이 있었다. 구글과 MIT은 딥러닝 기술을 이용해 해당 알고리즘이 5000장의 이미지를 인식하게 했다. 각각의 이미지는 해당 알고리즘을 통해 각기 다른 5가지 방식으로 보정됐고, 여기서 가장 최상의 결과를 데이터화 했다. 예컨대 사용자가 사진을 찍으면 AI 알고리즘에 의해 자동으로 사진이 인식되고, 사용자가 특별한 효과를 주지 않아도 밝기와 선명도가 가장 적절하게 보정된 사진이 스마트폰에 저장되는 방식이다. 과거에도 이와 유사한 프로그램이 존재하긴 했으나, 저장용량이 지나치게 커서 구동속도가 느려지는 등의 문제가 있었다. 하지만 이번에 개발된 AI 알고리즘은 로딩 속도가 빠르고 용량도 크지 않다고 구글은 설명했다. 한편 업계에서는 구글이 MIT와 손잡고 개발한 이번 AI 알고리즘이 스마트폰 하드웨어 시장의 격한 경쟁 속에서 소프트웨어를 통해 차별화하려는 전략 중 하나라는 평가가 나왔다. 송혜민 기자 huimin0217@seoul.co.kr
  • 심부름 척척, 아이와 말하는 로봇 ‘오페어’

    심부름 척척, 아이와 말하는 로봇 ‘오페어’

    안내·주문 등 소통 능력 평가 ‘소셜 홈로봇’ 과제 최우수 통과 서울대 컴퓨터공학부 장병탁 교수 연구팀이 지난달 27일부터 30일까지 일본 나고야 국제전시장에서 열린 ‘2017 국제 로보컵 대회’에서 우승을 차지했다. 1997년 로봇 축구 대회로 시작한 로보컵 대회는 매년 전 세계를 순회하면서 로봇의 소통 능력을 평가하는 방향으로 진화하고 있다.장 교수팀이 개발한 인공지능 로봇인 ‘오페어’(AUPAIR)는 ‘소셜 홈로봇’ 부문에서 8개 시나리오 과제를 모두 최고 점수로 통과했다. 소셜 홈로봇 부문은 인공지능 로봇이 가정 등 일상 환경에서 사람과 사물, 환경을 인식하고 사람의 언어를 인식해 서비스 임무를 수행하는 능력을 겨룬다. 로봇은 사람 찾기, 칵테일 파티, 고난도 심부름, 레스토랑 주문, 투어 가이드 등의 시나리오 과제를 수행했다. 이 가운데 칵테일 파티 서비스 시나리오에서는 로봇이 파티장에서 테이블에 앉은 손님에게 다가가 주문을 받아 카운터에 전달하고 원하는 것을 제공하면서 손님을 대접하는 임무를 수행한다. 오페어는 손님이 주문한 음료가 없는 돌발 상황에서 다른 음료를 제안해 높은 점수를 받았다. 또 투어 가이드 과제를 수행하며 박람회장의 환경에서 일반 청중을 상대로 대화를 나누고 흥미로운 설명으로 길을 안내해 박수 갈채를 받기도 했다. 결승 과제는 ‘장기자랑’이었다. 오페어는 딥러닝 기반 시각대화 능력을 과시하며 호주 시드니공대를 큰 점수 차로 누르고 우승했다. 장 교수는 “최근 유행하는 인공지능 로봇 중 챗봇은 텍스트 기반, 아마존에서 개발한 에코는 음성 기반으로 사람과 대화하지만 오페어는 한 단계 더 나아가 시각(카메라)으로 들어온 정보를 학습해 이를 기반으로 사람과 대화할 수 있다”고 설명했다. “예를 들면 오페어는 아이와 함께 만화영화인 ‘뽀로로’를 보고 이 아이와 뽀로로의 내용에 대해 이야기를 주고받을 수 있다”고 덧붙였다. 이 대회에 참가한 국제 심판관은 “로봇이 과연 이번 대회에 최초로 도입된 여러 고난도 과제를 수행할 수 있을지 의심스러웠는데 서울대 팀이 성공적으로 해내 인공지능 홈로봇 로보컵 대회의 새로운 국제 표준을 설정했다”고 평가했다. 박기석 기자 kisukpark@seoul.co.kr
  • 미래에셋자산운용 ‘미래에셋AI스마트베타펀드’

    미래에셋자산운용 ‘미래에셋AI스마트베타펀드’

    ●미래에셋자산운용 ‘미래에셋AI스마트베타펀드’미래에셋자산운용의 ‘미래에셋AI스마트베타펀드’가 최근 우수한 성과를 보이고 있다. 이 펀드에 활용되는 인공지능은 신경망을 통해 경제지표, 종목정보 등 투자시장에 영향을 줄 것으로 판단되는 다양한 정보를 학습해 사전적으로 포트폴리오를 구성한다. 그리고 이를 사후적인 결과값인 최적 포트폴리오와 비교해 오차를 최소화하는 ‘딥러닝’ 기술을 활용한다. 이를 통해 인공지능은 경기, 시장국면, 밸류에이션, 수급 등의 변화를 고려해 자산별 투자비중을 시장 상황에 맞춰 지속적으로 조절한다. 주요 투자대상인 스마트베타 ETF는 중장기적으로 시장을 이길 수 있다는 액티브 전략의 장점과 저비용·투명성이라는 패시브 전략의 장점을 합친 상품이다. 스마트베타는 전통적인 시가총액 방식의 인덱스와 달리 글로벌시장에서 검증된 전략을 통해 초과수익을 추구한다. 김태곤 객원기자 kim@seoul.co.kr
  • 개방형 플랫폼으로 한국형 AI 생태계 주도

    개방형 플랫폼으로 한국형 AI 생태계 주도

    “이 슈퍼 컴퓨터 안에선 72만개에 이르는 GPU(그래픽처리장치) 코어가 쉼 없이 돌아갑니다. 덕분에 통상 일주일 정도 걸리던 음성 데이터 학습도 하루 만에 끝낼 수 있습니다.”서울에 폭염주의보가 내린 25일 서초구 우면동 KT융합기술원 2층에 위치한 AI(인공지능) 테크센터. 섭씨 18도인 테크 존 실내는 동굴처럼 서늘했다. 캐비닛 크기의 슈퍼 컴퓨터가 과열되지 않도록 하기 위해서다. 지난 6일 문을 연 AI 테크센터의 슈퍼 컴퓨터는 국내 최고 수준 연산 능력으로 딥러닝과 AI 연구를 하고 있다. KT 측은 “인공지능이나 딥러닝 연구를 위해서는 막대한 양의 데이터를 빠르게 처리하는 연산 능력이 필요한데 이곳 컴퓨터는 연산 시간을 비약적으로 단축했다”고 설명했다. 에너지 효율을 고려한 전 세계 슈퍼 컴퓨터 순위(Green Top 500)로는 10위권, 연산량 기준 세계 400위권 수준이다. 집 거실처럼 꾸며 놓은 음성 성능 평가실에서는 음성인식 기반 AI 서비스인 ‘기가지니’를 하루 수천건씩 테스트한다. KT는 지난달 기가지니의 개발도구(SDK)를 공개한 데 이어 오는 9월엔 ‘음성 오픈 플랫폼’을 연다. 40여개 제휴사가 신규 어휘를 기가지니 음성엔진에 등록하고 공유할 수 있게 되면 더 빠르고 똑똑한 기가지니가 세상에 나오게 된다. KT 관계자는 “개방형 AI 생태계를 만들어야 글로벌 지능형 플랫폼 회사로 거듭날 수 있다”고 덧붙였다. 현재 인터넷전문은행 케이뱅크, 미래에셋대우를 비롯해 호텔·아파트 건설업체까지 다양한 제휴업체들이 온라인 뱅킹, 주가 조회, 114 서비스, 홈 비서 등 서비스를 개발 중이다. 케이뱅크는 하반기에 기가지니로 간편 송금을 할 수 있는 ‘카우치 뱅킹’, 통장 조회 서비스를 선보일 예정이다. 김진한 KT 융합기술원 AI 테크센터장은 “AI 시장은 특정사업자 혼자 이끌어 나갈 수 있는 게 아닌 만큼 관련 업계가 더 협력해야 한다”면서 “기술을 외부에도 공개해 한국형 AI 생태계를 함께 만들어 갈 방침”이라고 말했다. 이재연 기자 oscal@seoul.co.kr
  • [4차 산업혁명] 카카오, AI 기술로 ‘생활의 혁신’ 주도하다

    [4차 산업혁명] 카카오, AI 기술로 ‘생활의 혁신’ 주도하다

    카카오는 올 초 인공지능(AI) 전문 자회사 카카오브레인(대표 김범수)을 설립하고 AI 연구개발&사업 전담 조직인 AI 부문을 신설했다. 카카오는 올 3분기 중 AI 플랫폼과 전용 디바이스(스피커)를 선보인다. 음성인식, 음성합성, 대화처리 등 대화형 인터페이스 기술과 이미지 내 객체 인식 등 자체 보유한 딥러닝 응용기술을 기반으로 카카오톡과 음악서비스 멜론, 포털 다음 등 카카오의 풍부한 콘텐츠와 카카오내비·택시·맵, 주문하기 등 생활 밀착형 서비스들을 연결해 강력한 AI 플랫폼을 만들 계획이다.이러한 AI 기반 기술들은 다음뉴스·검색, 카카오맵, 카카오내비·택시, 카카오페이지, 카카오버스, 카카오TV 등 수많은 서비스에 적용되어 진화하고 있다. 대표적으로 카카오톡, 멜론 등 카카오의 서비스와 만나 ’생활의 혁신’을 주도하고 있는 셈이다. 카카오톡은 앱 하나로 원하는 것을 뭐든 다 할 수 있는 만능 플랫폼으로 진화해 나간다. 현재 ‘주문하기‘, ‘장보기’가 카카오톡에 적용되었고, 카카오톡, 카카오페이지, 카카오드라이버, 카카오택시, 선물하기, 다음웹툰, 이모티콘 스토어, 카카오메이커스 등 여러 서비스와 플랫폼을 통해 AI 기술은 카카오톡의 진화에 핵심 역할을 담당하고 있다. 카카오는 초기 단계인 AI 기술 개발 및 상용화를 위한 산학 협력과 우수 인재 영입에도 적극 나서고 있다. 카카오는 지난 4월 7일 서울대, 카이스트, 아산병원 등 학계 전문가들로 구성된 50여명 규모의 딥러닝 연구 그룹인 ‘초지능 연구센터’와 산학협력 협약을 체결했다. 카카오와 초지능 연구센터는 문자, 음성, 이미지, 영상 데이터 전반을 망라하는 딥러닝 공동 연구를 비롯해 강화 학습, 비지도 학습, 신경망 학습 최적화 등에 관한 AI 원천기술 개발을 위한 협력에 나선다. 카카오의 투자 자회사 케이큐브벤처스(공동대표 유승운·신민균)는 AI 기술력을 가진 스타트업에도 공격적으로 투자를 진행하고 있다. 케이큐브벤처스는 AI 기반의 의료영상 진단 서비스를 제공하는 루닛과 AI 기반 시스템 생물학 기술을 활용해 신약을 개발하고 있는 바이오 기업 스탠다임에 초기 투자를 진행했다. AI 기반의 컴퓨터 비전 기술을 활용한 드론 기업 유비파이에도 투자했다. 6월에는 스톤브릿지벤처캐피탈과 빅데이터 및 머신러닝분산처리솔루션 기업 ‘래블업’에 20억원을 공동 투자했다. 케이큐브벤처스는 앞으로도 국내외를 가리지 않고 성장 가능성이 있는 AI 창업팀과 창업자를 찾아 지속적으로 투자 규모를 확대할 계획이다. 김예슬 인턴기자
  • [4차 산업혁명] KT, 기가지니TV·은행업무 연동 추진

    [4차 산업혁명] KT, 기가지니TV·은행업무 연동 추진

    KT가 지난 1월 말 출시한 인공지능(AI) TV ‘기가지니’가 출시 5개월 만에 가입자 10만명을 넘어섰다.기가지니는 KT가 오랜 시간 축적한 AI 노하우와 차별화된 네트워크 기술을 접목시킨 AI TV로 원거리 음성인식 기술과 함께 최고 수준의 한국어 음성인식 기술을 바탕으로 하고 있다. 그동안 국내외에서 출시된 AI 스피커를 TV와 연동한 ‘시청각’ 기반의 서비스로 호평받고 있다. 기가지니의 장점은 TV 연동뿐 아니라 다양한 기능을 갖췄다. TV, 음악 등 미디어 서비스와 함께 홈 비서 기능과 홈 사물인터넷(IoT) 제어, 영상·음성 통화 등을 제공하고 있다. KT는 지난 4월 미래에셋대우와 업무협약을 체결하고 오는 30일부터 음성인식을 이용한 AI 금융서비스를 기가지니를 통해 제공한다. 국내 1호 인터넷 전문은행 ‘케이뱅크’와도 서비스 연동을 추진 중이다. 9월 중으로 퀵송금, 계좌조회 등을 음성으로 처리할 수 있는 ‘카우치 뱅킹’ 서비스를 준비하고 있다. KT는 기가지니를 바탕으로 한 AI 생태계 조성을 본격화한다. 개발자 포털과 함께 기가지니 서비스 소프트웨어 개발 키트(SDK)를 공개한다. KT의 축적된 음성인식 기술과 함께 음성·영상통화 기능을 사용할 수 있는 앱 프로그래밍 환경(API)을 포함했다. 지난 6일에는 AI 테크센터를 개소했다. AI 테크센터는 슈퍼컴퓨터 등 국내 산업계 최고 수준의 인공지능 개발인프라를 기반으로 구축한 개방형 인공지능 개발 플랫폼으로, KT와 제휴사들의 미디어, 네트워크 및 플랫폼의 지능화를 주도할 KT 인공지능 허브 역할을 수행한다. AI 테크센터의 연구공간은 ▲KT의 AI 인프라를 사용한 인공지능 기술 연구와 협력을 위한 AI 크래프트숍 ▲국내외 단말과 서비스를 벤치마킹할 수 있는 체험 스페이스 ▲AI 교육을 위한 아카데미 라운지 ▲음성 녹음 및 테스트를 할 수 있는 음성 성능평가실로 구성됐다. 또한 최고 수준의 딥러닝 인프라를 갖추기 위해 ‘GPU Computing Cluster 1’도 구축했다. KT 이필재 기가지니사업단장은 “기가지니 관련 기술과 연구 공간의 공유를 통해 국내 AI 생태계가 보다 활성화되는 계기가 되기를 바란다”고 말했다. 김태곤 객원기자
  • [4차 산업혁명] LG전자, AI가전 딥러닝… 음성만으로 작동

    [4차 산업혁명] LG전자, AI가전 딥러닝… 음성만으로 작동

    LG전자는 올해 초 국내 가전업계에서는 처음으로 인공지능(AI) 에어컨을 출시한 데 이어, 올 상반기에 냉장고, 로봇청소기, 드럼세탁기 등 주요 가전에도 AI를 탑재한 신제품을 선보였다. 이들 제품에는 독자 개발한 ‘딥러닝’ 기술인 ‘딥씽큐’를 탑재했다.인공지능 디오스 냉장고(모델명: F878SB35S)는 각종 센서를 통해 고객이 제품을 사용하는 패턴, 제품이 설치된 장소의 온도와 습도 등을 파악한다. 도어가 열리는 횟수와 시간을 분석해 사용자가 도어를 거의 열지 않는 시간대에는 자동으로 절전 운전을 한다. 온도와 습도가 높은 한여름에는 음식물이 쉽게 상하지 않도록 제균 기능을 최고 단계인 ‘파워 모드’로 설정한다. LG전자 관계자는 “사물인터넷(loT) 플랫폼 차별화, 기기 간 연결성 강화, loT 생태계 확장 등 확장성 전략을 전개해 스마트홈 시장을 이끌어 갈 것”이라고 밝혔다. LG전자는 향후 스마트홈과 연계해 빠르게 성장할 것으로 예상되는 로봇 사업에 본격적으로 뛰어든다. 로봇청소기, 홈 IoT 등을 통해 축적해 온 인공지능 및 자율주행 기술을 활용해 가정용 및 상업용 로봇 개발에 적극 나선다. LG전자는 홈 IoT 기기를 지속적으로 선보이며 원통형 스피커 모양의 ‘스마트씽큐 허브 2.0’(모델명: AIHC71G)은 사용자와 대화할 수 있는 인공지능을 선보였다. ‘스마트씽큐 허브 2.0’은 음성만으로 손쉽게 집 안의 가전제품을 작동시키고 상태를 보여 준다. 예를 들어 사용자가 “세탁 시작해”라고 말하면 세탁기를 바로 작동시키고, “세탁 언제 끝나?”라고 말하면 “20분 남았습니다”라고 알려준다. LG전자는 상업용 로봇 시장에도 진출해 로봇제품의 포트폴리오를 다양화하고 있다. 실제로 현재 인천국제공항에서 ▲공항 방문객에게 항공기 탑승 시간, 체크인 장소 등 각종 정보를 화면 및 음성으로 안내하는 ‘공항 안내 로봇’ ▲스스로 청소가 필요한 곳을 찾아가 청소해 주는 ‘공항 청소 로봇’ 의 현장 테스트를 진행 중이다. 김예슬 인턴기자
  • [4차 산업혁명] 롯데그룹, AR 활용 맞춤형 첨단 쇼핑서비스

    [4차 산업혁명] 롯데그룹, AR 활용 맞춤형 첨단 쇼핑서비스

    롯데그룹(회장 신동빈)이 인공지능(AI), 가상현실(VR) 등 미래 핵심기술을 바탕으로 4차 산업혁명 시대에 대비하고 있다. 작년 12월에는 한국 IBM과 업무협약을 맺고 인공지능 슈퍼컴퓨터 ‘왓슨’을 전격 도입하였으며 이를 활용한 수준 높은 고객별 맞춤서비스 제공이 가능해질 전망이다. 롯데와 한국 IBM이 왓슨을 통해 구현할 주요 서비스 기술은 ‘지능형 쇼핑 어드바이저’와 ‘지능형 의사결정 지원 플랫폼’ 두 가지다. 먼저 ‘지능형 쇼핑 어드바이저’는 챗봇(사람과 자동으로 대화를 나누는 인공지능)을 기반으로 한 앱을 백화점을 비롯한 유통 관련 계열사에 순차적으로 적용할 예정이다. 챗봇이 최신 트렌드 분석을 통해 고객 맞춤형 상품 추천, 매장 설명 및 안내, 온라인 픽업 서비스 등을 해 주는 방식이다. 또 ‘지능형 의사결정 지원 플랫폼’은 제과 및 푸드 계열사의 신제품 연구개발 및 전략 수립에 활용된다. 이를 위해 왓슨이 분석한 외부시장 및 내부시스템의 매출, 제품 정보 등의 데이터를 토대로 신사업 개발 및 출시에 활용할 계획이다. 한편 AI 기반 플랫폼 운영을 위한 시스템 구축은 롯데정보통신이, 데이터 분석은 롯데멤버스가 전담한다.롯데백화점(대표 강희태)은 최첨단 IT를 접목한 ‘고객 체험형’ 매장도 선보이고 있다. 우선 지난해 10월부터 분당점 식품매장에 백화점업계 최초로 ‘스마트 쇼퍼’ 서비스를 도입했다. ‘스마트 쇼퍼’는 고객이 식품매장에서 카트나 바구니 없이 단말기를 사용해 쇼핑할 수 있도록 하는 혁신적 기술이다. 롯데멤버스 회원이면 누구나 이용 가능하며 구매하려는 상품의 바코드를 바코드 스캐너가 포함된 단말기 ‘쇼퍼’로 찍으면 된다. 또한 작년 9월부터 본점 지하 1층에서 ‘3D 가상 피팅 서비스’를 실시하고 있다. 이로써 고객들은 옷을 입어 보지 않아도 증강현실(AR) 기능을 활용한 디지털 디스플레이 거울과 스마트폰을 통해 피팅 결과를 미리 확인할 수 있다. 이 서비스는 도입 이후 월평균 1500여명이 이용하고 있을 만큼 인기가 높다. 뿐만 아니라 올해 2월에는 ‘아동용 3D 가상 피팅 서비스’도 운영하고 있고 자체 온라인 몰 ‘엘롯데’에서 가상 피팅 서비스를 구현하고 있는 것과 동시에 지난해 7월에는 국내 최초로 ‘3D 발사이즈 측정기’를 본점에 도입했다. 롯데닷컴(대표 김형준)은 작년 1월 고객이 원하는 의류상품을 분석해 찾아 주는 검색서비스 ‘스타일추천’을 처음 선보인 적이 있다. 지난 2월 이 서비스에 ‘머신러닝’과 ‘딥러닝’ 기술을 접목해 검색 결과의 정확도를 높임으로써 한층 더 발전된 방식으로 특정 이미지의 객체를 추정하고 분류할 수 있게 되었다. 예를 들어 고객이 특정 옷을 선택한 뒤 이 검색서비스를 통해 비슷한 색상이나 스타일을 가진 다른 카테고리 상품을 찾아 추천해 주는 것이다. 노정민 인턴기자
  • [4차 산업혁명] 인공지능 시대, 창의성·연구능력 갖춘 ‘뉴칼라 인재’ 키운다

    [4차 산업혁명] 인공지능 시대, 창의성·연구능력 갖춘 ‘뉴칼라 인재’ 키운다

    “인공지능 시대에는 수많은 일자리가 ‘블루칼라’나 ‘화이트칼라’가 아닌, ‘뉴 칼라’에서 생겨날 것입니다.” 지난 1월, 다보스포럼(세계경제포럼)에서 IBM 최고경영자 버지니아 로메티가 한 말이다. ‘뉴 칼라’는 ‘창의성과 연구개발 능력을 갖춘 4차 산업혁명 인재’를 뜻한다. 기존 블루칼라(작업현장 노동자)와 화이트칼라(전문 사무직)의 경계가 점차 사라지면서, 다가오는 변화에 발 빠르게 대응할 수 있는 ‘뉴 칼라’ 계급이 절실히 요구되고 있다.지난 4일 SK텔레콤(대표 박정호)과 서울대학교(총장 성낙인)가 국내 최초로 산학협력 인공지능(AI) 교과과정 개설을 위한 협약을 맺었다. 이로써 서울대 전기정보공학부 대학원 2학기 커리큘럼에 SKT와 SK C&C의 AI서비스 ‘누구’(NUGU), ‘에이브릴 위드 왓슨’(Aibril with Watson)이 활용될 예정이다. 또한, SKT는 AI 전문인력 양성을 위해 석·박사급 장학생도 선발해 다양한 실무 경험의 기회를 제공하는 등 아낌없는 지원을 할 것이라고 밝혔다. 한편 KT(대표 황창규)는 올해 상반기 연구개발(R&D) 석·박사 채용에서 AI분야를 신설해 모집했다. KT가 과거에 빅 데이터, 사물인터넷(IoT) 등 유사한 직무를 선발한 적은 있지만, 공개채용에 AI분야를 특정해 둔 것은 이번이 처음이다. 또 KT는 조직개편을 통해 각 부서에 산재해 있던 AI기술을 ‘AI테크센터’로 집중시키는가 하면, 인터넷TV(IPTV) 셋톱박스가 탑재된 음성인식 AI스피커 ‘기가지니’(GiGa Genie)를 출시하는 등 AI사업에 박차를 가하고 있다. 카카오(대표 임지훈)도 AI 인재영입에 나섰다. 채용을 통해서 AI 관련 분야를 전공한 개발자를 모집하고 있다. 또한 인공지능 기술개발을 전담할 자회사 ‘카카오브레인’을 설립한데 이어, 카이스트(KAIST), 서울대학교, 서울아산병원과 함께 학계 전문가 50여명으로 구성된 ‘초 지능 연구센터’ 설립을 위한 산학협력을 맺었다. 뿐만 아니라, 카카오브레인은 한국기원과 AI 바둑프로그램 개발 및 추진을 위해 ‘딥러닝 오픈리서치’에 관한 MOU를 체결하였다. 포스코 인재창조원(대표 황은연)은 포스텍 정보통신연구소(소장 서영주)와 AI 전문가를 육성한다. 정보통신연구소(PIRL)는 ‘AI아카데미’를 개설해 인재창조원에서 선발된 인원을 대상으로 사내 AI전문가 양성을 목표로 맞춤형 교육을 진행 중이다. 정보통신연구소는 올해 3월부터 약 2달간 ‘포스코그룹 인공지능(AI) 전문가양성 기본과정’을 운영하기도 했다. 이와 더불어, 같은 해 ‘삼성전자 DS(Device Solutions)부문 머신러닝 전문가양성 과정’을 통해 약 5일간 인공지능에 대한 강의를 했다. 한편, 정보통신연구소 내에 AIBD(Artificail Intelligence & Big Data)를 설치하고, 인텔과의 ‘AI Solution’ 워크숍 개최, 취업준비생 대상 AI 무료교육을 진행하는 등 AI연구에 주력하고 있다. 특히, KAIST(총장 신성철)는 한국을 대표하는 과학기술 연구중심 대학답게 AI 인재 양성에 총력을 기울이고 있다. 2000년대 이전부터 AI 교과목을 전 학과에 정규 편성 및 운영할 만큼 AI 분야에서 전통 있는 교육기관이다. KAIST는 기존 AI수업을 강화하고, 관련 과목을 학부 전 학년으로 확대할 방침인데, 이에 따라 내년부터 신입생들은 ‘인공지능 개론과 설계 응용’을 기본 교양과목으로 들을 수 있다. 이를 토대로 AI 기초구조와 작동원리, AI툴박스 활용법에 관해 배우며, AI 활용연구실 현장실습, 산업체 견학과 관련제품 체험 기회도 가진다. 노정민 인턴기자
  • [이효석의 신호를 찾아서] 동전의 앞뒷면 같은 ‘설명과 이해’

    [이효석의 신호를 찾아서] 동전의 앞뒷면 같은 ‘설명과 이해’

    최근 미국 국방부 방위고등연구계획국(DARPA)은 자신의 판단을 설명할 수 있는 인공지능을 만드는 연구를 시작했다. 여기에는 인공지능 분야에서 가장 뛰어난 능력을 보여주는 딥러닝 기술이 가진 문제인 ‘왜 그런 결과가 나왔는지를 누구도 알 수 없다’는 배경이 있다. 병원이나 법원에서 인공지능이 한 사람의 병명을 진단하거나 가석방 여부를 결정하게 되었을 때 인공지능이 그 이유를 제시할 수 있어야 사람들이 이를 더 잘 받아들이게 될 것이라는 뜻이다.우선 떠오르는 생각은, 그렇다면 인간은 설명을 잘하는가이다. 이 질문에 대한 답은 간단하다. 설명을 잘하는 사람이 있고, 그렇지 않은 사람이 있다. 어떤 문제에 대해서는 설명을 잘하는 이가 있고, 여러 가지 일에 대해 모두 설명을 잘하는 이도 있을 것이다. 적어도 좋은 설명과 나쁜 설명이 있으며 인간이 이를 판단할 수 있다는 것은 분명하다. 따라서 인간에게 설명을 평가하게 한다면 인공지능이 설명을 잘하게 만드는 것도 가능하리라 생각된다.그러나 이런 배경과는 별개로 보다 근본적인 질문을 생각해 보자. 바로 ‘설명이란 무엇인가’라는 것이다. 이는 설명이 너무나 일반적인 개념이라는 점에서 추상적인 질문일 수밖에 없다. 일상에서 설명은 어디에나 존재한다. 글과 대화의 상당 부분이 설명이며 어쩌면 모든 의사소통은 설명의 성격을 어느 정도는 가진다. 설명의 특징을 파악하기 위해 조금 범위를 좁혀 생각해 보면 설명과 이해 사이의 깊은 연관관계가 발견된다. 설명과 이해는 마치 동전의 앞뒷면과 같다. 이해가 있어야 설명이 가능하며 이해한 만큼만 설명할 수 있다. 그 설명을 통해 다른 사람은 다시 이해에 이른다. 인류의 지식이 축적된 과정을 이런 식으로 표현할 수도 있을 것이다. 흥미로운 사실은 설명을 하는 사람 역시 자신이 설명을 만들어내는 과정에서 더 깊은 이해에 이르기도 한다는 것이다. 가르치는 일을 업으로 삼은 이들이 점점 더 그 문제에 깊은 이해를 가지게 되는 이유일 것이다. 설명에 관해 떠오르는 이야기 중 가장 대표적인 것은 아인슈타인의 “할머니에게 설명할 수 없다면 너는 제대로 이해한 것이 아니다”라는 말이다. 앞서 이야기한 것처럼 이해한 만큼 설명할 수 있다는 점에서 어느 정도 일리 있는 말이라 할 수 있다. 그러나 할머니에게 하는 설명은 할머니가 가지고 있는 지식의 양에 따라 달라져야 한다는 점에서, 그리고 두 지식의 거리가 극단적으로 먼 경우 이 일이 극히 어려운 일이 될 수밖에 없다는 점에서 문제가 있다. 이를 잘 드러낸 이야기가 아인슈타인만큼 유명하지는 않지만 20세기 후반 가장 뛰어난 물리학자 중 한 명으로 꼽히는 파인만의 말이다. 그는 “내가 그 내용을 아무에게나 이해시킬 수 있다면, 어떻게 그걸로 노벨상을 받았겠는가”라고 했다 한다. 아인슈타인의 말만큼 고개를 끄덕거리게 되는 말이다. 단지 아인슈타인은 할머니에게 설명을 요구했을 뿐 이해시키기를 요구하지는 않았다는 점에서 빠져나갈 구멍은 있다. 그리고 한 가지 더. 아인슈타인의 말은 오늘날 나왔다면 다른 측면에서 문제의 소지가 있다. 여기서 할머니가 쓰인 맥락 때문이다. 10여년 전 한 첨단기술을 다루는 잡지에서 아두이노라는 초소형 컴퓨터를 홍보하며 뉴스레터의 제목으로 “심지어 당신의 엄마도 프로그래밍을 할 수 있습니다”라는 말을 쓴 적이 있다. 정확히 4시간 뒤 편집장의 사과문이 메일함에 도착했다. 그 사과문에는 다음과 같은 말이 쓰여 있었다. “나 역시 한 가정의 어머니로서, 이런 변명의 여지가 없는, 무책임하고 성차별적인 제목은 다시는 쓰여서는 안 된다고 생각합니다. 앞으로 저런 무의미하고 공격적인 제목이 다시는 여러분의 이메일함에 보이지 않도록 오늘부터 우리는 제목을 검수하는 추가적인 단계를 만들 것입니다.” 적어도 그 잡지는 자신들의 입장과 지향하는 바를 잘 설명하는 데 성공했다.
  • 네이버, 구글·카카오에 ‘이미지 검색’ 도전장

    네이버, 구글·카카오에 ‘이미지 검색’ 도전장

    딥러닝 기반 ‘스코픽’ 기술 적용…텍스트 대신 사진으로 검색 가능 단어, 문장과 같은 글자(텍스트)가 아니라 그림 이미지를 통해 정보를 찾는 ‘이미지 검색’ 시장이 뜨겁게 달아오르고 있다. 구글과 카카오가 먼저 진출한 시장에 국내 최대 포털인 네이버가 서비스를 개시하며 도전장을 냈다.네이버는 11일 자체 개발한 ‘스마트 렌즈’ 이미지 검색을 시범 서비스한다고 밝혔다. 모바일 검색창 탭에서 스마트 렌즈 아이콘을 누르고, 카메라로 촬영하거나 저장된 이미지를 불러와 이미지를 검색하면 관련 정보가 뜬다. 이미지의 특정 부분만 영역을 정해 그 부분에 대해서만 검색을 할 수 있다. 스마트 렌즈에는 네이버가 자체 개발한 ‘스코픽’ 기술이 적용됐다. 네이버 관계자는 “스코픽은 네이버가 국내 최대 규모 검색 사업자로서 축적한 사용자 콘텐츠(UGC)를 최대한 활용, 이미지에 대한 상세한 키워드와 다양한 유사 이미지를 제공한다”고 설명했다. 인공지능(AI)의 ‘딥러닝’ 기반 이미지 분석 기술이다. 예컨대 수없이 저장되어 있는 인터넷 사용자들의 고양이 사진들을 보고서 고양이를 학습해 비슷하게 생긴 이미지를 찾아주는 것이다. 네이버 측은 “‘컵’, ‘가구’보다 ‘브라운 컵’, ‘식탁 의자’처럼 상세 키워드를 보여주는 수준”이라고 덧붙였다. 이미지 검색 분야는 2009년 ‘고글’ 앱 서비스를 시작한 구글이 선두주자다. 지난 5월 열린 구글 연례 개발자 콘퍼런스에서는 ‘구글 렌즈’를 선보였는데, 카메라 영상을 이해하고 정보를 줘서 사용자가 따라갈 수 있을 정도로까지 발전해 있다. 음식점 간판을 카메라로 비추면 이용자들이 매긴 메뉴 별점을 보여주고, 극장을 비추면 현재 상영 정보가 나오는 식이다. 구글은 연내에 상용 서비스를 시작할 계획이다. 카카오의 ‘라이브픽’은 대중문화 맞춤형이다. 모바일 메신저 ‘카카오톡’과 ‘다음 앱’에서 탤런트 ‘송중기’를 검색하면 현재 활동 모습을 비롯해 팬 사인회, 시상식, 공항 사진을 한눈에 볼 수 있다. 이미지 검색은 6조 1000억여원 규모(통계청·올해 4월 기준)의 온라인 쇼핑 환경을 빠르게 바꿀 것이라는 점에서 더 각광받고 있다. 구글은 비슷한 이미지를 찾아주는 검색 기능을 이미 제공 중이고, 네이버도 쇼핑창에서 ‘비슷한 스타일 상품 찾기’가 가능하다. 네이버는 카메라로 찍은 사진으로 비슷한 상품을 찾아주는 ‘쇼핑 카메라’ 기능을 연내 도입할 예정이다. 상품 이미지, 텍스트 정보에서 사이즈, 색상, 무늬를 추출해 사이즈 검색 등을 할 수 있게 된다. 김용진 서강대 경영학과 교수는 “AI에 기반한 검색 영역이 텍스트, 음성, 이미지로 다양화하고, 쇼핑·여행 등 일상 영역으로 확대되면서 사용자 환경이 한층 유연하게 변화할 것”이라고 말했다. 이재연 기자 oscal@seoul.co.kr
  • [IT단신]

    KT, 인공지능 테크센터 개소 KT는 인공지능(AI) 연구를 위한 ‘AI 테크센터’를 서울 서초구 KT 융합기술원에 열었다고 6일 밝혔다. 개방형 개발 플랫폼으로 운영되는 AI 테크센터에는 제휴사와 인공지능 기술 협력을 위한 ‘AI 크래프트숍’, 국내외 단말기·서비스를 벤치마킹할 체험공간, AI 교육을 위한 ‘아카데미 라운지’ 등이 마련됐다. 제휴사들은 KT 인공지능 TV인 ‘기가지니’의 개발 도구를 활용해 딥러닝 알고리즘을 연구할 수 있다. LG 프리미엄 이어폰 ‘쿼드비트4’ LG전자는 프리미엄 이어폰 ‘쿼드비트4’를 출시하고 오는 16일까지 G마켓에서 사전 예약판매를 한다. 이어폰 내부에 일반 비닐 소재가 아닌 메탈 진동판(MLM)을 탑재해 깊고 풍부한 저음과 명료한 음질을 구현했다. 데이터 전달 과정에서 발생하는 노이즈를 최소화할 수 있도록 ‘패브릭 케이블’이 적용됐다. 귓바퀴 형태에 맞는 유선형 디자인으로 착용감을 높였다. 음량 조절과 음악 재생, 통화를 간편히 할 수 있도록 3버튼 컨트롤러를 채택했다.
  • [송혜민 기자의 월드 why] 로봇에게 ‘심쿵’… 미래 인류의 사랑

    [송혜민 기자의 월드 why] 로봇에게 ‘심쿵’… 미래 인류의 사랑

    사람이 사람에게 끌리는 여러 순간이 있다. 무엇보다도 마음을 이해해 주고 상처를 보듬어 준다고 느낄 때 상대방에게 호감과 사랑을 느낀다. 사랑의 기본 조건과도 같은 마음의 교류·교감이 로봇과도 가능할까. 인공지능(AI)을 탑재한 로봇과 인간의 공존은 미래가 아닌 현재다. 인간은 이미 수많은 순간을 AI와 공유하고 있다. 앞으로도 더 많은 분야에서 AI 로봇이 연구·활용되겠지만 AI에 맹목적인 ‘사랑’을 퍼붓던 세계의 시류가 달라지고 있다. 이제 인간은 똑똑함을 넘어선 ‘따뜻한 로봇’에 관심을 쏟고 있다.●‘딥러닝’ 기술로 사람처럼 다양한 반응 사람의 감정을 읽고, 그것에 대응하며 교감이 가능한 ‘소셜 로봇’은 AI 로봇의 연장선상에 있는 업그레이드 버전인 동시에 인간과 감정을 나눌 수 있다는 점에서 완전히 다른 개체이기도 하다. 글로벌 컨설팅 전문업체인 매킨지는 최근 발행한 ‘로봇이 있는 스마트홈’이라는 보고서에서 “가정용 로봇인 홈봇이 소비자의 신뢰를 얻기 위해서는 AI를 넘어서 AE(Artificial Emotion·인공 감정)를 갖춘 로봇을 설계해야 한다”고 강조했다. 이는 인간의 더 나은, 편리한 삶을 위한 로봇이 본연의 목적을 달성하기 위해서는 궁극적으로 인간의 감정을 인지하고 이를 ‘표현’하는 능력이 필요하다는 뜻으로 해석된다. 이미 세계는 ‘사람스러운’ 로봇의 탄생에 발 빠르게 다가서고 있다. 미국의 인공지능 스타트업 기업인 어펙티바는 입력되는 코드나 프로그램이 아닌 인간의 반응을 통해 배우게 하는 인공지능 개발에 주력한다. 표정은 물론이고 음성을 통해 사람의 감정을 파악하고 그에 상응하는 행동과 말을 건넬 줄 아는 AI 개발이 목표다. 이러한 AI를 탑재한 로봇은 눈물을 흘리는 인간에게 다가가 등을 토닥이고, 말없이 침울한 표정의 인간에게 ‘괜찮냐’는 따뜻한 인사를 건넬 수 있다. 여기에 경험을 통해 스스로 배우고 데이터베이스룰 구축하는 기술인 ‘딥러닝’이 융합되면 로봇은 눈물을 흘리는 인간에게 매번 똑같은 행동이나 말이 아니라 상황에 가장 적합한 대응 매뉴얼을 추출해 각기 다른 반응을 내놓을 수 있다. 인간의 마음을 헤아려 주는 로봇과의 공존이 점차 현실로 다가오는 가운데, 인간은 과연 이러한 로봇을 어디까지 받아들일 수 있을까. AI 또는 AI 로봇과 사랑에 빠지는 SF 영화 속 주인공의 심리가 허무맹랑하기만 한 설정은 아니다. 일본 도요하시기술과학대학 정보·지능 공학과와 교토대학 심리학과 공동연구팀은 15명의 건강한 성인들에게 각각 고통스러운 상황과 일반적인 상황에 빠진 인간 및 로봇의 사진을 보여 주고, 각 사진을 볼 때 나타나는 실험 참가자들의 뇌파 패턴을 분석했다. 여기서 ‘고통스러운 상황’이란 실수로 손가락을 칼에 베는 상황 등을 말한다. 그 결과 로봇과 인간의 고통스러운 상황을 봤을 때 나타나는 실험 참가자들의 뇌파가 매우 유사하다는 것을 확인했다. 예컨대 인간은 타인의 고통스러운 모습을 봤을 때 ‘아프겠다’, ‘힘들겠다’ 등의 생각을 떠올리며 공감하는데, 로봇의 고통스러운 모습을 봤을 때에도 유사한 공감 반응이 나타난다는 것이다. 미국 캘리포니아대학 샌디에이고 캠퍼스 연구진 역시 실험을 통해 유사한 결과를 얻었다. 연구진은 23명의 대학 학부 재학생에게 휴머노이드 로봇의 다양한 얼굴 표정을 보게 했다. 그 결과 학생들은 로봇이 웃으면 따라서 미소 짓고, 슬픈 표정을 지으면 함께 우울감을 느끼는 등 상당한 감정 교류의 반응을 보였다. ●연구진 “로봇 표정 따라 인간도 공감” 연구진은 로봇이 살아 있는 인간이 아니라는 사실을 정확하게 인지하고 있었음에도 인간의 뇌 신경세포에 잠재돼 있는 모방심리 성향에 기인해 감정 교류 혹은 이입하는 것을 확인했다고 밝혔다. 전문가들은 로봇과 인간의 교감이 저출산·고령화 문제에 맞닥뜨린 인류에게 해결책이 돼 줄 것이라고 기대한다. 단순히 명령하고 이를 수행하는 단편적인 관계에서 벗어나 상호적인 사회적 관계 맺기가 가능해지기 때문이다. 반면 우려의 목소리도 있다. 특히 일각에서는 로봇과의 감정 교류가 정서적으로 민감한 아이들에게 어떤 영향을 미칠지 예측하기 어렵다고 말한다. ‘오즈의 마법사’ 속 양철나무꾼은 심장이 사라진 뒤로 사랑도, 행복도 느낄 수 없게 됐다고 말한다. 사랑과 행복을 포함한 감정을 느끼고 교류하는 것은 여전히 심장 혹은 뇌를 가진 인간의 영역이다. 하지만 로봇이 교감 능력을 도구 삼아 인간의 영역에 들어온다면 미래에는 몇몇 과학자들의 예측대로 인간과 로봇 커플을 마주할 수도 있지 않을까. huimin0217@seoul.co.kr
  • 알아서, 큐!…출근길 아침햇살 같은 음악, 요즘 관심있는 뉴스, 딱 내가 찾던 스타일도

    알아서, 큐!…출근길 아침햇살 같은 음악, 요즘 관심있는 뉴스, 딱 내가 찾던 스타일도

    출근길 음원 애플리케이션에서 내 취향에 딱 맞는 음악들이 흘러나온다. 이전에 선택했던 곡의 장르와 분위기, 가수를 분석해 앱이 선곡해 준 음악이다.스마트폰 포털 앱을 열자 회사 업무와 관련된 추천 뉴스가 뜬다. 요즘 관심도가 상승한 배우가 전날 출국했다는 시진 기사도 함께 보인다. 퇴근 때 웹서핑을 하다 보니, 점심에 사 볼까 마음이 동해 검색했던 상품에 대한 광고가 보여 클릭한다. 기업들이 특정 개인에게 맞춤화된 정보와 서비스를 제공하는 ‘빅데이터 기반 큐레이션(Curation)’ 기술을 잇달아 상용화시킨 요즘 흔하게 겪는 일상이다. ●검색·방문기록 분석해 ‘타깃 소비자’에 광고 큐레이션에 처음 주목한 쪽은 광고업계였다. 웹, 스마트폰 등 디지털 기반 광고 시장에선 개인별 검색 패턴을 통해 관심과 취향을 파악해 맞춤형 광고를 제공하는 일이 기술적으로 가능해졌기 때문이다. 불특정 다수인 대중에게 한 방향으로 정보를 전달하는 매스미디어 시절엔 과자나 장난감 회사가 뉴스채널 광고를 기피하고, 유아 프로그램 시간대를 집중 공략하는 식의 초보적 형태의 큐레이션이 고작이었다. 예컨대 디지털마케팅 기업인 메조미디어는 최근 국내 최초 독립형 데이터 관리 플랫폼인 ‘데이터 맥스’를 출시하며 애드테크(광고+기술) 사업의 본격 확대를 선언했다. 애드테크란 광고에 빅데이터, 머닝러신 등 정보통신기술(ICT)을 결합해 ‘타깃 소비자’에게 최적화된 광고를 집행하게 하는 방식이다. 메조미디어는 자체 기술로 만든 데이터 맥스로 사용자 웹사이트 방문기록(쿠키), 검색기록 등을 분석해 맞춤형 광고를 노출시키고 있다. 김민아 메조미디어 데이터 마케팅 국장은 “정보 홍수 속 얼마나 개인에게 의미 있는 정보를 제공할 수 있는지 여부가 디지털 정보 유통 시대에 주요 경쟁력이 될 것”이라면서 “빅데이터, 인공지능(AI), 딥러닝 등 기술이 발달할수록 큐레이션의 정확성이 높아지고 시장도 확대될 것”이라고 내다봤다. ●사용자 ‘사진첩’ 분석 SNS에 관심 상품 노출 소셜네트워크서비스(SNS) 업계 역시 큐레이션을 성공의 열쇠로 보는 분위기다. SNS에 체류시간을 늘리는 방법이면서, 광고를 통한 수익모델 개발로 이어질 여지가 크기 때문이다. 이미지 공유 SNS인 핀터레스트는 지난달 이미지 인식 기술을 활용한 타깃 광고를 도입하겠다고 밝혔다. 사용자가 관심을 많이 두는 특정 이미지를 모아 두면, 그것과 유사한 상품이 광고로 노출될 수 있다.●포털 뉴스섹션 첫 화면 ‘개인 관심사별’ 구성 모바일 큐레이션 기술이 보편화되면서 웹에서도 개인 맞춤형 정보에 대한 수요가 늘고 있다. 카카오는 2015년 다음 모바일 서비스에서 선보인 ‘루빅스’를 지난 4월부터 웹 포털인 다음 PC서비스의 첫 화면 뉴스섹션에 적용하고 있다. 루빅스는 사용자의 콘텐츠 이용 패턴을 기계학습해 개인별 관심사에 맞는 콘텐츠를 자동으로 추천하는 시스템이다. 이용자의 성별, 연령, 평소 즐겨 보는 뉴스 유형 등에 따라 뉴스 콘텐츠가 사람마다 다르게 표시된다. 네이버도 모바일 뉴스에 AI 큐레이션 시스템인 ‘AiRS’(에어스)를 인기리에 서비스 중이다. 기사뿐 아니라 연재와 칼럼 영역에도 이 시스템을 적용했다. 네이버 관계자는 “연재 및 칼럼 뉴스는 개인의 관심사, 선호도에 따른 주제나 관점, 필진 등이 명확해 일반 기사에 비해 큐레이션 서비스에 보다 적합하다”고 설명했다. 카카오와 네이버 모두 5·9 조기대선을 앞둔 올봄 뉴스 큐레이션 서비스를 강화했다. 선거나 스포츠 이벤트처럼 개인별 취향이 극명하게 드러나는 상황일수록 큐레이션 알고리즘을 개발하기 유리한 상황이 되기 때문이다.●멜론 10년 빅데이터로 상황·감성별 음악 추천 개인 취향이 쉽게 드러나는 음악업계에서도 큐레이션 활용이 활발하다. 멜론의 맞춤형 음악 추천 서비스인 ‘포유’(For U)는 멜론이 10여년 동안 축적한 빅데이터와 고객 이용행태 분석 노하우를 바탕으로 사용자 음악 취향을 진단한다. 지니뮤직은 최근 빅데이터 기반 음악추천 엔진에 음성명령 기능을 더한 ‘지니보이스’를 선보였다. “트와이스 노래 틀어 줘”라거나 “90년대 음악 추천해 줘”와 같은 음성명령을 듣고 관련 음악을 재생시킬 뿐 아니라 사용자의 상황과 감성을 고려한 음악을 추천하는 AI DJ 역할도 수행한다. 홍희경 기자 saloo@seoul.co.kr
  • [송혜민의 월드why] 감정 나누는 ‘로봇-인간 커플’, 탄생할까?

    [송혜민의 월드why] 감정 나누는 ‘로봇-인간 커플’, 탄생할까?

    사람이 사람에게 끌리는 여러 순간이 있다. 무엇보다도 마음을 이해해주고 상처를 보듬어준다고 느낄 때 상대방에게 호감과 사랑을 느낀다. 사랑의 기본조건과도 같은 마음의 교류·교감이 로봇과도 가능할까? 인공지능(AI)을 탑재한 로봇과 인간의 공존은 미래가 아닌 현재다. 인간은 이미 수많은 순간을 AI와 공유하고 있다. 앞으로도 더 많은 분야에서 AI 로봇이 연구·활용되겠지만 AI에 맹목적인 ‘사랑’을 퍼붓던 세계의 시류가 달라지고 있다. 이제 인간은 똑똑함을 넘어선 ‘따뜻한 로봇’에 관심을 쏟고 있다. ◆인간의 명령 아닌 감정에도 대응하는 로봇 사람의 감정을 읽고, 그것에 대응하며 교감이 가능한 ‘소셜 로봇’은 AI 로봇의 연장선상에 있는 업그레이드 버전인 동시에, 인간과 감정을 나눌 수 있다는 점에서 완전히 다른 개체이기도 하다. 글로벌 컨설팅 전문업체인 맥킨지는 최근 발행한 ‘로봇이 있는 스마트홈’이라는 보고서에서 “가정용 로봇인 홈봇이 소비자의 신뢰를 얻기 위해서는 AI를 넘어서 AE(Artificial Emotion·인공 감정)를 갖춘 로봇을 설계해야 한다”고 강조했다. 이는 인간의 더 나은, 편리한 삶을 위한 로봇이 본연의 목적을 달성하기 위해서는 궁극적으로 인간의 감정을 인지하고 이를 ‘표현’하는 능력이 필요하다는 뜻으로 해석된다. 이미 세계는 ‘사람스러운’ 로봇의 탄생에 발 빠르게 다가서고 있다. 미국의 인공지능 스타트업 기업인 어펙티바(Affectiva)는 입력되는 코드나 프로그램이 아닌 인간의 반응을 통해 배우게 하는 인공지능 개발에 주력한다. 표정은 물론이고 음성을 통해서 사람의 감정을 파악하고 그에 상응하는 행동과 말을 건넬 줄 아는 AI 개발이 목표다. 이러한 AI를 탑재한 로봇은 눈물을 흘리는 인간에게 다가가 등을 토닥이고, 말없이 침울한 표정의 인간에게 ‘괜찮냐’는 따뜻한 인사를 건넬 수 있다. 여기에 경험을 통해 스스로 배우고 데이터베이스룰 구축하는 기술인 ‘딥러닝’이 융합되면, 로봇은 눈물을 흘리는 인간에게 매번 똑같은 행동이나 말이 아닌, 상황에 가장 적합한 대응 매뉴얼을 추출해 각기 다른 반응을 내놓을 수 있다. ◆감정 표현하는 로봇을 향한 인간의 대응은? 인간의 마음을 헤아려주는 로봇과의 공존이 점차 현실로 다가오는 가운데, 인간은 과연 이러한 로봇을 어디까지 받아들일 수 있을까. AI 또는 AI 로봇과 사랑에 빠지는 SF 영화 속 주인공의 심리가 허무맹랑하기만 한 설정은 아니다. 일본 도요하시기술과학대학 정보·지능 공학과와 쿄토대학 심리학과 공동연구팀은 15명의 건강한 성인들에게 각각 고통스러운 상황과 일반적인 상황에 빠진 인간 및 로봇의 사진을 보여주고, 각 사진을 볼 때 나타나는 실험 참가자들의 뇌파 패턴을 분석했다. 여기서 ‘고통스러운 상황’이란 실수로 손가락을 칼에 베는 상황 등을 말한다. 그 결과 로봇과 인간의 고통스러운 상황을 봤을 때 나타나는 실험참가자들의 뇌파가 매우 유사하다는 것을 확인했다. 예컨대 인간은 타인의 고통스러운 모습을 봤을 때 ‘아프겠다’, ‘힘들겠다’ 등의 생각을 떠올리며 공감하는데, 로봇의 고통스러운 모습을 봤을 때에도 유사한 공감 반응이 나타난다는 것이다. 미국 캘리포니아 대학 샌디에이고 캠퍼스 연구진 역시 실험을 통해 유사한 결과를 얻었다. 연구진은 23명의 대학 학부 재학생에게 휴머노이드 로봇의 다양한 얼굴표정을 보게 했다. 그 결과 학생들은 로봇이 웃으면 따라서 미소 짓고, 슬픈 표정을 지으면 함께 우울감을 느끼는 등 상당한 감정교류의 반응을 보였다. 연구진은 로봇이 살아있는 인간이 아니라는 사실을 정확하게 인지하고 있었음에도 불구하고, 인간의 뇌 신경세포에 잠재돼 있는 모방심리성향에 기인해 감정교류 혹은 이입하는 것을 확인했다고 밝혔다. 전문가들은 로봇과 인간의 교감이 저출산·고령화 문제에 맞닥뜨린 인류에게 해결책이 되어 줄 것이라고 기대한다. 단순히 명령하고 이를 수행하는 단편적인 관계에서 벗어나 상호적인 사회적 관계 맺기가 가능해지기 때문이다. 반면 우려의 목소리도 있다. 특히 일각에서는 로봇과의 감정 교류가 정서적으로 민감한 아이들에게 어떤 영향을 미칠지 예측하기 어렵다고 말한다. ‘오즈의 마법사’ 속 양철나무꾼은 심장이 사라진 뒤로 사랑도, 행복도 느낄 수 없게 됐다고 말한다. 사랑과 행복을 포함한 감정을 느끼고 교류하는 것은 여전히 심장 혹은 뇌를 가진 인간의 영역이다. 하지만 로봇이 교감 능력을 도구 삼아 인간의 영역에 들어온다면, 미래에는 몇몇 과학자들의 예측대로 인간과 로봇 커플을 마주할 수도 있지 않을까. 송혜민 기자 huimin0217@seoul.co.kr
  • 네이버 ‘미래기술 두뇌’ 제록스硏 품다

    네이버 ‘미래기술 두뇌’ 제록스硏 품다

    숙련된 전문 연구인력 80명 보유 인수가 미공개… 업계 2억弗 추정 확정 땐 네이버랩스 연구 새 전기 네이버가 미국 제록스로부터 제록스리서치센터유럽(XRCE)을 인수하고 인공지능(AI) 등 미래기술 분야 연구를 확대한다고 27일 밝혔다. 올해 3분기 내 인수를 완료할 계획이다.미국의 실리콘밸리 격인 프랑스 그르노블에 위치한 XRCE는 1993년 설립돼 AI, 러닝머신, 컴퓨터 비전, 자연어 처리 같은 미래기술을 연구해 왔다. 미국 팰로앨토의 PARC, 캐나다 XRCC 등과 함께 제록스의 대표적인 미래기술 연구소였던 XRCE는 최근 제록스의 사업구조 개편 과정에서 인수합병(M&A) 매물로 나왔다. 네이버는 북미·유럽 등지의 글로벌 정보통신기술(ICT) 기업들과 각축을 벌인 끝에 인수에 성공한 것으로 알려졌다. 네이버와 XRCE 모두 인수가액은 공개하지 않았지만, 업계에선 2억 달러 안팎으로 추측하고 있다. 2014년 구글이 직원 20여명인 딥마인드를 4억 달러에, 지난해 삼성전자가 AI 스타트업인 비브랩스를 2억 1500만 달러에 인수한 바 있다. ●“딥러닝 협업 등 시너지 효과 기대” XRCE 인수로 네이버는 AI, 자율주행, 로보틱스 등에 관한 네이버랩스 연구가 새로운 도약 계기를 맞이했다고 소개했다. 송창현 네이버 최고기술책임자(CTO)는 “XRCE와 네이버의 미래기술 연구 방향성이 같아 시너지 효과가 기대된다”면서 “특히 컴퓨터 비전, 머신러닝, 자연어 처리 분야에서의 XRCE 연구 성과들이 네이버랩스가 주력하는 딥러닝, 3차원(3D) 매핑, 로보틱스 등 생활환경지능 기술 연구와 어우러져 글로벌 무대에서 큰 성과를 낼 수 있을 것”이라고 기대했다. 송 CTO는 XRCE 인수전 초반 현지를 방문해 네이버랩스와의 시너지 효과를 역설해 온 것으로 알려졌다. 이번 인수로 네이버가 얻은 성과 중 가장 눈에 띄는 대목은 숙련된 AI 연구원 80명을 단번에 확보했다는 데 있다. 이들은 인수 작업이 끝난 뒤 네이버랩스 소속으로 연구를 이어 가게 된다. ●SKT·카카오도 ‘전문가 영입’ 총력전 지난해 이른바 ‘알파고 쇼크’를 겪은 뒤 국내 ICT 기업들은 앞다퉈 AI 연구·상용화 조직을 만들었지만 하나같이 구인난을 겪어 왔다. 지난해 10월 AI 전문 연구조직인 ‘T브레인’을 출범시킨 SK텔레콤은 국내뿐 아니라 해외 인재 영입에도 적극 나서고 있고, 카카오도 AI를 신성장 동력으로 추진하며 AI 전문가 대규모 상시 채용을 올 초부터 실시 중이다. 서울과학종합대학원 빅데이터학과 김진호 주임교수는 네이버의 XRCE 인수를 “인재 확보를 위해 회사를 통째로 인수하는 재능(talent) 인수”라고 규정한 뒤 “AI 분야 전공자들이 매우 빠른 속도로 늘고 있지만 국내뿐 아니라 해외에서도 AI를 연구한 석·박사 인력이 부족해 글로벌 기업 간 인재 유치 경쟁이 치열해질 것”이라고 내다봤다. 홍희경 기자 saloo@seoul.co.kr
  • AI 판사가 나를 단죄한다면…

    AI 판사가 나를 단죄한다면…

    # 2013년 2월 미국 위스콘신주에서 총격사건에 사용된 차를 운전한 혐의로 1심에서 징역 6년을 선고받은 에릭 루미스(34)의 항소 이유서는 특별했다. 루미스의 변호인은 “검사가 미국 스타트업 회사인 노스포인트가 만든 인공지능(AI) 기기 컴퍼스를 활용했다”고 지적했다. 컴퍼스는 “루미스의 폭력 위험과 재범 가능성이 높다”고 평가했고 검사는 이를 인용해 중형을 구형한 것이었다. 루미스 측은 “인간이 아닌 AI 기기의 알고리즘을 이용한 판결은 부당하다”고 주장했다. 그러나 위스콘신주 대법원은 AI 알고리즘 자료를 근거로 한 선고는 타당하다고 판결했다. 대법원은 “컴퍼스의 보고서는 가치 있는 정보를 제공했다”고 판시했다. 이 판결은 법률 영역에서 AI를 인정한 첫 사례라는 평가를 받고 있다.스스로 학습하는 딥러닝 기술을 장착한 AI가 전 세계 바둑계 고수들을 연이어 꺾으면서 발전을 거듭하는 동안 AI는 일상생활에도 파고들었다. 전 세계적으로 개발 열풍이 불고 있는 자율주행 차량이나 인공지능 투자컨설팅 및 자산관리 등이 대표적이다. 국내 포털 등도 AI를 폭넓게 활용하고 있다. 구글 어시스턴트 등 AI 비서 서비스도 등장했다. 법률서비스 시장도 예외는 아니다. 해외에서는 이미 AI를 이용한 다양한 서비스들이 나와 있다. 미국 법률 자문회사 로스 인텔리전스는 IBM사의 AI ‘왓슨’에 법률과 판례를 정리하는 변호사 보조 역할을 맡기고 있다. 최근에는 판결예측 알고리즘도 개발됐다. 피고인의 재범 가능성을 예측하는 AI 컴퍼스처럼 소송 당사자뿐 아니라 변호사나 검찰, 판사도 수학과 통계학을 이용한 컴퓨터 프로그램을 널리 활용하고 있다.●인공지능은 법조인과 같은 사고를 할 수 있을까 AI의 가장 큰 장점은 컴퓨터가 여러 데이터를 이용해 마치 사람처럼 스스로 학습할 수 있는 딥러닝 기술을 갖추고 있다는 점이다. 그렇다면 향후에는 AI가 법조인들을 돕는 수준에서 더 나아가 법조인을 아예 대체할 수 있을까. 런던대와 셰필드대, 펜실베이니아대 공동 연구팀이 지난해 개발한 유럽인권재판소의 과거 판결 사례들을 학습한 컴퓨터 프로그램은 그 단초를 엿볼 수 있는 사례다. 런던대 등 연구진의 AI는 유럽 인권협약 3조 ‘고문의 금지’, 6조 ‘공정한 재판을 받을 권리’, 8조 ‘사생활 및 가족생활 존중에 대한 권리’ 등에 관한 584개의 판결 사례를 학습했다. 특히 인권 침해 때 자주 나오는 특정 문장이나 사실, 정황 등을 학습해 실제 판결 5개 중 4개에서 같은 판결을 내렸다. 이런 덕분에 이 프로그램에는 ‘AI 판사’라는 별명이 붙었다. 연구를 주도한 니콜라오스 알레트라스 런던대 교수는 “AI가 복잡한 재판의 판결 패턴을 빨리 파악하는 데 도움이 될 것”이라고 기대했다. 이 프로그램이 법적인 가치 평가가 필요한 사건을 다뤄 실제 판례를 대략 79%의 확률로 예측했다는 점도 높은 평가를 받는다. 계인국 사법정책연구원 박사는 “이 실험은 단순 법률 적용의 문제를 넘어서는 ‘법적 가치평가’가 개입돼야 하는 사건들에 대해 AI가 법관과 80% 정도 부합하는 결정을 내렸다는 뜻”이라면서 “인공지능의 딥러닝 기술이 더 발전한다면 실제 판결과 AI의 예측 사이의 격차가 줄어들 가능성이 크다”고 내다봤다. ●“법조인의 핵심적 사고까지는 불가능할 것” 반면 아무리 기술이 발전해도 AI가 법조인의 역할을 대체할 수 없다는 전망도 만만찮다. 주어진 상황에서 법률적 쟁점을 떠올리거나 가치 판단을 하는 일은 AI가 모방하기 어렵다는 뜻이다. 지난 1일 대전지방법원에서 열린 ‘인공지능과 법’ 학술대회에서 고상영 대전지법 판사가 발표한 ‘인공지능의 법률 분야에서의 응용사례’ 발표문에 따르면 법률가들은 한 사람의 행동이 법률을 위반했는지를 판단하기까지 ▲쟁점이 될 만한 법 조항을 찾고 ▲비슷한 판례들을 찾아 분석한 뒤 ▲주어진 사례가 기존 판례에 부합하는지 등을 판단하는 과정을 거친다. 예를 들어 한 피고인이 피해자와 말다툼을 하다가 흥분해 칼로 피해자를 찔러 부상을 입힌 사건에서 법률가는 형법의 특수상해죄와 살인미수죄를 곧장 떠올린다. 이후 관련 판례들을 검색해 피해자가 살인의 고의가 있었는지를 판단하는 식이다. 바둑기보를 딥러닝 기법으로 학습한 AI 알파고는 인간의 뇌를 모방한 알고리즘과 방대한 데이터를 활용해 최적의 수를 찾아낸다. 하지만 특정 행위가 어떤 범죄에 해당하는지를 ‘판단’하는 건 다른 문제다. 범죄를 저지르는 주체와 환경 등은 무한대에 가까운 데다 전례와 딱 맞아떨어지는 사례는 존재하지 않고, 여기에는 가치판단이 개입될 수밖에 없기 때문이다. 고 판사는 “쟁점이 주어진 상태에서 판례를 찾는 것은 AI 기술이 더 발전한다면 가능하다”면서도 “판사로서도 핵심쟁점을 찾는 게 쉽지 않은데 이것을 AI가 할 수 있으려면 시간이 상당히 걸릴 것으로 본다”고 전망했다. 특히 그는 “문제가 된 사례가 기존 사건들의 집합에 포함되는지 여부를 판단하는 것은 인간 고유의 통찰력이 필요한 지적 작업으로, 인공지능이 발전해도 컴퓨터가 하기는 어려울 것”이라고 예상했다. 실제 AI를 이용한 해외의 법률 서비스도 기존 판례를 검색하고 판결 방향을 예측하는 서비스가 다수를 이루고 있다. 임영익 인텔리콘 메타연구소 변호사는 “‘인공지능이 인간 판사를 대체할 수 있는가’에 대해 대부분의 미래학자와 AI 전문가들은 부정적으로 여긴다”면서 “먼 미래에는 복잡한 인간의 의사결정을 대신할 놀라운 알고리즘이 등장할 수 있겠지만 현재까지는 낮은 수준의 판단 기술만 가능하다”고 말했다. ●시민들은 AI 판사를 신뢰할까 향후 기술의 발전으로 AI 판사가 등장한다면 사람들은 이를 받아들일 수 있을까. 이에 대한 법조계 의견은 부정적이다. 사회적 합의의 산물인 법적 판단을 기계에 맡기기는 어렵다는 취지다. 고 판사는 “만일 컴퓨터가 법률적인 판단을 할 수 있다고 해도 사람들이 기계에게 내가 죄가 있는지 없는지 등의 판단을 맡길지 의문”이라며 “일정한 가치 판단이 개입될 수밖에 없는 작업을 법적·윤리적 책임을 지지 않는 컴퓨터가 맡는 것은 적절하지 않다”고 말했다. 대법원 사법정보화전략위원회 위원장을 맡고 있는 강민구 법원도서관장은 “사법 불신이 큰 당사자는 ?사람보다 AI 체계를 신뢰할 수 있겠지만 대다수 당사자는 그래도 인간 법관이나 인간 배심원을 더 선호하지 않겠나”라며 “일정 시기 이후에는 인간과 AI ?중 당사자가 희망하는 대로 선택하는 것은 가능하다”고 예상했다. 인공지능의 발전에 대응해 법조계가 좀더 ‘인간화’돼야 한다는 의견도 있다. 백강진 캄보디아 특별재판소 재판관은 지난해 심포지엄에서 “4차 산업혁명에서 살아남는 길은 사람만이 할 수 있는 걸 더 잘하는 것인 만큼 법률가는 창조성과 감성을 더 키워야 한다”며 “한국 법률가들이 그동안 창조적이고 인간적인 문서를 작성했나 자문할 필요가 있다”고 말했다. ●생활법률서비스· 전자 소송 시스템 사업 추진 우리 법조계에서도 AI 기술 활용이 시도되고 있다. 법무부는 지난달 1일 국내 첫 대화형 생활법률지식서비스인 ‘버비’를 내놨다. 주택·상가 임대차, 임금, 해고 등 3개 분야에 대해 이용자가 질문을 하면 실시간으로 답변을 해 주는 AI 법률서비스다. 대법원도 2021년 시행을 목표로 ‘빅데이터 기반의 지능형 차세대 전자소송 시스템 구축 사업’을 추진하고 있다. AI 소송 도우미와 대화형 안내 서비스 등도 개발할 계획이다. 인텔리콘 메타연구소가 개발한 AI 변호사 시스템 ‘아이리스’는 지난 13일 영국 런던에서 열린 세계 인공지능 법률 경진대회에서 지난해에 이어 1위를 차지했다. 전문가들은 법조인들의 판단을 도와주는 도우미 개념으로 AI 연구가 진행될 수 있다고 예상한다. 손해배상금 자동 판정기나 형량 판정기, 형사사건 판결 확률 판단기, 판결문 자동 작성기 등이 그 예다. 임 변호사는 “이러한 서비스들이 실용화된다면 AI는 판사의 업무를 줄여 주고 정교한 판결에 도움을 줄 것”이라면서 “법률 AI는 산업적으로 가치 있을 뿐 아니라 기술과 법률 자체의 지식이 동시에 필요한 융합 분야인 만큼 이를 이해하고 연구할 수 있는 토양과 시스템이 마련되는 게 중요하다”고 덧붙였다. 서유미 기자 seoym@seoul.co.kr
위로