찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • 딥러닝
    2026-01-24
    검색기록 지우기
  • 합참
    2026-01-24
    검색기록 지우기
  • 의협
    2026-01-24
    검색기록 지우기
  • 토모
    2026-01-24
    검색기록 지우기
  • 토목
    2026-01-24
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
746
  • 안양시-이스라엘 ‘이노비즈’와 자율주행 실증사업 상호 협력키로

    경기도 안양시는 세계적 기업인 이스라엘 ‘이노비즈’와 자율주행 실증사업 및 상용화를 위해 상호 협력키로 했다고 26일 밝혔다. 이노비즈는 자율주행자동차 핵심기술인 인공지능 딥러닝 기반의 라이다(LiDAR) 센서 부문 세계적 기업이다. 시는 지역 소재 자율주행자동차, 차세대 지능형 교통시스템(C-ITS) 기업과 함께 해외시장을 개척하고 글로벌 네트워크 구축을 위해 이스라엘을 방문했다. 텔아비브에서 자율주행 전장기업인 밸런스(반도체), 이노비즈, 코그나타(시뮬레이터)와 만나 협력방안을 논의 했다. 특히 삼성과 네이버, 소프트뱅크 벤처스 등 국내 기업이 이노비즈에 대규모 투자를 한 것으로 알려졌다. 시는 자율주행 선도도시가 되기 위해 실증사업에 적극 참여할 계획이다. 고정밀지도를 구축하고 자율주행 관제센터와 지능형 폐쇄회로(CC)TV 등 관련 기반시설도 마련한다. 수도권 교통의 요충지인 안양시는 세계적 수준의 지능형교통체계(ITS)와 관제역량을 갖추고 있어 자율주행 자동차 실증을 위한 최적의 조건을 갖췄다는 평이다. 이번 해외시장 개척에 나선 최대호 시장은 “지역 리딩 기업이 글로벌 기업 함께 성공적인 사례를 만들어 자율주행자동차 실증 및 상용화에 새로운 패러다임을 선보일 것”이라고 말했다. 남상인 기자 sanginn@seoul.co.kr
  • “찍찍~”…인공지능(AI)으로 ‘쥐 울음소리’ 해석하는 이유는?

    “찍찍~”…인공지능(AI)으로 ‘쥐 울음소리’ 해석하는 이유는?

    과학 연구를 수행한다고 하면 쥐 실험을 떠올리기 쉽다. 왜냐하면 쥐는 생리적으로나 유전적으로도 인간에 가까워 암부터 당뇨병, 그리고 알츠하이머병까지 모든 질병 분야 연구에서 도움이 되고 있기 때문이다. 그런데 일부 연구자는 더 나아가 쥐가 내는 울음소리를 이해하기 위해 애쓴다. 쥐의 감정 상태 등을 파악하면 실험의 정확도가 더 높아지기 때문이다. 하지만 이런 과정은 오랜 시간이 걸릴 뿐만 아니라 인간 연구원이 실수하거나 오류를 범하는 등 결과에 영향을 줄 수도 있다. 최근 미국 워싱턴대 연구팀이 인간 연구원의 실수나 오류를 줄일 수 있을 뿐만 아니라 훨씬 빨리 쥐의 울음소리를 해석하는 인공지능(AI) 프로그램 ‘딥스퀵’을 개발했다고 네이처 자매지 ‘신경정신약리학지’(Neuropsychopharmacology)에 발표해 관심이 쏠리고 있다. 기즈모도 등 외신 보도에 따르면, 연구팀은 딥스퀵에 딥러닝(심층기계학습) 기술을 적용해 지금보다 신속하고 정확하게 설치류의 울음소리를 분석해 자세히 해독할 수 있다고 말한다. 딥스퀵은 쥐 울음을 분류하기 위해 딥러닝뿐만 아니라 머신비전(기계시각) 방식을 도입했다. 마치 자율주행차가 전방 시각 정보를 포착해 분석하는 것처럼 딥스쿽은 설치류의 울음소리를 음파 분석도로 변환, 머신비전으로 분석한다. 이에 대해 딥스퀵의 공동개발자이자 연구논문의 주저자인 케빈 코피 박사는 “인간이 배우는 방식과 매우 비슷한 방식으로 딥스퀵을 가르쳐 울음을 분석하게 했다. 울음소리는 뭔가를 수학적으로 설명한 것이 아니라 단순히 그림과 예시로 나타낸다”고 설명했다. 또 연구팀은 딥스퀵이 울음소리 파형을 다른 음절이나 배경잡음 패턴과 분류하도록 가르치고 있다. 이는 쥐와 같은 동물은 수시로 돌아다니며 잡음을 일으켜 음성 신호를 따로 추출해야만 하기 때문이다. 연구팀에 따르면, 설치류는 선천적으로 울음소리를 내는 동물로 지금까지 연구에서는 특정 발성과 감정 상태가 관계가 있다고 나타났다. 예를 들어 쥐의 고음 소리는 어떤 보상이 있을 때처럼 긍정적인 반응과 연관성이 있지만, 저음 소리는 부정적인 반응과 관계한다는 것이다. 하지만 이는 과학적으로 정확하다고 말할 수 없다. 하지만 딥스퀵을 이용하면 이런 울음소리를 지금보다 더욱 정확하게 이해할 수 있다. 심지어 인구 연구원의 수동 분석에서 일어날 수 있는 오류의 수를 줄이고 최대 40배 더 빨리 분석할 수 있다는 것이다. 이뿐만 아니라 딥스퀵은 식별된 음절을 수동으로 쉽게 확인할 수 있게 해주며 설치류 종류와 음절 분류를 지정하는 등 각 실험에 맞게 매개변수를 조정할 수 있게 해준다. 스스로 정보를 변환하고 분석하며 출력할 수도 있다. 물론 이를 사용하는 연구자들의 요구에 적응할 수 있도록 딥스퀵을 설계하는 것이 무엇보다 중요하다고 연구팀은 말한다. 예를 들어 수동으로 쥐의 발성을 분석하는 경험이 풍부한 연구자들은 딥스퀵을 이용해 자신의 연구 정확도를 더 높이기 위한 도구로 사용할 수 있지만, 이 분야에 처음으로 임한 연구자는 이런 연구에 쉽게 접근하도록 하는 것이다. 2017년 설계된 뮤펫(MUPET·Mouse Ultrasonic Profile ExTraction)이라는 이름의 소프트웨어와 울트라복스(UltraVox)로 불리는 시판 제품이 있는데, 이들 두 소프트웨어는 딥스쿽과 마찬가지로 설치류의 음성 파일을 이미지로 변환함으로써 음절 분석과 발성의 분류를 수행할 수 있다. 하지만 딥스퀵의 딥러닝 접근방식은 이들 소프트웨어와 달리 배경잡음을 걸러내고 다양한 주파수의 울음소리 검출에 있어 개선이 돼 있어 차별화를 둔다. 뮤펫의 공동개발자인 앨리슨 크놀 박사(남캘리포니아대 조교수)는 딥스퀵은 이런 문제의 해결을 추구함으로써 지금까지의 연구를 보완해주는 큰 성과라고 평가했다. 현재 연구팀은 딥스퀵 소프트웨어에 인간 대화를 도입할 계획은 없다. 그렇지만 딥스퀵에 의해 설치류의 행동이나 동기에 대한 이해가 깊어지는 것으로, 각각의 연구에 있어 인간에 대한 다양한 치료법 연구에 도움이 되기를 바란다고 개발자들은 말했다. 한편 딥스퀵은 코피 박사의 깃허브(GitHub·오픈소스 저장소) 계정에서 무료로 내려받을 수 있다. 사진=123rf 윤태희 기자 th20022@seoul.co.kr
  • 네이버, 5G 망으로 4K 방송 지원 추진

    네이버는 5G 통신망이 상용화되면 모바일 기기를 통한 4K(3840×2160 해상도)급 동영상 생중계를 지원할 계획이라고 15일 밝혔다. 강인철 네이버 동영상공통기술개발 테크리더는 이날 서울 강남구 ‘D2 스타트업 팩토리’에서 열린 기술 포럼에서 “5G 환경이 구축되면 지연시간이 더 줄고 대역폭이 더 커지기 때문에 초고화질(UHD) 방송 지원이 가능할 것”이라고 말했다. 이어 “현재 모바일 환경에서는 720p 생중계를 지원하는데, 5G로 넘어가면서 1080p(풀HD)나 4K까지 기능 개발을 연구하고 있다”고 말했다. 네이버는 지난해 동영상 생중계 플랫폼 ‘브이라이브’에 HEVC 코덱을 적용해 이전보다 40% 적은 데이터로도 더 좋은 화질의 영상 전송을 가능케 했다. 또 초저지연(ULL) 기술 등을 적용해 실제 재생 때 시차를 1.6초 정도로 줄였다. 이는 페이스북이나 인스타그램의 10초대보다 훨씬 빠르다고 회사 측은 설명했다. 네이버는 올해 인공지능(AI) 기술인 딥러닝을 적용, 네트워크 상태에 따라 동영상 품질을 바꾸며 끊김 없이 재생하는 기술도 적용할 계획이다. 강 리더는 “이전보다 5분의 1수준 장비를 사용하면서 16만 시간 무사고를 달성했다”며 “네이버만의 특장점을 가질 수 있는 기술을 확장했다”고 설명했다. 김민석 기자 shiho@seoul.co.kr
  • “실종아동에 관심 가지는 사회 분위기 만들었으면”

    “실종아동에 관심 가지는 사회 분위기 만들었으면”

    스타필드 ‘세상에서 가장 큰 아이’ 제작 예전 우유팩 미아 찾기 캠페인서 착안 실종 당시 모습과 현재 추정 외모 구현스타필드 하남 중앙 광장에는 높이 20m짜리 대형 전광판인 ‘미디어타워’가 서 있다. 요즘 미디어타워엔 키가 10m에 달하는 ‘세상에서 가장 큰 아이’들이 방문객들을 맞는다. 밝은 모습이지만, 아이들은 수년 전 가족과 헤어진 실종아동들이다. ‘20m 짜리 세로형 미디어타워를 이용해 사회공헌 캠페인을 하고 싶다’는 신세계 측의 주문에, 옛날 우유팩을 통해 접했던 실종아동 찾기 캠페인을 소환해 낸 건 광고회사 이노션이다. 이 캠페인 실무를 맡은 김상현 옥외미디어팀 팀장은 롯데칠성 음료 ‘2% 부족할 때’ 광고로 이 일을 시작해, 최근엔 현대자동차 ‘i30’ 모형을 인천 국제공항 수화물 수취장에 전시하는 옥외광고로 광고대상을 받은 실력자다. 김 팀장은 커다란 세로형 미디어타워를 활용해 어떤 창조적인 아이디어를 공익적으로 녹여낼 수 있을까를 고민하던 중 오래 전 잃어버린 딸을 찾기 위해 ‘실종된 송혜희 좀 찾아주세요’라고 적힌 현수막을 걸고 전국을 누비는 아버지의 사연을 떠올렸다. 김 팀장은 “쇼핑몰은 가족단위 방문자가 많은 곳이라 미아찾기 캠페인과 이른바 TPO(시간·장소·상황)가 맞는다”고 설명했다. 캠페인 영상은 처음에 아동의 실종 당시 모습을 사람 눈높이로 보여준다. 그러다가 누군가 아동을 쳐다보면 하단 카메라가 이를 감지, 센서를 작동시킨다. 그러면 아이의 모습은 순식간에 10m 크기로 커진다. 동시에 아이 모습은 현재 추정되는 모습으로 나이를 먹는다. 김 팀장은 “현재 추정 외모는 딥러닝 기술을 활용, 실종 당시 아이의 얼굴과 가족, 친척들의 사진을 통해 얼굴의 68개 부위에 특징을 반영해 만들어냈다”고 말했다. 미디어타워에서 만날 수 있는 실종아동은 1995년 만 4세 때 서울 구로동에서 실종된 조하늘(현재 28세)씨, 2006년 만 11세 나이로 경남 양산에서 잃어버린 박동은(현재 24세)씨, 2000년 경기 안산에서 만 4세 때 실종된 최진호(현재 22세)씨다. 김 팀장은 “실종아동협회와 함께 잃어버린 지 10년이 넘은 실종아동 중에 대상을 선정했다”면서 “실제 모습과 구현된 모습의 차이가 크지 않을 것으로 예상되는 실종아동을 우선으로 했다”고 설명했다. 영상을 통해 찾을 가능성이 높은 실종아동을 선택했다는 얘기다. 그는 “3명의 실종아동이 가족을 찾으면 더없이 좋겠지만, 실종아동에게 관심을 가지는 사회 분위기를 만들어갈 수 있다면 좋겠다”고 말했다. 김 팀장의 바람대로 캠페인을 진행하면서 좋은 일이 생겼다. 소식을 접하고 감동을 받은 여러 매체사들이 기부 형식으로 각 광고판에 캠페인 영상을 내보낸 것이다. 김 팀장은 “여러 매체사들이 이런 ‘미디어 도네이션’을 해 줘서 명동, 강남역 인근 전광판 등에 영상이 송출됐다”고 설명했다. 김민석 기자 shiho@seoul.co.kr
  • ‘집사 로봇’ 들이실래요

    ‘집사 로봇’ 들이실래요

    로봇은 인공지능(AI) 기술을 가장 사람과 닮은 형태로 구현하는 제품이다. AI가 명령하는 바를 가장 섬세하게 구현하려면 첨단 하드웨어 제조기술이 필요하다. 선 없이 어디서든 제어하려면 무선 네트워크 기술도 적용해야 한다. 이렇게 각 분야 정보통신기술(IT)의 첨단이 집약된 ‘종합 가전제품’으로서 로봇은 최근 수년간 모든 종류의 기술 전시회에서 ‘단골’로 등장한다. 지난달 초 미국 라스베이거스에서 막을 내린 세계 최대 가전 전시회 ‘CES 2019’에서는 로봇이 이미 ‘생활가전’의 영역으로 들어와 있음을 체감할 수 있었다. 경제적인 문제를 접어두면, 옛날 보일러 광고에서처럼 “여보, 아버님 댁에 로봇 놓아 드려야겠어요”라고 할 수 있는 시대가 이제는 정말 온 것이다.중국 업체 유비테크는 사람의 형태를 한 로봇을 뜻하는 ‘휴머노이드’를 주로 만든다. 이번 CES에서는 진보된 집사로봇 ‘워커’를 공개했다. 워커는 아직 무겁고 엄청나게 느린 데다, 2시간 사용을 위해 2시간을 충전해야 하긴 하지만 사람처럼 두 발로 걷고 말을 알아들으며, 일정 부분은 스스로 생각하고 판단할 수 있는 것으로 보였다. 이 업체는 전시 기간 동안 하루에 네댓 번 워커의 기능을 시연했는데, 주인이 집에 오자 문을 열어주고 가방과 옷을 받아줬다. 주인이 콜라를 갖다 달라고 하면 냉장고로 가서 문을 열고 음료를 꺼낸 뒤 문을 닫았는데, 이때 시연을 진행하던 관계자는 “단지 음료를 갖다 달라고 했을 뿐인데 워커는 냉장고 문을 열어야 음료를 꺼낼 수 있으며, 특히 꺼낸 뒤엔 꼭 문을 닫아야 한다는 걸 알고 있다”고 설명했다. 이 밖에도 워커는 주인이 밖으로 나가는데 일기예보상 비가 오게 될 경우 우산을 챙겨 주고, 음악을 틀어달라고 하면 음악을 켠 뒤 스스로 춤도 췄다.일본 교토에 본사를 두고 있는 전자업체 오므론은 탁구 로봇 ‘포르페우스’를 전시했다. 이 로봇은 탁구대 위에 설치된 라켓 달린 로봇 팔 형태로, 전시 기간 내내 수준급 탁구 실력을 가진 업체 관계자와 실력을 겨뤘다. 오므론은 그동 안에도 포르페우스를 만들었지만 이번에 전시한 최신 모델은 5개의 카메라로 공과 상대방, 공에 걸린 회전을 추적한다. 공만 따라가며 탁구를 치는 게 아니라, 상대의 동작을 분석해 빠르게 공의 궤적을 예측한다. 뿐만 아니라 라켓에 설치된 고속 카메라로 공 회전도 분석해 회전과 역회전으로 반격도 하는 것이다. 포르페우스는 시연자가 어려운 공격을 할 경우 가끔 뚫리기도 하는 인간적인 모습도 보여줬다. 시합이 끝나면 포르페우스는 상대의 동작을 프로 선수와 비교, 상단에 설치된 화면을 통해 코칭도 제공한다. 포르페우스 같은 로봇들이 발전하고 다양해지면 전문 스포츠 훈련사 역할을 로봇이 대체할 수 있을 것 같다.구글은 이번 전시에서 자사 AI 비서인 ‘구글 어시스턴트’의 기능을 소개하기 위해 놀이공원의 관람열차 같은 시설물인 ‘구글 어시스턴트 라이드’를 만들었다. 열차를 타는 동안 구글이 보여주는 장면들은 구글 어시스턴트가 어떤 일들을 할 수 있는지를 설명하기 위해 가장으로 연출한 것들이었다. 하지만 줄을 서서 들어가는 중에 만나게 되는 할머니 로봇은 실제 구글의 AI 기술이 적용됐다. 할머니 로봇은 최신 AI의 자연어 대화 능력을 보여줬다. 할머니 로봇의 대화 능력은 혹시 안에 사람이 들어 있는 게 아닌지 착각할 정도였다. 관람객과 눈을 마주치면 “굿모닝, 허니”와 같은 자연스러운 말로 인사를 하고, 누가 셀피를 찍으려 하면 “이건 인터넷에 마구 퍼지겠군”이라고 말했다. 영어권 관람객들은 정말 사람과 이야기하는 것처럼 할머니 로봇과 긴 대화를 주고받았다. 로봇은 집안에 있는 매우 똑똑한 가전제품의 하나로, 사용자의 생활과 작업을 보조해 준다. 삼성전자는 이번 전시에서 실버세대의 건강 관리를 돕는 ‘삼성케어’를 선보였다. 사용자의 혈압, 수면 상태, 호흡 등을 실시간으로 측정하고 약을 먹어야 할 시간이 되면 알림을 준다. 혹시 사용자가 쓰러지거나 심장에 이상이 생기면 의료진과 가족에게 알려준다. LG전자도 앞선 CES 2018부터 로봇 ‘클로이’를 전시에 등장시켰다. 이번 전시에선 최고기술책임자(CTO) 박일평 사장의 기조연설에 직접 참여해 AI 기술을 뽐냈다.삼성전자와 LG전자는 입는 로봇인 웨어러블 로봇도 각각 선보였다. 삼성전자는 허리, 무릎 발목에 착용하는 보행 보조 웨어러블 로봇인 ‘GEMS’를 공개했다. 걸을 때 하체 근력을 보조해 주고 자세를 교정할 수 있다는 게 연구진 설명이다. 저항 모드가 추가돼 재활이나 훈련용으로도 사용할 수 있다. LG전자는 신형 ‘클로이 수트봇’을 공개했다. 작업 현장에서 노동자의 허리 근력을 보조해 주는 웨어러블 로봇으로, 고강도·고반복 노동에서 작업 효율을 높이고 작업자 신체를 보호해 준다. 특별한 기능으로 인간을 돕는 게 대부분 로봇의 역할이지만 단지 교감을 하거나 즐거움을 주기 위해 만들어진 로봇도 나름의 시장을 넓혀가고 있다. 소니의 반려견 로봇 ‘아이보’는 출시된 지 2년이 됐고 벌써 여러 차례 전시회에서 선보였지만 여전히 부스에서 여성과 아이들의 인기를 독차지하고 있다. 카메라 두 대와 머리, 등에 설치된 센서로 사람 표정과 쓰다듬는 걸 인식한다. AI는 딥러닝을 통해 집안 식구 중 자기를 가장 예뻐하는 게 누군지 알아내며, 그 사람의 말을 가장 잘 듣는다고 한다. 유비테크의 귀여운 미니 휴머노이드 ‘알파 미니’는 이번 전시에서도 ‘칼군무’를 보여줬다. 사람 말을 알아듣고 음악을 켜고 춤을 추고 사진도 찍어 주는 개인용 오락 로봇이다. 이번에 전시된 알파 미니는 쿵푸 동작을 보여주는 기능도 탑재하고 있었다. 이번에 CES에 처음 참가한 네이버의 로봇팔 ‘앰비덱스’는 세계 최초로 5G를 적용해 ‘뇌’가 없는(브레인리스) 로봇으로 주목을 받았다. 퀄컴과 협력해 몸체에 중앙처리장치 없이도 클라우드를 통해 정밀하게 로봇을 제어할 수 있다. 김민석 기자 shiho@seoul.co.kr
  • 10m 짜리 실종아동 현재 모습 띄우면 찾을 수 있을까

    10m 짜리 실종아동 현재 모습 띄우면 찾을 수 있을까

    스타필드 하남 중앙 광장에는 높이 20m짜리 대형 전광판인 ‘미디어타워’가 서 있다. 요즘 미디어타워엔 키가 10m에 달하는 ‘세상에서 가장 큰 아이’들이 방문객들을 맞는다. 밝은 모습이지만, 아이들은 수년 전 가족과 헤어져, 이제는 청년이 된 실종아동들이다.‘20m 짜리 세로형 미디어타워를 이용해 사회공헌 캠페인을 하고 싶다’는 신세계 측의 주문에, 옛날 우유팩을 통해 접했던 실종아동 찾기 캠페인을 소환해 낸 건 광고회사 이노션월드와이드다. 이 캠페인 실무를 맡은 김상현 옥외미디어팀 팀장은 롯데칠성 음료 ‘2% 부족할 때’ 광고로 이 일을 시작해, 최근엔 현대자동차 ‘i30’ 모형을 인천 국제공항 수화물 수취장에 전시하는 옥외광고로 광고대상을 받은 실력자다. 김 팀장은 커다란 세로형 미디어타워를 활용해 어떤 창조적인 아이디어를 공익적으로 녹여낼 수 있을까를 고민하던 중 오래 전 잃어버린 딸을 찾기 위해 ‘실종된 송혜희 좀 찾아주세요’라고 적힌 현수막을 걸고 전국을 누비는 아버지의 사연을 떠올렸다. 김 팀장은 “쇼핑몰은 가족단위 방문자가 많은 곳이라 미아찾기 캠페인과 이른바 TPO(시간·장소·상황)가 맞는다”고 설명했다.캠페인 영상은 처음에 아동의 실종 당시 모습을 사람 눈높이로 보여준다. 그러다가 누군가 아동을 쳐다보면 하단 카메라가 이를 감지, 센서를 작동시킨다. 그러면 아이의 모습은 순식간에 10m 크기로 커진다. 동시에 아이 모습은 현재 추정되는 모습으로 나이를 먹는다. 김 팀장은 “현재 추정 외모는 딥러닝 기술을 활용, 실종 당시 아이의 얼굴과 가족, 친척들의 사진을 통해 얼굴의 68개 부위에 특징을 반영해 만들어냈다”고 말했다. 미디어타워에서 만날 수 있는 실종아동은 1995년 만 4세 때 서울 구로동에서 실종된 조하늘(현재 28세)씨, 2006년 만 11세 나이로 경남 양산에서 잃어버린 박동은(현재 24세)씨, 2000년 경기 안산에서 만 4세 때 실종된 최진호(현재 22세)씨다. 김 팀장은 “실종아동협회와 함께 잃어버린 지 10년이 넘은 실종아동 중에 대상을 선정했다”면서 “실제 모습과 구현된 모습의 차이가 크지 않을 것으로 예상되는 실종아동을 우선으로 했다”고 설명했다. 영상을 통해 찾을 가능성이 높은 실종아동을 선택했다는 얘기다. 그는 “3명의 실종아동이 가족을 찾으면 더없이 좋겠지만, 실종아동에게 관심을 가지는 사회 분위기를 만들어갈 수 있다면 좋겠다”고 말했다. 김 팀장의 바람대로 캠페인을 진행하면서 좋은 일이 생겼다. 소식을 접하고 감동을 받은 광고주들이 기부 형식으로 각 광고판에 캠페인 영상을 내보낸 것이다. 김 팀장은 “여러 매체사들이 이런 ‘미디어 도네이션’을 해 줘서 명동, 강남역 인근 전광판 등에 영상이 송출됐다”고 설명했다. 캠페인은 당초 31일까지만 진행할 계획이었지만 설 연휴에 가족 단위 방문객이 스타필드를 많이 찾을 것으로 보고 이 기간까지 연장하기로 했다. 김민석 기자 shiho@seoul.co.kr
  • 차세대 인공지능 설계 문제, 뇌를 보면 된다

    차세대 인공지능 설계 문제, 뇌를 보면 된다

    인공지능(AI) 기술이 눈부시게 발전해 바둑의 인간 고수를 꺾고 의료 진단을 내리는 등 활약을 보이고 있지만 여전히 특정 분야에만 활용되고 있다. 바뀌는 환경에 빠르게 적응해나가는 인간의 두뇌는 여전히 따라가지 못하고 있는 셈이다. 그래서 인공지능 연구자들은 인간과 같은 범용적인 기능을 갖춘 기술개발에 주목하고 있지만 여러 가지 문제에 부딪치고 있다. 그런데 한국과 영국 연구진이 인간의 뇌를 관찰하면 차세대 인공지능 설계 문제를 의외로 쉽게 풀어낼 수 있을 것이라는 연구결과를 발표해 주목받고 있다. 카이스트 바이오및뇌공학과 이상완 교수와 영국 케임브리지대, 알파고를 개발한 구글 딥마인드 공동연구팀은 인공지능 알고리즘이 해결하지 못하는 공학적 문제를 인간의 뇌를 살펴보면 해결할 수 있을 것이라는 차세대 뇌 기반 인공지능 시스템 설계 방향을 제시했다고 24일 밝혔다. 이번 연구결과는 로봇 공학 분야 국제학술지 ‘사이언스 로보틱스’ 16일자에 실렸다. 인공지능 분야에서 강화학습은 머신러닝의 한 영역으로 20여년 동안 꾸준히 연구돼 왔는데 최근 5년 동안은 심층학습(딥러닝) 기술의 발전과 맞물려 급격한 발전을 했다. 그 덕분에 알파고 같은 전략탐색은 물론 로봇 제어, 의료 진단 같은 다양한 분야에 적용될 수 있었다. 그렇지만 주어진 문제에 맞춰 시스템을 설계해야 하며 불확실성이 높은 환경에서는 성능이 떨어진다는 근본적인 문제가 있다. 연구팀은 개별 인공지능 알고리즘이 해결하지 못하는 공학적 문제를 인간의 두뇌가 이미 해결하고 있다는 사실에 기반한 ‘전두엽 메타 제어’ 이론을 발표했다. 전두엽 메타 제어 이론은 사람의 중뇌 도파민-복외측전전두피질 네트워크에서 외부 환경에 대한 학습 신뢰도를 스스로 평가할 수 있는 보상 예측 신호나 상태 예측 신호같은 정보를 처리하는데 이 정보들을 경쟁적-협력적으로 통합하는 프로세스로 외부 환경에 가장 적합한 학습 및 추론 전략을 찾는다는 것이다. 연구팀은 이 원리를 AI 알고리즘이나 로봇설계에 적용하면 외부 상황변화에 따라 성능, 효율, 속도 사이에 균형점을 찾는 최적의 제어시스템을 설계할 수 있다고 주장했다. 이상완 카이스트 교수는 “연구를 하다보면 우리 뇌는 공학적 난제를 의외로 쉽게 해결하고 있다는 것을 알 수 있는데 이 원리를 AI 알고리즘 설계에 적용할 수 있을 것”이라며 “이번 연구는 계산신경과학에 기반한 결과로 딥러닝과 강화학습에서 겪는 성능, 효율, 속도에 대한 문제를 해결하는 실마리가 될 수 있을 것으로 본다”고 설명했다. 유용하 기자 edmondy@seoul.co.kr
  • ‘AI 셰프’ 시대 오나…美 ‘주방 보조 로봇’ 공개

    ‘AI 셰프’ 시대 오나…美 ‘주방 보조 로봇’ 공개

    인공지능(AI) 기술 덕분에 로봇이 요리하는 시대도 머지않은 것 같다. AI 분야에서 두각을 나타내고 있는 세계 1위 그래픽칩(GPU) 제조기업 엔비디아는 11일 미국 시애틀에 있는 로봇연구소 개소식 행사에서 AI 주방 지원 로봇 ‘키친 머니퓰레이터’를 공개했다.엔비디아에 따르면, 이 로봇은 AI와 스스로 학습하는 딥러닝 기술을 사용해 서랍장 등 사물을 감지·추적할 수 있다. 이 덕분에 이 로봇은 로봇 팔을 사용해 서랍장의 문을 스스로 여닫을 수도 있다. 물론 이 같은 동작은 아직 간단한 작업에 불과하지만, 앞으로 이 로봇이 딥러닝을 통해 더욱 똑똑해지면 주방에서 사람들을 도와 요리를 만드는 복잡한 작업도 수행할 수도 있다.선행 목표는 이 로봇이 설거지를 수행하고 냉장고나 선반에서 음식 재료를 꺼내거나 제자리에 가져다 놓는 것이다. 사실 이 로봇은 해당 로봇연구소에서 개발하고 있는 여러 로봇들 중 한 종류에 불과하다. 연구소의 목표는 지금보다 훨씬 복잡한 작업은 물론 사람들을 도와 옆에서 작업을 수행하도록 훈련된 로봇 이른바 협동로봇(cobot)을 개발하는 것에 있다. 이미 협동로봇은 공장이나 병원 등에서 도우미로 활용되기 시작했지만, 이제는 집에서도, 좀 더 구체적으로는 주방에서 맡은 작업을 수행한다는 것이다. 이에 대해 엔비디아의 저명한 연구자 네이선 래틀리프는 “협동로봇은 지금 당장 로봇공학의 성배라고도 부를 수 있는 것”이라면서 “사람들 주변에서 안전하게 작동하고 규격화돼 있지 않은 환경에서 작업을 수행하게 하는 과정은 가장 어려운 것 중 하나”라고 설명했다. 또한 “가장 어려운 협동 영역 중 하나가 바로 주방 환경이므로, 우리는 여러 기술을 개발하고 이 분야의 체계를 연구하며 우리가 배운 여러 가지를 통해 다른 협동 영역에서도 적용하기 위한 시험대로 주방을 택한 것”이라고 말했다.로봇연구소의 책임자인 디터 폭스 소장도 “사람들과 함께 자연스럽게 작업을 수행하는 로봇을 개발하기를 원한다”면서 “그렇게 하려면 사람들이 무엇을 하고 싶은지, 어떻게 해야 목표를 이루도록 도울 수 있는지를 알 수 있어야 한다”고 말했다. 한편 엔비디아 로봇연구소에서는 앞으로 50명에 달하는 연구원과 객원 연구원, 학생 인턴 등이 로봇공학 분야의 기초 연구를 수행할 예정이다. 사진=엔비디아 윤태희 기자 th20022@seoul.co.kr
  • 마이크로 LED 스크린, 고객맞춤형 로봇… 막오른 ‘AI 대전’

    마이크로 LED 스크린, 고객맞춤형 로봇… 막오른 ‘AI 대전’

    삼성, 더 가볍고 선명한 75인치 TV 공개 LG, AI 프로세서 탑재 8K 올레드 첫선삼성전자가 세계 최대 정보기술(IT) 전시회인 ‘CES 2019’에서 세계 최초로 마이크로 발광다이오드(LED)를 적용한 75형 스크린을 공개했다. 삼성전자는 CES 2019 개막을 이틀 앞둔 6일(현지시간) 미국 라스베이거스 아리아 호텔에서 ‘삼성 퍼스트 룩 2019’ 행사를 열고 신제품을 공개했다. 마이크로 LED는 미래형 디스플레이로 주목받고 있는 기술로, 마이크로미터(㎛) 단위 LED 소자를 촘촘하게 붙인 기판을 블록과 같은 모듈러 형식으로 이어 붙여 만드는 제품이다.마이크로 LED는 소자를 더 작게 만들어 작은 제품에 고해상도로 구현하는 것이 관건이다. 이번에 공개한 제품은 75형으로 기존 146형 제품 ‘더월’에 비해 4배 이상의 집적도를 구현했다는 게 삼성전자 측 설명이다. 한종희 영상디스플레이 사업부장(사장)은 “인공지능(AI) 시대를 선도할 스크린 혁명을 가져올 것”이라고 강조했다. 세계 주요 업체들이 참가하는 CES 2019는 ‘AI 대전’이 될 것으로 보인다. AI는 지난해 열린 CES 2018을 비롯해 수년째 주요 관련 전시에서 중심 주제에 올랐지만, 이번 전시에선 음성 인식 플랫폼 수준이 아닌 모든 사물에 적용돼 사물끼리 소통하는 수준의 AI를 만나볼 수 있다. 참가 업체 중 가장 넓은 3368㎡(약 1021평) 규모의 전시관을 ‘삼성 시티’라는 주제로 마련한 삼성전자는 자사 최신 AI 플랫폼 ‘뉴 빅스비’를 전면에 내세워 AI·5G로 사람들의 일상을 변화시켜 줄 미래 라이프스타일 솔루션을 공개한다. 개막 하루 전 박일평 최고기술책임자(CTO)가 기조연설을 하는 LG전자 역시 자사 AI 플랫폼인 ‘LG 씽큐(ThingQ)’ 전용 전시 공간을 마련해 AI 기술을 선보인다. 단순히 명령어에 따라 동작하는 방식을 넘어 고객맞춤형 사용자경험을 제공, 그동안 경험하지 못했던 AI를 선보인다는 설명이다. LG전자의 AI는 이번에 선보이는 허리근력 지원용 로봇 ‘LG 클로이 슈트봇’에도 적용된다. 전시에서 처음 공개하는 ‘8K 올레드TV’와 ‘8K 슈퍼 UHD TV’엔 AI 프로세서 ‘알파9 2세대’가 탑재된다. 이번 전시에서 5G를 활용한 콘텐츠·미디어 서비스를 중점 공개하는 SK텔레콤은 AI를 활용한 미디어 기술을 선보인다. 청취 이력과 음원 파형을 분석·학습하는 음악 플랫폼 ‘플로’는 딥러닝으로 미디어 파일의 화질·음질을 원본 수준으로 끌어올린다. 창사 20주년을 맞아 이번 전시에 처음으로 참가하는 네이버는 그동안 ‘네이버랩스’를 통해 연구개발한 ‘생활환경지능’ 기술을 대거 선보인다. 김민석 기자 shiho@seoul.co.kr
  • LG전자 ‘88인치 8K’ OLED TV 세계 첫선

    LG전자는 오는 8일 미국 라스베이거스에서 개막하는 세계 최대 가전·정보기술(IT) 전시회 ‘CES 2019’에서 프리미엄 TV 전략 제품을 대거 선보인다고 3일 밝혔다. 대표 제품은 세계 최초 88인치 8K 해상도의 유기발광다이오드(OLED) TV다. 3300만개에 이르는 화소 하나하나를 자유자재로 조절할 수 있어 섬세한 표현이 가능하고, 완벽한 블랙을 구현해 탁월한 화질을 자랑한다는 설명이다. 75인치 8K 슈퍼울트라 HD TV도 이번에 처음 공개된다. 정확한 색 표현을 위해 독자 개발한 ‘나노셀’ 기술에 ‘풀 어레이 로컬디밍’ 기술을 한데 적용했다. 약 1나노미터(nm·10억분의 1미터) 크기 미세 분자들이 색의 파장을 정교하게 조정하고, 화면 뒤쪽 전체에 LED를 촘촘히 배치해 명암비를 높인 기술이다. 이와 함께 4K OLED TV W9·E9·C9 시리즈에 탑재되는 인공지능(AI) 프로세서 ‘알파9 2세대’ 기술이 소개된다. 화질 칩 ‘알파9’을 기반으로, 100만개 이상의 영상 데이터를 분석한 딥러닝 기술을 추가한 것이다. 특히 8K TV에 탑재된 이 프로세서는 2K·4K 해상도 영상을 8K 수준 화질로 변환할 수 있다. 이재연 기자 oscal@seoul.co.kr
  • 땅값 도면·교통정보 ‘한눈에’ 업무혁신 앞장선 공무원들

    땅값 도면·교통정보 ‘한눈에’ 업무혁신 앞장선 공무원들

    보이지 않는 곳에서 국민 삶의 질을 높이려고 애쓰는 주인공들이 있다. 바로 공무원들이다. 행정안전부와 서울신문은 해마다 지방자치단체에서 추천을 받아 ‘지방행정의 달인’을 뽑고 있다. 이들의 헌신을 공직사회에 알리고, 자신의 특기를 살려 이뤄 낸 성과물을 시민들에게 전달하기 위해서다. 올해 선정된 ‘지방행정의 달인’들 이야기를 두 차례에 걸쳐 싣는다.대통령 표창을 받은 곽인선(56) 서울시 주무관은 부동산 정책에 필수적인 지가현황도면(LPMS)을 관리하는 프로그램을 전국 최초로 개발했다. 지가현황도면은 그해의 산정지가와 지난해의 개별공시지가 등이 기재되는 도면이다. 서울시 9급으로 입직한 그는 공직생활 30년간 ‘국민이 불편해하는 것을 해결하자’는 신념으로 기술 개발이라는 한우물을 팠다. 이런 노력의 결과물로 그는 서울시정 발전에 이바지한 공직자에게 수여하는 서울창의상을 16차례 수상했다. 그는 “공직자 최고의 자부심이자 인생의 보람”이라고 말했다.부산시 교통정보서비스센터에서 근무하는 정연탁(41) 주무관은 ‘스마트 교통의 달인’이다. 정 주무관은 부산시 교통정보를 한 곳에 모으는 허브 역할을 하는 ‘부산시 교통정보서비스센터’를 구축했다. 그는 기관 부서별로 운영 중이던 부산 교통권역 교통정보를 통합하는 데 이바지한 공로로 국무총리 표창을 받았다. 특히 4차산업 혁명시대의 대표 기술인 ‘딥러닝’ 기술을 교통관리시스템에 접목해 실시간으로 부산시 교통상황을 분석할 수 있는 체계를 만들었다. 정 주무관은 “어차피 해야 하는 일이라면 신나게 하자는 마음가짐이었다”며 “변화를 주도한다는 것은 기쁜 일”이라고 웃었다.경기 성남시 수질복원과에서 근무하는 신택균(46) 주무관은 ‘하수처리의 달인’이다. 행안부 장관 표창을 받은 그는 하수처리 기술 개발을 통해 높은 예산절감 효과를 기록했다. 특히 약품으로 인을 제거할 때 방류수를 절감하는 방법을 제안해 성남시는 매일 8000t의 하수처리물을 아끼고 있다. 그는 “단순히 업무를 개선하려는 작은 관심에서 시작했지만 기술개발과 예산 절감으로 이어질 수 있었다”며 “재능은 신이 내린 선물이 아니라 나의 작은 관심에서 출발한다”고 말했다.행안부 장관 표창을 받은 경기 광주시 징수과 임미정(48) 주무관은 지방세 분할납부 자동화 관리시스템을 포함해 다양한 행정제도를 저작권으로 등록한 공로를 인정받아 ‘민원행정 자동화’의 달인에 올랐다. 공직생활 23년째인 그는 이제야 공직자가 무엇인지, 우리의 일이 시민에게 어떤 영향을 미치는지 깨닫고 있다고 한다. 임 주무관은 “호기심 많고 오지랖 넓은 사람이 손해 보는 듯한 세상에서 지방행정의 달인상은 열심히 잘 살아왔다는 위로와 격려를 안겨 줬다”고 말했다.1080억원으로 평가받는 돈 버는 토종 팽이버섯 신품종을 개발한 김민자(52) 농업기술원 농업연구관은 ‘토종 팽이버섯 신품종 개발과 실용화의 달인’으로 뽑혀 행안부 장관 표창을 받았다. 그는 매년 버섯의 현장 평가회와 시장성 평가를 추진해 전국 37곳에 토종 팽이버섯을 보급했다. 유럽, 캐나다, 중국 등에 토종 팽이버섯 17t을 수출해 토종 팽이버섯의 세계화를 이끈 그는 “철저하게 수요자 처지에서 고민해 해결책을 고안할 수 있었다”고 밝혔다. 신형철 기자 hsdori@seoul.co.kr
  • SKT “5G로 제조업 혁신” 스마트팩토리 확산시킨다

    20일 경기 안산 반월공단 내 스마트제조혁신센터. 센서와 카메라를 장착한 대형 로봇이 공장 안을 자율주행하며 자동차 부품을 컨베이어벨트에 올려놓는다. 곧이어 부품 검수에 나선 로봇이 1200만 화소 카메라로 1초 만에 부품 사진 24장을 다각도로 찍어 낸다. 사진들은 5세대(5G) 이동통신망을 통해 공장 내 클라우드 서버로 실시간 전송된다. 인공지능(AI) 컴퓨터가 딥러닝으로 불량 여부를 판독하면 마지막으로 로봇이 부품을 걸러 낸다. 이 모든 과정에 걸리는 시간은 단 8초다. SK텔레콤이 20일 5G 기반 스마트팩토리 기술을 시연하고, ‘AI 머신비전’을 포함한 5G 스마트팩토리 솔루션 5종을 공개했다. ‘다기능 협업 로봇’은 가로 2m, 세로 1m, 높이 1.5m 크기로 6축 로봇팔, 3D 센싱 기능을 탑재한 카트형 로봇이다. 내부 공간에 스스로 제품을 싣고, AI 서버와 연결된 5G를 통해 자율주행 명령을 받아 움직인다. ‘스마트 유연생산 설비’는 생산라인을 마치 블록 쌓듯 만들 수 있는 솔루션이다. 소형 자율주행 로봇은 로봇팔을 장착해 사람에게 연장, 제품 등을 전달할 수 있다. ‘증강현실(AR) 스마트 글라스’는 근로자가 쓰는 AR 안경을 통해 설비, 부품 정보, 조립 매뉴얼 등을 실시간 확인할 수 있는 서비스다. SK텔레콤은 5G에서 ‘기업간거래’(B2B) 영역인 스마트 팩토리 분야 선점에 나섰다. 5G 네트워크와 솔루션, 데이터 분석 플랫폼, 단말을 한데 묶은 ‘올인원’ 패키지로 제공한다. 이날 SK텔레콤과 삼성전자, 마이크로소프트, 보쉬 등 19개 기업·기관이 참여하는 ‘5G 스마트팩토리 얼라이언스’도 출범했다. 장홍성 SK텔레콤 사물인터넷·데이터사업단장은 “다른 기업들과 협업해 5G 팩토리 생태계 구축에 앞장설 것”이라고 말했다. 이재연 기자 oscal@seoul.co.kr
  • 골목길 ‘묻지마 폭행’ 잡는 AI핵심 기술 나왔다

    골목길 ‘묻지마 폭행’ 잡는 AI핵심 기술 나왔다

    최근 폐쇄회로(CC)TV 사각지대나 골목길에서 타인을 ‘묻지마 폭행’해 상해를 입히거나 살해하는 경우가 발생해 충격을 주고 있다. CCTV가 설치돼 있지만 관제센터에서 제 때 파악하지 못해 출동시간이 늦어져 사건이 발생하는 경우도 잦다. 이 뿐만 아니라 한 밤 중에 몰래 쓰레기를 투기해 도시 미관을 해치는 일이 벌어지기도 하지만 CCTV의 화질이나 인력문제 때문에 단속이 쉽지 않다. 국내 연구진이 인공지능을 이용해 사람의 행동을 관절수준으로 정밀하게 인식해 이 같은 문제를 해결할 수 있는 기술을 개발했다. 연구진은 우선 쓰레기 불법투기 지역에 적용키로 했다. 한국전자통신연구원(ETRI) 소프트웨어(SW)컨텐츠연구소는 시각인공지능 ‘딥뷰’를 이용해 도심지역에서 쓰레기 불법투기 행위를 단속하는데 활용한다고 20일 밝혔다. 기존의 인공지능 기술은 사람을 인식하는데 그쳤지만 이번에 개발한 기술은 사람이 물건을 내려놓거나 던지거나하는 행동을 정확하게 인식해 경고방송을 할 수 있다. 이 때문에 쓰레기 투기는 물론 도심에서 벌어지는 다양한 범죄나 사건을 감지해 예방할 수 있을 것으로 기대되고 있다. 연구팀은 인공지능(AI)의 딥러닝 기술을 활용해 사람의 관절 위치와 사람이 들고 가는 물체를 인식하고 사람과 물체의 관계를 파악하는 방법을 개발했다. 기존의 시각인공지능은 CCTV 화질에 따라 사람의 행동을 잘못 인식하거나 설치지역을 지나가기만 하더라도 문제 행동으로 인식하는 문제가 많았다. 이번 기술은 사람의 관절 포인트의 변화에 따른 행동 인식과 사물 파악 추적 기술이 핵심이다. 쓰레기 무단 투기의 경우 쓰레기 더미를 인식하고 사람이 들고 있는 물체가 쓰레기 봉투인지를 파악한 뒤 사람의 관절포인트와 행동을 인식하게 된다. 이를 통해 일정거리 이상 떨어져 있는지, 쓰레기를 던졌는지, 쓰레기를 투기한 것인지 등 쓰레기 투기 행동 패턴을 파악하고 판단하게 된다.실제 실험에서도 쓰레기 무단 투기를 하자 CCTV에서 ‘찰칵’소리를 내며 “사진이 촬영됐습니다. 투기물을 가져가지 않으면 관련법에 따라 처벌받게 됩니다”라는 경고메시지가 정확히 방송되는 것을 확인했다. 연구팀은 이번 기술을 활용해 매장에서 소비자의 행동분석, 교량이나 고층건물에서 자살행위 감지 예방, 공장 근로자의 위험 행동 경고, 우범지역에서 발생할 수 있는 사건에 대한 경고 등에 활용될 수 있을 것으로 보고 있다. 연구팀은 우선 세종특별자치시와 서울시 은평구에 기술을 적용해 부족한 부분을 검증해 보완한 뒤 영상관제나 검색 업체 등 민간에 기술이전을 할 계획이다. ETRI 관계자는 “이번 시각인공지능 기술은 도심에서 발생할 수 있는 각종 범죄사건과 쓰레기 무단투기 등 문제를 신속하고 정확하게 판단하는데 도움이 될 것”이라며 “이번 기술은 시각 인공지능 기술을 활용해 시민의 안전이 우선되는 스마트시티 구현에도 기여할 것으로 본다”고 말했다. 유용하 기자 edmondy@seoul.co.kr
  • 금감원·IBK기업은행·정보화진흥원 AI로 보이스피싱 막는다

    보이스피싱 피해 범죄 피해가 끊이지 않는 가운데 금융당국과 은행 등이 인공지능(AI)을 활용한 차단 시스템 개발을 위해 손을 맞잡았다. 9일 금융감독원은 서울 중구 IBK기업은행 본사에서 한국정보화진흥원, IBK기업은행과 보이스피싱 실시간 차단 시스템 구축을 위한 업무협약(MOU)을 체결했다고 밝혔다. 기업은행은 현재 ‘딥러닝을 활용한 실시간 보이스피싱 탐지 서비스’를 개발 중이다. 과학기술정보통신부가 추진하는 빅데이터 플래그십 지원사업을 통해서다. 이번 MOU는 유관기관 협력을 강화해 서비스 개발 성과를 높이기 위해 추진됐다. 금감원은 보이스피싱 제보 사례를 제공하고 서비스 홍보를 위한 캠페인에 나선다. 정보화진흥원은 AI 탐지 서비스 향상을 위한 기술자문과 공동연구를 진행하고, 서비스 운영 관련 제반사항에 협력하는 식이다. 금감원 관계자는 “금감원에 집적된 보이스피싱 사기 사례와 기업은행, 정보화진흥원의 기술력을 결합해 완성된 AI 앱을 이용할 경우 보이스피싱 사전 피해 예방 효과가 클 것으로 기대된다”고 전했다. 세 기관은 내년 1월 완성을 목표로 시스템 개발에 속도를 높이고 있다. 김동현 기자 moses@seoul.co.kr
  • 느린 인터넷 때문에 끊기는 동영상? 이젠 고민 안녕

    느린 인터넷 때문에 끊기는 동영상? 이젠 고민 안녕

    국내 연구진이 인공지능(AI)의 딥러닝 기술을 바탕으로 느린 인터넷 사용환경에서도 고화질 영상을 끊김없이 전송할 수 있는 기술을 개발했다. 카이스트 전기및전자공학부 신진우, 한동수 교수팀은 유튜브나 넷플릭스 등에서 동영상을 사용자에게 전송할 때 사용하는 적응형 스트리밍 비디오 전송기술에 딥러닝 기술인 ‘심층 콘볼루션 신경망’(CNN) 기반 초해상화 기술을 접목시킨 기술을 개발했다고 30일 밝혔다. 이번 연구결과는 이달 열린 컴퓨터 시스템 분야 유명 학술회의 ‘유즈닉스’에서 발표됐으며 국제 특허 출원됐다. 기존의 적응형 스트리밍은 시시각각 변하는 인터넷 대역폭에 맞춰 비디오 화질을 조절하기 때문에 네트워크 환경이 좋지 않을 때는 고화질 동영상 시청이 어렵다는 단점이 있다. 동영상을 제공하는 서버에서는 긴 비디오 영상을 일정 시간 길이의 여러 비디오 조각으로 나눠 보내는 방식을 사용하기 때문이다. 연구팀은 적응형 스트리밍에 신경망 조각을 함께 내려받도록 했다. 비디오 서버에는 각 비디오 영상에 대해 학습된 신경망을 제공하며 사용자 컴퓨터 사양에 따라 다양한 크기의 신경망을 제공하는데 제일 큰 신경망 크기는 2MB(메가바이트) 정도에 불과하다. 이 신경망은 사용자 컴퓨터에 비디오와 함께 들어가 초해상화 기술을 작동시켜 저화질 비디오를 고화질로 바꿔줌에 따라 인터넷 환경이 좋지 않더라도 끊기지 않는 고화질 HD 비디오를 감상할 수 있게 되는 원리이다. 연구팀에 따르면 이번 기술을 활용하면 실제로 최대 26.9% 수준의 적은 인터넷 대역폭으로도 기존 적응형 스트리밍 화질보다 평균 40% 정도 우수한 체감품질을 느끼게 된다. 한동수 교수는 “이번 기술은 딥러닝 방식을 이용해 기존 비디오 압축방식보다 더 많은 압축이 가능하도록 했다는데 의미가 크다”며 “데스크톱 PC에서만 구현되고 있지만 앞으로 모바일 기기에서도 작동할 수 있도록 발전시켜 나갈 것”이라고 설명했다. 유용하 기자 edmondy@seoul.co.kr
  • 부산시 교육청, 전국 최초 인공지능기반‘딥러닝 스쿨’워크숍 개최

    부산시교육청이 컴퓨터가 스스로 외부 데이터를 조합·분석하는 학습체제를 일컫는 ‘딥러닝 스쿨’을 전국 최초로 학교현장에 구축키로 하고 전문가들이 참여하는 워크숍을 갖는다. 부산시교육청은 29일 오후 4시부터 3시간 동안 동명대학교에서 딥러닝 스쿨 관련 부산교육청과 동명대학 관계자, 전문가 등 50명이 참가한 가운데 ‘딥러닝 스쿨’워크숍을 진행한다. 이 워크숍은 인공지능 기반의 ‘딥러닝 스쿨’을 전국 최초로 학교 현장에 도입하기 위해 여러 전문가들을 초청해 강연을 듣고 정보를 공유하기 위해 마련됐다. ‘딥러닝’은 컴퓨터가 스스로 외부 데이터를 조합, 분석해 학습하는 기술을 뜻한다. ‘딥러닝 스쿨’은 ‘딥러닝’을 이용한 학습체제를 말한다. 인텔 이주석 전무가 ‘인공지능 기반의 미래교육을 위한 생태계 구축’ 특강을 한다. 이어 사상고 박민지 교사, 경성전자공업고 이분여 교사가 ‘데이터를 활용한 수업’을 주제로 발표하고 광남초 오동주 교사 ‘챗봇을활용한 액션러닝’ 사례를 발표한다. 또 동명대 옥수열, 이석환 교수가 딥러닝 기반 시뮬레이션’을 선보이고 연혜민 교수가 ‘유아교육에서의 로봇 활용교육’, 옥지원 교수가 ‘간호교육에서의 VR 활용교육’ 사례를 발표한다. 부산김정한 기자 jhkim@seoul.co.kr
  • SKT·연세대 ‘자율주행 경차’ 국내 도로 달린다

    SKT·연세대 ‘자율주행 경차’ 국내 도로 달린다

    딥러닝 조향제어장치 등 소형·경량화 연내 5G 탑재 커넥티드카 기술 개발SK텔레콤과 연세대 연구팀이 자율주행 기술을 적용한 경차 임시운행 허가를 취득했다. 차량 공유 서비스에 적합한 경차가 국내 도로를 자율주행하게 되는 것은 처음이다. SK텔레콤은 연세대 글로벌융합공학부 김시호 교수 연구팀과 함께 기아차 ‘레이’의 자율주행 임시운행 허가를 취득했다고 4일 밝혔다. SK텔레콤과 연세대는 경차 자율주행 허가에 이어 차량공유 서비스와 자율주행 기술을 접목한 연구를 추진한다. 집이나 사무실로 차를 부르는 차량호출 기술, 자율주차 기술 고도화, 자율주행 배송 기술 등이 이번 연구의 내용이다. 경차는 차 안 공간이 좁아 자율주행 장비를 싣는 데 어려움이 있다. 그래서 그동안 국내 자율주행차 시험운행은 중·대형차 중심으로 이뤄져 왔다는 게 SK텔레콤 측 설명이다. SK텔레콤과 연구팀은 자율주행차용 고성능 컴퓨팅 플랫폼과 내장형 차량 센서, 딥러닝 조향 제어 장치 등을 경차에 탑재할 수 있도록 소형화·경량화했다. 연내 5G 통신 모듈도 탑재해 5G 차량사물통신(V2X), 커넥티드카 기술을 고도화할 계획이다. 특히 이번에 시범운행하는 자율주행 경차는 영상 정보를 이해하고 차량을 운행한다. 기존 자율주행차가 인공지능 카메라를 통해 얻은 정보를 기하학적으로 분석해 도로의 꺾인 정도, 장애물 등을 계산한 뒤 사전에 사람이 입력한 값에 따라 차를 조종하는데, 이 차는 운전자가 눈으로 보고 도로 상황에 대응하는 것과 비슷한 방식이다. 이를 위해 미국 엔비디아의 자율주행 컴퓨팅 플랫폼 ‘드라이브 PX2’에 SK텔레콤과 연구팀이 자체 개발한 딥러닝 조향 제어 장치를 접목했다. SK텔레콤은 “주행 데이터를 스스로 학습해 조향장치 제어 능력을 고도화하기 때문에 데이터가 쌓일수록 운전 능력이 진화한다”고 설명했다. 김민석 기자 shiho@seoul.co.kr
  • [생각나눔] AI가 수집한 내 목소리 즉시 삭제해야 하나

    [생각나눔] AI가 수집한 내 목소리 즉시 삭제해야 하나

    음성·홍채와 같은 ‘바이오정보’를 보호하기 위한 정부 가이드라인이 오히려 인공지능(AI) 산업 발전의 걸림돌이 되고 있다는 지적이 나오고 있다. 업계는 꼭 필요한 규제 이외에 다 허용하는 네거티브 규제가 필요하다고 주장하는 반면 정부는 개인정보 보호가 우선이라는 입장이다.●방통위 “원본 정보 보관 땐 동의 얻어야” 2일 방송통신위원회와 자유한국당 박성중 의원에 따르면 AI 사업자는 이용자의 음성·홍채 등 원본 정보에서 특징 정보를 추출한 뒤 원본 정보를 즉시 파기해야 한다. AI 스피커 음성인식 과정에서 이용자가 “오늘 날씨 알려줘”라고 말했다면, 사용자는 특정 정보를 생성·저장한 뒤 원본 정보를 지워야 하는 것이다. 원본 정보를 파기하지 않고 따로 보관하려면 이용자로부터 별도 동의를 받아야 한다. 업계에서는 이러한 내용의 방통위 가이드라인이 과도한 규제라는 입장이다. 원본 정보 파기 규제로 최신 AI 기술 적용이 제한돼 경쟁에서 뒤처질 수밖에 없다는 주장이다. 한 업계 관계자는 “원본 정보를 파기하면 딥러닝 등 새로운 기술에 활용하지 못해 AI 산업 고도화에 제약이 생긴다”며 “원본 정보 보관에 동의한 이용자에게만 혜택이 가는 서비스를 만들면 반쪽짜리에 불과하다”고 지적했다. ●업계 “AI 산업 발전 막는 과도한 규제” 특히 국내 기업은 구글 등 글로벌 기업에 비해 상대적으로 정부 가이드라인을 준수해야 한다는 압박이 크다. 가이드라인은 법적 구속력은 없지만 대부분의 국내 기업이 이를 따르고 있다. 박 의원은 “구글은 AI가 수집한 이용자의 음성을 들어 볼 수 있는 기회까지 제공하는 등 가이드라인에 명시된 원본 정보 파기 원칙을 지키지 않고 있다”며 “국내 기업도 원본 정보를 자율적으로 활용하도록 제도를 개선해야 한다”고 강조했다. 앞으로 말하는 사람을 구분하는 화자 인식 AI 기능이 활성화되면서 규제를 둘러싼 논란이 지속될 것으로 보인다. 또 다른 업계 관계자는 “정부 눈치를 보지 않는 글로벌 기업과 비교했을 때 국내 기업은 열위에 처할 수밖에 없다”고 호소했다. 이에 방통위 관계자는 “가이드라인은 AI 산업을 성장시키면서 동시에 개인정보를 보호할 수 있는 방향으로 설계됐다”며 “국내 기업과 해외 기업 간 차별은 전혀 없다”고 설명했다. 또 “불편을 감수하더라도 원본 정보 삭제를 원하는 이용자의 의사도 존중해야 한다”고 덧붙였다. 장진복 기자 viviana49@seoul.co.kr 김민석 기자 shiho@seoul.co.kr
  • “라라랜드 키스신 찾아줘” AI 기술 올해 안 상용화

    “라라랜드 키스신 찾아줘” AI 기술 올해 안 상용화

    국내외 배우 2500여명의 영화·드라마 키스 등 50가지 상황 음성 검색 실행 개인 취향 맞게 추천하는 기능도 선봬영화 ‘라라랜드’ 화면 오른쪽 위엔 현재 장면에 나오고 있는 배우들의 이름과 사진이 실시간으로 뜬다. 에마 스톤의 사진을 클릭하면 배우 프로필과 영화에서 에마 스톤이 등장하는 장면이 따로 소개된다. 왼쪽 위 검색 창에 배우, 장면 등을 선택해 검색할 수 있다. 예를 들어 ‘에마 스톤’과 ‘댄스신’을 선택하면 영화에서 이 배우가 춤추는 장면만 골라 볼 수 있다. SK텔레콤은 27일 서울 을지로 삼화빌딩에서 드라마나 영화 속 장면을 검색하는 등의 ‘인공지능(AI) 미디어 추천 기술’을 시연했다. 이날 시연한 기술은 올해 안으로 IPTV 서비스인 ‘Btv’와 모바일 동영상 서비스(OTT) ‘옥수수’에 적용된다. 화면 속 인물이나 상황을 분석해 배우 이름과 ‘댄스신’, ‘키스신’ 등의 키워드로 검색할 수 있는 ‘영상 분석 기반 장면 검색 기술’은 AI 딥러닝 기술을 바탕으로 만들어졌다. 현재 2500명 이상의 국내외 배우들과 키스·결혼식·댄스·식사·번지점프 등 50여 가지 상황, 계절과 특수 장소, 배경음악 등을 인식할 수 있다. 이를 위해 SK텔레콤은 영상 콘텐츠 수천 편, 이미지 수백만 장을 AI에 학습시켰다. 이 기술이 Btv에 적용되면 앞으로 AI 스피커에 음성 명령으로도 장면을 찾을 수 있게 될 것으로 보인다. 가령 ‘라라랜드’를 보다가 “아리아, 주인공 키스신 찾아줘”라고 말하면 영화에서 에마 스톤과 라이언 고슬링이 키스하는 장면을 전부 찾아 제공하는 것이다. 이에 대해 SK텔레콤 관계자는 “기술 개발은 끝났고 아직 상용화되진 않았다”면서 “단계적으로 가능해질 것”이라고 설명했다. 이와 함께 개인 시청 이력에 기반해 시청자 취향에 맞는 영화나 드라마를 추천하는 ‘콘텐츠 개인화 추천 기술’도 이날 소개됐다. 예능 프로그램을 좋아하는 시청자가 특정 예능 프로그램을 시청했다면 비슷한 취향의 시청자들이 본 다른 예능 프로그램이 함께 홈 화면에 뜨는 방식이다. SK브로드밴드는 이달 14일 일부 옥수수 이용자를 대상으로 이 기술을 적용했고, 향후 대상을 전체 이용자로 확대할 계획이다. 이종민 미디어기술원장은 “기술 개발과 서비스 상용화를 같이 하는 사례는 드물다”며 “탁월한 기술을 바탕으로 글로벌에서도 경쟁력을 확보할 수 있도록 노력하겠다”고 말했다. 김민석 기자 shiho@seoul.co.kr
  • [고든 정의 TECH+] 레이 트레이싱과 딥러닝에 미래를 건 엔비디아

    [고든 정의 TECH+] 레이 트레이싱과 딥러닝에 미래를 건 엔비디아

    그래픽 처리 장치 전문 업체인 엔비디아가 새로운 RTX 2000 시리즈 제품군을 본격적으로 출시했습니다. 오랜 세월 사용한 GTX라는 명칭을 버리고 RTX라는 새로운 브랜드로 등장한 RTX 2080 Ti, RTX 2080, RTX 2070은 높은 가격으로 인해 다소 논란도 있지만, 엔비디아는 ‘그래픽을 다시 발명했다(Graphic reinvented)’고 언급하면서 대단한 자신감을 보여주고 있습니다. 사실 RTX 시리즈에서 처음 도입한 튜링(Turing) 아키텍처는 엔비디아에도 상당한 도전입니다. 튜링은 그래픽에서는 물론 인공지능에서도 2위가 따라오기 힘든 엔비디아식 초격차 전략을 위한 포석이지만 여러 가지 검증되지 않은 새로운 시도가 담겨있기 때문입니다. 엔비디아가 튜링에서 도입한 가장 중요한 두 가지 핵심 무기는 바로 레이 트레이싱(Ray Tracing)을 위한 RT 코어와 딥러닝을 위한 텐서 코어(Tensor Core)라고 할 수 있습니다. 가짜를 더 진짜처럼 3D 그래픽 카드는 2차원 평면인 모니터에 가상의 3차원 물체를 보여주는 장치입니다. 초창기 3D 그래픽 게임은 지금 기준으로 보면 어설프게 색칠한 상자들이 움직이는 정도에 불과했습니다. 하지만 지난 수십 년간 더 현실적인 가짜를 구현하기 위한 노력 덕분에 게임에 등장하는 사람과 물건들은 점점 실제와 비슷해졌습니다. 엔지니어들은 끊임없이 더 많은 폴리곤과 텍스처를 처리할 수 있는 그래픽 프로세서를 개발했고 이제는 제법 사실적인 사물을 모니터를 통해 보여줄 수 있게 됐습니다. 그러나 이런 꾸준한 노력에도 불구하고 우리의 뇌는 게임 속 3D 그래픽이 실제와 다르다는 사실을 인지합니다. 여러 가지 이유가 있지만, 가장 중요한 건 빛의 효과가 실제와 다르기 때문입니다. 햇빛 같은 광원이 다시 물체에 반사되어 나오는 빛의 미묘한 광원효과는 워낙 복잡해서 슈퍼컴퓨터의 힘으로도 실시간으로 계산해 표현하기 어렵습니다. 물론 그래도 엔지니어들은 가능한 방법을 개발했습니다. 가장 대표적인 방법이 바로 레이 트레이싱(Ray tracing) 기법입니다. 레이 트레이싱은 광원과 빛의 반사를 실제와 가깝게 표현하는 기술로 이미 영화나 동영상 제작에서 널리 쓰이고 있지만, 이를 계산하기 위해서는 많은 시간이 필요해 게임에 적용하기에는 무리가 있었습니다. 영화에서는 몇 시간 렌더링한 결과를 1분 동안 보여줘도 문제없지만, 게임에서는 실시간으로 처리해야 하기 때문입니다. 이 문제의 해결책은 레이 트레이싱을 고속으로 처리할 별도의 연산 장치를 개발하는 것입니다. 엔비디아가 튜링에 탑재한 RT 코어가 그것으로 과거 소프트웨어적으로 레이 트레이싱을 처리할 때와는 비교할 수 없을 만큼 빠른 속도로 레이 트레이싱 연산이 가능해졌습니다. 엔비디아는 스타워즈 기술 데모를 시연하면서 과거 4개의 GPU로 처리하던 레이 트레이싱을 튜링 GPU 한 개로 더 빨리 처리할 수 있다는 점을 보여줬습니다. 물론 그래도 우리의 눈을 완전히 속일 수는 없지만, 더 진짜 같은 가짜를 구현할 수 있게 된 것입니다. 두 마리 토끼를 노리는 텐서 코어 튜링에서 다른 큰 변화는 인공지능 연산 장치인 텐서 코어가 같이 포함되었다는 사실입니다. 텐서 코어의 연산 능력은 114TFLOPS (16FP)로 현존하는 가장 강력한 인공지능 프로세서 가운데 하나입니다. 최근 GPU는 인공지능 분야에 쓰임새가 점점 늘어나고 있기 때문에 이런 변화는 자연스럽지만, 새로 추가된 텐서 코어가 본래 목적인 게임에는 무용지물이라는 게 문제입니다. 엔비디아는 텐서 코어에 새로운 일감을 줬는데, 바로 이미지 품질을 향상시키는 것입니다. 딥러닝 기법으로 저해상도 사진이나 영상으로 바꾸는 연구가 진행 중인데, 튜링은 아예 실시간으로 3D 그래픽 영상 품질을 높입니다. 게임 속 3D 그래픽은 흔히 계단 현상이라고 부르는 앨리어싱(Aliasing)을 제거하지 않으면 모서리 부분이 매우 지저분하거나 거칠게 보입니다. 이를 제거하기 위해 여러 기술이 개발되었는데, 대표적인 방법이 TAA(Temporal Anti-Aliasing)입니다. 어떤 방법이든지, 기존의 그래픽 연산 유닛을 사용하기 때문에 안티 앨리어싱을 많이 할수록 성능이 낮아졌습니다. 하지만 딥러닝을 위한 텐서 코어를 갖춘 튜링에겐 다른 방법이 있습니다. 딥 러닝 슈퍼 샘플링(Deep Learning Super-Sampling·DLSS)은 그래픽 연산이 아닌 인공지능을 이용해 이미지 품질을 높이기 때문에 3D 연산 능력에 영향을 미치지 않습니다. 결과적으로 텐서 코어를 이용해서 3D 처리 능력을 높인 것과 같은 결과를 얻게 됩니다. 물론 딥러닝 기법으로 이미지 해상도를 높일 경우 기존의 방식과 결과물이 다소 달라 이질적으로 보일 수도 있으나 딥러닝 기반이기 때문에 앞으로 알고리즘을 개선하고 학습을 많이 하면 더 좋은 결과를 얻을 수 있다는 점이 큰 장점입니다. 그래픽과 인공지능 왕좌 노리는 엔비디아 하지만 신기술에도 대가는 따르게 마련입니다. 이미 그래픽 연산과 병렬 연산을 위해 수천 개의 CUDA 코어를 집어넣은 상태에서 다시 텐서 코어와 RT 코어를 추가하면서 튜링 GPU는 엄청나게 커졌습니다. RTX 2080 Ti는 754㎟ 다이 (die) 면적에 186억 개의 트랜지스터를 집적했으며 RTX 2080/2070 역시 538㎟ 면적에 136억 개의 트랜지스터를 집적해 전 세대 대비 크기가 대폭 증가했습니다. 그러나 게임에서의 성능 향상 폭은 30-40% 수준으로 트랜지스터 증가에 미치지 못하는 수준입니다. 물론 새로운 유닛을 대거 집어넣었기 때문이죠. 이미 업계 1위인 엔비디아가 이런 대가를 치르면서까지 신기술을 집어넣은 이유는 분명합니다. 경쟁자들이 따라오지 못할 정도로 앞서가려는 것이죠. 레이 트레이싱 기술을 지원하는 게이밍 GPU는 현재 엔비디아만 출시했고 앞으로 당분간 엔비디아 이외의 회사는 없을 것입니다. 텐서 코어를 지닌 GPU 역시 마찬가지입니다. 물론 엔비디아의 전략이 통하려면 게임 제작사들의 협조가 필수적입니다. 제작사들이 적극적으로 레이 트레이싱과 DLSS를 적용해야 빛을 볼 수 있는 것입니다. 이미 여러 게임에서 지원을 공언했지만, 얼마나 보편적으로 이용하게 될지는 아직 미지수입니다. 만약 최신 게임에서 널리 사용하는 기술이 된다면 엔비디아의 입지는 한층 더 강화되고 차세대 그래픽과 인공지능에서 선두를 유지할 수 있을 것입니다. 과연 그렇게 될지는 두고 봐야 알겠지만, 현재의 성공에 만족하지 않고 새로운 시도를 하는 IT 기업의 모습은 매우 긍정적으로 보입니다. 고든 정 칼럼니스트 jjy0501@naver.com
위로