찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • 멀티모달 AI
    2026-04-11
    검색기록 지우기
  • 논설위원
    2026-04-11
    검색기록 지우기
  • 지역 쉼터
    2026-04-11
    검색기록 지우기
  • 참가자
    2026-04-11
    검색기록 지우기
  • 번화가
    2026-04-11
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
101
  • 호반건설, 신규 입주현장에 AI 기술 접목 하자관리 통합 플랫폼 본격 도입

    호반건설, 신규 입주현장에 AI 기술 접목 하자관리 통합 플랫폼 본격 도입

    호반건설이 입주단지의 하자 처리를 신속하고 체계적으로 관리하기 위해 인공지능(AI) 기반 하자관리 통합 플랫폼 ‘채들’을 신규 입주 현장에 도입한다고 6일 밝혔다. 이번에 새롭게 도입되는 하자관리 통합 플랫폼 ‘채들’의 주요 기능인 ‘AI 채커’는 호반건설 오픈이노베이션팀과 홈테크 스타트업 ‘이음’이 공동 개발했다. 언어뿐만 아니라 이미지 등 다양한 데이터를 처리하는 멀티모달 AI 기술 ‘AI 채커’가 탑재되면서 신규 입주현장의 하자 접수부터 분류, 보수 작업까지 하자 처리의 전 과정을 한 번에 관리할 수 있게 됐다. 관리자가 현장 하자를 촬영하면, AI 채커는 해당 이미지를 인식해 하자 유형을 세분화한다. 자동 분류된 하자들은 각 전문 업체에 전달돼 하자 보수가 진행되고, 관리자는 하자 보수 진행률과 결과를 실시간 모니터링해 완료 일정을 입주민에게 안내할 수 있게 된다. 일일이 수작업으로 분류해왔던 하자의 유형을 AI 채커를 통해 자동 분류할 수 있게 되면서, 현업 부서의 반복적인 업무 부담을 줄이고 신속한 처리가 가능하게 됐다. 나아가 집계된 데이터를 분석해 하자 처리 프로세스 개선과 품질 향상에 반영할 수 있게 된다. 김재은 호반건설 오픈이노베이션팀장은 “현장에 최신 기술을 도입해 품질 관리가 수월해질 수 있도록 개선될 것”이라며 “이러한 경험을 토대로 자체 스마트 주거 통합 앱 ‘호반 온’(HOBAN ON)을 개발 중이며, 향후 AI와 결합된 입주민 주거환경개선 서비스 등 다양하게 확장해 나갈 계획”이라고 밝혔다. 한편 호반건설은 스마트 건설기술 고도화를 위해 다양한 신기술을 현장에 적용하고 있다. 드론 전문업체 ‘코매퍼’와 협업해 시공 전 과정에서 주요 결함을 사전 탐지하는 등 AI 영상 분석 기술을 현장 관리에 적용했으며, 지난 5월에는 ‘호반써밋 인천검단 AB19블록’ 현장에서 외벽 도장 로봇의 파일럿 테스트를 완료한 바 있다.
  • ‘국가대표 AI’ 톱5 출항… 한국형 AI 개발 위한 서바이벌 경쟁

    ‘국가대표 AI’ 톱5 출항… 한국형 AI 개발 위한 서바이벌 경쟁

    AI기술 역량·오픈소스 여부 평가네이버·LG AI硏·업스테이지 합격NC AI·크래프톤 컨소 SKT 약진 기관 정보 공동구매·GPU 등 지원12월 평가, 6개월마다 1팀씩 탈락KT·카카오 등엔 다른 기회 제공 새 정부의 ‘독자 인공지능(AI) 파운데이션 모델 프로젝트’에 네이버클라우드와 업스테이지, SK텔레콤, NC AI, LG AI연구원(가나다순) 등 5개 정예팀(컨소시엄)이 최종 선정됐다. 서면 평가를 통과한 10곳 중 KT와 카카오를 비롯한 절반이 탈락하면서 컨소시엄 간 희비가 엇갈렸다. 과학기술정보통신부는 4일 해당 프로젝트에 참여한 15개팀을 대상으로 서면과 발표 평가를 진행해 5개 정예팀으로 압축했다고 밝혔다. 서면 평가를 통과한 10개팀을 대상으로 모델의 초기 설계부터 사전학습 과정까지 독자적인 AI 기술 역량을 갖췄는지, 업계와 학계 등에 파생형 모델을 개발 가능한 수준으로 공개하는 높은 수준의 오픈소스 정책을 쓰는지를 평가했다. 결과물의 50% 이상 개방 등 국가 AI 생태계에 기여하는지도 평가 요소였다. 선정 결과는 예상을 크게 벗어나진 않았다. 네이버클라우드(하이버클로버X)와 LG AI연구원(엑사원), 업스테이지(솔라)는 자체 개발한 AI 모델이 업계 안팎에서 긍정적인 평가를 받아 왔다. 네이버는 실리콘밸리 AI 스타트업인 트웰브랩스의 AI 기술을 결합해 텍스트와 이미지, 오디오, 비디오 등 이종 데이터를 통합적으로 이해하고 생성하는 ‘옴니 파운데이션 모델’을 개발할 계획이다. LG AI연구원은 글로벌 최고 수준의 프런티어 AI 개발을 목표로 삼았다. 최첨단 기술을 활용해 인간과 유사한 수준으로 복잡한 작업을 수행할 수 있는 대규모 AI 모델을 만들겠다는 것이다. 업스테이지는 글로벌 선도 수준의 AI 파운데이션 모델을 개발해 3년간 대국민 AI 서비스를 제공해 사용자 수 1000만명 이상 달성을 내세웠다. 게임업체의 약진도 눈에 띄는 대목이다. 엔씨소프트에서 AI 연구조직이 분사하며 설립된 NC AI는 생성형 AI ‘바르코’를 통해 저력을 드러냈으며, 글로벌 최고 성능의 200B(매개변수 2000억개) 규모의 AI 모델을 개발한다는 목표를 세웠다. ‘국민 AI 접근성 강화’를 내세운 SK텔레콤은 크래프톤과 컨소시엄을 구성했는데, 크래프톤은 여기서 멀티모달 설계의 핵심 역할을 맡을 예정이다. 선발된 팀들은 국가기록원, 국사편찬위원회, 통계청, 특허청, 방송사 등 기관 데이터를 공동 구매하거나 개별 구축할 수 있으며, 순차적으로 1576억원 규모의 그래픽처리장치(GPU) 등의 컴퓨팅 자원이 지원된다. 정부는 5개팀의 사업 범위와 지원 내용 등을 확정해 이달 초 협약을 맺는다. 이들이 개발·확보한 AI 파운데이션 모델 등을 기반으로 오는 12월 말 1차 단계 평가를 거쳐 지원 대상을 4곳으로 줄이고 6개월마다 평가를 통해 한 곳씩 줄여 나갈 계획이다. KT와 카카오 등 프로젝트에서 탈락한 기업에 대해선 특화 모델 등 다른 방식으로 지원할 기회를 제공할 방침이다.
  • LG, 美 암치료제 회사에 투자… 바이오 진출 속도전

    LG가 미국 바이오 스타트업에 대한 투자를 확대하며 바이오 산업 진출에 속도를 내고 있다. LG는 ‘인공지능(AI)·바이오·클린테크’(ABC)를 미래 전략 산업으로 육성하는 중이다. 3일 바이오업계에 따르면 최근 LG는 자사 벤처캐피털인 LG테크놀로지벤처스를 통해 미국 메신저리보핵산(mRNA) 치료제 개발사 ‘스트랜드 테라퓨틱스’의 시리즈B 투자에 참여했다. 스트랜드 테라퓨틱스는 매사추세츠공과대(MIT) 바이오공학 전공자들이 2017년 창업한 회사다. 체내 세포를 프로그래밍해 암, 자가면역질환, 희귀질환 등을 치료하는 차세대 신약을 개발하고 있다. 이번 투자로 LG의 바이오 분야 누적 투자액은 5000만 달러를 돌파한 것으로 추정된다. 지난해 말 3500만 달러였던 투자금은 올해 들어 1500만달러가 더해지며 7개월 만에 40% 이상 증가했다. 투자 대상은 희귀 비만 치료제 개발사 ‘아드박 테라퓨틱스’ 외에도 의료 데이터 분석 플랫폼 ‘에티온’, 디지털 청진기를 활용한 진단 솔루션 기업 ‘에코 헬스’, 세포 치료제 개발사 ‘아셀렉스’ 등이다. 또 LG AI연구원은 1분 만에 암 진단이 가능한 AI 모델 ‘엑사원 패스 2.0’을 개발했고, 미국 밴더빌트대 의료진과 협력해 멀티모달 의료 AI 플랫폼 개발에도 나서고 있다.
  • 과기정통부 류제명 2차관, 바이브컴퍼니 AI 연구현장 방문

    과기정통부 류제명 2차관, 바이브컴퍼니 AI 연구현장 방문

    - AI 3대 강국 실현 위해 산업-인재 연계 현장 직접 살펴 과학기술정보통신부 류제명 제2차관이 지난 7월 24일, 인공지능·빅데이터 선도기업 바이브컴퍼니(대표 김경서)를 방문해 AI 인재 양성과 민간 현장 연계 방안을 주제로 간담회를 가졌다. 이번 간담회는 정부가 추진 중인 ‘AI 3대 강국’ 전략의 일환으로, AI 기업과 인재가 함께 성장하는 실전형 인재 생태계 조성 방안이 주요 의제로 다뤄졌다. 간담회에 앞서 류 차관은 과학기술정보통신부와 정보통신기획평가원이 지원하는 ‘생성AI 선도인재 양성 사업’의 일환으로 바이브컴퍼니에 파견된 서울대, 고려대, 연세대, 국민대 석·박사급 AI 인재들과 만나, 기업 현장에서의 연구와 실전 프로젝트 참여에 대한 생생한 대화를 나눴다. 이들은 바이브컴퍼니의 자체 AI 파운데이션 모델 ‘VAIV GeM’을 기반으로 멀티모달 확장, 데이터 연계형 AI 에이전트 개발 등 실제 프로젝트에 참여하고 있으며, 산업 현장에서 요구되는 내부망 최적화, 비용 구조, 라이선스 조건 등을 실무를 통해 체득하고 있다고 설명했다. 본 사업의 프로젝트 수행과 파견을 거쳐 바이브컴퍼니의 정규직으로 채용된 인재도 함께 자리해, 산업과 학계 간 간극을 좁힐 수 있었던 경험을 공유했다. 이어진 간담회에는 바이브컴퍼니 김경서 대표, 엔씨에이아이 이연수 대표, LG AI연구원 김유철 전략부문장 등 주요 AI 기업 관계자들과, 연세대 김선주 교수, 고려대 이성환 교수, 울산과학기술원 심재영 교수, 중앙대 최종원 교수 등 AI 대학원을 중심으로 인재를 양성하는 교육계 전문가들이 함께 참석했다. 참석자들은 산업계와 학계가 함께 갖춰야 할 인재 역량과 기술 경쟁력, 그리고 글로벌 AI 전환에 필요한 인재 육성 전략을 논의했다. 특히 산업 현장에서 곧바로 전문성을 발휘할 수 있는 실전형 인재를 어떻게 키울 것인지, 이를 뒷받침할 정부 정책과 민간 협력 모델 구축 필요성에 대한 의견도 오갔다. 과학기술정보통신부 류제명 제2차관은 “앞으로도 현장의 목소리에 지속적으로 귀 기울이며, 실질적인 인재 확보·지원 방안을 마련해 나가겠다”고 밝혔다. 바이브컴퍼니 김경서 대표는 “정책과 산업 현장을 연결하는 이러한 자리가 AI 생태계의 건강한 성장 기반이 될 것”이라며, “바이브컴퍼니도 국산 AI 기술과 인재 생태계 조성에 지속적으로 기여하고, 정부가 추진하는 ‘AI 3대 강국’ 실현에 선도적인 역할을 해나가겠다”고 강조했다. 한편, 바이브컴퍼니는 국내에서 드물게 자체 AI 파운데이션 모델 개발부터 솔루션 제품화와 서비스 운영까지 전 주기를 아우르는 역량을 갖춘 기업이다. 2년 연속 정부 ‘초거대 AI 활용 지원사업’에 참여해 전체 PoC의 52%를 수행하며 공공 분야에서의 기술 적용 역량도 입증한 바 있다.
  • NC AI, 세계 최대 컴퓨터그래픽 콘퍼런스서 AI 기술 공개

    NC AI, 세계 최대 컴퓨터그래픽 콘퍼런스서 AI 기술 공개

    엔씨소프트의 인공지능(AI) 자회사 NC AI가 세계 최대 컴퓨터그래픽 콘퍼런스 ‘SIGGRAPH 2025’에 참가한다. NC AI는 다음달 10~14일(현지시간) 캐나다 밴쿠버에서 열리는 SIGGRAPH에서 ‘VARCO(바르코) 애니메이션’과 ‘VARCO 싱크페이스’ 기술을 시연한다고 25일 밝혔다. 1974년부터 시작돼 올해 51주년을 맞이한 SIGGRAPH는 매년 100여개국에서 수많은 연구자와 기업이 참여하는 컴퓨터그래픽 학회다. NC AI가 선보일 바르코 애니메이션은 게임 개발자가 필요로 하는 캐릭터 동작의 데이터를 AI로 쉽고 간편하게 검색, 생성, 조합할 수 있는 플랫폼이다. NC AI는 콘퍼런스 현장에 시연 부스를 운영하고, 이용자가 직접 다양한 동작을 검색하고 생성해보는 체험 기회를 제공할 계획이다. 함께 공개되는 바르코 싱크페이스는 음성 기반의 자동 립싱크와 얼굴 애니메이션을 구현하는 기술이다. 별도의 움직임 캡처 장비나 다수의 애니메이터 개입 없이도 캐릭터의 표정이나 입 모양, 감정 표현을 자연스럽게 생성해내는 것이 특징이다. 특히 영어, 일본어, 한국어 등 여러 언어에서도 일관된 품질을 유지하고, 일반적인 립싱크를 넘어 비언어적 표현과 정서적 흐름까지 구현할 수 있다는 게 NC AI의 설명이다. 이연수 NC AI 대표는 “바르코 대형언어모델(LLM)의 자체 기술력을 기반으로, 글로벌 톱 비전언어모델(VLM)은 물론 이번 전시에서 선보일 다양한 멀티모달(텍스트·이미지 등 여러 형태의 데이터) 모델을 통해 실제 산업과 생활을 혁신하겠다”고 말했다.
  • LG AI 엑사원, 1분 만에 ‘암 변이’ 찾았다… 생산성 1000배 향상

    LG AI 엑사원, 1분 만에 ‘암 변이’ 찾았다… 생산성 1000배 향상

    LLM 기반 AI, 다양한 산업 활용문자·이미지·오디오 동시에 분석전문가 60명 작업량 1명이 처리 암이 퍼져 있는 폐암 환자의 세포 사진을 ‘LG 엑사원 패스(path) 2.0’에 입력하자 1분도 되지 않아 유전자(DNA)가 변이된 것으로 추정되는 세포를 잡아내 확대해 보여줬다. DNA 변이 여부는 육안으로 확인할 수 없다. 기존에는 약 2주 걸리는 조직 검사와 정밀 진단을 거쳐야 했지만, 엑사원 패스 2.0은 1분 만에 변이된 정도와 유형을 포착해 정밀한 치료 계획을 세울 수 있다. LG AI연구원은 22일 서울 강서구 LG사이언스파크에서 ‘LG AI 토크콘서트 2025’를 열고 엑사원 패스 2.0을 비롯한 초거대 ‘엑사원 생태계’를 공개했다. 엑사원 생태계는 연구원이 2021년부터 개발한 대규모언어모델(LLM) 기반의 인공지능(AI)인 엑사원을 다양한 산업 현장에 적용할 수 있도록 활용력을 높인 엑사원 모델의 집합체다. ‘멀티모달(오감형)’ AI인 ‘엑사원 4.0 VL’도 이날 처음 소개됐다. 멀티모달 AI는 문자뿐 아니라 이미지나 오디오 등 다양한 유형의 정보를 학습해 처리하는 AI다. 전 세계의 석유 및 LNG 공급 경로를 각종 그림과 지도, 도형으로 설명한 문서를 엑사원 4.0 VL에 입력한 뒤 ‘얼마나 많은 석유가 호르무즈 해협을 통해 한국과 일본으로 공급되냐’고 질문하자, 엑사원 4.0 VL은 그림의 각 색깔과 그래프 면적 등을 이해한 뒤 분석한 답을 내놓았다. 이날 LG 내부 검증 단계를 마친 엑사원 기반의 기업용 AI 에이전트(비서)인 ‘챗엑사원’과 ‘엑사원 데이터 파운드리’, ‘엑사원 온프레미스’도 차례로 소개됐다. 특히 엑사원 데이터 파운드리는 고품질 데이터를 생산하는 AI로, 전문가 60명이 3개월 동안 작업해야 생산할 수 있는 2200여개의 데이터를 1명이 하루 만에 끝낼 수 있도록 돕는다. 연구원 검증에 따르면 도메인 전문가 1명이 엑사원 데이터 파운드리를 사용한 결과 34시간 만에 1만 1000개의 데이터를 생산하는 등 생산성이 최소 1000배, 데이터 품질은 20% 향상됐다고 한다. LG AI연구원은 엑사원 생태계를 통해 기존 사람의 지시를 얼마나 잘 따르는지에 초점을 맞췄던 AI를 일일이 데이터를 입력하지 않아도 스스로 추론해 어려운 문제를 해결해 나가는 ‘에이젠틱 AI’로, 더 나아가 현실을 인식해 판단하고 결정하는 ‘피지컬 AI’로 발전시킬 계획이다. 전날 공동 LG AI연구원장에 취임한 임우형 원장은 “다양한 산업 현장에 적용해 범용성과 전문성을 모두 갖춰 나가는 AI 생태계를 만들겠다”고 말했다.
  • 2주 걸리던 암 변이 검사, AI가 1분만에 확인…LG, ‘엑사원 생태계’ 공개

    2주 걸리던 암 변이 검사, AI가 1분만에 확인…LG, ‘엑사원 생태계’ 공개

    암이 퍼져 있는 폐암 환자의 세포 사진을 ‘LG 엑사원 패스(path) 2.0’에 입력하자 1분도 되지 않아 유전자(DNA)가 변이된 것으로 추정되는 세포를 잡아내 확대해 보여줬다. DNA 변이 여부는 육안으로 확인할 수 없다. 기존에는 약 2주 걸리는 조직 검사와 정밀 진단을 거쳐야 했지만, 엑사원 패스 2.0은 1분 만에 변이된 정도와 유형을 포착해 정밀한 치료 계획을 세울 수 있다. LG AI연구원은 22일 서울 강서구 LG사이언스파크에서 ‘LG AI 토크콘서트 2025’를 열고 엑사원 패스 2.0을 비롯한 초거대 ‘엑사원 생태계’를 공개했다. 엑사원 생태계는 연구원이 2021년부터 개발한 대규모언어모델(LLM) 기반의 인공지능(AI)인 엑사원을 다양한 산업 현장에 적용할 수 있도록 활용력을 높인 엑사원 모델의 집합체다. ‘멀티모달(오감형)’ AI인 ‘엑사원 4.0 VL’도 이날 처음 소개됐다. 멀티모달 AI는 문자뿐 아니라 이미지나 오디오 등 다양한 유형의 정보를 학습해 처리하는 AI다. 전 세계의 석유 및 LNG 공급 경로를 각종 그림과 지도, 도형으로 설명한 문서를 엑사원 4.0 VL에 입력한 뒤 ‘얼마나 많은 석유가 호르무즈 해협을 통해 한국과 일본으로 공급되냐’고 질문하자, 엑사원 4.0 VL은 그림의 각 색깔과 그래프 면적 등을 이해한 뒤 분석한 답을 내놓았다. 이날 LG 내부 검증 단계를 마친 엑사원 기반의 기업용 AI 에이전트(비서)인 ‘챗엑사원’과 ‘엑사원 데이터 파운드리’, ‘엑사원 온프레미스’도 차례로 소개됐다. 특히 엑사원 데이터 파운드리는 고품질 데이터를 생산하는 AI로, 전문가 60명이 3개월 동안 작업해야 생산할 수 있는 2200여개의 데이터를 1명이 하루 만에 끝낼 수 있도록 돕는다. 연구원 검증에 따르면 도메인 전문가 1명이 엑사원 데이터 파운드리를 사용한 결과 34시간 만에 1만 1000개의 데이터를 생산하는 등 생산성이 최소 1000배, 데이터 품질은 20% 향상됐다고 한다. LG AI연구원은 엑사원 생태계를 통해 기존 사람의 지시를 얼마나 잘 따르는지에 초점을 맞췄던 AI를 일일이 데이터를 입력하지 않아도 스스로 추론해 어려운 문제를 해결해 나가는 ‘에이젠틱 AI’로, 더 나아가 현실을 인식해 판단하고 결정하는 ‘피지컬 AI’로 발전시킬 계획이다. 전날 공동 LG AI연구원장에 취임한 임우형 원장은 “다양한 산업 현장에 적용해 범용성과 전문성을 모두 갖춰 나가는 AI 생태계를 만들겠다”고 말했다.
  • AI 에이전트 탑재한 KT ‘지니 TV’… 어려운 질문도 단번에 ‘척척’

    AI 에이전트 탑재한 KT ‘지니 TV’… 어려운 질문도 단번에 ‘척척’

    “지니야, 곽튜브가 네팔에 가서 버팔로 먹던 여행 프로그램이 뭐였지?” “네팔에서 버팔로 요리를 먹었던 여행 프로그램은 ENA에서 방영된 ‘지구마불 세계여행3’입니다.” KT는 이처럼 다양한 질문에 자연스러운 대화로 응답이 가능한 인공지능(AI) 에이전트를 자사 IPTV 서비스 ‘지니 TV’에 탑재했다고 17일 밝혔다. 지니 TV AI 에이전트는 대형언어모델(LLM)과 연동돼 단순 음성 명령 인식에서 벗어나 ‘대화가 잘 통하는 AI’를 구현함으로써, 차세대 미디어 서비스로의 본격적인 확장 기반을 마련했다. 지니 TV AI 에이전트는 날씨·뉴스 등 최신 생활정보는 물론, 시사상식·교양·과학·인물 등 복잡한 주제에 관한 질문도 가능하다. 뉴스를 보다가 관세 협상 논의가 촉발된 이유를 묻는다거나, 최근 한국 코스피 추이에 대해서도 물어볼 수 있다. 나아가 코스피의 상승 요인이나, 외국인 투자 유입의 영향이 어느 정도인지 등 꼬리를 무는 연속 질문에도 답변이 가능하다. 콘텐츠 탐색 환경이 크게 개선돼 줄거리나 간단한 설명만으로도 맥락을 이해해 정보를 제공한다. 이러한 정보 제공은 지니 TV의 자체 콘텐츠에 국한되지 않는다. 유튜브·디즈니플러스·티빙·쿠팡플레이 등 주요 온라인동영상서비스(OTT)에서도 콘텐츠 정보 탐색이 가능하다. 스마트폰에 한정됐던 LLM 서비스가 가정 내 TV로 들어오면서, AI 활용에 익숙하지 않은 아이나 어르신도 더 쉽게 AI와 소통할 수 있게 됐다. 예를 들어 함께 TV를 보던 아이가 하늘은 왜 파란지, 별은 왜 반짝이고 움직이는지, 동물은 왜 말을 못 하는 건지 등을 물으면, 부모는 적합한 대답을 스마트폰으로 따로 검색할 필요 없이 지니가 아이의 눈높이에 맞춰 친절하게 설명이 가능하다. 단방향이나 일회성 음성 명령을 넘어 ‘멀티 턴 대화 구조’를 갖춘 것도 특징이다. 멀티 턴 대화 구조란 여러 번의 대화 턴을 거쳐 사용자의 의도를 정확히 파악하고 답변하는 대화 방식을 의미한다. 다양한 LLM 연동이 가능한 구조를 기반으로 자체 개발한 ‘의도 분류 엔진’을 적용했다. 의도 분류 엔진은 사용자의 질문 의도를 정교하게 분석하고, 여러 LLM 중 가장 적합한 모델을 자동 호출한다. 현재 적용된 LLM은 마이크로소프트와 협력해 도입한 애저 오픈AI 서비스 기반으로 제공되며, 향후 다양한 LLM과도 확장 연동이 가능하다. 지니 TV AI 에이전트는 현재 ‘지니 TV 셋톱박스 4’에서 이용할 수 있으며, 오는 11월에는 ‘지니 TV 올인원 사운드바’로 확대 적용된다. 내년에는 약 500만대의 AI 스피커 기반 셋톱박스 전 단말에 차례로 적용할 예정이다. 연내 이미지·오디오 등 멀티미디어 정보를 통합 인식하는 ‘멀티모달 모델’도 도입할 계획이다. 김채희 KT 미디어부문장 전무는 “지니 TV AI 에이전트 탑재로 더 똑똑해진 지니 TV를 통해 아이부터 어르신까지 누구나 집에서 손쉽게 AI를 경험할 수 있도록 접근성을 넓혔다”라며 “앞으로도 KT는 고객이 일상에서 AI를 쉽고 자연스럽게 활용할 수 있도록 서비스를 발전시켜 나가겠다”고 말했다.
  • NC AI ‘바르코 비전 2.0’ 멀티모달 오픈소스로 공개

    엔씨소프트의 인공지능(AI) 회사 NC AI가 시각적 언어에 최적화된 멀티모달(텍스트·이미지 등 여러 형태의 데이터) AI 모델 ‘바르코 비전 2.0’을 오픈소스로 공개했다고 16일 밝혔다. 이 모델의 가장 큰 특징은 이미지와 텍스트를 동시에 이해하고 복잡한 문서나 표, 차트도 효과적으로 처리할 수 있다는 점이다. 예를 들어 문서 파일이 아닌 그냥 인쇄물을 올려도 그 안의 표와 이미지 속 문자까지 AI가 모두 이해하고 우리말로 번역할 수 있다. NC AI는 국내 멀티모달 모델 중에서는 처음으로 바르코 비전 2.0의 14B 모델의 성능이 글로벌 최상위 모델을 능가하는 것으로 나타났다고 강조했다. 
  • 문서 속 틀린 그림도 찾아내는…NC AI, 멀티모달 AI 4종 오픈소스 공개

    문서 속 틀린 그림도 찾아내는…NC AI, 멀티모달 AI 4종 오픈소스 공개

    엔씨소프트의 인공지능(AI) 회사 NC AI가 시각적 언어에 최적화된 ‘바르코 비전 2.0’ 등 멀티모달(텍스트·이미지 등 여러 형태의 데이터) AI 모델 4종을 오픈소스로 공개했다고 16일 밝혔다. 바르코 비전 2.0의 가장 큰 특징은 이미지와 텍스트를 동시에 이해하고 복잡한 문서나 표, 차트도 효과적으로 처리할 수 있다는 점이다. 예를 들어 문서 파일이 아닌 그냥 인쇄물을 올려도 그 안의 표와 이미지 속 문자까지 AI가 모두 이해하고 우리말로 번역할 수도 있다. 심지어는 틀린 그림 찾기도 할 수 있을 정도로 시각 자료에 대한 이해와 분석이 우수하다는 설명이다. NC AI가 공개한 바르코 비전 2.0의 14B 모델의 벤치마크 결과를 보면 글로벌 오픈소스의 비전 언어모델 중 최고성능으로 알려진 InternVL3-14B와 알리바바의 Ovis2-16B, Qwen2.5-VL 7B를 능가하는 것으로 나타났다. NC AI는 국내 멀티모달 모델 가운데 이만한 성능을 확인한 것은 처음이라고 강조했다. 경량 모델인 1.7B 모델은 스마트폰이나 PC 등 개인 기기에서도 원활하게 구동할 수 있고, 1.7B OCR 모델은 이미지 내 문자를 인식하는 작업에 특화했다. 특히 한국어와 영어가 혼합된 상황에서도 높은 인식 정확도를 보였다. 비디오 임베딩 모델은 이용자(개발자)가 일반 언어로 입력해도 원하는 이미지나 동영상 콘텐츠를 찾아준다. NC AI는 이번에 공개한 4종의 모델을 모두 연구용 오픈소스로 공개해 기업이나 개인, 공공기관 누구나 이용할 수 있도록 했다. 이연수 NC AI 대표는 “세계적 흐름이 텍스트만 처리하는 언어모델을 넘어 비전모델을 함께 활용하는 비전언어모델로 전환되고 있다”면서 “이번 4종 모델 공개를 통해 NC AI가 비전언어모델에서도 한국의 주권을 지킬 수 있는 가능성을 확인했다”고 밝혔다.
  • 삼성전자, 갤럭시 AI 적용 기기 연내 4억대로 확대

    삼성전자, 갤럭시 AI 적용 기기 연내 4억대로 확대

    두 번 접는 폰·XR헤드셋 연말 출시갤럭시 A시리즈에도 AI 탑재 시사 삼성전자의 모바일 사업부문(MX)을 이끄는 노태문 MX사업부장(사장)은 인공지능(AI) 기술의 대중화를 위해 ‘갤럭시 AI’ 기능을 탑재한 모바일 기기를 지난해 2억대에서 올해 4억대 이상으로 확대하겠다고 9일(현지시간) 밝혔다. 노 사장은 이날 미국 뉴욕 브루클린에서 열린 신형 폴더블폰 갤럭시Z폴드7·플립7 공개행사 ‘갤럭시 언팩 2025’ 후 국내 언론과 가진 기자간담회에서 “모바일 AI의 새로운 기준을 제시해 시장 성장을 이끌겠다”며 이같이 말했다. 프리미엄 모델뿐만 아니라 기존에 출시된 갤럭시A 시리즈에도 갤럭시 AI를 확대 적용하겠다는 뜻으로 해석된다. 삼성전자는 스마트폰의 진화 방향에 대해 AI 에이전트와 ‘멀티모달’ 중심 플랫폼으로의 전환을 전망했다. 멀티모달 AI는 텍스트뿐 아니라 사진, 음성, 영상 등 다양한 정보를 동시에 이해하고 처리하는 AI를 의미한다. 노 사장은 시장의 관심이 높은 ‘두 번 접는 폰’ 트라이폴드폰에 대해서도 “연말 출시를 목표로 열심히 완성도를 높여가고 있다”며 기대감을 드러냈다. 트라이폴드폰은 지난해부터 테스트 제품이 공개되며 기대를 모았지만, 공식 출시 시점을 삼성전자가 밝힌 것은 이번이 처음이다. 제품명은 미정이지만 업계에서는 ‘갤럭시 G폴드’로 불리고 있다. 이외에도 삼성전자는 확장현실(XR) 헤드셋 ‘프로젝트 무한’을 연내 출시 목표로 개발하며 새로운 폼팩터(기기 형태) 혁신에 속도를 내고 있다. 다만 갤럭시워치의 혈당 측정 기능과 새로운 갤럭시 링 등 신규 웨어러블 기능·기기에 대해서 노 사장은 “(상용화까지) 아직 시간이 더 필요하다”고 설명했다. 한편 삼성전자는 10일 서울 태평로 기자실에서 ‘신제품 미디어 브리핑’을 열고 AI 기능을 시연했다. 예컨대 갤럭시 Z폴드에 탑재된 멀티모달 AI ‘제미나이 라이브’는 왼쪽·오른쪽 화면에서 각각 두 개의 앱을 동시에 실행하면서 왼쪽 화면에서는 온라인 쇼핑 앱을 구동하고, 오른쪽 화면에선 본인의 러닝 페이스 정보를 공유하며 AI가 이 정보를 종합해 용도에 맞는 신발을 추천해줬다.
  • 삼성 노태문 “AI 적용기기 연내 4억대로 확대…두 번 접는 폰 연내 출시”

    삼성 노태문 “AI 적용기기 연내 4억대로 확대…두 번 접는 폰 연내 출시”

    삼성전자의 모바일 사업부문(MX)을 이끄는 노태문 MX사업부장(사장)은 인공지능(AI) 기술의 대중화를 위해 ‘갤럭시 AI’ 기능을 탑재한 모바일 기기를 지난해 2억대에서 올해 4억대 이상으로 확대하겠다고 9일(현지시간) 밝혔다. 노 사장은 이날 미국 뉴욕 브루클린에서 열린 신형 폴더블폰 갤럭시Z폴드7·플립7 공개행사 ‘갤럭시 언팩 2025’ 후 국내 언론과 가진 기자간담회에서 “모바일 AI의 새로운 기준을 제시해 시장 성장을 이끌겠다”며 이같이 말했다. 프리미엄 모델뿐만 아니라 기존에 출시된 갤럭시A 시리즈에도 갤럭시 AI를 확대 적용하겠다는 뜻으로 해석된다. 삼성전자는 스마트폰의 진화 방향에 대해 AI 에이전트와 ‘멀티모달’ 중심 플랫폼으로의 전환을 전망했다. 멀티모달 AI는 텍스트뿐 아니라 사진, 음성, 영상 등 다양한 정보를 동시에 이해하고 처리하는 AI를 의미한다. 노 사장은 시장의 관심이 높은 ‘두 번 접는 폰’ 트라이폴드폰에 대해서도 “연말 출시를 목표로 열심히 완성도를 높여가고 있다”며 기대감을 드러냈다. 트라이폴드폰은 지난해부터 테스트 제품이 공개되며 기대를 모았지만, 공식 출시 시점을 삼성전자가 밝힌 것은 이번이 처음이다. 제품명은 미정이지만 업계에서는 ‘갤럭시 G폴드’로 불리고 있다. 이외에도 삼성전자는 확장현실(XR) 헤드셋 ‘프로젝트 무한’을 연내 출시 목표로 개발하며 새로운 폼팩터(기기 형태) 혁신에 속도를 내고 있다. 다만 갤럭시워치의 혈당 측정 기능과 새로운 갤럭시 링 등 신규 웨어러블 기능·기기에 대해서 노 사장은 “(상용화까지) 아직 시간이 더 필요하다”고 설명했다. 한편 삼성전자는 10일 서울 태평로 기자실에서 ‘신제품 미디어 브리핑’을 열고 AI 기능을 시연했다. 예컨대 갤럭시 Z폴드에 탑재된 멀티모달 AI ‘제미나이 라이브’는 왼쪽·오른쪽 화면에서 각각 두 개의 앱을 동시에 실행하면서 왼쪽 화면에서는 온라인 쇼핑 앱을 구동하고, 오른쪽 화면에선 본인의 러닝 페이스 정보를 공유하며 AI가 이 정보를 종합해 용도에 맞는 신발을 추천해줬다.
  • 새 정부 기조 맞춰 ‘소버린 AI’ 강조 나선 통신사들…KT·SKT 자사 모델 ‘오픈소스’ 공개

    새 정부 기조 맞춰 ‘소버린 AI’ 강조 나선 통신사들…KT·SKT 자사 모델 ‘오픈소스’ 공개

    새 정부가 ‘소버린 인공지능(AI)’에 집중하자 그간 외부 빅테크와의 협업이나 인수 등에 관심을 기울였던 국내 통신사들이 자체 모델을 내세우고 나섰다. 특히 KT는 자사의 대규모 언어모델(LLM) 모델 ‘믿:음 2.0’을 오픈소스로 공개하기로 한 것은 물론, 정부가 추진하는 ‘독자 AI 파운데이션 모델 프로젝트’에 참여하겠단 의사를 확고히 했다. 3일 KT는 자체 개발한 LLM인 믿:음 2.0의 오픈소스를 AI 개발자 플랫폼 허깅페이스를 통해 공개할 예정이라고 밝혔다. 믿:음은 KT가 자체 개발한 한국적 독자 AI 모델로, 한국의 사회적 맥락 같은 무형 요소와 한국어 고유의 언어적·문화적 특성을 학습시켜, 한국 상황에 잘 맞게 개량된 AI다. 이번에 오픈소스로 공개됨에 따라 기업과 개인, 공공 누구나 믿:음 2.0을 상업적으로 활용할 수 있게 됐다. KT는 2023년 10월 믿:음 1.0을 처음 공개했는데, 지난해 9월 마이크로소프트(MS)와 5년간 조 단위의 AI 협력 계약을 체결하자 일각에선 KT가 자체 파운데이션 모델 개발에선 손을 뗀 게 아니냐는 관측이 나오기도 했다. 양사가 협력해 ‘한국적 AI 모델’을 내놓겠다고 밝혔기 때문이다. 이날 브리핑에 앞서 신동훈 KT 생성형 AI 랩장(CAIO) 상무는 이러한 세간의 인식의 의식한 듯 “‘KT가 믿:음 모델의 개발을 중단한 것이 아니냐’하는 의문을 갖고 바라보는 분들이 많은 것 같다”면서 “지난해 7월 합류한 이후 지속적으로 믿음을 개발을 해왔다. KT는 한 번도 이런 자체 기술을 기반으로 한 믿음 모델의 개발을 멈춘 적이 없다”고 강조했다. MS와 협력하면서 굳이 자체 모델을 개발하는 이유에 대해 신 상무는 “기간 통신 사업자로서 생성형 AI 원천 기술을 반드시 확보해야 한다는 믿음으로 믿:음 모델을 고도화했다”면서 “MS와의 협력을 통해서는 챗GPT 같은 모델을 한국 시장에 맞게 튜닝해서 제공할 예정”이라고 설명했다. 그러면서 “정부가 추진하는 ‘독자 AI 파운데이션 모델 프로젝트’에 참여하려고 준비 중”이라고 말했다. 이번에 오픈소스로 공개될 믿:음 2.0은 115억 파라미터(매개변수) 규모의 ‘믿:음 2.0 베이스’와 23억 파라미터 규모 ‘믿:음 2.0 미니’ 2종으로 출시되며 한국어와 영어를 지원한다. 베이스 모델은 범용 서비스에 적합한 모델로 한국 특화 지식과 문서 기반 질의응답에서 강력한 성능을 보였다는 설명이다. 향후 고성능 ‘프로’ 모델도 출시될 예정이며, 이후 추론모델이나 멀티모달 모델들도 순차적으로 공개될 예정이다. 같은 날 SK텔레콤 역시 한국어 특화 LLM A.X(에이닷 엑스) 4.0을 오픈소스로 공개했다. 이와 관련해 KT는 “에이닷 표준 모델은 720억개(72B), 경량 모델은 70억개(7B)의 매개변수를 가지고 있어 (믿:음에 비해) 더 큰 모델이라 직접 비교하는 것은 의미가 없다”면서도 “내부적으로 프리뷰 단계에 있는 (믿:음) 프로 모델이 그 정도를 상응하는 성능을 확보하고 있다”고 설명했다. 이어 “데이터 학습 측면에서 KT는 초기 단계부터 모두 저희가 학습한 모델이라며, SK텔레콤은 외부 모델을 기반으로 중간 단계부터 추가적인 학습을 했다는 점이 다르다”고 덧붙였다. 한편 KT는 국산 AI 생태계 구축을 위해 개발 과정에서 리벨리온 등 국내 신경망 처리장치(NPU) 기업과 협업했다.
  • 전남대병원 ‘AI, 의료현장에 들어오다’ 심포지엄 개최

    전남대병원 ‘AI, 의료현장에 들어오다’ 심포지엄 개최

    전남대학교병원이 인공지능(AI)의 의료 현장 적용을 주제로 한 심포지엄을 연다. 전남대병원은 오는 4일 정오부터 의생명연구지원센터 1층 대회의실에서 ‘AI, 의료 현장에 들어오다’를 주제로 제6회 의료정보센터 심포지엄을 개최한다고 1일 밝혔다. 이번 심포지엄은 디지털 헬스케어와 인공지능 융합의 최신 흐름을 공유하고, 의료 현장에서의 AI 활용 가능성과 실증 사례를 논의하기 위해 마련됐다. 개회식 이후에는 황희 카카오헬스케어 대표가 ‘AI & Data in Digital Healthcare’를 주제로 기조강연을 한다. 이어지는 주제 발표 세션에서는 의료 분야에서의 생성형 AI 활용과 관련 규제, 실제 개발 사례 등이 소개된다. 첫 세션은 기승정 전남대병원 의생명연구원장이 좌장을 맡아 진행하며, ‘의료 도메인에서 LLM(Large Language Model)의 활용과 전망’, ‘생성형 AI 의료기기 관련 한국 규제: 인공지능기본법과 가이드라인’, ‘멀티모달 AI 기반 흉부 X-ray 판독문 초안 생성 솔루션 개발 사례’ 등이 발표된다. 두 번째 세션은 화순전남대병원 강호철 교수가 좌장을 맡아 ‘의료AI 병원 적용 사례’를 주제로 병원 현장에서의 구체적 AI 활용 사례들을 공유한다. 심포지엄을 기획한 지영석 전남대병원 의료정보센터장은 “AI는 이제 의료 현장의 필수 기술로 자리잡고 있다”며 “이번 심포지엄이 전남대병원이 스마트병원으로 도약하는 계기가 되길 기대한다”고 말했다.
  • 네이버도 추론 모델 공개… “한국어 이해력은 AI 중 세계 최고”

    네이버도 추론 모델 공개… “한국어 이해력은 AI 중 세계 최고”

    실수 반추하고 교정하는 능력 갖춰시각 추론 영역서도 의미 있는 결과 네이버가 최상급 언어 능력을 갖춘 추론 모델 ‘하이퍼클로바X씽크’를 공개했다. 국내에서 생성형 인공지능(AI) 모델 중 추론 모델이 나온 건 LG AI연구원의 ‘엑사원 딥’에 이어 두 번째다. 네이버는 자사의 추론 모델이 멀티모달 추론을 겨냥해 만든 것이 아님에도 시각 추론 영역에서 의미 있는 결과가 도출됐다고 자평했다. 30일 네이버가 테크니컬 리포트를 통해 소개한 하이퍼클로바X씽크는 ‘생각하는 힘’, 즉 추론 능력이 강화된 추론 모델이다. 사용자가 질문하면 AI 모델이 혼잣말하듯 길게 생각하며 답변 계획을 수립하는 것이 특징이다. 오픈AI의 GPT-o3나 o1, 4o 등 시리즈가 여기 해당하며, 구글의 제미나이 2.5 Pro도 대표적인 추론 모델로 꼽힌다. 추론 모델은 복잡한 문제를 작은 단위로 나누는 능력은 물론 실수를 반추하고 교정하는 능력 등이 있어 ‘AI 에이전트 서비스’의 핵심적인 기술로 주목받고 있다. 네이버 추론 모델은 한국어 이해도에 있어 다른 글로벌 빅테크의 모델보다 앞서 있다는 게 네이버 측 설명이다. 서울대 언어학과에서 거대언어모델(LLM)의 한국어 이해도를 진단하기 위해 설계된 ‘코발트-700’ 벤치마크로 주요 LLM의 언어 능력을 측정한 결과 하이퍼클로바X씽크는 국내 주요 추론 모델은 물론 글로벌 최고 수준의 오픈소스 모델보다 더 높은 점수를 기록했다. 언어 능력뿐 아니라 시각 정보를 바탕으로 추론할 수 있는 기술도 확보했다. 이번 모델의 성능 평가를 담당한 유강민 네이버클라우드 리더는 “이번 추론 모델은 멀티모달 추론을 겨냥해 만든 것이 아님에도 시각 추론 영역에서 의미 있는 결과가 도출됐다.”며 “이미 하이퍼클로바X 기반의 이미지, 영상, 음성 멀티모달 기술을 확보하고 있으므로, 향후 강력한 멀티모달 추론 능력을 갖춘 모델로 고도화해 나갈 것”이라고 말했다. 네이버는 추론 모델을 오픈소스로도 공개할 계획이다. 한편 네이버가 소프트뱅크와 절반씩 지분을 소유하고 있는 라인야후(LY) 역시 AI컴퍼니로의 전환에 박차를 가하고 있다. 박의빈 라인야후 최고기술책임자(GTO)는 이날 일본 도쿄에서 열린 기술 컨퍼런스 ‘테크버스 2025’에서 “플랫폼을 하나로 통합하고 모든 서비스를 AI 기반으로 재정의하고 있다”며 “단순한 기술 통합을 넘어, 서비스의 본질적인 진화를 이끌겠다”고 밝혔다. 라인야후는 모든 서비스를 AI에이전트화할 예정이며, AI 캐릭터 기반 서비스인 ‘AI 프렌즈’를 곧 출시할 예정이다.
  • 이 대통령 “‘소버린 AI는 낭비’는 위험한 생각”(종합)

    이 대통령 “‘소버린 AI는 낭비’는 위험한 생각”(종합)

    이재명 대통령은 20일 “‘챗GPT 있는데 소버린 AI(국가주권형 인공지능)를 왜 개발하는가. 낭비다’ 이런 이야기는 ‘베트남에 쌀 생산이 많이 되는데 뭘 농사를 짓는가. 사 먹으면 되지’라는 이야기와 똑같은 것”이라고 지적했다. 이 대통령이 대선 과정에서 강조한 소버린 AI 개발의 필요성을 재확인한 것이다. 이재명 대통령은 이날 울산전시컨벤션센터에서 열린 AI 기업과 간담회에서 이같이 말하며 “그게 얼마나 위험한 생각인지 모르는 것”이라고 했다. 조준희 한국 AI·SW협회장이 “한국형 챗GPT 같은 LMM(멀티모달모델)을 개발하려 하고 있다”며 “그런데 ‘지금 챗GPT 같은 좋은 게 많은 데 왜 한국이 직접 개발하는가’라는 이야기를 봤다”며 어려움을 토로하자 이 대통령이 화답하는 차원에서 나온 발언이다. 이 대통령은 간담회 모두발언에서 울산 AI 데이터센터 출범에 대해 “지방 경제 산업의 새로운 희망을 만들어주는 것 같다”며 “앞으로 대한민국 첨단기술산업이 수도권에서만이 아니라 지방에서도 가능하다는 걸 보여주는 모범 사례 될 수 있을 것”이라고 평가했다. 이날 간담회는 울산 AI 데이터센터 출범식 계기로 열렸다. 이 대통령은 “대한민국 지금까지는 고속 성장을 해왔는데 지금 시중말로 깔딱고개를 넘어가는 것 같다”며 “준비하기에 따라서 완전히 새로운 세상으로 나아갈 수도 있고, 여기서 되돌아 내려갈 수도 있는 상황”이라고 진단했다. 이 대통령은 “우리 국민들의 위대한 저력으로 위기를 다 이겨내고 새로운 대한민국을 맞이할 것으로 믿는다”며 “우리 국민들의 위대함 속에 우리 기업인들의 위대함이 있다”고 말했다. 이어 간담회에 참석한 정신아 카카오 대표 등을 언급하며 “정말 뛰어난 능력으로 대한민국 산업경제를 이끌어 주고 있다”면서 “우리가 맞닥뜨리고 있는 AI 중심의 첨단기술산업 시대에 세계를 선도하는 훌륭한 역할을 잘 해낼 것으로 믿는다”고 했다. 이 대통령은 “오늘 대한민국 주가가 2992.1을 찍고 있던데 새로운 기대로 3000포인트를 넘어서서 새로운 시대로 나아갔으면 좋겠다”며 “울산 경제도 살아나고 대한민국 경제도 새로운 희망을 꽃피는 출발점이 되길 기대한다”고 말했다. 이날 코스피는 3021.84에 장을 마쳤다. 마감가가 3000을 넘은 것은 지난 2021년 12월 28일(3020.24) 이후 3년 6개월만이다. SK그룹과 세계 1위 클라우드 기업 아마존웹서비스(AWS)는 울산 미포 국가산업단지에 100MW(메가와트) 규모 AI 전용 데이터센터를 구축하기로 하고 이날 출범식을 열었다. 100MW급 그래픽처리장치(GPU) 약 6만장이 투입되는 국내 최대 규모의 데이터센터이자, 국내 최초의 GPU 전용 설비를 갖춘 AI 인프라다. 데이터센터 기공식은 오는 8월 열릴 예정이다. 최태원 SK 회장은 간담회에서 “저희가 경험을 많이 쌓아서 싸게 AI 데이터센터 인프라를 구축할 수 있느냐가 SK가 투자하는 목적”이라고 밝혔다. 그러면서도 “하지만 기업의 단순한 투자를 넘어 대한민국의 진짜 성장, AI 3대 강국에 동참하는 데에 SK의 첫걸음, 울산 AI 데이터센터가 최고의 AI 고속도로로 발전의 필수적 역할을 할 것”이라고 했다. 최 회장은 AI 데이터센터에 대해 “현재 100MW로 건설하고 있지만 향후 1기가로 확장해서 국내 AI 수요에 대응하는 글로벌 허브 역할로 발돋움할 것”이라고 했다. 최 회장은 이 대통령에게 AI 원스톱 바우처 사업 확대, AI 스타트업 펀드를 통한 2만개 기업 육성 등을 제안했다. 전체 공공시장의 25%를 AI화 해 정부 주도의 AI 시장을 형성하고, 초중고교에서 AI를 필수과목화해 AI 국가 인재를 양성하자고 했다. 또 울산에 AI 특구를 만들어달라고 요청했다. 이에 이 대통령은 “(최 회장이 말한) AI 인재 양성과 관련해서 저도 똑같은 생각”이라며 “교육과정을 바꾸는 것은 정말로 어려운데 (AI를) 초중고든 대학이든 필수 과정의 일부로 가르쳐야하지 않을까 하는데, 어떤 게 가능한지 꼭 검토해야 될 것 같다”고 말했다. 또 정부 주도의 AI 시장 형성, AI 스타트업 펀드 조성, AI 원스톱 바우처 사업 확대 등도 언급하며 “이런 필요한 정책들은 자주 좀 대화하고, 구체화해서 실제 실행하면 좋겠다”고 말했다. 간담회에는 최태원 SK그룹 회장과 정신아 카카오 대표, 이준희 삼성SDS 사장, 배경훈 LG AI연구원장, 김유원 네이버클라우드 대표, 서범석 루닛 대표, 백준호 퓨리오사AI대표, 조준희 한국AI·SW협회장 등이 참석했다. 유상임 과학기술정보통신부 장관, 안덕근 산업통상자원부 장관, 김두겸 울산시장, 김용범 대통령 정책실장, 하준경 경제성장수석, 하정우 AI미래기획수석 등도 자리했다.
  • 실리콘밸리에 ‘네이버 벤처스’ 첫 투자법인… “AI 싸움 준비”

    실리콘밸리에 ‘네이버 벤처스’ 첫 투자법인… “AI 싸움 준비”

    첫 투자처는 영상 AI ‘트웰브랩스’ 李 “AI는 혼자 할 수 있는 일 아냐경영진에게 힘 실어 주기 위해 복귀네이버, 골리앗 앞 돌멩이 잡는 다윗” 네이버가 미국 실리콘밸리에 첫 해외투자법인인 ‘네이버 벤처스’를 설립한다. 글로벌 기술 흐름을 주도하는 실리콘밸리에서 경쟁력이 뛰어난 스타트업을 발굴하기 위해서다. 해당 법인은 우선 국제적으로 주목받는 영상 인공지능(AI) 스타트업 ‘트웰브랩스’를 첫 투자처로 확정했다. 이해진 네이버 이사회 의장은 “AI는 혼자서 할 수 있는 일이 아니다”라며 “살아남기 위해 투자하겠다”고 밝혔다. 네이버는 지난 5일(현지시간) 미국 실리콘밸리 포시즌 호텔에서 ‘네이버의 다음 장(章)을 향한 도전’이라는 네트워킹 행사를 열고 네이버 벤처스 설립을 알렸다. 2021년 설립된 트웰브랩스는 영상을 이해하고 검색할 수 있는 멀티모달AI를 개발하는 회사다. 네이버 벤처스는 실리콘밸리에 진출한 한국 스타트업뿐 아니라 현지 해외 스타트업에 대해서도 투자 문호를 개방할 예정이다. 다만 운영 규모에 대해선 따로 밝히지 않았다. 이날 행사에는 지난 3월 7년 만에 이사회 의장에 복귀한 이 의장과 최수연 대표, 김남선 전략투자부문 대표 그리고 현지 벤처캐피털 관계자 등 200여명이 참석했다. 이 의장은 AI와 관련해 “네이버 설립 이후 25년간 많은 파도가 있었는데 AI는 인터넷, 모바일 레벨(수준)의 파도인 것 같다”고 말했다. 그러면서 “AI 시대에 경영진에게 힘을 실어 주고 이사회에 들어가 지원하는 것이 맞다고 느꼈다”며 AI가 이사회 복귀의 배경이 됐음을 드러냈다. 이 의장은 네이버의 AI 기술이 미국이나 중국에 뒤처져 있다고 인정했다. 그러나 네이버에도 충분한 승산이 있다고 봤다. 그는 “투자 규모나 인력 등에서 부족할 수밖에 없지만 우리는 지금까지도 모든 것이 부족한 상태에서 싸워 왔고 그 싸움에 익숙하다”며 “결국 다윗이 골리앗을 이기려면 빨리 포커스해야 하고 돌멩이 하나를 잘 던져야 하는데, 지금은 돌멩이를 잡는 과정이고 돌멩이를 잡기 전에 대규모언어모델(LLM)이나 클라우드 등 기본적인 기술을 준비해야 한다”고 말했다. 이 의장은 “네이버가 제일 첫 번째로 하고 싶은 건 상거래 쪽”이라며 “외부에서는 포시마크 투자를 두고 ‘왜 네이버가 중고 시장에 난데없이 투자했을까’라고 생각하겠지만, 우리는 상거래 데이터를 보고 있다”고 설명했다. 네이버는 2023년 미국의 온라인 중고 거래 플랫폼 포시마크를 인수했다. 그는 “국내에서는 스마트스토어(온라인 쇼핑몰 개설 지원 플랫폼), 일본에서는 라인과 야후, 스페인에선 왈라팝이라는 중고 거래 사이트를 통해 많은 데이터를 확보하고 있다”며 “우리는 그쪽(상거래)이 우리의 중요한 사업 방향일 것이라고 생각한다”고 덧붙였다.
  • 눈앞서 지도·번역 표시… 구글, 삼성 손잡고 ‘스마트 안경’ 재도전

    눈앞서 지도·번역 표시… 구글, 삼성 손잡고 ‘스마트 안경’ 재도전

    구글이 삼성과 손잡고 ‘스마트 안경’을 개발한다. 과거 ‘구글 글래스’로 스마트 안경 시장에 뛰어들었으나 대중화에 실패했던 구글이 10년 만에 재도전에 나선 것이다. 스마트 안경 시장을 선점한 메타와의 차별화 전략도 관전 포인트다. 20일(현지시간) 미국 캘리포니아 마운틴뷰에서 연례 개발자 회의(I/O)를 연 구글은 기조연설 막바지에 자사의 스마트 안경을 소개하기 시작했다. 샤람 이자디 구글 안드로이드 확장현실(XR) 부사장은 무대에 올라 안드로이드 기반의 XR 기기를 헤드셋뿐 아니라 안경으로 확장한다고 밝혔다. XR 헤드셋인 ‘프로젝트 무한’을 함께 만들고 있는 삼성전자가 스마트 안경의 하드웨어 제조를 맡고, 국내 안경 전문 브랜드인 젠틀몬스터와 미국의 워비파커가 디자인을 맡는다. 구글의 스마트 안경은 자연스럽게 녹아드는 인공지능(AI) 기능이 핵심이다. 이자디 부사장은 “(구글의 스마트 안경이) ‘제미나이 라이브’의 힘을 당신이 있는 곳으로 가져올 것”이라면서 “안경을 쓰면 초능력을 얻을 수 있다”고 말했다. 여기서 제미나이 라이브는 사람이 보는 것과 마찬가지로 AI가 마치 앞을 보는 것처럼 실시간으로 영상을 인식해 사람과 대화할 수 있는 기능을 의미한다. 이날 공개된 실시간 시연에 따르면 스마트 안경은 눈앞에 구글 지도를 표시해 스마트폰을 보지 않고도 길을 찾을 수 있게 했으며, 외국인과 대화할 때는 말풍선에 실시간 번역 문구가 표시되기도 했다. 안경에 탑재된 카메라를 통해 AI가 주변 환경을 이해하고, 녹화 중 지나친 사물을 기억해 이용자에게 알려 주는 기능도 있었다. 구글은 하반기부터 이를 기반으로 개발자들이 스마트 안경용 앱 개발에 착수할 수 있도록 한다는 계획이다. 구글 공동 창업자 세르게이 브린은 콘퍼런스에서 2013년 구글 글래스가 출시됐을 때 “많은 실수를 했다”고 말했다. 그는 “소비자 전자제품 공급망에 대해 잘 몰랐고 합리적인 가격으로 스마트 안경을 만드는 것이 얼마나 어려운지도 몰랐다”면서 “생성형 AI의 등장이 구글 글래스 시절보다 스마트 안경의 기능을 훨씬 더 현실적으로 만들었다”고 했다. 한편 구글은 지난해 도입한 검색 내용을 AI가 요약해 주는 ‘AI 오버뷰’를 ‘AI 모드’로 대폭 확대했다. AI 모드는 구글의 최신 AI 모델인 제미나이 2.5의 맞춤형 버전을 도입한 검색 기능으로 텍스트 요약과 이미지 분석, 영상 이해 등 기존 텍스트 입력 외에 음성과 영상 등의 멀티모달 기능이 결합됐다. 
  • 네이버 이해진, 내달 미국 출장…투자 법인 설립 논의할 듯

    네이버 이해진, 내달 미국 출장…투자 법인 설립 논의할 듯

    이해진 네이버 이사회 의장이 다음 달 미국을 방문해 신규 투자 법인 설립을 논의한다. 16일 정보통신기술(ICT) 업계에 따르면 이 의장은 다음달 초 미국 실리콘밸리에서 열리는 투자 네트워킹 행사를 찾아 한인 엔지니어·창업가 등을 만날 예정이다. 이번 출장은 지난 3월 주주총회를 통해 복귀한 이 의장의 첫 공식 해외 일정이 될 전망이다. 최수연 네이버 대표, 김남선 전략 투자 부문 대표도 동행할 예정이다. 이 의장은 행사를 계기로 현지 신규 투자 법인인 ‘네이버 벤처스’ 설립을 논의할 예정이다. 해당 법인의 수장에는 김 대표가 유력시되는 것으로 전해졌다. 네이버는 2023년 북미 중고 거래 플랫폼 기업 포시마크를 인수하는 등 미국 사업 확장에 속도를 내고 있다. 네이버의 스타트업 투자사인 네이버 D2SF는 지난해 9월 북미에 기반을 둔 AI 기반 3D 콘텐츠 제작 스타트업과 패션 특화 멀티모달 AI 개발 스타트업 등 2곳에 첫 투자를 진행하기도 했다. 현재 네이버는 이 의장의 복귀에 이어 오는 19일 신설 예정인 테크비즈니스 부문 대표에 이 의장의 최측근인 최인혁 전 최고운영책임자(COO)를 내정하며 내실 다지기에 집중하고 있다. 다만 네이버 노조는 최 전 COO가 직장 내 괴롭힘에 대한 도의적 책임을 지고 물러났던 인사라며 복귀에 극렬히 반대하고 있다. 노조는 “최 전 COO의 복귀 반대를 위해 모든 조치를 다하겠다”며 “개인을 향한 공격이 아닌 구성원이 정서적으로 안전하게 일할 수 있는 환경을 만들 수 있는 최소한의 선을 지켜내야만 하는 노조의 책무”라고 강조했다. 노조는 오는 19일엔 경기 성남 네이버 제2사옥 1784에서 최 전 대표의 복귀 거부 피켓 시위를 진행할 예정이다.
  • “한국어 사투리도 알아듣네”… 카카오 ‘카나나 - o’ 공개

    카카오가 텍스트 중심의 인공지능(AI) 모델을 넘어 사람처럼 보고 듣고 말하며 공감하는 멀티모달 언어모델을 국내 최초로 공개했다. 카카오는 1일 공식 테크블로그를 통해 통합 멀티모달 언어모델인 ‘카나나-o’와 오디오 언어모델인 ‘카나나-a’의 성능과 개발 후기를 공개했다. 카나나-o는 텍스트와 음성, 이미지 등 다양한 형태의 정보를 동시에 이해하고 처리할 수 있는 AI 모델로 이용자가 텍스트·음성·이미지 중 어떤 조합으로 질문해도 상황에 맞게 추론하고 답변할 수 있다. 예를 들어 횡단보도와 신호등이 있는 사진을 보여 주며 “이미지에서 보행자 신호등은 무슨 색이야? 건너도 될까?”라고 질문하면 카나나-o가 이미지를 통해 상황을 인식해 답변하는 식이다. 카나나-o는 이용자의 억양과 말투, 목소리 떨림 등 비언어적 신호를 분석하고, 대화 맥락에 맞는 감정적이고 자연스러운 음성의 응답을 생성하는 것이 특징이다. 특히 한국어 데이터를 대규모로 학습해 한국어에 특화돼 있다. 한국어의 특수한 발화 구조나 억양, 어미 변화 등을 정밀하게 반영하고 제주도나 경상도 등 지역 방언까지도 인식한다고 카카오는 소개했다. 카카오는 카나나-o가 한국어 및 영어 성능평가에서 오픈AI의 ‘GPT-4o’, 구글의 ‘제미나이 1.5 프로’와 같은 글로벌 최고 모델들과 유사한 수준을 기록했다고 밝혔다. 특히 감정 인식 능력에서는 한국어와 영어 모두 다른 모델들보다 높은 점수를 기록했다. 카카오는 향후 카나나-o의 부적절한 응답을 방지하기 위한 안전성을 확보하고, 대화와 데이터의 실시간 대응 능력을 강화해 실제 대화에 가깝도록 연구를 지속할 계획이다.
위로