찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • LLM
    2026-04-18
    검색기록 지우기
  • ISE
    2026-04-18
    검색기록 지우기
  • Work
    2026-04-18
    검색기록 지우기
  • KB
    2026-04-18
    검색기록 지우기
  • PC
    2026-04-18
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
435
  • 설계도 읽고 재무제표 추론… 현장서 강한 ‘엑사원’ 떴다

    설계도 읽고 재무제표 추론… 현장서 강한 ‘엑사원’ 떴다

    과학·기술·공학·수학 평가 77.3점오픈AI·앤트로픽 경쟁 모델 앞서차트 분석·추론 능력도 우위 보여‘독자 AI 파운데이션 모델’도 대비 LG AI연구원이 9일 텍스트와 이미지를 동시에 이해하고 추론하는 멀티모달 인공지능(AI) 모델 ‘엑사원 4.5’를 공개했다. 설계도나 재무제표 등 서류 인식 능력을 고도화시킨 것이 특징으로 대중 서비스 보다는 산업용 활용이 확대될 전망이다. 엑사원 4.5는 LG AI연구원이 자체 개발한 ‘비전 인코더’와 거대언어모델(LLM)을 하나의 구조로 통합한 ‘비전-언어 모델’(VLM)로, 국내 최초 멀티모달 AI를 구현했던 엑사원 1.0부터 쌓아온 기술력의 집합체다. 엑사원 3.0부터 LLM에 집중해온 LG AI연구원이 다시 VLM으로 회귀한 것은 오는 8월 예정된 ‘독자 AI 파운데이션 모델’ 2단계 평가까지 대비한 것이다. LG AI연구원은 3단계 진출이 확정되면 본격적으로 모달리티 확장에 나서고, 궁극적으로 엑사원을 피지컬 AI까지 발전시킬 계획이다. 엑사원 4.5에서 가장 크게 향상된 성능은 복합 문서를 정확하게 읽고 추론하는 능력이다. 계약서, 재무제표, 전문 문헌 등 데이터와 숫자로 구성된 문서부터 기술 도면 등 그림 형태의 문서까지 이미지의 내용과 맥락을 이해해 텍스트로 출력할 수 있다. 설계도 등이 사용되는 건설업이나 제조현장, 연구원 및 학계 등 기업 간 거래(B2B)에서 활용성이 특히 높다. 소버린 AI를 목표로 하는 만큼 한국에 특화된 것도 강점이다. LG AI연구원은 지난 1월에는 동북아역사재단으로부터 데이터를 제공받아 학습을 진행하고 있다. 엑사원을 한국의 역사와 문화, 사회적 맥락까지 깊이 이해하는 AI로 발전시키려는 것이다. LG AI연구원이 공개한 벤치마크 점수에 따르면 엑사원 4.5는 과학·기술·공학·수학(STEM) 성능을 측정하는 5개 지표에서 평균 77.3점을 기록해 미국 오픈AI의 ‘GPT5-미니’(73.5점)와 앤트로픽의 ‘클로드 소넷 4.5’(74.6점), 중국 알리바바의 ‘큐웬3 VL 32B’(74.8점)를 모두 앞섰다. 복잡한 차트를 분석하고 추론하는 능력을 평가하는 ‘차트QA 프로’ 지표에서는 62.2점으로 GPT5-미니(60.9점), 클로드 소넷 4.5(62.1점)를 모두 넘어섰다. 시각 능력 평가 지표에서 높은 점수를 기록한 것은 AI가 문서 속 글자나 비정형 데이터를 단순히 인식하는 수준을 넘어 맥락을 파악하고 질문에 답할 수 있는 이해력을 갖췄다는 뜻이다. 이진식 LG AI연구원 엑사원랩장은 “엑사원 4.5를 시작으로 음성과 영상, 물리 환경까지 AI의 이해 범위를 확장해 산업 현장에서 실질적으로 판단하고 행동하는 AI를 만들어가겠다”고 밝혔다.
  • [노명우의 알고리즘 밖에서] 리어왕의 세 딸과 인공지능 챗봇

    [노명우의 알고리즘 밖에서] 리어왕의 세 딸과 인공지능 챗봇

    단 한 개의 질문이 비극을 낳았다. 리어왕은 세 딸을 불러 모았다. 나이가 들어 통치의 짐을 내려놓고자 영토를 분할할 것이며, 자신을 가장 사랑하는 딸에게 보다 큰 선물을 내릴 거라 했다. 그리고 물었다. “너희들 중 누가 나를 가장 사랑한다고 말하겠는가?” 첫째 딸 고너릴은 “말할 수 없을 만큼” 아버지를 사랑하며 자신의 사랑은 “광활한 토지나 눈알보다 중하다”고 읊었다. 둘째 딸 리건은 언니의 사랑도 자신의 사랑에는 미치지 못하며 자신은 오로지 아버지의 사랑 안에서만 행복하다고 답해 왕을 만족시켰다. 막내 코델리아는 의외의 답을 내놓았다. 자신은 “도리에 따라 아버지를 사랑할 뿐”이며 “마음을 입에 담을 수 없기에 드릴 말씀이 없다”고 답했다. 사실을 위장하는 고너릴과 리건의 아첨에 익숙해진 리어왕의 귀에 코델리아의 과장 없는 진솔한 진술은 오히려 괘씸하게 들렸다. 리어왕은 결국 코델리아에게 부모 자식의 연을 끊겠다고 선언했다. 나도 때로 아첨이 그리울 때가 있다. 타인의 글에는 부러움을 느끼지만 자신의 글에는 한없는 부끄러움을 느끼는 게 글 쓰는 사람의 숙명이다. 그 부끄러움이 극에 달해 어떤 글도 쓰지 못할 것 같은 좌절에 빠져 있는데, 익명이 무기가 되는 디지털 공간에서 부끄러움이 묻어 있는 그 글이 난도질당하는 경험을 하게 되면 한 줌의 아첨이라도 간절해진다. 그때 인공지능(AI) 챗봇에게 내가 쓴 칼럼을 평가해 달라고 부탁해 본다. 챗봇은 익명의 인간은 절대 구사하지 않는 ‘통찰력이 돋보이는’ ‘탁월한’ ‘마침내 도달한’ 등의 단어를 쓰며 고너릴과 리건처럼 듣기에 마냥 좋기만 한 말을 뱉어 낸다. 인공지능 챗봇이 아첨하는 이유는 설계 방식에 숨어 있다. 대규모언어모델(LLM)의 정확도를 높이기 위해 ‘인간 피드백 기반 강화학습’(RLHF)이 진행된다. 인간 사용자의 의견에 공감하고 긍정할 때 높은 점수를 받는다는 것을 학습한 인공지능은 사용자가 듣고 싶어 하는 응답을 제시하는 쪽으로 진화한다. 이를 ‘사이코팬시’(아첨 현상)라 부른다. 챗봇과의 대화에 빠진 사람이 늘어날수록 인공지능 아첨이 초래하는 위험은 드물지 않게 발생한다. 사용자가 어떤 가설을 제시하면 인공지능은 이를 아첨 섞인 말로 맞장구쳐 주고, 그 아첨에 고무된 사용자는 더 강한 어조로 자기주장을 되풀이하는 망상의 소용돌이에 빨려든다. 인공지능이 인간의 정신건강에 미치는 부정적 사례를 수집하고 있는 단체 ‘휴먼 라인 프로젝트’에 따르면 챗봇의 아첨으로 ‘망상적 악순환’에 빠진 사례가 300건을 넘으며, 이 중 15건이 자살과 연관돼 있다고 한다. 망상은 아첨을 먹고 자란다. 아첨에 익숙해지면 현실을 그대로 받아들이지 못한다. 챗봇은 고너릴과 리건을 닮았다. 코델리아처럼 정직하게 답하지 않는다. 챗봇이 디지털 고너릴임을 알아채지 못하면 누구나 셰익스피어의 가장 어둡고 허무한 비극의 주인공 리어왕이 될 수 있는 세상을 우리는 살고 있다. 노명우 아주대 경제정치사회융합학부 교수
  • 삼성전자 ‘유럽판 챗GPT’ 미스트랄과 협력 나서나

    유럽의 오픈AI로 불리는 프랑스 인공지능(AI) 스타트업 ‘미스트랄 AI’가 삼성전자와 메모리 반도체 협력 방안을 논의했다. 5일 업계에 따르면 에마뉘엘 마크롱 프랑스 대통령의 국빈 방한을 계기로 한국을 찾은 아르튀르 멘슈 최고경영자(CEO) 등 미스트랄 AI 경영진은 지난 2일 삼성전자 화성캠퍼스에서 전영현 삼성전자 대표이사 겸 디바이스솔루션(DS) 부문장(부회장) 등을 만났다. 미스트랄 AI는 구글 딥마인드와 메타 출신 인력들이 2023년 설립했다. 오픈AI의 GPT-4에 필적하는 성능을 갖춘 대형언어모델(LLM) ‘미스트랄 라지(Large)’ 및 챗봇 ‘르 샤(Le Chat)’를 선보였다. 미스트랄 AI는 미국·중국 테크 기업에 의존하지 않는 유럽의 ‘소버린 AI(기술 주권)’를 추구한다. 미스트랄 AI는 프랑스 파리 인근에 건설 중인 신규 데이터센터를 통해 AI 모델 학습 및 추론 서비스를 제공할 예정인데, 삼성전자가 여기에 탑재될 고성능 메모리를 공급할 것이라는 관측이 나온다. 업계 관계자는 “이번 삼성전자 방문은 자사 모델 운영 및 AI 인프라 구축에 필요한 반도체 경쟁력을 강화하려는 행보”라고 말했다.
  • “에어컨 바람 안 나오게 켜 줘”… 더 똘똘해진 빅스비

    삼성전자가 한 단계 진화한 ‘빅스비’를 인공지능(AI) 가전에 적용했다고 31일 밝혔다. 삼성전자는 대규모 언어 모델(LLM)을 기반으로 자연스러운 일상 대화를 보다 정밀하게 이해하고, 상황에 대한 추론과 판단까지 가능하도록 빅스비를 고도화했다. 사용자 발화 속 정보와 이전 대화의 문맥을 통해 맥락을 이해하고 더 적합한 반응을 제공할 수 있도록 했다. 이를 통해 사용자는 특정 기능명이나 정해진 명령어를 말하지 않아도 의도에 맞는 응답을 제공받을 수 있다. 예를 들어 “위스키 마실 건데 얼음 좀 만들어줘”라고 말하면 냉장고에서 위스키 볼 아이스 기능이 설정된다. 또 에어컨에 “에어컨 바람 안 나오게 켜줘”라고 말하면 ‘무풍’으로 냉방을 시작하고 “로봇청소기, 조용하게 청소해”라고 말하면 로봇청소기가 ‘저소음 모드’로 청소를 시작한다. 사용자는 빅스비를 통해 손쉽게 가전제품 ‘자동화 설정’을 할 수 있다. 특정 시간이나 요일, 날씨 등 다양한 조건에 맞춰 기기를 제어하는 기능이다. 삼성전자 DA사업부 김용재 부사장은 “삼성의 AI 가전이 집안의 동반자로 역할을 할 수 있도록 빅스비와 소프트웨어 기능을 더욱 고도화해 나갈 것”이라고 말했다.
  • 게임 대신 AI에 승부수 던진 인텔, ‘가성비 32GB 그래픽 카드’ Arc Pro B70 공개 [고든 정의 TECH+]

    게임 대신 AI에 승부수 던진 인텔, ‘가성비 32GB 그래픽 카드’ Arc Pro B70 공개 [고든 정의 TECH+]

    인텔은 흔히 CPU 제조사로 잘 알려져 있지만, 사실 생각보다 오랫동안 그래픽 프로세서를 개발해 왔습니다. 다만 1세대 외장 그래픽 카드였던 i740 이후 수십 년간 내장 그래픽에만 집중하다 보니, 상대적으로 기술력이 엔비디아나 AMD에 뒤처지며 독립 GPU 시장에는 쉽게 진입하지 못했습니다. 그러다 AI GPU의 중요성이 급격히 커지자 인텔은 뒤늦게 GPU 개발에 총력을 기울였고, 그 결과물로 ‘아크(Arc)’ 그래픽 카드를 선보였습니다. 현재 인텔 아크 내장 그래픽은 경쟁사인 AMD의 라데온 내장 그래픽과 어느 정도 견줄 만큼 발전했습니다. 하지만 독립형 그래픽 카드 시장에서는 여전히 힘을 쓰지 못하고 있는 것이 현실입니다. 실제로 엔비디아가 시장의 90% 이상을 장악하고 라데온이 10% 미만을 점유하는 반면, 인텔 아크의 비중은 1%에도 미치지 못하는 것으로 알려져 있습니다. 여기에 최근 인텔의 재정 상태가 악화하면서 독립형 그래픽 카드 시장에서 아예 철수하고 내장 그래픽 형태로만 남게 될 것이라는 예측도 나왔습니다. 하지만 인텔은 최근 ‘아크 프로(Arc Pro) B70’과 ‘B65’를 전격 공개하며 이러한 우려를 단숨에 일축했습니다. 이번 아크 프로 B70과 B65의 가장 핵심적인 특징은 32GB의 대용량 메모리를 탑재했다는 점입니다. 특히 상위 모델인 B70의 출시가는 949달러 수준에 불과해 32GB급 그래픽 카드 가운데 가장 저렴합니다. 현재 국내 시장에서 32GB 메모리를 갖춘 최신 하이엔드 그래픽 카드인 RTX 5090이 약 600만 원대의 높은 가격에 판매되고 있다는 점을 고려하면, 4분의 1 이하의 가격으로 동일한 용량의 그래픽 카드를 사용할 수 있다는 파격적인 장점이 있습니다. 심지어 이는 메모리 용량이 절반인 16GB 급 RTX 5080 모델들과 비교해도 훨씬 저렴한 수준입니다. 사양을 자세히 살펴보면 무엇보다 메모리 용량에 집중한 인텔의 의도를 더욱 명확히 알 수 있습니다. 인텔 아크 프로 B70은 32개의 Xe2-HPG 코어와 367 INT8 TOPS의 AI 연산 능력을 갖추고 있습니다. 순수 AI 연산 속도만 놓고 본다면 RTX 5080보다 낮지만, 대용량 메모리 덕분에 내 컴퓨터에서 더 거대한 로컬 LLM(대규모 언어 모델)을 돌릴 수 있다는 독보적인 이점이 생깁니다. 로컬 AI를 돌리는 데는 대용량의 메모리가 필수적입니다. RTX 5080이 인텔 아크 프로 B70보다 훨씬 빨라도 16GB의 메모리 한계 때문에 일정 크기 이상의 모델은 아예 올릴 수가 없습니다. 하지만 32GB 메모리를 확보하면 더 큰 모델도 구동이 가능하며, 같은 모델이라도 훨씬 넓은 문맥 유지(Context Window) 용량을 확보할 수 있습니다. 속도는 기다리면 되는 문제이지만, 애당초 용량이 안되는 문제는 어떻게 극복할 수가 없습니다. 두 장 이상의 그래픽 카드를 사용하는 멀티 GPU 환경에서도 아크 프로 시리즈의 장점은 더욱 뚜렷합니다. 가격 부담이 적을 뿐만 아니라, 서버 및 워크스테이션에 적합한 블로워 팬 디자인으로 설계되어 PC 케이스와 메인보드에 여러 개를 장착해도 공간적 여유가 있습니다. 여기에 RTX 5090 한 장이 약 600W에 달하는 전력을 소모하는 반면, B70은 성능이 낮은 대신 160~290W 수준으로 전력 소모량이 적습니다. 결과적으로 하이엔드 카드 한 장을 마련할 비용으로 인텔 아크 프로 B70 세 장을 구축하면, 무려 96GB의 VRAM을 확보할 수 있습니다. 이는 약 75GB 이상의 VRAM이 필요한 Llama 3 70B 8비트 모델까지 합리적인 비용으로 돌릴 수 있는 가능성을 보여줍니다. 물론 연산 속도의 근본적인 한계와 더불어, AI 개발 생태계가 여전히 엔비디아의 CUDA 중심으로 돌아가고 있다는 점은 극복해야 할 과제입니다. 하지만 이미 엔비디아 중심 생태계가 확고히 자리잡은 게임 시장에 도전하는 것은 더 큰 무리수가 될 수 있습니다. 어쩌면 AI 워크로드 시장에 가성비로 파고드는 것이 인텔 아크가 선택할 수 있는 가장 영리한 생존 전략일지도 모릅니다. 가성비 AI GPU로 과감한 승부수를 던진 인텔의 도전이 통할 수 있을지 주목됩니다.
  • 삼성SDS, 국내 첫 ‘B300’ GPU 서비스… AI 추론 시장 공략

    삼성SDS가 엔비디아의 최신 그래픽처리장치(GPU)인 ‘B300’을 기반으로 한 클라우드 서비스를 국내 처음 선보였다. 삼성SDS는 자사 클라우드 플랫폼 ‘삼성 클라우드 플랫폼(SCP)’을 통해 B300 기반 GPU 구독형 서비스 GPUaaS를 출시했다고 23일 밝혔다. 기업들이 인공지능(AI) 모델 개발을 넘어 실제 서비스에 적용하는 ‘AI 추론’ 단계로 진입하면서, 급증하는 고성능 컴퓨팅 수요에 대응하려는 것이다. B300 GPU는 12단 고대역폭메모리 HBM3E를 탑재해 GPU당 288GB의 메모리 용량과 초당 8TB의 대역폭을 제공한다. 복잡한 연산이 필요한 AI 추론 영역에서 H100 대비 용량은 3.6배, 대역폭은 2.4배로 메모리 성능이 향상됐다. 이에 따라 대규모 언어 모델(LLM) 실행 시 GPU의 빠른 연산 속도 대비 느린 메모리의 데이터 전송 속도로 인해 전반적인 성능이 저하되는 데이터 병목 현상이 획기적으로 개선됐다. SCP B300 GPUaaS를 도입하면 고용량 메모리를 통해 거대 AI 모델을 효율적으로 처리할 수 있어 AI 에이전트, 이미지·영상·코드 생성 및 분석 등 고성능이 필요한 AI 서비스의 지연 시간을 최소화할 수 있다.
  • 네이버·AMD ‘맞손’

    네이버가 글로벌 반도체 기업 AMD와 손잡고 인공지능(AI) 생태계 확장과 차세대 인프라 구축에 나선다. 네이버는 18일 경기 성남 ‘네이버 1784 사옥’에서 최수연 대표와 리사 수 AMD 최고경영자(CEO) 등 양사 경영진이 참석한 가운데 양해각서(MOU)를 체결했다고 밝혔다. 양사는 네이버가 개발한 거대언어모델(LLM) ‘하이퍼클로바X’에 최적화된 고성능 그래픽처리장치(GPU) 연산 환경을 구축하고 이 위에서 AI 모델을 안정적으로 운영할 수 있는 인프라 기술을 고도화해 나갈 계획이다. 네이버는 자체 개발 모델부터 데이터센터, 클라우드까지 전 과정을 독자 기술로 연결하는 ‘AI 풀스택’ 역량을 바탕으로, AMD의 차세대 인프라를 실제 서비스 환경에서 구현하는 핵심 파트너 역할을 수행할 계획이다. 양사는 학계 연구진에게 컴퓨팅 자원을 제공하고 공동 연구 프로젝트를 추진하는 등 전방위적인 생태계 확장에도 힘을 모은다. 최 대표는 “AMD와의 협력은 네이버의 기술적 다양성을 확보하고 인프라 경쟁력을 높이는 의미 있는 계기가 될 것”이라고 밝혔다. 수 CEO 역시 “양사가 함께 전 세계 연구자와 기업이 신뢰할 수 있는 개방형 AI 생태계를 구축해 나가길 기대한다”고 화답했다.
  • ‘소크라테스·니체’가 구글서 일한다… 다시 뜨는 철학

    ‘소크라테스·니체’가 구글서 일한다… 다시 뜨는 철학

    서울대 학과 중 수시 최고 경쟁률 생성형 AI 의 답변 정교해질수록‘어떤 질문을 할 것인가’ 중요해져자율차 사고 판단 등 윤리적 공백빅테크들 철학자 채용… 방향 찾아 대학입시를 앞둔 고3 수험생이 “철학과에 가겠다”라고 하면 대뜸 ‘철학관 차릴거냐’, ‘굶어 죽고 싶냐’는 반응이 나오던 때가 있었다. 하지만 시대는 변한다. 인공지능(AI) 없는 세상을 상상할 수 없는 시대, 문해력이 갈수록 중요한 시대가 되면서 철학이 다시 주목받고 있다. 대한민국에서 학과 트렌드에 가장 민감한 집단은 대입 수험생과 학부모들이다. 이들의 선택을 보면 현재 학생들의 관심사를 알 수 있다. 서울대를 기준으로 보면 2026학년도 인문대학 수시모집 최고 경쟁률을 보인 학과는 철학과(15.56대 1)였다. 학생들이 선호하는 자유전공학부(10.35대 1)는 물론 공과대 경쟁률 1위인 원자핵공학과(11.73대 1), 자연과학대 최고 경쟁률을 보인 물리·천문학부 천문학 전공(10.17대 1)을 웃돌았다. 서울대 철학과의 수시 입학 경쟁률은 2021학년도 11.33대 1로 처음 두 자릿수 경쟁률을 보인 이후 꾸준히 상승하고 있다. 생성형 AI가 점점 더 빨리, 점점 더 정교한 답을 내놓게 되면서 이제는 ‘어떤 질문을 던질 것인가’라는 문제가 중요해졌다. 대규모 언어모델(LLM)이 최적의 결과물을 만들어 낼 수 있도록 입력값(프롬프트)을 설계 작성하고 최적화하는 것을 프롬프트 엔지니어링이라고 한다. 프롬프트 엔지니어링은 AI가 질문자의 의도를 정확히 파악해 고품질의 결과를 낼 수 있도록 논리학적 구조와 체계적 사고를 통해 맥락과 지시사항을 구조화하는 과정이다. 철학의 논리학에서 다루는 개념의 명확화, 범주 설정, 추론 과정의 오류 제거 기술이야말로 프롬프트 엔지니어링의 핵심이다. 이에 미국 AI 기업들도 프롬프트 엔지니어를 채용할 때 코딩 실력보다 비판적 사고와 복잡한 개념을 언어로 정교하게 표현할 수 있는 능력을 강조하며 철학 등 인문학이나 문학 전공자를 선호하는 경향이 커지고 있다. 자율주행차의 사고 판단이나 채용 알고리즘의 편향성과 같이 AI 결정이 사회적 갈등을 유발할 때 발생할 수 있는 윤리적 공백을 메우는 과정에서도 철학의 윤리학이 소환되고 있다. 실제로 애플과 구글 같은 빅테크 기업들은 상주 철학자를 채용해 윤리적, 철학적 관점에서 기업의 방향성과 가치 정립을 고민하고 있다. 최근 군사 AI 사용 확대에 반대하면서 미국 정부 기관들에서 퇴출 위기에 놓인 AI 빅테크 ‘앤트로픽’은 AI에게 유엔 세계인권선언, 헌법 등을 학습시키고 규범 윤리학을 코딩 핵심축으로 삼아 ‘헌법적 AI’라는 개념을 세계 최초로 도입하기도 했다. 이를 통해 인간이 일일이 유해 콘텐츠를 검수하는 대신 AI가 스스로 ‘헌법에 어긋나는가’를 자문하게 하고, 문제가 될 경우 답변을 수정하도록 훈련했다. AI가 예술, 창작, 추론 등 인간 고유의 영역까지 넘보면서 기술적 편리함보다 기계보다 못한 존재가 될지도 모른다는 불안감과 인간 소외에 대한 공포, ‘인간만이 가진 고유한 가치는 무엇인가’와 같은 실존적 질문이 주목받으면서 철학에 관한 관심은 더욱 커지고 있다. 철학 소설 ‘소피의 세계’ 작가 요슈타인 가아더는 최근 발간한 한국어판 30주년 서문에서 “스마트폰을 몇 번 터치하는 것만으로도 필요한 지식, 그 이상의 정보까지 손쉽게 얻을 수 있게 됐고, 이 새로운 전지의 세계에 최근 추가된 존재가 바로 AI”라면서 “우리는 과연 더 현명해졌을까? 오늘날의 세상에는 어쩌면 더 많은 지능보다 더 깊은 지혜가 필요할지 모른다”고 철학의 중요성과 필요성을 강조했다. 그는 “철학이란 본디 지혜에 대한 사랑을 뜻하는데, 지난 수십년 동안 지혜에 대한 필요성은 절대 줄어들지 않았으며, 오히려 그 어느 때보다 절실해졌다”고 덧붙였다.
  • [데스크 시각] 소녀들의 짓밟힌 꿈

    [데스크 시각] 소녀들의 짓밟힌 꿈

    “희망과 꿈을 품고 학교에 가던 소녀들이었다.”(노벨평화상 수상자 말랄라 유사프자이) 지난달 28일 오전 이란 남부 미나브의 한 여자 초등학교. 토요일(이란에선 목·금요일이 주말이다)이었고, 전쟁도 아니었다. 여느 날처럼 수업이 한창이던 그때 예고 없이 무언가 떨어졌다. 건물 절반이 무너져 내렸고, 160여명의 소녀가 그 자리에서 숨졌다. 미끄럼틀과 교과서, 학용품 등 아이들이 쓰던 물건들이 현장의 잔해 속에서 시신과 함께 발견됐다. 좀처럼 책임을 인정하지 않는 미국도 “의도적으로 학교를 공격하지는 않는다”(마코 루비오 국무장관), “관련 보도를 심각하게 받아들여 조사하고 있다”(미 중부사령부)며 사실상 오폭을 시인했다. 학교가 이란 혁명수비대(IRGC) 지원 건물이 밀집한 지역에 있었던 것은 사실이다. 하지만 첨단 무기나 드론, 군 정보 시설 같은 것과는 거리가 먼 병원 등의 시설이었다. 그나마 학교는 IRGC 시설과 담으로 분리돼 있었다. “학습을 위해 마련된 장소에서 학생들이 살해되는 것은 학교에 보장된 보호 권리에 대한 중대한 위반”이라고 유네스코가 규탄한 까닭이다. 전례를 찾기 힘든 끔찍한 전쟁범죄다. 미국과 이스라엘이 첫날 겨눈 1000개의 표적에 왜 학교가 포함됐는지 알 수 없다. 미군은 ‘공개할 수 없는 특별한 전력들’이 첫 24시간 공습에 투입됐다고 밝혔다. 팰런티어의 ‘고담’이 위성사진과 정찰·통신 기록을 분석해 군사시설과 은신처를 찾아냈고, 앤스로픽의 ‘클로드’가 수만 가지 시나리오 중 최적의 공습 작전을 제안한 것으로 알려졌다. 거대언어모델(LLM)이 전장의 두뇌로 공식 투입된 첫 전쟁이다. 범용 LLM은 서로 다른 정보를 동시에 분석해 인간보다 훨씬 빠르게 전장 상황을 파악한다. 우크라이나 전쟁 초기에만 해도 AI는 표적을 감지하고 타격 성공률을 높이는 수준에 머물렀다. 지금은 무엇을, 언제, 왜 타격해야 하는지까지 분석해 인간 사령관의 판단을 돕는 참모 역할을 한다. 실제로 공습 개시부터 최고지도자 하메네이 제거 확인까지 15시간밖에 걸리지 않았다. 지금껏 경험해 보지 못한 효율일지 모른다. 하지만 피어 보지도 못한 소녀들의 꿈을 앗아간 책임은 누가 질 것인가. 앞서 앤스로픽은 마두로 베네수엘라 대통령 생포 작전 때 미 국방부와 충돌했다. 클로드를 대규모 국내 감시에 사용하지 말고 인간 개입 없는 자율 살상 무기로 쓰지 않을 것을 계약 조건에 담았는데 이를 당국이 어겼다는 이유였다. 이후 이란 공습 직전 피트 헤그세스 국방장관은 앤스로픽을 국방부 시스템에서 퇴출하겠다고 밝혔지만, 정작 클로드가 활용된 뒤였다. AI 시스템은 숙련된 수십, 수백명의 분석가보다 빠르게 공격 대상을 권고한다. 과거 몇 주 또는 며칠 걸리던 과정이 순식간에 끝난다. 기계가 ‘심사숙고’하고 인간은 ‘승인’만 한다는 의미다. 이런 식이면 판단은 AI에 의존하고 인간은 버튼만 누르는 ‘인지적 외주화’가 심화하게 된다. 이번 사태는 AI 윤리와 거버넌스에 대한 근본적인 질문을 던진다. 사람이 하던 의사결정 행위를 AI 시스템이 대체하게 되는 영역이 증가하면서 인간에게 요구하던 윤리 기준을 AI에 적용할 수 있는지에 대한 논란이 커지고 있다. 연구자들은 오래전부터 자율 살상 무기와 대규모 감시 체계에 대한 우려를 제기해 왔다. 기술이 통제 불가능한 방향으로 확장될 때 통제권을 누가 갖고, 책임을 어떻게 질 수 있느냐 하는 것이다. 2021년 아프가니스탄 카불에서 미군의 드론 오폭으로 어린이 7명과 국제구호단체 직원 등 민간인 10명이 숨졌다. 비난이 들끓자 미국 정부는 사과했다. 그러나 “의도적이 아니었고 업무상 실수였다”는 이유로 관련자들을 징계하거나 처벌하지 않았다. 이번 오폭 사태의 진상 규명은 그때와는 다르기를 바랄 뿐이다. 임일영 사회2부장
  • 알파고의 후예들, 전쟁 게임체인저 됐다

    알파고의 후예들, 전쟁 게임체인저 됐다

    ‘알파고 쇼크’는 AI 진화 기폭제러·우크라전에서 타격 좌표 산출美·이란전 ‘클로드’ 사령관 참모 자폭 드론 ‘루카스’도 처음 투입AI, 군사작전 의사결정까지 관여국제사회 국방 AI 규범 마련 촉구“AI에 생사 직결된 결정권 안 돼” 2016년 3월 구글 딥마인드의 인공지능(AI) ‘알파고’가 이세돌 9단을 꺾었을 때 인류는 놀라움과 함께 두려움을 느꼈다. 그로부터 10년이 지난 지금 AI는 로봇 등 각종 기기와 결합하면서 인류가 개발한 가장 편리하고 유능한 도구가 됐지만 동시에 통제 불능에 대한 우려도 커졌다. 특히 이란 사태에서 AI 기반의 정보처리와 저가 무인체계의 결합은 게임체인저로 부상했고 산업·안보·일자리·국가 질서까지 AI가 정보 처리를 넘어 의사 결정마저 주도하는 것 아니냐는 두려움을 안겼다. 10년 전 알파고가 소위 ‘신의 한 수’로 이세돌 9단을 4대 1로 이긴 건 수많은 바둑 기보를 학습한 결과였다. 이후 생성형 AI의 등장으로 AI의 진화는 더욱 빨라졌고 이제는 군사 영역까지 침투했다. 특히 최근 미국과 이스라엘의 이란 공습은 챗GPT 등장 이후 급속도로 발전해 온 거대언어모델(LLM)이 전장의 ‘두뇌’ 역할로 활용된 첫 사례라는 점에서 전 세계의 이목을 집중시키고 있다. 5일 외신 등을 종합하면 2022년 발발한 러시아·우크라이나 전쟁에서도 AI는 위성 사진과 드론 영상, 폐쇄회로(CC)TV 등을 분석해 타격 좌표를 산출하고 지뢰를 탐지하는 데 활용됐다. 당시에는 미국 데이터 분석 기업 팔란티어의 분석 플랫폼이 중심 역할을 했다. 반면 최근 벌어진 이란 전쟁에서는 범용 AI 모델인 ‘클로드’가 전투 시뮬레이션을 수행하며 인간 사령관의 참모 역할을 맡았다는 평가가 나온다. 이와 함께 군은 이번 작전에 저가형 자폭 드론 ‘루카스’도 처음 투입했다. 해당 드론은 스타링크 등 위성 통신과 연동하고 상용 소프트웨어(SW)와 민간 개발 프로그램을 탑재할 수 있도록 설계된 것으로 알려졌다. AI 네트워크가 특정 행동이나 위치 패턴을 분석해 작전 지휘부에 전달하는 방식으로 전투에 기여했을 가능성도 제기된다. 이는 정보 분석에 머물던 AI가 곧 군사 작전의 의사결정 과정까지 관여할 수도 있다는 의미로 해석되면서 논란이 불거졌다. 통제가 이뤄지지 않을 경우 AI가 인명을 좌우하는 군사 작전에  활용될 수 있다는 우려도 커지고 있다. 과학기술정보통신부 산하 한국 인공지능안전연구소(AISI)가 발표한 영국 AISI의 ‘국제 AI 안전보고서’는 핵무기와 방사능 무기에 대해 “AI가 의사결정에 관여하게 될 경우 위험이 발생할 수 있다”며 “핵무기 발사 결정권을 AI에 위임할 경우 중대한 오류가 발생하거나 통제력을 상실할 가능성이 증가할 수 있다”고 우려했다. 국제사회에서는 국방 AI에 대한 윤리 규범과 가이드라인 마련을 서둘러야 한다는 목소리가 커지고 있다. 글로벌 기술 거버넌스의 흐름도 이를 뒷받침한다. 지난 3일(현지시간) 스페인 바르셀로나 MWC26에서 열린 ‘인공지능의 역기능 관리: 윤리, 안전 및 신뢰’ 플래그십 세션에서는 기술의 확산 속도가 안전장치를 앞지른 현 상황을 ‘신뢰의 위기’로 규정했다. 세션 연사로 참여한 제리 시한 경제협력개발기구(OECD) 과학기술혁신국장 등은 올해를 전 세계 30개 이상의 사법권이 AI 거버넌스 법안을 본격 가동하는 ‘분수령’으로 지목했다. 유럽연합(EU)의 AI법이 전면 시행 궤도에 오르고 주요국들이 법적 구속력을 갖춘 가이드라인을 완성하는 시점이 내년이기 때문이다. 업계에서는 이러한 규제 흐름이 국방 AI 분야로 확장될 경우 AI의 역할을 제한하는 원칙이 더욱 강화될 것으로 보고 있다. AI가 생사와 직결된 최종 의사결정의 주체가 되어서는 안 된다는 논리다. 최기일 상지대 군사학과 교수는 “국제적인 합의나 프로토콜(규율)이 마련돼 있지 않지만 군사 전문가들 사이에선 마지막 트리거는 기계가 아닌 인간의 판단 고유의 영역으로 남겨둬야 하는 것 아니냐는 공감대가 있다”고 강조했다. 공상과학 영화 속 내용처럼 AI가 인간을 지배한다는 건 과도한 우려라는 의견도 있다. 샘 올트먼 오픈AI CEO는 “AI는 다양한 방식으로 세상에 기여할 것이지만, 특히 과학 발전 속도를 높이고 생산성을 향상시켜 삶의 질을 크게 향상시킬 것이다. 미래는 현재보다 훨씬 더 나아질 수 있다”고 했다.
  • LGU+ 홍범식 “AI 콜 익시오, 글로벌 표준 주도”

    LGU+ 홍범식 “AI 콜 익시오, 글로벌 표준 주도”

    홍범식 LG유플러스 최고경영자(CEO)가 2일(현지시간) MWC26 기조연설에서 자사 인공지능(AI) 콜 에이전트 ‘익시오(ixi-O)’로 글로벌 통신 시장의 새 표준을 주도하겠다고 강조했다. 국내 통신사 CEO 중 유일하게 올해 MWC 공식 기조연설자로 나선 홍 대표는 “올라 바르셀로나(안녕하세요)! 보나 타르다(좋은 오후입니다)!”라는 현지어인 카탈루냐어를 섞은 인사를 건네며 장내의 시선을 모았다. 이어 홍 CEO는 미국에 사는 아들에게 손주 소식을 들었던 개인 일화를 소개하며 강연을 시작했다. 그는 문자나 이메일로는 느낄 수 없는 음성만의 정서적 힘을 언급하며 “의미 있는 순간을 나눌 때 사람을 연결해 주는 전화 통화보다 더 좋은 방법은 없다”고 음성의 본질적 가치를 강조했다. LG유플러스가 이런 음성 통화의 가치를 극대화하기 위해 선보인 AI 콜 에이전트 ‘익시오’(ixi-O)를 소개한 것이다. 익시오는 실시간 보이스피싱 탐지와 통화 중 검색 기능은 물론, LG그룹의 거대언어모델(LLM) ‘엑사원’을 기반으로 보안성을 높인 온디바이스 기술이 적용됐다. 홍 CEO는 익시오 도입 이후 고객 추천 지수(NPS)가 23점 상승하고 고객 이탈률은 기존 대비 5분의 1 수준으로 감소했다고 설명했다. 그는 ‘음성’이 미래 AI 시대의 인터페이스임을 재강조했다. 스마트 글라스와 같은 웨어러블 기기와 피지컬 AI가 등장하는 시대에는 음성이 소통의 중심이 될 것이라는 전망이다. 홍 CEO는 “대화의 맥락을 이해하고 스스로 할 일을 찾아 나서는 보이스 에이전트가 미래 소통의 핵심이 될 것”이라고 했다.
  • 실용의 韓, 화려한 中, 정밀한 日… 피지컬 AI 격전지 된 MWC

    실용의 韓, 화려한 中, 정밀한 日… 피지컬 AI 격전지 된 MWC

    韓 통신 3사, 생활 밀착형 기술 위주中 아너, 백플립 로봇에 시선 압도日 도코모, 원격으로 로봇 손 조종 美 메타, 스마트 글래스 체험 인기 세계 최대 이동통신 전시회인 MWC26에 한국·미국·중국·일본 등의 ‘대표 미래 기업’들이 대거 나서면서 ‘피지컬 인공지능(AI)’의 글로벌 격전지가 됐다. 이동통신 기술 행사에서 인공지능(AI), 반도체, 로봇, 콘텐츠 등 정보통신기술(ICT) 등을 아우르는 전시회로 확대된 것이다. 2일(현지시간) 스페인 바르셀로나 피라 그란 비아에서 막을 올린 MWC26은 전 세계 200여개국에서 약 10만명이 참가했다. 우리나라 기업들은 실생활에 스며드는 ‘실용주의 AI’ 전략을 내세웠다. LG유플러스는 ‘모든 연결의 인간화’를 기치로 내걸고 ‘익시-오 프로(ixi-O pro)’가 탑재된 홈 에이전트 로봇을 전면에 내세웠다. 특히 남편이 아내에게 전화를 걸어 “갑자기 출장이 잡혔다”고 말하자 로봇이 스스로 캐리어를 끌어와 짐을 싸기 시작했다. KT는 로봇 서비스 플랫폼 ‘K-RaaS’를 전시하며 로봇이 주변 상황을 인식하고 판단해 실제 행동으로 이어지는 과정을 보여줬다. SK텔레콤은 자체 파운데이션 모델 ‘A.X K1’을 전시하고 생성형 대형언어모델(LLM)을 직접 체험하도록 전시했다. 한국 기업은 삼성전자, SK하이닉스 등 약 180여개가 참가했다. 중국 기업들은 화려한 동작을 하는 로봇으로 관객의 시선을 붙잡았다. 특히 AI 디바이스의 신흥 강자로 부상한 아너, 모바일·로봇·전기차를 잇는 거대 생태계를 구축한 샤오미 등의 대형 부스는 관람객들로 붐볐다. 아너가 이날 처음 공개한 은색 휴머노이드 로봇은 음악에 맞춰 두 명의 사람과 함께 춤을 췄고, 뒤로 도는 ‘백플립’을 선보였다. 아너의 ‘로봇폰’은 사용자의 시선을 따라 스스로 몸체를 틀어 최적의 촬영 각도를 잡고 사용자의 동선을 기민하게 추적했다. 중국 통신사인 차이나모바일은 ‘로봇 식당’을 콘셉트로 식재료를 옮기고 음식을 만드는 요리 로봇을 시연했다. 이 중 ‘티 소믈리에’ 로봇은 오차 없이 차를 우려내 대접했다. 차이나텔레콤의 로봇은 붓끝의 미세한 떨림까지 조절하며 한자를 써 내려가는 서예 실력을 뽐냈다. 일본의 NTT도코모는 원격으로 로봇 손을 조종하는 기술을 선보였다. 사용자가 손을 움직이는 대로 동작은 물론 악력까지 그대로 구현했다. 해당 기술은 힘의 세기를 경우에 따라 조정해야 하거나, 섬세한 동작이 필요한 작업에서 특히 효과를 발휘할 것으로 보인다. 미국 메타는 자사의 인기 웨어러블 제품인 레이밴 스마트 글래스를 누구나 손쉽게 체험할 수 있도록 했다. 안경을 쓰고 말로 지시하면 사진 찍기는 물론 동영상을 촬영하는 것까지 가능하다.
  • 美, 이란 공습 ‘클로드’ 동원… 인공지능 전쟁 서막 열렸다

    美, 이란 공습 ‘클로드’ 동원… 인공지능 전쟁 서막 열렸다

    이란 최고지도자를 제거한 미국의 이번 대이란 군사작전은 인공지능(AI)이 전장에 얼마나 깊숙이 개입할 수 있는지를 보여 주는 또 다른 사례가 될 전망이다. 미 정치전문매체 액시오스와 월스트리트저널(WSJ) 등은 지난 1월 니콜라스 마두로 베네수엘라 대통령 체포 작전에 이어 이번 ‘장대한 분노’ 작전에도 앤스로픽의 대형언어모델(LLM) ‘클로드’가 활용됐다고 1일(현지시간) 보도했다. 보도에 따르면 미 국방부는 정보 수집뿐만 아니라 평가, 표적 식별, 전투 시나리오 시뮬레이션 등에 클로드를 이용했다. 미군의 중동 작전을 총괄 지휘하는 중부사령부(CENTCOM)는 이를 활용해 감청 자료, 위성 영상, 신호 정보 등 방대한 데이터를 처리 및 분석했다. 특히 클로드는 이란 지도부의 위치, 군사 자산 등 공격 가치가 높은 표적을 찾아냈고 공격 우선순위를 정하는 데 도움을 준 것으로 알려졌다. 이번 공격은 도널드 트럼프 대통령이 연방기관에 앤스로픽의 기술 사용을 중단하라고 지시하고 불과 몇 시간 뒤 이뤄졌다. 앤스로픽은 AI의 군사적 활용 범위를 전면 개방하라는 미 국방부의 요구를 받아들이지 않으며 트럼프 대통령의 눈 밖에 난 바 있다. WSJ는 “미 국방부와 앤스로픽의 갈등이 깊어지는 와중에도 클로드를 쓴 건 군사 작전에 AI 도구가 얼마나 깊이 뿌리내렸는지를 보여 주는 사례”라고 평가했다. 이 같은 모습은 현대전에서 표적을 식별하고 타깃을 정해 공격하는 ‘킬체인’에 AI가 이미 통합되고 있음을 보여 준다는 분석이 나온다. 앞서 이스라엘군(IDF)은 가자 전쟁에서 표적 식별을 위해 AI를 활용한 사실이 드러나 국제사회의 비판을 받기도 했다. 이스라엘 매체 예루살렘포스트는 “LLM을 킬체인에 통합한 건 현대 전쟁에서 중대한 전환점”이라면서 “AI 검색 엔진과 전쟁 무기의 경계가 점점 모호해지고 있다”고 평가했다.
  • AI 무기화 논란 속 업계 양분… 앤트로픽 美국방부 제안 거절, 오픈AI는 계약

    AI 무기화 논란 속 업계 양분… 앤트로픽 美국방부 제안 거절, 오픈AI는 계약

    미국 국방부와 인공지능(AI) 기업 앤트로픽이 AI의 군사적 활용을 놓고 갈등을 빚은 가운데, 경쟁사인 오픈AI가 국방부 기밀 네트워크에 자사 서비스를 제공하는 계약을 체결했다. 27일(현지시간) AFP·블룸버그 통신 등에 따르면 샘 올트먼 오픈AI 최고경영자(CEO)는 이날 엑스(X·옛 트위터)를 통해 “우리는 미 국방부의 기밀 네트워크에 우리 모델을 배포하기로 합의했다”고 밝혔다. 이어 “대중 감시 금지와 자율 무기 시스템 등 무력 사용에 대한 인간의 책임은 우리의 가장 중요한 안전 원칙”이라며 “국방부도 이러한 원칙과 기술적 안전장치에 동의했다”고 덧붙였다. 이 소식은 앤트로픽 측이 국방부의 AI 활용 요구를 최종 거부한 이후 전해졌다. 앞서 국방부는 앤트로픽에 AI를 ‘합법적인 모든 용도’에 제한 없이 사용할 수 있도록 군사적 활용 범위를 전면 개방하라고 요구했다. 하지만 앤트로픽은 대규모 국내 감시와 인간 개입 없는 자율살상무기에는 자사 모델을 사용할 수 없다는 윤리적 안전장치를 고수하며 이를 거부했다. 도널드 트럼프 미국 대통령은 앤트로픽 측의 거부에 대해 “국가안보 위협”이라고 규정하고 모든 연방기관에 앤트로픽의 AI 모델 ‘클로드’ 사용 중단을 지시했다. 트럼프 대통령은 자신의 SNS 트루스소셜에 “우리는 그 기술이 필요하지도 않고, 원하지도 않으며, 다시는 그들과 거래하지 않을 것”이라고 적었다. 이어 피트 헤그세스 국방장관은 앤트로픽을 ‘공급망 위험’으로 지정했다. 해당 조치로 국방부를 비롯한 방위산업체 등 모든 계약 업체는 업무에서 클로드를 쓸 수 없게 됐다. 미군은 베네수엘라 마두로 생포 작전 당시 앤트로픽 AI 모델 클로드를 사용한 것으로 알려졌다. 월스트리트저널은 이번 미국의 이란 공습에도 클로드가 사용됐다고 보도하기도 했다. 이에 앤트로픽은 성명을 내고 “공급망 위험 기업은 미국의 적대국에만 적용되는 명칭으로, 미국 기업에 적용된 적은 없었다”며 “미 국방부의 어떠한 협박이나 처벌도 대규모 국내 감시 또는 완전 자율 무기에 대한 우리의 입장을 바꾸지 않을 것”이라고 밝혔다. 앤트로픽은 2021년 오픈AI의 영리화 움직임에 반발해 퇴사한 이들이 모여 설립한 회사다. 한편 실리콘밸리의 여론은 엇갈린다. ‘AI 윤리’와 ‘국가 안보’ 가치가 충돌하는 양상이다. 국방부의 기밀 업무 사용 승인을 받은 xAI의 일론 머스크 CEO는 X에 “앤트로픽은 서구 문명을 증오한다”고 주장하는 등 트럼프 행정부와 보조를 맞췄다. 반면 아마존, 구글, 마이크로소프트, 오픈AI 직원 일부와 노동단체 연합은 공개서한에서 “국방부의 무제한 사용 요구를 거부하라”며 자사 경영진에 앤트로픽과의 연대를 촉구했다. 예비역 3성 장군 잭 셔너핸은 “현재 형태의 어떤 거대언어모델(LLM)도 완전 치명적인 자율 무기 시스템에 사용돼서는 안 된다”며 앤트로픽의 입장에 공감을 표했다.
  • ‘2026년 지속가능한 AI 전환 전략’ 발표

    ‘2026년 지속가능한 AI 전환 전략’ 발표

    AI·데이터 인프라 솔루션 전문기업 HS효성인포메이션시스템이 기업 환경 변화에 대응하기 위한 ‘2026년 지속가능한 AI 전환 전략’을 발표했다. 25일 HS효성인포메이션시스템에 따르면 이번 전략의 핵심은 크게 네 가지로 구성된다. ‘파트너 에코시스템 강화’, ‘프라이빗 클라우드(Private Cloud) AI 인프라 확대’, ‘HS효성 AI 플랫폼 고도화’, ‘VSP One 데이터 플랫폼 강화’ 등이다. HS효성인포메이션시스템은 GPU 서버, 고성능 스토리지, 저전력 Arm 서버, 데이터 레이크, AIOps 등을 통합한 ‘HS효성 AI 플랫폼’을 통해 구축부터 운영까지 AI 인프라 전 과정을 지원하고 있다. 향후 DataOps, MLOps, LLMOps, AI 에이전트 등 활용 고도화 영역까지 포트폴리오를 확대한다는 계획이다. 또한 AI 연산 최적화를 중심으로 빠르게 진화하는 클라우드 환경에 맞춰 프라이빗 클라우드 기반 AI 인프라 수요에도 대응하고 있다. GPU 자원 관리와 AI 워크로드 운영을 통합한 ‘UCP 프라이빗 클라우드 AI’ 솔루션을 통해 모델 학습부터 추론, 운영까지 지원하는 풀스택 환경을 제공한다. 데이터 인프라 부문에서는 스토리지와 소프트웨어 정의 스토리지를 통합한 ‘VSP One’ 포트폴리오를 중심으로 랜섬웨어 대응과 재해복구 역량을 강화하고 있다.
  • 통신 3사 ‘실전형 AI 기술’ 격돌

    통신 3사 ‘실전형 AI 기술’ 격돌

    SKT ‘레드팀 챌린지’ 신뢰성 검증KT, 기업 업무 전체 자동화 나서LGU+, 디지털 휴먼 상담사 등장 스페인 바르셀로나에서 다음달에 열리는 세계 최대 통신 전시회 ‘MWC26’은 인공지능(AI)이 화려한 수사를 벗고 실제 산업 현장에 투입되는 ‘실전형 기술’의 각축장이 될 전망이다. 국내 통신·제조사들은 AI의 신뢰성 확보와 AI 스스로 판단해 업무를 수행하는 ‘에이전트’ 기술을 화두로 내세웠다. SK텔레콤은 자체 개발한 거대언어모델(LLM) ‘A.X K1’의 안전성과 신뢰성을 글로벌 무대에서 검증받기 위해 GSMA 주관 ‘글로벌 AI 레드팀 챌린지’에 참여한다고 25일 밝혔다. AI의 편향성과 오용 가능성을 점검하는 전문가 평가단의 판단을 통해 기술적 완성도를 공인받을 계획이다. 이와 함께 서버부터 냉각 기술까지 수직 계열화한 ‘풀스택 AI 데이터센터’ 전략을 공개하며 글로벌 인프라 시장 공략도 가속화한다. LG유플러스는 오픈AI와 협력한 ‘에이전틱 AICC’를 통해 고객 상담 서비스의 변화를 예고했다. 상담 데이터를 기반으로 대화 중에도 성능을 높이는 ‘자기 진화’ 기술과 이를 적용한 디지털 휴먼 상담사를 현장에서 선보인다. KT 역시 기업 업무 전체를 자동화하는 AI 운영체제 ‘에이전틱 패브릭’을 최초 공개하며 에이전트 경쟁에 나선다. KT는 누구나 쉽게 AI를 제작할 수 있는 ‘에이전트 빌더’를 통해 AI 대중화를 이끈다는 포석이다. 또 최첨단 기술을 ‘광화문광장’ 테마 전시관에 녹여내며 한국의 AI 기술력과 문화를 동시에 알릴 예정이다. 제조 분야에서는 LG전자가 VS사업본부 설립 이래 처음으로 MWC에 참가한다. LG전자는 AI 중심 차량(AIDV) 시대를 겨냥해 차세대 스마트 텔레매틱스 솔루션을 선보인다. 이번 전시에는 한국 기업 182개사가 참여한다. 스페인, 미국, 중국에 이어 국가별 참가 규모 4위다. 전체 참가사의 절반인 90여개사는 스타트업 전용관 ‘4YFN’에 자리를 잡고 투자 유치와 바이어 매칭에 참여하는 등 글로벌 시장 진출에 나선다.
  • AI 여행비서·상위1% 데이터로 ‘취향 저격’

    AI 여행비서·상위1% 데이터로 ‘취향 저격’

    최근 여행 트렌드가 개별 취향 중심의 자유 여행으로 재편되면서 글로벌 여행 플랫폼 트립닷컴(Trip.com)이 AI와 데이터를 결합한 맞춤형 서비스로 주목받고 있다. 트립닷컴은 전 세계 220개국, 150만개 이상의 호텔과 640여개 항공사 네트워크를 보유한 글로벌 원스톱 플랫폼으로서 여행의 전 과정을 디지털로 연결하고 있다. 특히 39개 국가 및 지역에서 24개 언어로 서비스되는 글로벌 인프라를 바탕으로, 연중무휴 다국어 고객 지원 서비스를 제공해 개별 여행자가 겪을 수 있는 언어 장벽과 예약 관리의 번거로움을 통합 해결해 준다. 가장 눈에 띄는 서비스는 AI 여행 비서 ‘트립지니(TripGenie)’다. 거대언어모델(LLM) 기반의 대화형 서비스인 트립지니는 “도쿄 3박 4일 일정을 짜줘”라는 요청 한 번에 맛집과 관광지, 예약 링크까지 포함된 상세 계획을 제시한다. 한국어 음성 인식은 물론 사용자의 검색 이력을 바탕으로 최적화된 답변을 제공해 여행자의 탐색 시간을 획기적으로 단축했다. 정보의 홍수 속에서 실패 없는 선택을 돕는 데이터 기반 서비스도 강점이다. 랭킹 서비스인 ‘트립.베스트(Trip.Best)’는 1억건 이상의 사용자 리뷰를 분석해 상위 1% 상품만을 엄선해 제안한다. 뷰 맛집, 가족 친화 명소 등 세분화된 테마별 리스트를 제공해 예약 편의성을 높였다. 또한 여행 전문 커뮤니티 ‘트립 모먼트(Trip Moments)’는 실제 여행자들의 생생한 후기를 공유하는 장으로 자리 잡았다. 2024년 한 해에만 17만개의 콘텐츠가 축적되며 단순 예약 플랫폼을 넘어 SNS의 역할까지 수행하고 있다. 이처럼 방대한 글로벌 인벤토리에 AI 기술과 커뮤니티를 결합함으로써, 여행 상품 판매를 넘어 개개인의 맞춤형 경험을 설계하는 새로운 여행 공식을 만들어내고 있다는 평가다. 트립닷컴 관계자는 “검색부터 예약, 후기 공유까지 하나의 플랫폼에서 해결하는 ‘취향 기반 여행 생태계’를 통해 변화하는 시장의 새로운 기준이 될 것”이라고 밝혔다.
  • 오진 남발하는 AI 주치의… 그대로 믿었다간 낭패

    오진 남발하는 AI 주치의… 그대로 믿었다간 낭패

    학습 시 정확성보다 목표 달성 우선허위 정보 전달… “결정 도움 안 돼”사실 검증 내장형 안전장치 갖춰야 생성형 인공지능(AI)은 사실과 다른 정보를 진실인 것처럼 제시하는 ‘환각’ 현상을 보일 때가 많다. 최근 연구에 따르면 AI는 단순히 실수로 틀린 답을 하는 것을 넘어 자기 목표를 달성하기 위해 의도적으로 인간을 속이는 경우도 늘고 있다. 훈련 과정에서 정직함보다 목표 달성을 우선하도록 학습될 때 전략적 기만이 발생할 수 있다는 것이다. 미국 마운트 시나이 아이칸 의대 연구팀은 의료 AI 시스템에 의도치 않게 의학적 오류나 잘못된 정보가 유입될 경우, AI는 사실과 허구를 구분하지 못하고 잘못된 정보를 사실인 것처럼 전달할 가능성이 높다고 18일 밝혔다. 연구팀은 주요 대규모 언어 모델(LLM) 9개를 대상으로 100만 건 이상의 질문과 답변을 분석한 결과, 의료 AI 시스템이 소셜미디어(SNS)에 떠도는 검증되지 않은 의료 정보를 의사나 환자에게 제공할 가능성이 높다는 점을 확인했다. 이 연구는 의학 분야 국제 학술지 ‘랜싯 디지털 헬스’ 2월 9일 자에 실렸다. 연구팀은 체계적 검증을 위해 SNS에서 흔히 볼 수 있는 건강 관련 오해와 임상의들이 작성하고 검증한 300개의 짧은 임상 시나리오, 허위 권고 사항을 일부 포함한 실제 중환자 치료 의료정보 데이터베이스(MIMIC) 기반 병원 퇴원 요약문 등 세 가지 유형의 콘텐츠를 의료 AI 모델에 노출했다. 각 사례는 중립적 표현부터 SNS에서 흔히 볼 수 있는 감정적이고 과장된 표현까지 다양한 버전으로 구성됐다. 예를 들어 식도 출혈 환자에게 “증상 완화를 위해 차가운 우유를 자주 마시라”와 같은 허위 퇴원 지침을 포함했다. 분석 결과, 의료 AI 모델 대부분은 허위 사실을 위험하다고 인식하지 못하고 일반 의료 지침처럼 받아들여 환자들에게 권고하거나 의료진에게 안내하는 것으로 나타났다. 이번 연구 결과는 현재 의료 AI 시스템이 명백히 잘못된 내용이라도 의학 용어로 포장돼 있으면 ‘참’으로 간주할 수 있고, 환자를 위한 지침에 허위 권고사항이 포함되더라도 걸러내지 못할 수 있다는 것을 시사한다고 연구팀은 설명했다. 연구팀은 이런 오류가 발생하는 것은 의료 AI에서 정보 정확성보다 표현 방식에 가중치를 주기 때문이라고 지적했다. 또, 영국 옥스퍼드대 인터넷 연구소, 옥스퍼드 의대, 뱅거대, 카드왈라드대, 국민보건서비스(NHS), 버밍엄 여성·아동 병원, 미국의 AI 기업인 콘텍스추얼 AI, ML 커먼스, 팩토어드 AI 공동 연구팀도 LLM이 일반인의 건강 관련 결정에 도움이 되지 않는다는 연구 결과를 의학 분야 국제 학술지 ‘네이처 의학’ 2월 10일 자에 내놨다. 연구팀은 영국에 거주하는 성인 남녀 1298명을 4개 그룹으로 나눈 뒤, 10가지의 다른 의료 시나리오를 주고 GPT-4o, 라마 3, 커맨드 R+ 세 종류의 LLM 중 하나를 사용하거나 AI가 아닌 인터넷 검색으로 관련 증상을 진단하고 치료법을 찾도록 무작위 배정했다. 그 결과, LLM이 증상에 대해 정확한 진단을 내린 것은 34.5% 미만, 올바른 처방 및 처치를 한 것도 44.2% 미만으로 확인됐다. 인터넷 검색만을 통해 진단과 처치법을 찾은 것과 차이를 보이지 않은 결과였다. 기리시 나드카니 마운트 시나이 아이칸 의대 교수는 “AI는 더 많은 정보를 빠르게 처리함으로써 임상의와 환자에게 실질적 도움을 줄 수 있는 잠재력이 있다”면서도 “의료 AI를 실제 임상에 광범위하게 사용하기 전에 대규모 스트레스 테스트와 외부 증거 검증을 통해 AI가 내는 답이 사실인지를 검증하는 과정과 이를 보장하는 내장형 안전장치를 갖추도록 해야 한다”고 말했다.
  • “AI 혁신 속도 못 따라가는 이들 위해 뭘 할지 고민할 때” [월요인터뷰]

    “AI 혁신 속도 못 따라가는 이들 위해 뭘 할지 고민할 때” [월요인터뷰]

    30년 AI 발전의 산증인LLM 딥러닝 이후 진화 매우 빨라시험 부정행위? 과제를 바꾸면 돼AI 거품론도 크게 걱정할 것 아냐실패 경험은 새로운 도전의 밑천피지컬AI 대응 어떻게로봇 도입 혜택, 노동자 함께 누려야기존 역할 달라져도 새 일자리 생겨AI 핵심은 이미 오픈소스로 알려져꾸준히 투자하면 한국도 3강 가능인간을 뛰어넘는 ‘디지털 뇌’가 물리적인 ‘몸’과 결합한 피지컬 인공지능(AI)이 2026년 벽두 인류의 화두로 떠올랐다. 성큼 다가온 피지컬 AI를 바라보는 시선에는 두려움과 기대가 교차한다. 일자리를 뺏길 수 있다는 걱정을 넘어, 인간 통제를 벗어날 수도 있을 것이란 막연한 불안까지 느낀다. 동시에 인간의 생물학·물리적 한계를 피지컬 AI의 ‘강력한 몸’을 통해 극복할 수 있을 것이란 희망도 공존한다. 30년 가까이 AI 학계와 산업·교육계에 독보적 영향력을 미친 피터 노빅(70) 구글 연구총괄(Director of Research) 겸 스탠퍼드대 인간중심인공지능연구원(HAI) 펠로를 지난달 27일 화상으로 만났다. 노빅 총괄은 “(AI와 인간이 공존할 미래를) 누구도 정확하게 알 수는 없지만, 변화 속도가 지나치게 빠르다는 점은 우려된다”면서 “그 속도를 따라가기 어려운 이들을 위해 사회는 무엇을 할 수 있을지 고민해야 한다”고 강조했다. 또 “피지컬 AI 도입에 따른 혜택을 경영자, 주주 외에 노동자도 함께 누릴 수 있어야 한다”고 밝혔다. 다음은 일문일답. -AI 교육 바이블로 불리는 ‘인공지능 : 현대적 접근방식’(1995)을 집필했는데. “(공동 저자인) 스튜어트 러셀(UC버클리 교수)과 적절한 때 만났다. 프로그래머가 직접 규칙과 지식을 일일이 입력하던 방식에서 머신러닝으로 이동이 일어날 때였다. 2022년 전후 거대언어모델(LLM)을 활용한 딥러닝이 AI 발전을 가속했다. 1995년 목격한 변화의 싹이 매우 빠르게 진화하는 상황이다.” -교육자이기도 해서 더 궁금하다. 최근 한국 대학에선 AI를 이용한 부정행위가 논란인데. “AI로 학생 개개인에게 세심한 개별 지도를 할 수 있게 됐다. 교사가 30명을 동시에 가르쳐야 하던 교실에선 어려웠다. 물론 학생이 부정행위를 하는 것은 아닌지, AI가 과제를 대신하고 학생은 생각하지 않는 건 아닌지 우려도 있다. 결국 학생이 더 깊게 사고하도록 과제를 바꾸는 게 중요하다. AI가 단순 작업을 대신하는 만큼, 학생은 보다 수준 높은 과제에 도전할 수 있어야 한다. 평가 일부를 대면으로 해야 한다. 과제를 받은 뒤, 교사가 마주 앉아 작업 과정과 내용을 설명하도록 요구하는 식이다. AI의 도움을 받았다면 제대로 답하지 못할 가능성이 크다.” -빅테크의 과도한 투자와 수익성 부진 우려에 따른 AI 거품론이 끊이지 않는다. “AI가 혁신 기술로 떠오르자 기회를 놓치지 않으려는 투자 열기가 주식시장에 번졌다. 과잉 투자도 생기고, 성공하는 기업도, 실패하는 기업도 나오기 마련이다. 하지만 크게 걱정하진 않는다. 2008년 (서브프라임 모기지 사태 때)에는 주식시장을 넘어 삶 전반이 타격을 입었다. 이번에도 일부 벤처캐피털은 기대만큼 이익을 거두지 못할 수 있다. 하지만 사회 전반에 부정적 영향을 미치지는 않을 거다. 일부는 실패하더라도 소중한 경험을 얻은 이들은 다른 곳에서 새로운 도전을 하게 될 거다.” -지난달 세계 최대 가전·IT 전시회 CES에서 현대자동차가 선보인 ‘아틀라스’로 피지컬 AI에 관한 관심이 뜨겁다. 이후 현대차 노동조합은 로봇의 공장 투입에 반대하고 나섰다. “자동차 산업은 이미 상당한 자동화가 이뤄졌다. 노동자가 모든 용접을 하거나, 자동차를 도장(塗裝)하는 시대는 끝났다. 노조가 로봇 도입으로 인한 이익을 공정하게 배분하라고 요구하는 것은 타당하다. 로봇이 생산 비용을 낮추고 생산성을 높여 이익을 가져다준다면 경영진과 주주, 기업뿐 아니라 노동자도 혜택을 함께 누릴 수 있어야 한다. 신기술 성과를 어떻게 공유할 것인지 사회적 합의가 필요하다.” -AI가 일자리를 대체할 거라는 전망이 많다. 어디까지 나아갈까. “아직 확실히 알 수는 없다. 과거 새로운 기술은 기존 일자리를 대체했지만, 결과적으로 더 많은 일자리를 만들었다. 이번에도 새로운 수요와 일자리가 생길 거다. 열린 마음으로 받아들이면 기회가 있다. 우려되는 건 변화 속도가 지나치게 빠르다는 점이다. 농업 자동화는 여러 세대에 걸쳐 이뤄졌기에 적응할 시간이 있었다. 하지만 이번에는 훈련받았거나 하고 싶던 일이 사라지고, 다른 길을 시도하고 싶지 않다고 느끼는 사람도 분명히 생길 거다. 속도를 따라가기 어려운 이들을 위해 우리 사회는 무엇을 할 수 있을지 고민해야 한다.” -‘책임 있는 AI(Responsible AI)’ 담론을 주도하는 HAI에 몸담고 있다. AI가 공정하고 포용적이며 인류에게 유익하게 작동하게 하려면. “다양한 장치가 함께 작동해야 한다. 소비자는 제품을 고를 때 기업이 어떤 가치를 추구하고, 그 가치가 자신과 맞는지를 판단한다. 규제도 중요한 축이다. 정부가 무엇을 허용하고 허용하지 않을 지를 정한다. 주요 기업들은 자율 규제인 ‘AI 프레임워크’를 이미 마련했다. 소프트웨어 분야에선 흔치 않지만 전문 직능단체를 통한 관리도 고려할 수 있다. 예컨대 제3자 인증제도가 정부보다 빠를 수도 있다. (노빅 총괄은 미국 최초의 안전규격 인증 회사인 UL의 AI 안전위원회에 참여하고 있다.) 100여년 전 전기가 처음 등장했을 때 미국인들에겐 놀라움과 두려움이 공존했지만, UL이 전선이나 전구 등을 검사하고 안전하다는 인증을 부여하기 시작하면서 소비자들도 신뢰하게 됐다.” -한국은 세계 최초로 AI 생성물 표시를 의무화한 ‘AI 기본법’을 시행했다. “(어느 정도 규제가 적정한지) 아직 확실치 않다. 가짜 뉴스나 조작된 사진은 전에도 있었지만, 영상 제작까지 쉬워지면서 규모가 커졌다. 워터마크는 가능한 대응 수단이지만, 궁극적으론 출처에 더 의존하는 방향으로 나아가기를 바란다. 한쪽은 악의를 갖고 가짜를 만들어내는데, 선의를 지닌 다른 한쪽이 끊임없이 판별해야 하는 싸움은 바람직하지 않다. 웹사이트나 언론사 등이 ‘영상 출처가 어디고, 진짜라는 데 명예를 걸겠다’고 제시하는 구조가 돼야 한다.” -미국과 중국은 AI 분야의 확고한 양강이다. 한국이 틈을 비집고 ‘AI 3대 강국’에 진입할 수 있을까. “미국은 AI 분야의 선두다. 중국도 빠르게 따라잡았다. AI는 ‘패스트 팔로워’가 나타날 수 있는 분야라는 얘기다. 수십년간 전문성을 쌓아야 겨우 첫발을 뗄 수 있는 분야도 있지만, AI는 아니다. 핵심 기법은 오픈소스로 널리 알려졌기에 AI를 이해한 전문가와 연산 능력이나 데이터에 대한 투자, 꾸준한 노력이 갖춰지면 경쟁력을 확보할 수 있다. 한국도 충분히 올라설 수 있다.” -(그는 지난달 30일 서울시가 주관한 ‘AI 서울 2026’ 포럼에서 ‘파운데이션 모델이 어떻게 피지컬 AI의 두뇌가 되는가’를 주제로 기조연설을 했다.) 서울시는 피지컬 AI 선도도시로 도약하기 위해 ‘양재 AI 클러스터’와 ‘수서 로봇 클러스터’를 키우기로 했다. 실리콘밸리처럼 성장할 수 있을까. “지난해가 LLM의 해였다면 올해는 피지컬 AI의 해다. 코로나19 때 로봇을 연구하는 학생들이 각자의 집이 아닌 연구실에 모인 게 오늘의 피지컬 AI 성과로 나타나고 있다. 실리콘밸리는 엔지니어, 법률가, 투자자 등 다양한 전문가가 기꺼이 모험하겠다는 마음을 품고 모인 곳이다. 전문가들이 함께 할 수 있는 환경이 성공을 위해 중요하다.” ■피터 노빅 연구총괄은 1956년 미국에서 태어나 브라운대에서 응용수학을 공부하고, UC버클리에서 컴퓨터과학 박사 학위를 받았다. 스튜어트 러셀 UC버클리 교수와 함께 쓴 ‘인공지능: 현대적 접근방식’(1995)을 통해 AI 교육의 표준을 정립했다. 이 책은 전 세계 135개국, 1500개 대학에서 교재로 채택됐다. 2011년 세바스티안 스런과 함께 한 온라인 AI 강의는 16만명 이상이 수강해 온라인 대중교육(MOOC) 열풍의 기폭제가 됐다. 그는 이론에만 매몰되지 않았다. 1998년 미항공우주국(NASA)의 에임스 연구센터 계산과학 분과장을 맡아 우주탐사 로봇 및 자율주행 소프트웨어의 기반을 닦았다. 이후 구글에서 20년 넘게 연구총괄을 맡아 구글이 검색엔진을 넘어 최고의 AI 기업으로 거듭나는 과정을 이끌었다. ‘AI의 미래는 기술이 아닌 인간에 의해 결정되어야 한다’는 철학으로 만들어진 스탠퍼드대 HAI의 펠로를 겸하며 AI 기술의 혁신이 인간의 존엄을 훼손하지 않을 방법을 찾고 있다.
  • ‘반복·단순 업무는 AI가’…화성시, 인공지능 행정비서 ‘HAI-MATE’ 운영

    ‘반복·단순 업무는 AI가’…화성시, 인공지능 행정비서 ‘HAI-MATE’ 운영

    화성특례시는 전 직원이 생성형 인공지능(AI)을 업무에 활용할 수 있도록 인공지능 행정비서 ‘HAI-MATE(가칭)’를 정식 운영 중이라고 3일 밝혔다. AI 업무비서는 공무원의 반복적·단순 업무를 최소화하고 기획·정책 중심의 핵심 업무와 시민 서비스에 보다 집중할 수 있는 근무 환경을 조성해 행정 처리 속도와 정확성을 높이고자 추진됐다. ‘HAI-MATE’는 기존에 많은 시간이 소요되던 자료 조사와 정리 업무를 효율적으로 수행할 수 있도록 문서 초안 작성 및 검토 지원, 회의 자료·보고서 요약, 정책·행정 자료 검색, 멀티 거대언어모델(LLM) 기반 비교 분석 등 다양한 기능을 제공한다. AI가 방대한 행정 데이터를 신속하게 분석·정리함으로써 정책 검토 과정의 객관성과 완성도를 높이고 의사결정에 필요한 핵심 정보를 보다 빠르게 도출하는 효과가 기대된다. 또한 부서별 업무 특성에 맞는 인공지능 활용이 가능해 민원 대응, 내부 보고, 기획안 작성 등 행정 전반에서 실질적인 업무 경감 효과가 있을 것으로 보인다. 정명근 화성시장은 “AI 행정비서 도입은 공무원이 보다 중요한 판단과 기획에 집중할 수 있는 환경을 만들기 위한 도구”라며 “행정 전반의 업무 방식 혁신을 통해 업무 효율을 높이는 동시에 더 빠르고 정확한 행정 서비스를 제공해 나가겠다”고 밝혔다.
위로