찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • GPU
    2026-01-24
    검색기록 지우기
  • CHIP
    2026-01-24
    검색기록 지우기
  • CNN
    2026-01-24
    검색기록 지우기
  • ASEAN
    2026-01-24
    검색기록 지우기
  • 12
    2026-01-24
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
791
  • 서울과기대, ‘슈퍼컴퓨터 데이터센터’ 개소식… “챗GPT 분야 글로벌 인재 양성”

    서울과기대, ‘슈퍼컴퓨터 데이터센터’ 개소식… “챗GPT 분야 글로벌 인재 양성”

    서울과학기술대학교가 지난해 12월말 서울 공릉동 교내에 ‘슈퍼컴퓨터 데이터센터’를 구축하고, 사전 테스트 기간을 거쳐 최근 개소식을 했다고 10일 밝혔다. 서울과기대는 2021년 인공지능응용학과를 개설한 뒤 이번 슈퍼컴퓨터 데이터센터 구축을 위해 교육부와 함께 40억 9000만원의 실험·실습 기자재 확충사업 예산을 투입했다. 완성된 서울과기대 슈퍼컴퓨터 데이터센터는 초거대 AI 챗GPT 분야 글로벌 최고 인재교육 양성을 선도하는 핵심 인프라로 활용될 예정이다. 슈퍼컴퓨터 데이터센터에는 OpenAI가 챗GPT의 학습에 사용한 것과 같은 GPU 모델인 엔비디아의 ‘DGX A100’이 적용됐다. DGX A100은 대용량 AI 학습·추론 처리에 고성능을 발휘해 최적의 AI 컴퓨팅 클러스터 구현이 가능하다. 또한 GPU 활용 능력을 극대화하는 씨이랩의 솔루션 ‘우유니(Uyuni)’가 탑재됐다. 우유니는 간단한 입력으로 GPU 자원을 할당한 컨테이너를 생성하고 현재 작업 상태와 이력을 지속 추적한다.
  • “게임 성능이 스마트폰 교체 이유”…삼성전자, AMD 손잡고 그래픽 반도체 설계 강화

    “게임 성능이 스마트폰 교체 이유”…삼성전자, AMD 손잡고 그래픽 반도체 설계 강화

    삼성전자가 미국의 팹리스(반도체 설계 전문 회사) AMD와 차세대 고성능·저전력 그래픽 설계자산(IP) 분야 전략적 파트너십을 확대한다. 그래픽 성능을 극대화해 성장하는 모바일 게임 시장을 적극 활용한다는 전략이다. 삼성전자는 자사 모바일 애플리케이션프로세서(AP)인 엑시노스 라인업에 AMD의 차세대 그래픽 솔루션을 확대 적용한다고 6일 밝혔다. ‘스마트폰의 두뇌’라 불리는 AP는 모바일 기기의 연산과 멀티미디어 구동 기능을 담당하는 시스템반도체다. AMD의 그래픽 솔루션은 초저전력·고성능 라데온 그래픽 설계자산을 기반으로 한다. 이 그래픽 솔루션을 엑시노스에 확대 적용함으로써 삼성전자는 콘솔 게임 수준의 고성능·고화질 게이밍 경험을 스마트폰 등 다양한 기기에서도 제공할 수 있게 된다. 삼성전자는 차세대 그래픽 솔루션 연구개발 생태계도 확장해 나갈 계획이다. 앞서 삼정KPMG가 발간한 ‘2023 게임 산업 10대 트렌드’에 따르면 글로벌 게임시장 규모는 2021년 2197억 달러(약 289조 6500억원)에서 2024년 2577억 달러로, 연평균 5.5% 성장할 것으로 기대된다. 애플리케이션별로 게임시장을 보면, 모바일 게임이 차지하는 비중이 가장 크다. 2021년 전체 게임 시장에서 모바일 게임이 차지하는 비중은 45.6%로, 콘솔 게임 시장(25.1%)의 약 2배 수준이다.박성범 삼성전자 시스템LSI사업부 상무는 지난해 8월 모바일 GPU(그래픽처리장치) 성장성에 대해 “스마트폰의 성능이 상향 평준화되면서, 소비자가 체감할 만한 성능 차이를 만들어내는 것이 쉽지 않은 것이 사실”이라면서 “앞으로 플래그십 스마트폰 사용자가 최신 스마트폰을 구입해야 할 이유가 있다면 그것은 게임 성능 때문일 확률이 높을 것”이라고 전망하기도 했다. 이석준 시스템LSI사업부 부사장은 AMD와 협력과 관련해 “삼성전자는 업계 최초로 ‘광선 추적’ 기능을 모바일 AP에 적용하는 등 AMD와 함께 모바일 그래픽 기술의 혁신을 주도하고 있다”며 “차별화한 모바일 그래픽 솔루션을 지속 확보해 나가겠다”고 밝혔다. 데이비드 왕 AMD 라데온 테크놀로지 그룹 수석 부사장은 “이번 협력 확대는 모바일 사용자에게 최고의 그래픽 경험을 제공하기 위한 양사의 노력을 입증하는 것이다”라고 말했다.
  • 카카오모빌리티 사내 배송 로봇, 네이버와 다른 점은 ‘뇌’의 위치

    카카오모빌리티 사내 배송 로봇, 네이버와 다른 점은 ‘뇌’의 위치

    카카오모빌리티가 사내 카페에서 로봇을 이용한 실내 배송 서비스를 시작했다고 5일 밝혔다. 네이버 역시 성남 본사 ‘1784’에서 지난해 6월부터 사내 배송 로봇을 운영해 왔다. 두 회사 로봇은 건물 내에서 비슷한 일을 하지만 기본 주행 방식부터 차이점이 많다. 먼저 카카오모빌리티의 로봇은 LG전자의 ‘클로이’다. 로봇의 ‘뇌’에 해당하는 프로세서와 라이다(LiDAR) 등을 탑재해 개별 로봇이 경로와 장애물을 파악하며 주행한다. 네이버 1784에서 운용되는 100여대의 로봇은 ‘브레인리스’ 로봇이다. 클라우드 상에 구현된 인공지능(AI) 통합 로봇 관리 시스템인 ‘ARC’가 이들 모두를 제어한다. 각 로봇은 네이버가 건물 내에 구축한 5G 특화망을 통해 ARC와 연결돼 있다. 두 로봇 구동 방식은 각각 장단점이 있다. 클로이 같은 자율주행 로봇은 전용 엘리베이터나 건물 내 센서 등 로봇 친화적 인프라가 갖춰지지 않은 일반 건물에서도 손쉽게 운영이 가능하다. 이에 로봇 배송 서비스 범위를 건물 단위로 쉽게 확장할 수 있다.반면 브레인리스 로봇은 우선 대당 가격이 획기적으로 저렴하다. 클로이의 경우 가격이 수천만원에 이르지만 브레인리스 로봇엔 그래픽처리장치(GPU)나 라이다 등 고가의 부품이 들어가지 않는다. 네이버 관계자는 “로봇 가격을 공개할 수는 없지만 부품 중 외부 케이스 금형이 가장 비쌀 정도”라고 말했다. 또 하나의 통합된 시스템이 제어하는 브레인리스 로봇은 해당 지역 내에 수많은 로봇을 동시다발로 구동해도 지연이나 장애 없이 서비스를 원활하게 운영할 수 있다. 건물 전체에 구축한 4㎓, 28㎓ 대역 5G 특화망으로 건물 여러개 층에서 많은 수의 로봇이 지연시간 없이 움직일 수 있도록 한다. 특히 네이버의 경우엔 디지털 트윈 기술로 건물 전체를 사이버 공간에 매핑해, 별도 센서나 인식 장비를 설치하지 않아도 된다. 카카오모빌리티는 로봇 기술 자체보다는 모빌리티 서비스 앱을 운영한 기술과 경험을 활용, 로봇을 이용한 플랫폼 서비스를 염두에 두고 이번 사내 배송을 시작한 것으로 보인다. 로봇 운영에 필요한 기술 관제, 배송 등은 클로이 솔루션이 담당하고 카카오모빌리티는 주문과 배차 등 서비스 운영에 필요한 관제 등을 맡는다. 네이버는 클라우드를 통한 제어, 특화망 활용, 디지털 트윈 등 로봇 상용화를 염두에 둔 정보통신기술(ICT) 전반 연구개발을 위해 로봇을 운영하고 있다. 1784 곳곳엔 배송로봇 외에도 팔을 가지고 그림을 그리거나 짐을 옮기는 등 다양한 활동을 하는 로봇들이 움직이고 있다.
  • 챗GPT 좋은데 문제는 ‘컴퓨팅’... 확보하는 자가 승자

    챗GPT 좋은데 문제는 ‘컴퓨팅’... 확보하는 자가 승자

    구축에도 운영에도 막대한 돈·인프라·에너지카카오브레인 ‘다다음’ 베타버전에 1만명 몰려 중단챗GPT에 2000만원 육박하는 GPU 1만여대 지난 20일 카카오브레인이 카카오톡채널에서 인공지능(AI) 챗봇 ‘다다음’ 베타테스트를 시작한 지 하루 만에 서비스를 일시 중단한 이유, 챗GPT 유료 구독 서비스가 출시된 이유는 같은 곳에 있다. 모두 ‘컴퓨팅 인프라’, 즉 연산 능력과 데이터센터, 클라우드 등을 아우르는 자원 때문이다. 초거대 AI 서비스가 속속 출시되며 컴퓨팅 자원의 중요성이 아주 빠른 속도로 높아지고 있다. 우리가 챗GPT에 접속해 자판을 두드려 질문을 입력하고 답변을 받는 단순해 보이는 과정은, 실은 엄청난 수의 연산을 통해 이뤄지고 있다. 대화창을 통해 주고받는 채팅이지만, 클라우드 환경에서 수만개의 그래픽처리장치(GPU)가 적용된 AI 구동 인프라와 연결되는 셈이다. 안정적인 초거대 AI 서비스를 제공할 수 있는 컴퓨팅 인프라 구축은 쉬운 일이 아니다. 애초에 AI를 학습시키는 과정부터 천문학적인 돈과 자원이 필요하다. 오픈AI의 최신 초거대 언어모델 ‘GPT4’의 머신러닝엔 엔비디아의 최신 GPU ‘A100’ 1만여대가 사용된 것으로 알려졌는데, 1대 당 2000만원에 육박한다. 애초 GPT3 교육에만 무려 1200만 달러(약 144억 7000만원)이 들어간 것으로 알려졌다. AI 서비스 운영에도 엄청난 에너지와 돈이 들어간다. 챗GPT의 경우 출시 한달 만에 사용자 1억명을 넘어섰는데, 이들이 입력한 각각의 질문에 무수한 연산을 수행하려면 GPU를 풀가동해야 하는데, A100의 경우 대당 전력량은 시간당 300~400Wh(와트시)로, 믹서기나 소형 전열기 등과 맞먹는다. 대부분 초거대 AI 운영 기반 시설인 데이터센터는 국내 한 곳 당 평균 연간 전력 사용량이 25GWh(기가와트시)인데, 이는 4인가족 6000가구와 같은 수준이다. 그러다보니 카카오브레인의 경우, 내부 개발 과정의 하나인 베타테스트 차원에서 공개했던 다다음에 충분한 컴퓨팅 인프라를 할당하지 않았을 테고, 여기에 짧은 시간 1만명 이상이 몰리니 정상적으로 AI 서비스를 제공할 수 없었을 것으로 보인다. MS의 천문학적인 투자와 컴퓨팅 인프라를 사용하는 오픈AI가 챗GPT 성공을 확인한 즉시 유료 구독 서비스를 출시한 것도 이런 이유에서다. 거꾸로 말하면 MS처럼 초거대 AI 모델을 돈이 되는 기존 서비스에 즉시 적용할 수 있으며, 글로벌 2위 규모 클라우드 회사로서 인프라를 확보한 기업이 오픈AI에 투자하고 협력하지 않았으면 지금의 챗GPT는 등장하지 않았을 수도 있는 셈이다. 기업이 GPT4를 서비스에 적용하려면 이전 버전인 GPT3.5보다 훨씬 높은 가격을 지불해야 한다. 카카오톡채널에 출시한 챗봇 서비스 ‘아숙업(AskUp)’에 GPT4를 적용한 업스테이지에 따르면, 오픈AI는 GPT4를 통해 제공하는 영어 단어 750개 정도에 3센트(약 39원)를 받는다. 본격 AI 시대를 맞아 기술 경쟁에 뒤처지지 않기 위해서는 컴퓨팅 인프라 확충과 동시에 컴퓨팅 자원 소비를 획기적으로 줄이는 기술 개발이 중요하다. 정부와 국내 업체들이 GPU를 대체할 AI 전용 반도체인 신경망처리장치(NPU) 개발을 서두르는 것도 이와 같은 맥락이다. 정보통신산업진흥원(NIPA)을 중심으로 고성능 컴퓨팅 자원을 지원하는 사업도 시행 중이다. GPU 클라우드 시스템을 임차해 중소∙벤처기업, 공공기관, 대학 등에 지원하는 것으로, 대규모 병렬연산 처리를 위한 고성능컴퓨팅(HPC) 자원, 개발 프레임워크, 개발언어 등을 지원한다.
  • 美SAT 상위 7%… 글자 넘어 이미지도 이해

    美SAT 상위 7%… 글자 넘어 이미지도 이해

    생성형 인공지능(AI) 챗GPT의 성능이 향상되면서 미국 의사·변호사 시험에서 상위권 성적을 기록하고, 이미지를 텍스트로 인식하는 기능도 갖춘 것으로 나타났다. 여전히 거짓말을 인간처럼 태연하게 하지만 그 정도가 조금 덜해졌고, 창의성과 이미지 인식 및 추론 능력은 향상됐다. 챗GPT의 제작사 오픈AI는 14일(현지시간) GPT3.5의 업그레이드 버전인 GPT4를 출시하면서 “인간 이상의 능력을 보여 줬다”고 평가했다. GPT3.5는 약 1750억개의 매개 변수를 사용했지만, GPT4의 매개 변수 규모는 알려지지 않았다. 이날 공개된 GPT4는 미국 변호사 시험에서 백분위 상위 10%, 미국 대학 입학 자격시험인 SAT 읽기 과목에서는 상위 7%, 수학 과목에서는 상위 11%의 성적을 거뒀다. 옛날 버전인 GPT3.5는 로스쿨 입학시험에서 평균 C+ 성적을 받은 바 있다. 오픈AI는 “챗GPT는 표준화된 시험에서는 인간보다 더 좋은 성적을 낼 것”이라고 설명했다. 기존 GPT3.5와 달리 이미지도 텍스트로 인식하는 것이 특징이다. 텍스트로 대화를 진행하다가 이미지를 입력해도 자연스럽게 대화가 이어진다는 것이다. 오픈AI는 GPT4가 허용되지 않은 콘텐츠 요청에 응답할 가능성이 82% 줄었다고 설명했다. 사실을 바탕으로 대답하는 비율도 GPT3.5보다 40% 정도 높아졌다고 덧붙였다. 다만 오픈AI는 “새로운 소프트웨어는 완벽하지 않으며 많은 한계가 있다”면서 “여전히 ‘환상’을 갖고 답을 지어내며 틀렸을 때도 옳다고 주장하는 경향이 있다”고 덧붙였다. 오픈AI는 GPT4 모델을 학습시키기 위해 마이크로소프트(MS)의 클라우드 서비스 애저를 이용했다고 설명했다. 2019년부터 오픈AI에 투자해 온 MS는 최근 100억 달러(약 13조원)를 추가 투자하겠다고 발표했다. MS는 이날 발표 직후 “5주 전부터 자사 검색 엔진 빙(Bing)에 GPT4를 탑재한 상태였다”고 밝혔다. 전 세계적 AI 열풍을 일으킨 챗GPT의 나비효과로 세계 1위 파운드리(반도체 위탁 생산 업체) 대만 TSMC는 막대한 수혜를 입었다. AI챗봇에게 방대한 양의 데이터를 기계학습(머신러닝)시키기 위해 여러 계산을 동시에 처리하는 컴퓨터그래픽처리장치(GPU)의 수요가 폭증했고, GPU 세계 1위 기업 엔비디아에 GPU 주문이 몰리며 덩달아 TSMC에 일감이 쏟아진 것이다. 엔비디아는 삼성전자에 비해 수율(생산품 대비 정상품 비율)이 높고 생산 능력이 뛰어나다고 평가받는 TSMC에 더 많은 반도체 생산을 주문했다. TSMC는 두 달 연속 사상 최대 실적을 갈아 치웠다. TSMC는 2월 매출이 지난해보다 11.1% 증가한 1631억 7400만 대만달러(7조원)를 기록했다고 최근 발표했다. 대만 공상시보는 “챗GPT 열풍으로 엔비디아와 AMD 등 주요 GPU 업체에 긴급 주문이 쏟아지면서 TSMC가 예상 밖의 호실적을 냈다”고 분석했다.
  • 오픈AI, ‘더 똑똑해진’ GPT-4 출시 “SAT 상위 10% 수준”…TSMC 반사이익

    오픈AI, ‘더 똑똑해진’ GPT-4 출시 “SAT 상위 10% 수준”…TSMC 반사이익

    생성형 인공지능(AI) 챗GPT의 성능이 향상되면서 미국 의사·변호사 시험에서 상위권 성적을 기록했고 이미지도 텍스트로 인식하는 기능을 갖췄다. 여전히 거짓말을 인간처럼 태연하게 하지만 그 정도가 조금 덜해졌고, 창의성과 이미지 인식 및 추론 능력은 향상됐다. 챗GPT의 제작사 오픈AI는 14일(현지시간) GPT3.5의 업그레이드 버전인 GPT4를 출시하면서 “인간 이상의 능력을 보여줬다”고 평가했다. GPT3.5는 약 1750억 개의 매개 변수를 사용했지만, GPT4의 매개 변수 규모는 알려지지 않았다. 이날 공개된 GPT4는 미국 변호사시험에서 백분위 상위 10%, 미국 대학입학 자격시험인 SAT 읽기 과목에서는 상위 7%, 수학 과목에서는 상위 11%의 성적을 거뒀다. 옛날 버전인 GPT3.5는 로스쿨 입학시험에서 평균 C+ 성적을 받은 바 있다. 오픈AI는 “챗GPT는 표준화된 시험에서는 인간보다 더 좋은 성적을 낼 것”이라고 설명했다. 기존 GPT3.5와 달리 이미지도 텍스트로 인식하는 것도 특징이다. 텍스트로 대화를 진행하다 이미지를 입력해도 자연스럽게 대화가 이어진다는 것이다. 오픈AI는 GPT4가 허용되지 않은 콘텐츠 요청에 응답할 가능성이 82% 줄었다고 설명했다. 사실을 바탕으로 대답하는 비율도 GPT3.5보다 40% 정도 높아졌다고 덧붙였다. 다만 오픈AI는 “새로운 소프트웨어는 완벽하지 않으며 여전히 많은 한계가 있다”며 “여전히 ‘환상’을 갖고 답을 지어내며 틀렸을 때에도 옳다고 주장하는 경향도 있다”고 덧붙였다. 오픈AI는 GPT4 모델을 학습시키기 위해 마이크로소프트(MS)의 클라우드 서비스 애저를 이용했다고 설명했다. 2019년부터 오픈AI에 투자해온 MS는 최근 100억 달러(13조원)를 추가 투자하겠다고 발표했다. MS는 이날 발표 직후 “5주 전부터 자사 검색 엔진 빙(Bing)에 GPT4를 탑재한 상태였다”고 밝혔다. 전세계적 AI 열풍을 일으킨 챗GPT의 나비효과로 세계 1위 파운드리(반도체 위탁 생산 업체) 대만 TSMC는 막대한 수혜를 입었다. AI챗봇에게 방대한 양의 데이터를 기계학습(머신러닝)을 시키기 위해 여러 계산을 동시에 처리하는 컴퓨터그래픽처리장치(GPU)의 수요가 폭증했고, GPU 세계 1위 기업 엔비디아에 GPU 주문이 몰리며 덩달아 TSMC에 일감이 쏟아진 것이다. 엔비디아는 삼성전자에 비해 수율(생산품 대비 정상품 비율)이 높고 생산 능력이 뛰어나다고 평가받는 TSMC에 더 많은 반도체 생산을 주문했다. TSMC는 두달 연속 사상 최대 실적을 갈아치웠다. TSMC는 2월 매출이 지난해보다 11.1% 증가한 1631억 7400만대만달러(약 7조원)를 기록했다고 최근 발표했다. 대만 공상시보는 “챗GPT 열풍에 엔비디아와 AMD 등 주요 GPU 업체의 긴급 주문이 쏟아지면서 TSMC가 예상 밖의 호실적을 냈다”고 분석했다.
  • ‘트리플 모드 셀’ 적용한 반도체 세계 첫 개발

    ‘트리플 모드 셀’ 적용한 반도체 세계 첫 개발

    ‘메모리·연산기·데이터 변환’ 가능초거대 AI 구현할 차세대 반도체 D램 메모리 셀 내부에서 인공지능(AI) 연산을 수행하는 아날로그 PIM (Process In Memory·지능형 반도체) 기술이 국내 최초로 개발됐다. 특히 하나의 메모리 셀에서 메모리, 연산기, 데이터 변환 기능을 지원하는 ‘트리플 모드 셀’이 세계 최초로 개발돼 적용됨으로써 기존 아날로그형 PIM 반도체보다 높은 효율성을 갖추게 됐다. 점차 거대해지고 다양해지는 AI 모델에서도 안정적인 성능을 보일 것으로 기대된다. 과학기술정보통신부는 14일 한국과학기술원(KAIST) 유회준 교수 연구팀이 국내 최초로 D램 메모리 셀 내부에 연산기를 집적해 AI 연산을 수행하는 PIM 반도체 ‘다이나플라지아’를 개발했다고 밝혔다. PIM 반도체는 하나의 칩 내부에 메모리와 프로세서 연산기를 집적한 것으로, 데이터 병목 현상과 과도한 전력 소모 문제를 해결할 수 있어 초거대 AI 시대를 구현할 차세대 반도체로 꼽힌다. 다이나플라지아는 트리플 모드 셀을 이용해 실제 AI 연산에 맞춰 하드웨어 구조를 형성함으로써 기존 아날로그형 PIM 반도체보다 2.5배, 챗GPT가 쓰는 그래픽처리장치(GPU)에 견줘 7배 높은 에너지 효율성을 보였다. 이번에 개발된 기술을 적용한 칩은 삼성전자 파운드리 공정에서 생산됐다. 연구를 지휘한 유 교수는 “개발한 기술을 삼성과 SK하이닉스가 마음껏 열람하고 필요하면 활용하도록 하고 있다”고 설명했다.
  • 매달 돈 내고, 어디든 배송… 로봇도 스마트폰처럼 쓴다

    매달 돈 내고, 어디든 배송… 로봇도 스마트폰처럼 쓴다

    KT, 캠핑장 배송 로봇 서비스SKT는 커피·순찰 로봇 등 진행LG전자, 클로이 로봇 자체 생산단가 낮춘 ‘브레인리스 로봇’도 과거 공상과학(SF) 콘텐츠에서나 보던 로봇을 이제 식당에서도 쉽게 마주칠 수 있는 시대가 왔다. 박물관과 미술관에서는 로봇이 어린이들에게 작품을 설명하고 기념사진도 찍어 준다. 배송 로봇이 호텔 엘리베이터를 타고 객실 앞까지 와인을 전달하기도 한다. 통신사 등은 로봇을 사용하는 다양한 서비스 플랫폼을 구축하고 있으며, 기술기업들은 더 싸고 편리한 로봇 개발에 몰두하고 있다. 로봇이 하나의 모바일 장치(디바이스)로서 생활 현장 곳곳을 누비게 될 전망이다.월별로 요금을 내고 로봇을 사용하는 서비스는 KT가 가장 앞서서 출시했다. KT는 플랫폼을 통해 사전 컨설팅, 로봇 설치, 원격관제, 현장 애프터서비스, 네트워크 구축 등 종합 서비스를 제공한다. 14일엔 캠핑장 배송 로봇 서비스를 출시하기 위해 ‘캠핑톡’, ‘캠핑아웃도어’와 업무협약(MOU)을 맺었다고 밝혔다. 캠핑장 배송 로봇 서비스는 ‘로봇 메이커스’ 플랫폼의 하나다. 로봇 메이커스는 서로 다른 기종의 로봇뿐 아니라 엘리베이터, 주문·결제 앱, 출입문, 인터폰, 저온 유통체계(콜드체인) 등 필요한 인프라를 하나로 연결할 수 있는 클라우드 기반 로봇 통합관제 플랫폼이다. SK텔레콤은 고객사에 필요하지만 로봇 제조사는 대응하기 어려운 인공지능(AI) 기반 응용 솔루션과 데이터 플랫폼을 구축해 고객 맞춤형 서비스를 제공하는 것을 사업 방향으로 잡았다. 지난해부터 커피 로봇, 물류 로봇 사업을 진행 중이며, 지난달 22일부터는 서울 도봉구 덕성여대 쌍문근화캠퍼스 안에서 AI 순찰 로봇을 테스트하고 있다. LG유플러스도 지난해 LG전자 서빙로봇 ‘클로이’ 등을 활용해 상품화를 완료했다. 올해도 요식업, 호텔 및 PC방 등의 사업장을 중심으로 로봇 보급을 확산하고 라인업을 확대해 나갈 예정이다. 이처럼 통신사들이 로봇 대중화에 앞다퉈 뛰어든 것은 로봇이 무선 네트워크를 필수로 하는 디바이스이기 때문이다. 로봇 대중화를 위해선 제품 단가가 낮아져야 한다. 이를 위해 ‘뇌’에 해당하는 프로세서가 없는 ‘브레인리스’ 로봇이 필요하다. 브레인리스 로봇은 네이버 신사옥인 경기 성남시 ‘1784’에서 볼 수 있다. 100여대의 브레인리스 로봇이 건물 곳곳에서 그림을 그리거나 택배와 커피를 배달한다. 모든 로봇은 건물 내에 구축된 초고속 5G 특화망으로 클라우드상의 로봇 통합 제어 시스템인 ‘ARC’에 연결돼 있다. 네이버 측은 구체적인 로봇 가격에 대해선 함구했지만, 관계자는 “자율주행에 필요한 라이다(LiDAR)나 그래픽처리장치(GPU) 등이 들어 있지 않아 부품 중 외부 커버의 가격이 가장 비쌀 정도”라고 말했다. 다양한 로봇 개발에 발 빠르게 나선 LG전자는 지난해 말 경북 구미에 있는 ‘LG퓨처파크’(LG Future Park)에 로봇 생산 라인을 신설하고 클로이 로봇 자체 생산을 시작했다. 2017년 인천국제공항에서 안내 로봇 시범 운영을 시작으로 서브봇 2종(서랍형·선반형), 방역용 UV-C봇, 자율주행 기반 차세대 물류 로봇 캐리봇을 출시해 로봇 라인업을 5종으로 강화했다.
  • 로봇, 스마트폰같은 ‘모바일 디바이스’로

    로봇, 스마트폰같은 ‘모바일 디바이스’로

    과거 공상과학 콘텐츠에서나 보던 로봇을 이제 식당에서도 쉽게 마주칠 수 있는 시대가 왔다. 공항이나 관광지, 대형 쇼핑몰 등엔 안내하는 로봇이 돌아다니고, 도서관엔 사서 로봇도 있다. 박물관과 미술관에서는 로봇이 어린이들에게 작품을 설명하고 기념사진도 찍어준다. 배송로봇이 호텔 엘리베이터를 타고 객실 앞까지 와인을 전달하기도 한다. 이동통신사 등은 로봇을 사용하는 다양한 서비스 플랫폼을 구축하고 있으며, 기술기업들은 더 싸고 편리한 로봇 개발에 한창이다. 로봇이 하나의 ‘모바일 장치(디바이스)’로서 생활 현장 곳곳을 누비게 될 전망이다. 통신사, 플랫폼·솔루션 개발… 스마트폰처럼 요금제도 월별로 요금을 내고 로봇을 사용하는 구독형 서비스는 KT가 가장 앞서서 출시했다. 14일엔 캠핑장 배송 로봇 서비스를 출시하기 위해 캠핑장 예약 플랫폼 ‘캠핑톡’, 캠핑·글램핑을 기획하는 ‘캠핑아웃도어’와 업무협약(MOU)을 맺었다고 밝혔다. 서비스가 출시되면 캠핑장 손님들이 식료품이나 캠핑 물품을 주문하면 자율주행 로봇이 매점에서 각 텐트로 배달하게 된다. 이날 협약은 KT가 지난 2일(현지시간) 막을 내린 세계 최대 모바일 박람회 ‘모바일 월드 콩그레스(MWC) 2023’에서 선보인 ‘로봇 메이커스’ 플랫폼의 하나다. 로봇 메이커스는 서로 다른 기종의 로봇뿐 아니라 엘리베이터, 주문·결제 앱, 출입문, 인터폰, 저온 유통체계(콜드체인) 등 필요한 인프라도 하나로 연결할 수 있는 클라우드 기반 로봇 통합관제 플랫폼이다. KT는 플랫폼을 통해 사전 컨설팅, 로봇 설치, 원격관제, 현장 애프터서비스, 네트워크 구축 등 종합 서비스를 제공한다.SK텔레콤은 고객사에게 필요하지만 로봇 제조사는 대응하기 어려운 AI 기반 응용 솔루션과 데이터 플랫폼을 구축, 고객 맞춤형 서비스를 제공하는 것이 사업 방향이다. 지난해부터 AI 기반 로봇 관련 사업을 본격 추진 중인데, 커피로봇, 물류 로봇 사업을 진행 중이다. 최근엔 자율주행 로봇 스타트업 ‘뉴빌리티’, SK쉴더스와 손잡고 인공지능(AI) 순찰로봇을 공동 개발, 사업화에 나섰다. 지난달 22일부터는 서울 도봉구 덕성여대 쌍문근화캠퍼스 안에서 순찰로봇을 테스트하고 있다. LG유플러스는 지난 9월 LG전자와 함께 서빙로봇 LG 클로이 서브봇을 상품화했다. LG유플러스는 매장과 산업현장 전체에 음영지역 없이 LTE/5G 통신 기반 심리스(Seamless) 로봇 서비스를 제공한다.이처럼 통신사들이 로봇사업에 앞다퉈 뛰어든 것은, 로봇이 무선 네트워크를 필수로 하는 디바이스이기 때문이다. MWC에 전시장을 꾸린 글로벌 통신사들은 로봇을 통해 발전된 통신 기술을 전시했다. 프랑스 오렌지 텔레콤은 사족보행 로봇개를 확장현실(XR) 공간에서 제어하는 기술을 선보였다. NTT 도코모는 웨어러블 기기를 착용한 사람의 동작을 로봇이 실시간으로 똑같이 따라하는 ‘모션 셰어링’ 기술을 통해 6G 상용화 뒤 실현 가능할 생활상을 보여줬다.네이버 신사옥엔 GPU·라이다 없는 ‘브레인리스’ 로봇 100여대LG전자 클로이봇 생산 박차… 안내·서빙·방역·물류 등 5종으로 로봇 대중화를 위해선 제품 단가가 낮아져야 한다. 이를 위해 ‘뇌’에 해당하는 프로세서가 없는 ‘브레인리스’ 로봇이 필요하다. 브레인리스 로봇은 네이버 신사옥인 경기 성남시 ‘1784’에서 볼 수 있다. 100여대의 브레인리스 로봇이 건물 곳곳에서 그림을 그리고 있거나, 사내 집하장에서 각 직원들에게 택배를 배달하고, 카페에서 커피를 싣고 테이블이나 회의실 등으로 간다. 건물엔 로봇 전용 엘리베이터도 있고, 보안 시스템은 로봇을 위해 문도 열어 준다. 이들 로봇은 자체 프로세서가 있어서 움직이는 게 아니다. 모든 로봇은 건물 내에 구축된 초고속 5G 특화망으로 클라우드에 구축된 로봇 통합 제어 시스템인 ‘ARC’에 연결돼 있다. 명령과 제어는 ARC를 통해 이뤄진다. 네이버 측은 구체적 로봇 가격에 대해선 함구했지만, 관계자는 “자율주행에 필요한 라이다(LiDAR)나 그래픽처리장치(GPU) 등이 들어있지 않아, 부품 중 외부 커버 값이 가장 비쌀 정도”라고 말했다. 다양한 로봇 개발에 발빠르게 나선 LG전자는 지난해 말 경북 구미시에 있는 ‘LG퓨처파크(LG Future Park)’에 로봇 생산 라인을 신설하고 클로이 로봇 자체 생산을 시작했다. 2017년 인천국제공항에서 안내로봇 시범 운영을 시작으로 서브봇 2종(서랍형/선반형), 방역용 UV-C봇, 자율주행 기반 차세대 물류 로봇 캐리봇을 출시, 로봇 라인업을 5종으로 강화했다.
  • [고든 정의 TECH+] 무어의 법칙, 끝나지 않았다? 트랜지스터 집적도 100억 개 돌파한 일반 소비자용 CPU

    [고든 정의 TECH+] 무어의 법칙, 끝나지 않았다? 트랜지스터 집적도 100억 개 돌파한 일반 소비자용 CPU

    ‘매년 반도체에 집적된 트랜지스터 숫자는 두 배로 늘어난다’ 1965년 인텔의 설립자 가운데 한 명인 고든 무어는 대략 이와 같은 추세로 반도체 기술이 발전한다고 언급했습니다. 고든 무어가 한 잡지에 기고한 글에서 그는 이런 반도체 집적도 발전 속도가 아마도 10년은 유지될 것이라고 예상했습니다. 이후에는 집적 속도가 약간 느려져 2년마다 2배로 정정했는데, 이쪽이 무어의 법칙이라는 이름으로 더 잘 알려져 있습니다. 그의 이름을 딴 무어의 법칙은 오랜 세월 IT 기술의 발전 속도의 척도처럼 여겨졌습니다.  현재는 프로세서가 복잡해지고 반도체 제조 공정 역시 미세화의 한계에 부딪히면서 프로세서의 집적도가 2배로 증가하는 시간은 갈수록 길어지고 있습니다. 일부에서 무어의 법칙은 죽었다는 이야기가 나오는 것도 무리는 아닙니다. 하지만 간격이 더 길어졌을 뿐 여전히 프로세서의 집적도는 일정한 주기로 2배씩 증가해 어느덧 스마트폰에 들어가는 어플리케이션 프로세서(AP)의 집적도도 100억 개를 훌쩍 뛰어넘은 상황입니다.  스마트폰과는 기준이 다르지만 데스크톱과 노트북 컴퓨터에 들어가는 x86 프로세서 역시 알게 모르게 기하급수적으로 트랜지스터 숫자가 늘어나고 있습니다. 예를 들어 1978년 등장한 최초의 x86 프로세서인 8086은 트랜지스터 숫자가 2만 9000개에 불과했으나 11년 뒤인 1989년에 등장한 80486은 그 41배인 118만 235개의 트랜지스터를 집적했습니다.  4년 뒤인 1993년에 등장한 펜티엄 프로세서는 310만 개, 1998년에 등장한 펜티엄 II는 750만 개, 2000년에 등장한 펜티엄 4는 4200만 개의 트랜지스터를 집적하면서 숫자를 급격히 늘렸습니다. 참고로 펜티엄 3/4에서 갑자기 트랜지스터 숫자가 증가한 것은 L2 캐시를 내장했기 때문입니다. 2000년대에는 코어 숫자가 늘어나고 64bit 아키텍처가 도입되면서 한 단계 더 트랜지스터 숫자가 증가합니다. 2008년에 등장한 코어 i7 (1세대, 네할렘)은 7억 3100만 개의 트랜지스터를 집적해 8년 전인 펜티엄 4보다 17배나 많은 트랜지스터를 집적했습니다. 그 사이 코어 숫자도 4개로 늘어나고 캐시 메모리도 증가했으며 최신 64bit 아키텍처를 도입했기 때문입니다.  하지만 이후 한동안 트랜지스터 집적도 증가세는 주춤하게 됩니다. 인텔의 경쟁자인 AMD가 2011년 내놓은 불도저가 12억 개의 트랜지스터를 집적하고도 큰 성능 향상을 보여주지 못하면서 시장이 독점 상태로 흘러가기 때문입니다. 인텔은 한동안 4코어 프로세서에서 더 이상 코어 숫자를 늘리지 않았을 뿐 아니라 아키텍처와 프로세서 생산 공정도 큰 변화 없이 유지했습니다. 2014년 내놓은 하스웰 프로세서 (4코어)의 트랜지스터 집적도는 14억 개로 2008년과 비교해서 두 배 차이도 나지 않았습니다.  이런 상황에서 다시 경쟁의 불을 지핀 것은 2017년 등장한 라이젠입니다. 8코어 라이젠 프로세서의 트랜지스터 집적도는 48억 개로 경쟁자보다 훨씬 많았습니다. 물론 프로세서의 성능은 아키텍처나 동작 클럭 등 여러 가지 요소에 의해 좌우되기 때문에 단순히 트랜지스터 숫자가 많다고 이기는 것은 아닙니다. 하지만 AMD가 코어 숫자를 늘리면서 성능을 대폭 끌어올린 것은 맞기 때문에 인텔도 코어 숫자를 늘리면서 대응하지 않을 수 없었습니다.  여기서 흥미로운 대목은 이후 인텔이 트랜지스터 집적도를 상세히 공개하지 않고 있다는 것입니다. 절대 성능에서 밀리진 않지만, 트랜지스터 집적도는 경쟁자만큼 높지 않음을 유추할 수 있는 대목입니다.  아무튼 AMD는 일반 소비자용 프로세서에서 코어 숫자를 16개까지 높였고 인텔도 이에 질세라 고성능 코어와 고효율 코어의 하이브리드 구조를 지닌 앨더 레이크 (12세대 코어 프로세서)와 랩터 레이크 (13세대 코어 프로세서)를 내놓으면서 코어 숫자를 24개까지 늘렸습니다. 따라서 트랜지스터 숫자는 경쟁에 의해 다시 한번 큰 폭으로 증가했습니다. 최근 공개된 슬라이드에 의하면 라이젠 7000시리즈의 트랜지스터 집적도는 이미 100억 개를 훌쩍 뛰어넘었습니다. 라이젠 7000은 6nm 공정으로 만든 I/O 다이와 5nm 공정으로 만든 컴퓨트 다이 (CCD) 두 가지 칩렛으로 구성되어 있는데, 각각의 트랜지스터 집적도와 크기를 정확히 공개한 것입니다.  8코어 컴퓨트 다이의 트랜지스터 집적도는 65.7억 개이고 면적은 66.3㎟입니다. I/O 다이의 집적도는 이보다 낮은 33.7억 개이지만 면적은 훨씬 큰 117.8㎟입니다. 공정과 로직이 서로 다른 만큼 트랜지스터 밀도에서 큰 차이가 있습니다.  따라서 컴퓨트 다이 한 개와 I/O 다이 한 개를 지닌 8코어 제품의 경우 트랜지스터 집적도는 100억 개로 볼 수 있습니다. 컴퓨트 다이 2개가 들어간 16코어 라이젠 9 7950X는 165억 개의 트랜지스터를 지녔습니다.  만약 여기에 3D V 캐시를 추가로 올려 캐시 메모리 용량을 늘린 경우 트랜지스터 숫자는 47억 개 증가합니다. 따라서 16코어 라이젠 9 7950X3D의 트랜지스터 집적도는 212억 개에 달합니다. 결국 작년과 올해 나온 중급형 이상의 데스크톱 CPU들은 트랜지스터 집적도가 100–200억 개에 달해 34년 전 486 CPU보다 1만 배 더 많아진 셈입니다.  인텔 13세대 코어 프로세서의 정확한 집적도는 공개하지 않았지만, 24개까지 코어 숫자가 증가한 만큼 경쟁자보다 크게 적지 않을 것으로 예상됩니다. 최대 60개의 고성능 코어를 지닌 사파이어 래피즈 제온 프로세서의 트랜지스터 집적도가 440-480억 개에 달한다는 점을 생각해도 이점을 유추할 수 있습니다.  1-2년마다는 2배는 아니지만, 프로세서의 트랜지스터 집적도는 멈추지 않고 증가하고 있습니다. 어디까지 증가할지는 알 수 없지만, 서버 영역이나 GPU에선 이미 1000억 개에 근접한 만큼 우리가 지금보다 더 많은 트랜지스터를 집적한 CPU를 쓰는 일은 시간문제입니다. 이렇게 보면 무어의 법칙은 큰 틀에서는 아직도 살아 있습니다. 이미 반 세기를 넘어간 무어의 법칙이 어디까지 살아남을 수 있을지 궁금합니다.
  • [고든 정의 TECH+] 90% 이상 재활용 가능한 그린 PC 등장…컴퓨터의 녹색 바람?

    [고든 정의 TECH+] 90% 이상 재활용 가능한 그린 PC 등장…컴퓨터의 녹색 바람?

    최근 고성능 PC 시장은 갈수록 전기를 많이 먹는 CPU와 GPU의 각축장이 되고 있습니다. 전기를 많이 먹는다는 이야기는 발열량이 많다는 이야기입니다. 따라서 더 많은 전류를 다룰 수 있는 전원부와 기판이 필요합니다. 제조 공정이 복잡해지고 여러 가지 소재가 사용되기 때문에 점점 더 재활용하기 어려워지는 것은 물론입니다. 쿨러의 크기 역시 엄청나게 커지면서 이미 하이엔드 게이밍 PC에는 3개의 냉각팬과 라디에이터를 지닌 3열 수랭 쿨러가 장착되고 있습니다. 물론 이 쿨러도 전기를 먹고 최종적으로 열의 형태로 에너지를 방출합니다. 이렇게 만든 고성능 PC는 당연히 강력한 성능을 자랑하긴 하지만, 최근 강조되는 환경과 지속 가능성에 대한 배려는 상당히 부족한 편입니다. 전기를 많이 먹어 탄소 발자국이 매우 큰 것은 물론 폐기 과정에서 재활용하기도 매우 어렵기 때문입니다. 언뜻 생각하기엔 금속 제품이 많은 IT 기기가 재활용하기 쉬울 것 같지만, 사실 현대적인 컴퓨터의 PCB 기판과 수많은 부품들은 금속은 물론, 유리 섬유, 합성수지 등 여러 가지 소재를 사용하고 있기 때문에 재활용이 매우 까다롭습니다. 여기에 IT 기기의 수명이 짧은 편이라서 끊임없이 처치 곤란한 쓰레기를 만들어 낸다는 것도 문제입니다. 사정이 이렇다 보니 컴퓨터의 제조부터 사용 중, 그리고 사용 후 폐기까지 환경친화적이고 지속 가능한 대안에 대한 요구가 커지고 있습니다. 인텔은 베이징에서 중국 내 파트너인 칭화 통팡(Tsinghua Tongfang) 및 대만 컴퓨터 제조사 에이서(Acer) 등과 함께 에너지 소모량과 재활용할 수 있는 부품 비율을 획기적으로 높인 그린 PC의 데모를 공개했습니다. 이 그린 PC는 인텔 12세대 코어 프로세서인 앨더 레이크 기반으로 정확히 어떤 제품을 사용했는지는 밝히지 않았으나 제품의 목적이나 쿨러의 크기를 생각할 때 35W TDP를 지닌 저전력 제품이나 혹은 적어도 65W TDP를 지닌 제품으로 보입니다. 미니 PC에 많이 사용되는 ITX 규격 메인보드보다 더 단순한 메인보드에는 노트북용 메모리를 장착할 수 있는 SO-DIMM 슬롯 2개와 M.2 SSD를 장착할 수 있는 슬롯 한 개, PCIe x16 슬롯 한 개만 보입니다. 따라서 일반적인 노트북 PC보다 더 많은 전력을 소모하지는 않을 것으로 보입니다.하지만 저전력 PC라면 지금도 드물지 않게 나와 있고 경량 노트북이나 태블릿 가운데는 전력 소모가 상당히 적은 제품도 존재하기 때문에 전기를 적게 먹는다는 것이 차별점이 될 순 없습니다. 이 그린 PC의 진짜 차별점은 재활용 가능한 부품의 비율이 90%나 된다는 것입니다. 그린 PC의 메인보드 기판 크기는 정확히 공개하지 않았으나 7리터에 불과한 작은 케이스 안에 들어가는 작은 메인보드로 생산에 필요한 자원 자체가 적으며 금속과 유리 섬유 소재는 95%, 유기물 소재는 90% 정도 재활용이 가능하게 제조되었습니다. 최대한 단순하게 만든 PCB 덕분에 가능한 일로 생각됩니다. 컴퓨터 전원 공급 장치인 파워 서플라이 역시 재활용 가능성은 물론 탄소 중립 목표에 가까이 다가가기 위해 기존의 파워 서플라이 규격이 아닌 새로운 규격을 사용하고 있습니다. 그린 PC의 파워 서플라이는 일반적인 ATX 파워 서플라이보다 70% 작은 팬리스 파워 서플라이로 질화 갈륨(Gallium nitride, GaN) 소재로 만들어졌습니다. 작은 크기에 12V 출력 단지 하나 밖에 없어 매우 저렴한 파워 서플라이처럼 보이지만, 사실은 파워 서플라이 가운데 최고 등급인 80 플러스 티타늄 등급의 제품입니다. 따라서 50% 로드에 94% 이상의 에너지 효율과 모든 구간에서 90% 이상의 효율을 지닌 제품이라고 할 수 있습니다. 통상 티타늄 등급의 고성능 파워 서플라이의 경우 여러 개의 복잡한 전선과 내부 구조를 지녀 재활용이 까다로운 부품이지만, 그린 PC의 티타늄 등급 파워 서플라이는 작고 단순한 구조로 재활용도 쉬울 것으로 보입니다. 하지만 인텔은 이 제품의 구체적인 출시 일정이나 가격에 대한 정보는 공개하지 않았습니다. 당장 양산을 염두에 둔 제품보다는 기술 데모에 더 가까운 제품이기 때문으로 풀이됩니다. 컴퓨터 제조업이 수많은 제조사의 협업으로 이뤄지고 있어 짧은 시간 내로 산업 구조를 바꾸기 어려운 것도 이유일 것입니다. 하지만 대세가 어느 방향인지는 분명합니다. 자동차 산업처럼 IT 산업도 친환경의 요구를 피할 순 없습니다. 전 세계는 수많은 개인용 컴퓨터, 서버, 스마트폰 같은 IT 기기로 연결되어 있으며 이제 우리는 그것 없이는 살 수 없습니다. 불행히도 이런 제품들의 제품 수명이 짧기 때문에 수많은 전자 폐기물을 만들어 내는 것이 현실입니다. 지속 가능한 미래를 위해서 재활용이 가능한 컴퓨터는 선택이 아닌 필수인 이유입니다. 
  • GPU 1만개로 만든 그 답변… 수천 가구가 쓸 전력 삼켰다

    GPU 1만개로 만든 그 답변… 수천 가구가 쓸 전력 삼켰다

    챗GPT의 등장으로 인공지능(AI)은 디지털 시대에 거스를 수 없는 대세가 됐다. AI는 스스로 판단해 작업을 최적화, 효율화하고 많은 분야에서 에너지를 절감할 것으로 예상된다. 하지만 AI 스스로는 개발, 구축, 운영에 천문학적인 비용이 들어가며, 전력 소모가 극심하다. 모든 업계가 환경·사회·지배구조(ESG) 경영을 부르짖는 시대를 이끄는 AI가, 정작 엄청난 에너지를 소비하는 역설적인 상황이다. ●SKT ‘에이닷’ GPU 1040개 사용 초거대 AI는 복잡한 연산을 동시다발로 하기에 고성능 처리장치를 필요로 한다. 그런데 고성능 처리장치는 전기를 많이 쓴다. 초거대 AI 운용엔 대체로 중앙처리장치(CPU)가 아닌 그래픽처리장치(GPU)가 쓰인다. AI반도체 시장점유율 90% 이상을 차지하는 엔비디아의 최신 GPU ‘A100’의 소비전력은 모델에 따라 300~400W(와트)이며 시간당 전력 소비량은 300~400Wh(와트시)이다. 초거대 AI 운용엔 GPU가 수백~수천개 사용된다. SK텔레콤의 초거대 AI 서비스 ‘에이닷’의 기반인 슈퍼컴퓨터 ‘타이탄’엔 A100이 1040개 들어간다. 챗GPT 구동엔 A100 1만개가 사용되는 것으로 알려졌다. 초거대 AI 운용에 필수인 인터넷데이터센터(IDC)도 대표적인 고전력 시설이다. 산업통상자원부의 지난달 자료에 따르면 IDC 한 개당 평균 연간 전력 사용량은 25GWh(기가와트시)로, 4인가구 기준 6000가구가 사용하는 전력량과 같은 수준이다. 애초에 AI 연산용이 아니라 그래픽 처리 속도를 높이기 위해 만들어진 GPU는 데이터를 한 번에 대량으로 처리할 수 있지만, 값이 비싸고 전력도 많이 소비한다. 이에 신경망처리장치(NPU)라는 AI 전용 반도체 개발이 GPU의 문제를 해결할 대안으로 주목받았다. SK텔레콤이 지분 50%를 보유한 사피온이 2020년 발표한 NPU ‘X220’은 지난해 AI 구동 성능 테스트에서 엔비디아의 ‘A2’를 뛰어넘은 바 있다. 그러면서도 65W에 불과한 소비전력은 고성능 CPU들과 비교해도 적은 축에 들어간다. 사피온은 올해 전작 대비 성능을 약 4배 향상시킨 신제품 ‘X330’을 출시할 예정이다. KT와 ‘AI 드림팀’을 이룬 반도체 회사 리벨리온도 ‘아톰’이라는 NPU를 개발했다. 아톰 역시 소비전력이 60~150W에 불과하며 챗GPT의 원천 기술인 ‘트랜스포머’ 계열 자연어 처리 기술을 지원한다. 개발 환경 등 현재 AI 생태계 자체가 GPU 체제에서 세워진 만큼 NPU 시장이 짧은 시일 내에 활성화되긴 어려울 것으로 보인다. 이에 GPU와 함께 칩셋을 이루며 방대한 데이터를 빠르게 처리하는 고성능 D램인 고대역폭메모리(HBM)가 AI 반도체의 효율을 극대화할 수 있는 방책으로 떠올랐다. ●침체된 반도체 시장 훈풍 기대감 SK하이닉스의 3세대 ‘HBM3’ 제품은 A100에 탑재되고 있으며, 엔비디아의 차기 GPU 신제품에 4세대 ‘HBM4’가 적용될 전망이다. 삼성전자는 HBM에 AI 프로세서를 결합한 지능형메모리(HBM-PIM) 제품을 AMD의 최신 GPU 제품에 공급하고 있다. 삼성전자에 따르면 HBM-PIM을 활용하면 기존 GPU 가속기 대비 평균 성능이 2배 증가하고 에너지 소모는 50% 감소한다. 업계에선 이런 고성능 D램이 얼어붙은 메모리반도체 시장의 ‘구원투수’ 역할을 할 수 있다고 보고 있다.
  • ‘몰라요’를 모르는 챗GPT… 팩트보다 ‘보기 좋은 답’ 찾아 거짓말

    ‘몰라요’를 모르는 챗GPT… 팩트보다 ‘보기 좋은 답’ 찾아 거짓말

    사람보다 말을 더 잘하는 인공지능(AI) ‘챗GPT’의 등장으로 정보기술(IT) 업계가 술렁이고 있다. 초거대 AI 모델은 뭐고 생성 AI 모델은 뭘까. 똑똑해진 AI가 인류를 지구 존속의 최대 위협 요인으로 간주하고 ‘말살 프로그램’을 실행하는 영화 같은 일이 어느 날 실제로 일어나는 건 아닐까. AI 업계 화려한 ‘스펙’을 가진 이들이 모여 있는 스타트업 ‘업스테이지’에서 AI 프로덕트 사업을 총괄하는 배재경(사진) 테크리더는 26일 서울신문과의 인터뷰에서 “영화에 등장하는 무서운 AI를 업계에선 인공일반지능(AGI·인간이 할 수 있는 어떤 지적인 임무도 해내는 단계)이라고 한다”며 “하지만 아직 챗GPT는 모르는 것을 모른다고 하는 능력, 또는 아는 것에 대해 어느 정도 확신하는지를 표현하는 능력조차 많이 부족해, AGI는 먼 얘기”라고 말했다. 다음은 일문일답.-챗GPT가 마치 사람처럼 거짓을 사실처럼 말하거나 틀린 답을 유도하면 기분 나빠하는 등 자의식이 있는 것처럼 반응하는 건 어떻게 가능한 건가. “자의식이 있는 것처럼 보이는 건 일종의 착시다. 생성 모델의 특성상 그럴듯한 문장을 만들어 내는 데는 탁월한 능력이 있다. AI의 학습은 두 가지 형태가 있는데 특정 지식 자체를 학습하기도 하지만 그 지식들 사이의 공통 패턴이나 지식을 표현하는 방법도 학습한다. 챗GPT는 이 중 특히 후자를 좀더 잘하도록 추가 학습이 많이 됐다. 학습의 목표가 정확성보다는 ‘사람이 보기에 적합’이었다.” -초거대 AI 모델은 뭐고 ‘초’거대가 되려면 어떤 기준을 충족해야 하는 건가. 생성 AI 모델은 또 뭔가. 둘 사이에 어떤 관계가 있나. “‘초’거대라고 하는 데에 명확한 기준은 없다. 오픈AI의 언어 모델 ‘GPT3’이 시발점으로 보인다. AI는 특정 문제 영역 한 가지를 잘하는 모델에서 최대한 많은 데이터를 학습하고 문제 영역에 특화된 데이터를 활용하는 걸 잘하는 모델로 변화했다. 기존 모델이 그래픽처리장치(GPU)가 4~8장 꽂힌 장비 한 대로 충분했다면 GPT3 이후엔 장비 수백~수천 대 수준이 필요하게 되면서 ‘초거대’라고 부르기 시작했다. 초거대 모델과 생성 모델은 논리적으로는 상관관계가 없지만, 초거대가 아닌 생성 모델은 성능이 안 나오기 때문에 지금처럼 ‘생성’과 ‘초거대’가 같이 쓰이다 보니 혼동이 생기는 것 같다.” -전문가가 보기에도 챗GPT는 놀라운가. 인터넷, 스마트폰이 나타났을 때와 비슷한 충격인가. “챗GPT의 등장에 업계도 대체로 놀랍다는 반응이다. 그런데 인터넷, 스마트폰과 비교해야 하는 건 챗GPT가 아니라 AI가 가져올 변화다. 인터넷은 도구가 활성화될 수 있는 기반을 마련했고 스마트폰은 그 토대 위에서 인터넷을 더 활용성 있게 한 하드웨어로서 정보 민주화를 일으켰다. AI는 소프트웨어로서 정보 민주화에 도움을 준다고 보면 될 것 같다.” -주로 검색 광고를 하는 회사들이 AI 챗봇을 만드는데, 구글이 경계하는 것처럼 챗GPT 등장으로 검색 광고 시장이 변화할 것으로 보는지. “챗GPT처럼 대화형 검색에서 결과의 주요 문장에 레퍼런스(참고) 링크가 달리는데, 광고주들이 이 레퍼런스를 놓고 경쟁하게 만들 수 있을 것 같다. 예를 들면 돈 많이 낸 사이트 위주로 레퍼런스를 연결해 준다든지. 더 중요한 변화는 ‘구독형’으로 지식 소비 형태가 전환되는 것이다. 유튜브 때문에 검색 엔진을 덜 활용하게 됐고, 챗GPT도 이달 초 월 20달러짜리 구독형 서비스를 출시했다.” -AI 챗봇이 넘어야 할 문제는. “첫 번째는 정확성 문제다. 모르는 걸 모른다고 할 수 있어야 사람이 신뢰할 수 있다. 점진적으로 발전해 쓸 만한 수준은 될 것이지만, 여전히 사실 여부에 대한 최종 판단은 사람의 몫이 될 것이다. 두 번째는 시의성 문제다. 학습하는 데에 오래 걸려서 최신 정보를 학습하고 서비스에 반영하는 게 느릴 수밖에 없다. 서버 성능이 좋아지고 학습 방식이 개선되면 점점 나아질 문제다. 세 번째는 비용이다. 학습 비용뿐 아니라 서비스 중에도 계속 GPU 장비를 엄청나게 사용해야 한다. 인프라 비용이 천문학적일 수밖에 없다. 지금 오픈AI가 운영하는 구독 서비스도 얼마나 수지타산이 맞을지 의문이다.”
  • “챗GPT 목표는 ‘사람이 보기 적합’… 거짓을 사실처럼 말하는 이유”

    “챗GPT 목표는 ‘사람이 보기 적합’… 거짓을 사실처럼 말하는 이유”

    사람보다 말을 더 잘하는 인공지능(AI) ‘챗GPT’가 나타나 정보기술(IT) 업계가 술렁이고 있다. 초거대 AI 모델은 뭐고 생성 AI 모델은 뭘까. 똑똑해진 AI가 인류를 지구 존속에 최대 위협 요인으로 간주하고 ‘말살 프로그램’을 실행하는 영화같은 일이 어느날 실제로 일어나는 게 아닐까? AI 업계 화려한 ‘스펙’을 가진 이들이 모여있는 스타트업 ‘업스테이지’에서 AI 프로덕트 사업을 총괄하는 배재경 테크리더는 26일 서울신문과 인터뷰에서 “영화에 등장하는 무서운 AI를 업계에선 인공일반지능(AGI·인간이 할 수 있는 어떤 지적인 임무도 해 내는 단계)라고 한다”며 “하지만 아직 챗GPT는 모르는 것을 모른다고 하는 능력, 또는 아는 것에 대해 어느 정도 확신하는지를 표현하는 능력조차 많이 부족해, AGI는 먼 얘기”라고 말했다. 다음은 일문일답. 그렇다면 챗GPT가 사실관계가 틀렸는데도 마치 사람이 거짓말하는 것처럼 그럴 듯하게 말하거나, 틀린 답 유도하면 기분 나빠하고, AP 기자에게 인신공격을 하는 등 자의식이 있는 것처럼 대답하는 건 어떻게 가능한 건가. “자의식이 있는 것처럼 보이는 건 일종의 착시다. 이런 경우가 몇번 나온다고 해서 무서워하거나 자의식이 있다고 볼 필요는 없다. 생성 모델의 특성 상 그럴듯한 문장을 만들어내는 데는 탁월한 능력이 있고, 어떤 질문엔 진짜인 것처럼 대답할 수도 있다. 인터넷에 이미 유사한 표현이 많이 있었을 테니 AI에겐 어렵지 않은 일이다. 만일 다양한 질문이나 조건에서 일관되게 그렇게 답변할 수 있다면 AGI에 도달했다고 볼 수 있을 텐데, 그런 시점은 아직은 먼 미래일 것으로 예상된다.” “AI의 학습은 두 가지 형태가 있는데 특정 지식 자체를 학습하기도 하지만 그 지식들 사이의 공통 패턴이나 지식을 표현하는 방법도 학습한다. 챗GPT는 이 중 특히 후자를 좀 더 잘 하도록 추가 학습이 많이 됐다. ‘요약해줘’, ‘번역해줘’, ‘몇개 나열해줘’, ‘제목:저자 형태로 값을 뽑아줘’ 등의 명령은 정보 사이의 공통 패턴을 잘 학습했기 때문에 아주 잘 동작한다. 때문에 사실이 아니라도 그럴듯하게 문장을 만들어내기도 한다. 학습의 목표가 정확성보다는 ‘사람이 보기에 적합할 것’이었기 때문이다.” 초거대 AI 모델은 뭐고 ‘초’거대가 되려면 어떤 기준을 충족해야 하는 건가. 생성 AI 모델은 또 뭔가. 둘 사이에 어떤 관계가 있나? “‘초’거대라고 하는 데에 명확한 기준은 없다. 오픈AI의 언어 모델 ‘GPT-3’이 시발점으로 보이는데, 인터넷 상 수집할 수 있는 거의 모든 데이터를 학습에 활용했고 이렇게 방대한 데이터 학습을 위해 모델 사이즈도 커져야 했다. AI는 특정 문제 영역 한가지를 잘하는 모델에서 최대한 많은 데이터를 학습하고 문제 영역에 특화된 데이터를 활용하는 걸 잘하는 모델로 변화했다. 기존 모델이 그래픽처리장치(GPU)가 4~8장 꽂힌 장비 한 대로 충분했다면, GPT-3 이후엔 장비 수백~수천대 수준이 필요하게 되면서 초거대라고 부르기 시작했다. 초거대 모델과 생성 모델은 논리적으로는 상관관계가 없지만 최근 언어 생성 모델이 사이즈가 커지면서 성능이 급속도로 향상됐다. 반대로 말하면, 초거대가 아닌 생성 모델은 성능이 안나오기 때문에 지금처럼 ‘생성’과 ‘초거대’가 같이 쓰이다 보니 혼동이 생기는 것 같다.”전문가가 보기에도 챗GPT는 놀라운가? 인터넷, 스마트폰이 나타났을 때와 비슷한 충격인가? “챗GPT의 등장에 업계도 대체로 놀랍다는 반응이다. 매우 복잡한 상황을 고려한 고도의 직관이 필요한 바둑이라는 영역에서 인간을 이길 수 없을 거라는 생각을 알파고가 깨 버렸는데, 언어의 영역에서도 이와 크게 다르지 않다는 걸 챗GPT가 보여준 셈이다. 그런데 인터넷, 스마트폰과 비교해야 하는 건 챗GPT가 아니라 AI가 가져올 변화다. AI 성능의 발전이 챗GPT 때문에 한 순간에 찾아온 것은 아니고, 그 이전에 이미 많은 기술적 진보가 있었다. 언어 쪽만 진보가 늦다가 최근 터지게 된 것이기 때문에, 변혁은 챗GPT가 아니라 AI가 일으키는 것이다. 인터넷은 도구가 활성화될 수 있는 기반을 마련했고, 스마트폰은 그 토대 위에서 인터넷을 더 활용성 있게 한 하드웨어로서 정보 민주화를 일으켰다. AI는 소프트웨어로서 정보 민주화에 도움을 준다고 보면 될 것 같다. 그래서 AI는 인터넷과 스마트폰 수준의 도약이라고 생각한다.” 네이버 카카오도 연내 챗봇 서비스를 출시한다고 한다. 바이두도 곧 출시한다고 하고, 주로 검색 광고를 하는 회사들이 AI 챗봇을 만드는데, 구글이 경계하는 것처럼 챗GPT 등장으로 검색 광고 시장이 변화할 것으로 보는지. “챗GPT가 잘하는 쪽은 전자상거래가 아니라 지식 분야다. 그런데 지식이 하는 역할이 대체로 사람들을 전자상거래로 끌어들이는 역할이고, 돈은 결국 전자상거래 상품 광고 쪽에서 나온다. 그래서 어찌 보면 검색 광고 수익 모델은 크게 달라지지 않을 수 있다. 다만, 챗GPT처럼 대화형 검색에서 결과의 주요 문장에 레퍼런스(참고) 링크가 달리는데, 광고주들이 이 레퍼런스를 놓고 경쟁하게 만들 수 있을 것 같다. 예를 들면 돈 많이 낸 사이트 위주로 레퍼런스를 연결해준다든지.” “더 중요한 변화는 ‘구독형’으로 지식 소비 형태가 전환되는 것이다. TV가 처음 나오면서 무작위 광고로 시작했고, 검색과 전자상거래가 등장하며 사용자 맞춤형 광고로 넘어갔다가 이제 특정 플랫폼에서 충분히 값어치를 얻고 있다고 판단되면 더 이상 광고를 안 보고 구독료를 내고 보는 형태가 되는 것이다. 챗GPT의 등장으로 동영상 뿐 아니라 텍스트나 이미지 정보도 구독형으로 가게 되는 과정에 서게 됐다고 본다. 유튜브 때문에 검색 엔진을 덜 활용하게 됐고, 기존 검색 엔진에 잘 안 가게 하는 챗GPT도 구독형으로 가려고 한다.” AI 챗봇이 우리 생활을 어디까지 변화시킬 수 있을까. AI 챗봇이 넘어야 할 문제는 무엇인가. “챗GPT가 잘하는 분야는 정보검색, 컨텐츠 생성, 추천, 요약, 번역, 코딩 등이다. 따라서 이 분야가 직접적인 영향을 받을 것으로 보이고 지식 노동자들이 바로 영향을 받을 것 같다. 생각해 보면 대부분의 업무가 정보를 찾고 분석하고 정리하는 것이라 각 업중에서 많은 사람들이 직간접 영향을 받게 될 것이다. 특정 업계가 영향을 더 받고 덜 받고 문제가 될 수도 있지만 결국 지식을 소비하는 작업 패턴, 또는 우리 삶의 패턴이 바뀌게 되지 않을까 싶다.” “챗봇이 넘어야 할 문제는 세 가지 정도로 보인다. 첫번째는 정확성 문제다. 가장 근본적인 문제인데, 모르는 걸 모른다고 할 수 있어야 한다. 그래야 신뢰를 할 수 있다. 완전히 극복하기는 힘들겠지만 점진적으로 발전해 쓸만한 수준은 될 것이다. 그럼에도 여전히 사실 여부에 대한 최종 판단은 사람의 몫이 될 것이다. 두번째는 시의성 문제다. 학습하는 데에 오래 걸리기 때문에 최신 정보를 학습하고 서비스에 반영하는 게 느릴 수밖에 없다. 서버 성능이 좋아지고 학습 방식이 개선되면 점점 나아질 문제다. 세번째는 비용이다. 학습 비용뿐 아니라 서비스 중에도 계속 GPU 장비를 엄청나게 사용해야 한다. 인프라 비용이 천문학적일 수밖에 없다. 지금 오픈AI가 운영하는 구독 서비스도 얼마나 수지타산이 맞을지 의문이다.” 업스테이지뿐 아니라 특히 기업 간 거래(B2B) 위주 AI 기술 기업들은 하나같이 일반 독자들이 어떤 회사인지 잘 모른다. 업스테이지는 어떤 회사인가. “AI 기술이 많이 발전했지만 아직 제대로 활용하지 못하는 기업이 매우 많다. 모든 회사가 개발팀, 또는 AI 개발팀을 보유할 수 없으니 당연하다. 이런 회사들이 좀 더 적은 비용으로 빠르게 새로운 기술을 누릴 수 있게 하는 게 업스테이지의 목표다. 현재는 이미지 내 문자를 인식해 원하는 정보를 뽑아내는 기술, 전자상거래에서 추천·검색 기능을 고도화해 사업을 더 키우려는 회사에 도움을 주는 기술에 초점을 맞추고 있다.”
  • [전지적 체험시점] 분리수거 나왔다 별자리 관측에 빠지다…갤럭시 S23 울트라

    [전지적 체험시점] 분리수거 나왔다 별자리 관측에 빠지다…갤럭시 S23 울트라

    기자가 사는 곳은 매주 수요일이 재활용품을 분리 배출하는 날이다. 지난 15일 밤 퇴근 후 한주간 차곡차곡 쌓아둔 재활용품 더미와 함께 삼성전자에서 체험용으로 빌린 갤럭시 S23 울트라를 챙겨 나갔다. 그간 극심했던 서울의 미세먼지와 초미세먼지 농도가 ‘보통’ 수준으로 개선됐고, 퇴근길에 올려다본 밤하늘엔 서울의 도심치고는 별이 꽤 잘 보여 그간 미뤄왔던 야간 촬영을 해보기 위해서다. 보통 2~3분이면 끝냈던 수요일 밤의 가사노동은 이날 뜻밖의 ‘별자리 관측’으로 이어지면서 30분가량을 지상 주차장에서 보냈다. 결과물은 놀라웠다. 삼각대 없이 손으로, 그것도 주변 불빛의 방해가 없는 산지가 아닌 아파트 단지에서 찍은 별 사진치고는 만족할만한 성능을 보였다. “사람의 눈에 더욱 가까이 다가가는 카메라 혁신을 이뤘다”라던 삼성 측의 자랑에는 그만한 근거가 있었다. 삼면이 아파트 건물로 둘러싸인 공간에서 밤하늘을 촬영했음에도 꽤 많은 별과 위성 등이 또렷하게 담겼다.갤럭시 S23 시리즈는 전 모델에 전문가 사진 모드(EXPERT RAW)를 통해 천체 사진 촬영을 돕는 ‘천체 가이드’ 기능도 제공한다. 사진에는 오리온자리와 화성을 비롯해 다수의 위성이 촬영됐다. 전작 S22 울트라를 통해 해외에서도 화제를 모았던 달 촬영 성능은 압도적으로 진화했다. 마침 제품을 받은 지난 6일은 올해 정월대보름(음력 1월 15일) 바로 다음날이었다. 이 역시 삼각대 없이 아파트 지상 주차장에서 100배 스페이스줌을 활용해 촬영했다. 달과 하늘의 경계는 뚜렷했고, 달 표면의 음영과 분화구까지 선명하게 담아냈다.삼성전자가 카메라 이미지 센서 개선에 인공지능(AI)의 개입까지 접목했다는 점에서 일부 IT(정보기술) 커뮤니티에서는 이를 실제 달 촬영의 결과물이 아닌 AI가 학습한 달의 이미지를 합성한 ‘달고리즘’이라는 주장이 반복되지만 이는 사실과 다르다. 갤럭시 S시리즈의 카메라 개발을 이끈 조성대 삼성전자 MX(모바일 경험)사업부 비주얼솔루션 팀장(부사장)은 “달을 촬영 작동 방식은 스마트폰고 DSLR과 동일하다”라면서 “AI는 피사체와 경계의 구분을 더욱 보정하는 수준으로 개입하고 이는 사용자가 AI 개입 여부를 설정할 수 있다”고 말했다. 이어 S23 시리즈의 천체 촬영 원리에 대해서는 “별은 주변의 노이즈(빛)와 구분이 필요한데 AI는 촬영하는 위치에 실제로 별이 있는지를 확인하고 별이 아닌 노이즈를 처리하는 단계에 개입한다”고 설명했다. 주간에는 서울 남산 정상에 올라 2억 화소 모드와 일반 촬영 모드, 광학 줌 모드 등을 활용해 주변 풍경을 담아봤다. 남산타워에서 직선거리로 약 4.2㎞ 떨어진 청와대를 100배 줌으로 당겨 찍은 결과 청와대 본관 앞 정원과 지붕, 건물 벽면과 창틀까지 구체적으로 확인할 수 있었다.전작 대비 더욱 강화된 나이토그라피(야간촬영) 기능은 주변 빛이 거의 없는 상황에서도 피사체를 밝고 선명하게 담아냈다. S23 시리즈는 AI 이미지 향상 기술을 적용해 극저조도 환경에서의 촬영 제약을 극복했다.삼성전자가 이번 제품을 준비하면서 카메라 성능 개선만큼이나 힘을 준 부분은 ‘최적의 게이밍 환경 조성’이다. 지난해 S22 시리즈 출시 직후 제기된 GOS(게임 옵티마이징 서비스) 논란은 그해 3월 열린 삼성전자 정기 주주총회장까지 달구며 한종희 대표이사 부회장이 주주들에게 재차 고개를 숙여야 했다. GOS는 고사양 게임 구동 시 과도한 발열과 배터리 소모를 막기 위해 그래픽 성능을 떨어트리는 기능으로, 삼성전자는 이 기능을 S22 시리즈에 적용하고도 이를 고객들에게 알리지 않아 소비자와 주주들의 반발을 산 바 있다. 삼성전자의 ‘아픈 손가락’이 된 S22 논란은 S23 시리즈 게이밍 혁신의 밑거름이 됐다. 전작에서는 울트라에만 탑재됐던 냉각장치 ‘베이퍼 챔버’는 S23 전 기종에 적용됐다. 여기에 퀄컴이 갤럭시 S23 시리즈 맞춤형으로 제작한 스냅드래곤8 2세대 프로세서가 더해지면서 그래픽처리장치(GPU) 성능은 전작 대비 41% 향상됐다. 고사양 게임을 작동해도 끊김 없이 몰입감 높은 환경에서 장시간 즐길 수 있다. 게이밍 환경 및 발열 정도는 지난해 GOS 사태를 촉발했던 모바일 게임 ‘원신’을 한 시간가량 진행하며 확인했다. 화면 전환과 캐릭터의 움직임은 끊김 없이 부드러웠고, 게임 그래픽에서는 스마트폰의 성능과 더불어 모바일 게임의 진화까지 실감할 수 있었다.제품 발열도 게임을 즐기는데 전혀 방해되지 않았다. 과거 스마트폰으로 게임을 장시간 즐기면 기계가 너무 뜨거워져 게임을 중단하고 제품을 식혔던 기억에 비하면 S23 울트라는 손으로 기계를 계속 쥐고 있어 온기가 느껴지는 정도였다. 문제는 결국 가격이다. 지난해 원자재가 급등에 고환율까지 겹치며 전 기종이 전작 대비 평균 15만원 올랐다. S23 베이직이 115만 5000원, 플러스는 135만 3000원, 울트라는 159만 9400원이 기본 출고가로 결정됐다. 이 가운데 울트라는 자급제 전용 1TB모델(196만 2400원)이 200만원에 육박한다. 그럼에도 시장 초기 반응은 삼성전자에 고무적이다. S23 시리즈는 전작보다 하루 짧은 7일간 사전예약 판매를 진행했음에도 109만대의 예약이 몰리며 종전 S22 시리즈가 기록한 최다 사전판매 기록(101만 7000대)을 넘어섰다. 삼성닷컴에서는 예약 물량 60%가 울트라였고, 베이직이 23%, 플러스가 17% 순이었다. 3년 전 구매 후 잔고장 한 번 없이 잘 돌아가는 S20 기본형이 야속하기만 한 기자에게 삼성전자가 지난 17일 신제품 공식출시를 맞아 배포한 보도자료에 눈에 띄는 대목이 있었다. “삼성전자는 갤럭시 S23 시리즈 구매 고객을 대상으로 진행하는 ‘중고폰 추가 보상프로그램’도 3월 말까지 운영한다. 기존 스마트폰 반납 시 기본 중고 시세에 최대 15만원을 추가로 보상해 준다.” 이제 선택의 시간이 온 것 같다. 아내를 설득할 것인가, 지르고 혼날 것인가.
  • ‘챗GPT’가 불 지핀 
AI반도체 개발 경쟁

    ‘챗GPT’가 불 지핀 AI반도체 개발 경쟁

    오픈AI의 인공지능(AI) 챗봇 ‘챗GPT’로 불붙은 생성 AI 서비스 시장이 반도체 업계에 드리운 불황을 걷어낼 차세대 먹거리가 될 수 있을지 기대를 모으고 있다. 짧은 시간에 무수히 많은 연산을 해야 하는 초거대 모델 기반 생성 AI 운영엔 엄청난 수량의 고효율 반도체 칩셋이 필요하기 때문이다. 14일 업계에 따르면 챗GPT 운영엔 엔비디아의 그래픽처리장치(GPU) ‘A100’ 1만여개가 사용된다. AI 운용에 쓰이는 슈퍼컴퓨터엔 보통 GPU가 몇만 개 단위로 들어간다. GPU 수만 개가 방대한 양의 연산을 빠르게 처리하기 위해서는 고전력, 고비용이 들어갈 수밖에 없다. 샘 올트먼 오픈AI 최고경영자(CEO)는 최근 트위터에 “챗GPT 1회 사용에 몇 센트가 든다”고 적기도 했다. 챗GPT 가입자가 최근 1억명에 도달한 만큼 운영 비용은 하루 수백억원에 달할 것으로 추산된다. 국내 관련 업체들과 정부까지 나서서 AI 전용 반도체 개발을 추진하는 이유가 이런 고전력·고비용 문제에 있다. 앞으로 생성 AI 서비스가 더 많아질 것으로 예상되며, 업계가 저전력·고효율 반도체를 필요로 하기 때문이다. 우선 삼성전자와 SK하이닉스는 GPU에 붙는 메모리반도체 쪽에서 앞서 나가고 있다. 삼성전자는 자체 연산 기능이 탑재된 지능형반도체(PIM) 제품을 GPU 업계 2위인 AMD에 공급하고 있다. PIM은 프로세서와 메모리 사이에 오가는 데이터의 양을 자체 연산 기능으로 조절, 데이터 병목 현상을 해결하고 전력 효율을 크게 높일 수 있다. 삼성전자는 PIM 기술 고도화를 위해 네이버와 협력하고 있다. SK하이닉스는 업계 1위 엔비디아의 A100과 더 발전한 모델인 ‘H100’ 칩셋에 자사 고대역폭메모리(HBM) 반도체를 공급한다. HBM은 대량의 데이터를 한 번에 보낼 수 있는 메모리로, 지난해부터 AI 서버용으로 적용되기 시작했다. 챗GPT 등장 이후 수요가 예상보다 빠르게 증가하고 있다는 게 업계의 설명이다. 애초 AI 전용으로 만들어진 게 아닌 GPU 이후의 반도체로 신경망처리장치(NPU)가 주목을 받고 있다. 한국전자통신연구원(ETRI)이 2021년 말 자체 개발한 NPU를 서버에 도입해 본 결과 GPU 기반 서버보다 연산 성능은 4배, 전력 효율은 7배 늘었다. 다만 아직까지 AI 개발 환경이 GPU 기반으로 형성돼 NPU 시장은 초기 단계다. 정부는 AI 반도체 부문에 4년간 총 1조 200억원을 투자하겠다고 밝혔다. 과학기술정보통신부는 국산 AI 반도체를 단계별로 데이터센터에 적용해 국내 클라우드에 기반한 AI 서비스를 실증한다는 계획을 세웠다. 여기에만 올해 428억원, 2025년까지 1000억원을 지원한다. ‘AI 컴퍼니’를 비전으로 삼은 SK텔레콤은 자체 개발한 AI 반도체 ‘사피온’ 고도화에 집중하고 있다. KT는 반도체 제조사 리벨리온과 ‘AI 반도체 드림팀’을 구성해 AI 반도체 개발에 나섰다. 리벨리온은 최근 국내 최초로 챗GPT의 원천 기술인 ‘트랜스포머’ 계열 자연어 처리 기술을 지원하는 AI 반도체 ‘아톰’(ATOM)을 출시한다고 밝혔다.
  • 슈퍼컴 성능 2배 뛴 SKT ‘에이닷’… 대화형AI 고도화 전쟁 뛰어든다

    미국 인공지능(AI) 연구소 오픈AI의 채팅봇 ‘챗GPT’의 세계적인 흥행을 계기로 글로벌 빅테크들이 대화형 AI 개발에 나선 가운데 국내 기업들도 AI 고도화에 대한 투자를 강화하고 있다. AI 산업 확장은 메모리 업황 하락으로 실적 부진에 빠진 국내 반도체 기업에도 새로운 돌파구로 주목받고 있다. 챗GPT로 고도화한 초거대 대화형 AI ‘에이닷’의 연내 출시를 추진하고 있는 SK텔레콤은 에이닷의 두뇌 역할을 하는 슈퍼컴퓨터 ‘타이탄’을 기존 대비 2배로 확대 구축했다고 12일 밝혔다. SK텔레콤은 2021년부터 슈퍼컴퓨터를 구축해 자체 운영하고 있으며, 이번에 타이탄의 그래픽처리장치(GPU)를 기존의 2배인 1040개로 증설했다. 수십억개의 매개변수를 다루는 초거대 AI를 구동하기 위해서는 방대한 양의 데이터를 빠르고 정확하게 처리할 수 있는 슈퍼컴퓨터 인프라가 필수적이다. SK텔레콤의 슈퍼컴퓨터는 17.1페타플롭(Petaflop) 연산 성능을 지원한다. 1페타플롭은 1초에 수학 연산 처리를 1000조 번 수행한다는 의미로, SK텔레콤의 슈퍼컴퓨터는 1초당 1경 7100조 번 연산할 수 있다. 글로벌 시장조사기관 마켓앤마켓은 전 세계 대화형 AI 서비스 시장 규모가 연평균 23.5%의 성장률을 보이며 2026년에는 105억 달러(약 13조 1880억원)에 이를 것으로 내다봤다. 이는 삼성전자와 SK하이닉스 등 국내 반도체 기업에도 호재로 작용할 전망이다. 초거대 AI 구현을 위해서는 고대역폭 메모리(HBM)를 비롯한 고성능 D램 장착이 필수이기 때문이다. 두 기업은 AI에 특화한 AI 반도체 개발에도 속도를 내고 있다. 앞서 삼성전자는 지난 1일 실적 발표 콘퍼런스콜에서 챗GPT와 관련한 질문에 “웹 검색엔진과 AI가 결합하고 기술적 진화에 따라 메모리뿐만 아니라 업계 전반의 활용·확장 가능성이 매우 크다”며 AI 반도체 인프라 투자 확대 가능성을 시사한 바 있다.
  • 챗GPT가 불지핀 AI 고도화 경쟁…“초당 1경 7100조번 연산” 슈퍼컴 구축한 SKT

    챗GPT가 불지핀 AI 고도화 경쟁…“초당 1경 7100조번 연산” 슈퍼컴 구축한 SKT

    미국 인공지능(AI) 연구소 오픈AI의 채팅봇 ‘챗GPT’의 세계적 흥행을 계기로 글로벌 빅테크들이 대화형 AI 개발에 나선 가운데 국내 기업들도 AI 고도화에 투자를 강화하고 있다. AI 산업 확장은 메모리 업황 하락으로 실적 부진에 빠진 국내 반도체 기업들에게도 새로운 돌파구로 주목받고 있다.챗GPT로 고도화한 초거대 대화형 AI ‘에이닷’의 연내 출시를 추진하고 있는 SK텔레콤은 에이닷의 두뇌 역할을 하는 슈퍼컴퓨터 ‘타이탄’을 기존 대비 2배로 확대 구축했다고 12일 밝혔다. SK텔레콤은 2021년부터 슈퍼컴퓨터를 구축해 자체 운영하고 있으며, 이번에 타이탄의 그래픽처리장치(GPU)를 기존의 2배인 1040개로 증설했다. 수십억개 이상의 매개변수를 다루는 초거대 AI를 구동하기 위해서는 방대한 양의 데이터를 빠르고 정확하게 처리할 수 있는 슈퍼컴퓨터 인프라가 필수적이다. SK텔레콤의 슈퍼컴퓨터는 17.1 페타플롭(Petaflop) 연산 성능을 지원한다. 1 페타플롭은 1초에 수학 연산 처리를 1000조번 수행한다는 의미로, SK텔레콤의 슈퍼컴퓨터는 1초당 1경 7100조번 연산할 수 있다. 김영준 에이닷 추진단 담당은 “슈퍼컴퓨터 확대 구축을 통해 에이닷이 기존보다 더 정교한 학습이 가능해져 사람과 대화 흐름과 답변 완성도가 사람 수준에 가깝도록 개선하는 데 큰 역할을 할 것으로 기대된다”라면서 “앞으로도 공격적인 R&D(연구개발) 투자, 인프라 확대, 인재 영입 등을 통해 AI 기술 리더십을 선도하기 위해 지속적으로 노력할 것”이라고 말했다. 글로벌 시장조사기관 마켓앤마켓은 전 세계 대화형 AI 서비스 시장 규모가 연평균 23.5%의 성장률을 보이며 2026년에는 105억 달러(약 13조 1880억원)에 이를 것으로 내다봤다. 이는 삼성전자와 SK하이닉스 등 국내 반도체 기업에도 호재로 작용할 전망이다. 초고대 AI 구현을 위해서는 고대역폭 메모리(HBM)를 비롯한 고성능 D램 장착이 필수이기 때문이다. 두 기업은 AI에 특화한 AI 반도체 개발에도 속도를 내고 있다. 앞서 삼성전자는 지난 1일 실적 발표 컨퍼런스콜에서 챗GPT와 관련한 질문에 “웹 검색엔진과 AI가 결합하고 기술적 진화에 따라 메모리뿐만 아니라 업계 전반의 활용, 확장 가능성이 매우 크다”며 AI 반도체 인프라 투자 확대 가능성을 시사한 바 있다.
  • ‘AI’ 한 방 있지만 한 발 딛기 힘든 참 골 아픈 문제들

    ‘AI’ 한 방 있지만 한 발 딛기 힘든 참 골 아픈 문제들

    오픈AI의 인공지능(AI) 챗봇 ‘챗GPT’가 글로벌 정보기술(IT) 공룡들의 초거대 AI 전쟁을 촉발했다. 세계적으로 AI 서비스 경쟁이 격화되는 가운데 국내 기업들의 AI 기술 수준은 세계 2~3위권으로 미국을 발 빠르게 쫓고 있다. 하지만 기술·자본·인재풀을 모두 가진 미국 기업, 정부의 전폭적인 지원을 받는 중국 기업들과 경쟁하기엔 국내 기업의 상황이 녹록지 않다. 네이버의 초거대 AI 모델인 ‘하이퍼클로바’를 개발해 운영하는 네이버클라우드 AI랩 하정우 소장은 7일 “초거대 AI 기술과 생태계 분야에서 미국이 글로벌 리더십을 가지고 있으며 한국도 여러 기업이 ‘패스트 팔로잉’ 중”이라면서 “한국은 중국과 함께 세계 2~3위권 수준”이라고 답했다. AI솔루션 기업 업스테이지의 배재경 AI 프로덕트 리더는 “중국은 데이터 확보에 매우 유리한 조건을 갖추고 있어 성능 좋은 AI 응용 모델이 빠르게 나올 수 있고, 한국도 원천 기술과 응용 분야에서 비교적 많은 인재가 활약하고 있어 미국과 중국을 제외한 다른 선진국들에 비해 떨어지지 않는다”고 말했다. 네이버가 2021년 5월 국내 최초로 선보인 초거대 AI 언어 모델인 하이퍼클로바는 AI 모델의 크기를 나타내는 매개변수(파라미터)가 2040억개로, GPT-3(오픈AI)의 1750억개를 능가한다. 네이버가 상반기 출시하겠다고 공언한 생성 AI 서비스 ‘서치GPT’도 하이퍼클로바를 기반으로 한다. 카카오의 AI 전문 계열사 카카오브레인도 GPT-3 기반 한국어 특화 AI 언어 모델인 ‘KoGPT’를 2021년 11월 공개했다. 3000억개의 파라미터를 자랑하는 LG AI 연구원의 ‘엑사원’은 언어뿐 아니라 이미지, 영상 등 다양한 정보를 습득하고 다루는 ‘멀티 모달리티’ 능력도 갖췄다. 특히 초거대 AI는 데이터 확보와 개발, 운용에 막대한 비용이 소요되는데 그만큼 수익을 뽑아내기가 어렵다. 그래서 효율을 높이고 비용을 낮추는 데 큰 효과를 낼 수 있는 AI 반도체 개발은 업계에 매우 중요하다. 현재 널리 사용되는 그래픽처리장치(GPU)를 대체할 신경망처리장치(NPU)가 업계의 기대를 받고 있는데, 아직 초기 단계인 시장을 키우기 위해 정부와 국내 기업이 기민하게 움직이고 있다. 정부는 AI 반도체 부문에 4년간 1조 200억원을 투자하겠다고 밝혔다. KT는 반도체 제조사 리벨리온과 ‘AI 반도체 드림팀’을 구성해 AI 반도체 개발에 나섰고, ‘AI 컴퍼니’를 비전으로 삼은 SK텔레콤도 자체 개발한 NPU ‘사피온’의 고도화에 집중하고 있다. 삼성전자는 자체 연산 기능을 탑재해, 코어로 보내는 데이터를 가공하는 메모리인 PIM(Processing In Memory)를, SK하이닉스는 초고속 메모리 HBM(High Bandwidth Memory)만들고 있다. 이들 업체는 세계 시장을 장악하고 있는 엔비디아(SK하이닉스)와 AMD(삼성전자)의 GPU 제품에 각각 PIM을 공급하고 있다. 하지만 ‘공룡’이라고 표현되는 미국 기술 기업들에 비해 국내 기업의 자본력과 인력풀은 턱없이 부족한 상황이다. 마이크로소프트는 오픈AI에 100억 달러(약 12조 5800억원)의 통 큰 투자를 감행했으며, 구글은 2014년 인수한 AI 스타트업 딥마인드가 6년간 적자만 내는 동안에도 막대한 투자를 멈추지 않았다. 중국은 ‘AI 굴기’로 자국 기업에 지원을 쏟아붓고 있다. 네이버가 지난해 연구개발에 투자한 금액은 8370억원이다. 영국 데이터 분석 미디어인 토터스인텔리전스의 지난해 ‘글로벌AI지수’ 조사에서 한국은 개발 능력이 3위였지만 인재 분야에선 28위에 그쳤다. 국내에서 본격적으로 AI 전문 인재를 양성한 시간이 길지 않아서다. 데이터 확보와 결과물에 대한 국내 규제나 사회의 보수성도 초거대 AI 서비스가 더 활발히 출시되는 데 제약이 된다. 하 소장은 “학습 데이터의 지식재산권, 생성된 결과물에 대한 저작권 등 문제에 좀더 개방적으로 접근해야 쉽게 기술을 운용할 수 있다”며 “초거대 AI를 더 많은 사람이 사용하게 하면서 문제를 함께 논의하고 수정해 나가는 사회적 공감대를 만드는 것이 중요하다”고 말했다. 검색 광고, 클라우드, 반도체처럼 소수의 승자가 모든 걸 가져가기 쉬운 IT 업계에서 국내 기업이 글로벌 기업에 의한 기술 종속을 면하기 위해서는 정부의 지원이 필요하다. 하 소장은 “기업들이 연구 투자와 산학 협력을 원활하게 할 수 있도록 다양한 지원이 필요하다”면서 “특히 초거대 AI를 활용하는 능력이 중요해질 전망인데, 중등·대학 교육 과정에서 AI 문해력(리터러시)을 강화할 수 있도록 지원해야 한다”고 말했다.
  • 치열해지는 IT공룡들 AI 전쟁… 국내기업 ‘실탄’이 부족하다

    치열해지는 IT공룡들 AI 전쟁… 국내기업 ‘실탄’이 부족하다

    오픈AI의 인공지능(AI) 챗봇 ‘챗GPT’가 글로벌 정보기술(IT) 공룡들의 초거대 AI 전쟁을 촉발했다. 세계적으로 AI 서비스 경쟁이 격화되는 가운데, 국내 기업들의 AI 기술 수준은 세계 2~3위권으로 미국을 발빠르게 쫓고 있다. 하지만, 개별 기업들의 자본력과 인재풀로는 미국 기업에 기술 종속을 면하기 어려운 상황이다. 네이버의 초거대 AI 모델인 ‘하이퍼클로바’를 개발, 운영하는 네이버클라우드 AI랩 하정우 소장은 7일 서울신문이 이메일로 보낸 질문에 “초거대 AI 기술과 생태계 분야에서 미국의 오픈AI, 마이크로소프트(MS), 구글 중심으로 글로벌 리더십을 가지고 있으며 한국도 여러 기업이 경쟁력 있게 ‘패스트 팔로잉’ 중”이라면서 “한국이 중국과 함께 전세계 2~3위권 수준”이라고 답했다. 네이버가 2021년 5월 국내 최초로 선보인 초거대 AI 언어 모델인 하이퍼클로바는 AI 모델의 크기를 나타내는 매개변수(파라미터)가 2040억개로, 오픈AI의 GPT-3의 1750억개를 능가한다. 하이퍼클로바는 클로바 케어콜, 네이버 쇼핑, 네이버 검색 등을 통해 상당히 상용화돼 있으며, 국내 500개 이상 스타트업이 ‘클로바 스튜디오’를 통해 하이퍼클로바를 활용, 새로운 서비스와 앱을 만들어 사업 기회를 만들고 있다. 네이버가 상반기 출시하겠다고 공언한 생성 AI 서비스 ‘서치GPT’도 하이퍼클로바를 기반으로 한다. 카카오의 AI 전문 계열사 카카오브레인도 GPT-3 기반 한국어 특화 AI 언어 모델 ‘KoGPT’를 2021년 11월 공개했으며, 초거대 AI가 만들어 낸 AI 화가 ‘칼로’와 AI 시인 ‘시아’를 활용, 다양한 서비스로 확장을 계획하고 있다. 3000억개의 파라미터를 자랑하는 LG AI 연구원의 ‘엑사원’은 언어 뿐 아니라 이미지, 영상 등 다양한 정보를 습득하고 다루는 ‘멀티 모달리티’ 능력도 갖췄다. KT는 상반기 2000억개 파라미터를 가진 초거대 AI ‘믿음’을 출시, 다양한 서비스에 적용할 예정이다.최근 한화생명과 삼성SDS에 자사 솔루션 AI팩을 공급한 AI솔루션 기업 업스테이지의 배재경 AI 프로덕트 리더는 “원천 기술에 있어, 미국이 계속 우위를 가져왔고 새로운 시도가 가장 빈번하게 이뤄져 왔으며, 미국 기업이 시장을 잡고 있는 상황”이라면서 “중국은 데이터 확보에 매우 유리한 조건이라 성능 좋은 AI 응용 모델이 빠르게 나올 수 있고, 한국도 원천 기술, 응용 분야에서 많은 인재들이 활약하고 있어, 미국과 중국을 제외한 다른 선진국들에 비해 떨어지지 않는다”고 말했다. 하지만 ‘공룡’이라고 표현되는 미국 기술 기업들에 비해 국내 기업의 자본력과 인력풀은 턱없이 부족한 상황이다. 마이크로소프트는 오픈AI에 100억 달러(약 12조 5800억원)의 통 큰 투자를 감행했으며, 구글은 2014년 인수한 딥마인드가 6년간 적자만 내는 동안에도 막대한 투자를 멈추지 않았다. 중국은 ‘AI 굴기’로 자국 기업에 국가 단위의 전폭적인 지원을 쏟아붓고 있다. 네이버가 지난해 연구개발에 투자한 금액은 8370억원이다. 영국 데이터 분석 미디어인 토터스인텔리전스의 지난해 ‘글로벌AI지수’ 조사에 한국은 개발 능력이 3위였지만 인재 분야에선 28위에 그쳤다. AI 전문 인재를 양성한 시간이 길지 않아서다. 데이터 확보와 결과물에 대한 국내 규제나 사회의 보수성도 초거대 AI 서비스가 더 활발히 출시되는 데에 제약이 된다. 하 소장은 “학습 데이터의 지식재산권, 생성된 결과물에 대한 저작권 등 문제에 좀 더 개방적으로 접근해야 쉽게 기술을 운용할 수 있다”며 “초거대 AI를 더 많은 사람이 사용하게 하면서, 문제를 함께 논의하고 수정해 나가는 사회적 공감대를 만드는 것이 중요하다”고 말했다. 특히 초거대 AI는 데이터 확보와 개발, 운용에 막대한 비용이 소요되는데, 그만큼의 수익을 서비스로 뽑아내기가 어렵다. 그래서 효율을 높이고 비용을 낮추는 데에 큰 효과를 낼 수 있는 AI 반도체 개발은 업계에 매우 중요하며, 시장 규모도 계속해서 커질 전망이다.현재 널리 사용되는 그래픽처리장치(GPU)는 애초에 AI를 위해 만들어진 프로세서가 아니라, AI가 거대해질수록 가격이 비싸지고 전력 소모가 커진다. 그래서 대용량의 데이터를 처리하면서 비용을 낮출 수 있는 프로세서로 신경망처리장치(NPU)가 업계의 기대를 받고 있다. 한국전자통신연구원이(ETRI) 2021년말 자체 개발한 NPU를 서버에 도입해 본 결과 GPU 기반 서버보다 연산 성능은 4배, 전력 효율은 7배 늘었다. 아직 초기 단계인 NPU 시장에 정부와 국내 기업은 발빠르게 진출했다. 정부는 AI 반도체 부문에 4년 간 1조 200억원을 투자하겠다고 밝혔다. KT는 반도체 제조사 리벨레온과 ‘AI 반도체 드림팀’을 구성해 AI 반도체 개발에 나섰고, ‘AI 컴퍼니’를 비전으로 삼은 SK텔레콤도 자체 개발한 AI반도체 ‘사피온’ 고도화에 집중하고 있다. 프로세서만큼 중요한 요소는 메모리다. 프로세서의 두뇌에 해당하는 코어와 D램 사이에 오가는 데이터 양이 많아지면 데이터 병목현상이 생기는데, 고성능 메모리가 이를 해결할 수 있다. 삼성전자는 자체 연산 기능을 탑재해, 코어로 보내는 데이터를 가공하는 메모리인 PIM(Processing In Memory)를, SK하이닉스는 초고속 메모리 HBM(High Bandwidth Memory)만들고 있다. 이들 업체는 세계 시장을 장악하고 있는 엔비디아(SK하이닉스)와 AMD(삼성전자)의 GPU 제품에 각각 PIM을 공급하고 있다. 글로벌 기술기업들에 맞서는 국내 AI 업계에 정부 지원은 필수다. 특히 투자 규모와 인재 확보 측면에서 격차가 크다. 하 소장은 “기업들이 연구 투자와 산학 협력을 원활하게 할 수 있도록 다양한 지원이 필요하다”면서 “특히 초거대 AI를 활용할 수 있는 능력이 중요해질 전망인데, 중등·대학 교육 과정에서 AI 문해력(리터러시)을 강화할 수 있도록 지원해야 한다”고 말했다.
위로