찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • GPU
    2026-01-24
    검색기록 지우기
  • CHIP
    2026-01-24
    검색기록 지우기
  • CNN
    2026-01-24
    검색기록 지우기
  • ASEAN
    2026-01-24
    검색기록 지우기
  • 12
    2026-01-24
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
791
  • 일본판 챗GPT 나올까…소프트뱅크, AI에 1.3조원 추가 투자

    일본판 챗GPT 나올까…소프트뱅크, AI에 1.3조원 추가 투자

    손정의(일본명 손 마사요시)가 이끄는 일본 통신기업 소프트뱅크가 고성능 생성형 인공지능(AI) 개발을 위해 내년까지 1500억엔(1조 3380억원)을 추가로 투자하기로 했다. 22일 니혼게이자이신문은 소프트뱅크가 지난해 생성형 AI 개발에 필요한 계산 설비 기반을 다지는 데 200억엔(1784억원)을 투자한 데 이어 내년까지 1500억엔을 추가 투자해 미국 오픈AI가 만든 챗GPT-4와 비슷한 수준의 세계 최고급 모델 제작을 추진하기로 했다고 밝혔다. 니혼게이자이신문은 “(생성형 AI 투자에서) 일본 기업으로서는 최대 규모”라고 말했다. 앞서 손 회장은 지난해 10월 “소프트뱅크그룹을 세계에서 AI를 가장 많이 활용하는 그룹으로 만들고 싶다”며 AI 사업 확대 계획을 밝힌 바 있다. 소프트뱅크는 생성형 AI 기반이 되는 기술인 거대언어모델(LLM)을 개발 중이다. 이 회사는 미국 엔비디아로부터 그래픽 처리장치(GPU) 반도체를 구입해 계산 능력을 현재의 수십 배로 향상시킬 계획으로 알려졌다. 특히 내년 3월 이전까지 3900억 파라미터 모델을 완성하고 내년 4월 이후 일본어에 특화된 1조 파라미터 수준의 모델 개발에 나설 계획이다. 전 세계 생성형 AI 시장에서 최고 수준 파라미터 기준은 1조로 알려져 있다. 이 신문은 “챗GPT-4의 파라미터가 1조 규모에 달한다”며 “일본 기업인 NTT와 NEC 모델은 수십억에서 수백억 파라미터에 머물고 있다”고 밝혔다. 독일 시장조사 업체인 스타티스타는 일본의 생성형 AI 시장 규모가 2030년이 되면 지난해의 17배인 130억 달러(18조원)에 이를 것으로 추산했다.
  • 삼성 “차세대 16단 도입” SK “TSMC와 기술동맹”

    삼성 “차세대 16단 도입” SK “TSMC와 기술동맹”

    차세대 인공지능(AI) 메모리 반도체인 6세대 고대역폭메모리 ‘HBM4’ 개발을 놓고 국내 업체 간 주도권 경쟁이 치열하다. 삼성전자는 자체 기술력, SK하이닉스는 파운드리(위탁생산) 1위인 대만 TSMC와의 협업으로 성능의 한계를 돌파한다는 전략이다. 2026년 HBM4 양산을 앞두고 두 업체가 얼마나 많은 고객사를 확보하느냐가 관건이 될 것으로 보인다. 21일 업계에 따르면 삼성전자는 지난 2월 D램 칩을 12단까지 쌓아 올린 5세대 HBM(HBM3E)을 가장 먼저 개발한 데 이어 HBM4에는 16단 기술을 도입한다는 계획이다. D램 칩을 수직으로 많이 쌓을수록 용량과 대역폭(메모리의 데이터 전송 속도)이 늘어난다. 대역폭이 높을수록 한번에 처리할 수 있는 데이터의 양이 많아지기 때문에 고성능 메모리를 요구하는 인공지능(AI) 반도체 업체로부터 선택받을 확률도 커진다. 다만 HBM 제품의 전체 두께는 고정돼 있는 상황에서 층수를 높이는 거라 조립 난도가 높아지고 열 저항이 커지는 문제가 발생한다. 메모리와 파운드리 역량을 결집해 차세대 HBM 전담팀을 구성한 삼성전자는 자체 기술력으로 이 한계를 극복하면서 수율을 극대화한다는 전략이다. 윤재윤 삼성전자 D램개발실 상무는 지난 18일 삼성전자 뉴스룸 인터뷰에서 16단 도입 계획을 밝히며 “HBM 칩 1개라도 불량이 발생하면 AI 서비스가 그 순간 멈출 수 있기 때문에 HBM의 품질을 완벽하게 보증할 수 있는 설계·테스트 기술을 확보하는 게 중요하다”고 강조했다. 이에 맞서 SK하이닉스는 파운드리 1위 업체인 대만 TSMC와의 협업 카드를 꺼내 들었다. SK하이닉스는 5세대 HBM까지는 자체 공정으로 HBM의 두뇌 역할을 하는 ‘베이스 다이’를 만들었는데, 6세대부터는 TSMC가 보유한 초미세 선단 공정을 활용한다는 것이다. 베이스 다이는 HBM 제품의 바닥 부분으로 그래픽처리장치(GPU)와 연결돼 HBM을 통제하는 역할을 한다. TSMC의 패키징 방식(CoWoS)과 SK하이닉스의 HBM 기술 결합을 최적화해 HBM 관련 고객사 요청에도 공동 대응한다는 방침이다. 업계에선 두 업체가 HBM 설계·생산부터 함께하면 맞춤형 설계 요구에 대응하기 수월해져 이들의 고객사인 엔비디아와의 공조 체제도 더 강화될 것으로 본다. 김양팽 산업연구원 전문연구원은 “메모리와 파운드리 업체 간 협력은 (기존에) 없었던 모델”이라면서 “이러한 협업으로 SK하이닉스가 TSMC의 고객사까지 확보가 용이해졌다는 점은 주목할 만하다”고 말했다.
  • AI 성능 3배 이상 업그레이드…인텔 ‘루나 레이크’ [고든 정의 TECH+]

    AI 성능 3배 이상 업그레이드…인텔 ‘루나 레이크’ [고든 정의 TECH+]

    지난 인텔 비전 2024 행사에서 인텔이 내세운 표어는 어디서든 AI(AI Everywhere)이었습니다. 팻 겔싱어 인텔 CEO는 기조연설 초반에 올해 하반기에 출시할 노트북 및 태블릿 PC CPU인 루나 레이크 실물과 함께 AI 연산 능력을 세 배나 높였다고 공개했습니다. (사진) 루나 레이크의 AI 연산 능력은 100TOPS 이상입니다. 앞서 마이크로소프트는 코파일럿 같은 AI 서비스를 클라우드 기반이 아니라 기기에서 바로 사용하기 위해서 적어도 40TOPS 이상의 AI 연산 능력이 필요하다고 언급했습니다. 이는 현재 인텔의 최신 CPU인 메테오 레이크(코어 울트라)는 물론 경쟁자인 AMD의 라이젠 모바일 호크 포인트 CPU 단독으로는 충족시키기 어려운 기준입니다. 작년 말 출시된 메테오 레이크는 소비자용 인텔 CPU로는 처음으로 인공지능 연산을 위한 NPU를 탑재했지만, NPU 자체의 연산 능력은 11TOPS로 그렇게 높지 않습니다. 18TOPS의 연산 능력을 지닌 GPU와 5TOPS의 연산 능력을 지닌 CPU를 모두 사용하면 34TOPS의 AI 연산 능력을 확보할 수 있습니다. 하지만 CPU와 GPU를 AI 연산 전용으로 자원을 할당하기 어렵기 때문에 마이크로소프트의 AI 컴퓨터 기준과 턱없이 모자라는 수준입니다. 이날 발표에서 인텔이 다른 성능과 재원은 언급하지 않으면서도, 루나 레이크의 AI 연산 능력만큼은 강조한 데는 이런 배경이 있습니다. 최근 AI에 대한 관심이 집중되면서 프로세서 업계도 결국 AI에 사활을 걸어야 한다는 위기의식이 커지고 있습니다. 특히 인텔은 AI에 남들보다 늦게 뛰어든 만큼 빠른 속도로 경쟁자를 추격하기 위해 집중적인 연구와 투자를 한 것으로 보입니다.한 가지 더 흥미로운 정보는 루나 레이크의 AI 연산 능력에서 NPU가 담당하는 부분은 45TOPS 정도라는 것입니다. 따라서 나머지 55TOPS 이상이 CPU와 GPU에서 나와야 합니다. CPU의 AI 연산 능력이 획기적으로 커지기는 어렵다는 점을 생각할 때 루나 레이크의 GPU의 AI 연산 능력도 대폭 향상되는 것으로 추정할 수 있습니다. 루나 레이크의 CPU 구조에 대해서는 알려진 바가 적지만, GPU는 2세대 Xe 아키텍처인 아크 배틀메이지(Arc battlemage)를 사용한다고 알려져 있습니다. 1세대 Xe GPU도 AI 기반 업스케일링 기술인 XeSS를 지원하기 위한 AI 연산 능력을 지니고 있기 때문에 2세대 아키텍처와 더 앞선 미세 공정을 적용했을 경우 18TOPS보다 몇 배 높은 AI 성능을 확보할 수 있을 것으로 예상할 수 있습니다. 루나 레이크의 구체적인 모습은 실물이 공개되어야 알 수 있겠지만, 인텔이 새 모바일 CPU를 공개하면서 AI 성능을 가장 먼저 부각시킨 점이 의미심장합니다. 이것 하나만으로도 현재 IT 업계의 대세가 AI라는 점을 다시 한번 느낄 수 있습니다. 세계 최대의 CPU 제조사도 AI 없이는 도태된다는 위기의식이 반영된 결과로 보입니다. 아마도 이런 위기의식은 경쟁자인 AMD도 똑같이 느끼고 있을 것입니다. 따라서 올해 새로 공개할 제품군에 더 강력한 AI 연산 유닛을 넣으려고 할 가능성이 높습니다. 애플도 새로 공개할 M4 시리즈 프로세서의 AI 성능을 대폭 높인다는 소문도 들립니다. 앞으로 수년간 프로세서의 AI 성능은 비약적으로 발전할 가능성이 높아 보입니다.
  • 우수 인재가 곧 경쟁력...美대학 파트너십으로 돌파구 찾는 반도체

    우수 인재가 곧 경쟁력...美대학 파트너십으로 돌파구 찾는 반도체

    최근 글로벌 반도체 산업이 천문학적인 보조금 지급을 앞세운 ‘쩐의 전쟁’으로 격화하고 있는 가운데 우수 인재 유치를 위한 기업들의 노력도 확대되고 있다. 반도체 시장은 생성형 인공지능(AI)을 비롯한 AI 반도체 수요 급증에 따라 이를 연구·개발(R&D)할 인력 확보가 곧 기업 미래 경쟁력으로 꼽히면서 반도체·AI 분야에 강점을 보이는 주요 대학과 기업의 파트너십이 속속 이어지는 분위기다.AI 반도체 절대 강자로 꼽히는 미국 엔비디아는 미 조지아공과대학교와 협력해 AI 슈퍼컴퓨터 허브인 ‘AI 메이커스페이스’를 선보인다고 11일(현지시간) 밝혔다. 엔비디아와 조지아공대는 애초 이번 프로젝트를 학부생들이 활용할 수 있는 방향으로 개발에 착수했으나, AI 반도체와 AI 기술 전반이 급변하면서 조지아공대 전체 학생들의 AI 기술을 심화하고 차세대 AI 시스템 전문가 양성을 목표로 계획을 변경했다. 라힘 베야 조지아공대 학과장은 “AI 메이커스페이스의 출시는 조지아공대의 교육 혁신과 리더십의 또 다른 이정표다”라면서 “엔비디아의 첨단 기술과 전문성 덕분에 모든 수준의 학생들이 빠르게 진화하는 AI 분야에 기여하고 선도할 수 있는 길을 열었다”고 말했다. AI 메이커스페이스는 20개의 엔비디아 HGX H100 시스템으로 구동된다. 여기에는 고급 AI와 머신 러닝 작업을 지원하는 컴퓨팅 가속기 중 하나인 엔비디아 H100 텐서 코어 GPU가 160개 탑재된다. 엔비디아 H100 GPU의 연산 성능은 조지아공대 5만여명의 학생이 22년 동안 수행해야 하는 곱셈 연산을 단 한 대로 1초 만에 해낼 수 있는 수준이다.고대역폭 메모리(HBM)를 비롯해 AI 반도체 기술 투자를 강화하고 있는 SK하이닉스가 첫 미국 생산기지 부지를 인디애나로 결정한 배경에는도 현지 고급 인력과의 협업 및 인재 확보라는 전략이 깔려있다. SK하이닉스는 지난 3일 인디애나 북서부 교육도시 웨스트라피엣에 38억 7000만 달러(약 5조 2200억원)를 들여 어드밴스드 패키징(첨단 후공정) 공장을 신설한다고 밝혔다. SK하이닉스는 반도체 등 첨단 공학 연구 분야에서 두각을 보이고 있는 퍼듀대와는 반도체 기술 연구·개발에 협력하기로 했다. 곽노정 SK하이닉스 대표이사 사장은 투자 협약식에서 “첨단 패키징 공장을 운영하려면 물리와 화학, 재료공학, 전자공학 분야 엔지니어 수백명이 필요하다”라면서 “최종 목표는 매우 명확하다. 미국에서 성공하려면 아주 좋은 엔지니어가 필요하다”라고 강조했다. 퍼듀대는 이미 수년 전 SK하이닉스의 요청을 받고 반도체 분야에 특화한 학부와 대학원, 자격증 프로그램 등을 운영해온 것으로 전해졌다.텍사스 오스틴 제1 파운드리(위탁생산) 공장에 이어 테일러에 제2파운드리 공장을 신설하고 있는 삼성전자는 텍사스 지역 대학 두 곳에 총 470만 달러를 투자해 인재 육성을 병행하고 있다. 삼성전자는 텍사스대(UT)와 A&M대학에 각각 370만 달러와 100만 달러를 투자해 반도체 교육 및 채용 프로그램, 학부생 장학금, 대학원생의 연구 프로그램 등을 지원하고 있다. 이밖에 애리조나주에 2개 공장을 짓고 있는 세계 최대 파운드리 기업 대만 TSMC는 반도체 인재 확보를 목적으로 애리조나 주립대와 협력하고 있고, 미국 종합 반도체 기업 인텔은 미국 내 11개 주 18개 이상의 지역 대학과 파트너십을 맺고 엔지니어 양성에 힘 쏟고 있다.
  • 엔비디아 독주에 도전장 내민 인텔 가우디3…성공할 수 있을까? [고든 정의 TECH+]

    엔비디아 독주에 도전장 내민 인텔 가우디3…성공할 수 있을까? [고든 정의 TECH+]

    최근 IT 업계의 최대 화두는 AI입니다. 주요 프로세서 제조사와 빅테크들은 너도나도 AI 기반 서비스, 플랫폼, 하드웨어를 선보이면서 시장을 선점하기 위해 노력하고 있습니다. 하지만 AI 하드웨어 시장에서는 초반부터 기세를 장악한 엔비디아의 강세가 계속 이어지고 있습니다. 인텔은 엔비디아의 AI GPU의 대항마로 가우디 AI 가속기를 내놓고 반전을 모색하고 있습니다. 하지만 이를 위해서는 AI 하드웨어만이 아니라 이 하드웨어를 사용하는 개발자와 개발 생태계가 필요합니다. 인텔의 비전 2024 행사에서는 차세대 AI 가속기인 가우디 3(Gaudi 3)의 공개와 함께 깜짝 손님으로 한국의 네이버가 초대됐습니다. 네이버는 가우디 2를 인텔 클라우드에서 테스트해 거대 언어 모델 (LLM) 성능을 검증하고 개발했습니다. 네이버 개발팀에 따르면 가우디 2는 전력 대 성능비가 우수하고 LLM에 강점을 지닌 AI 가속 하드웨어입니다. 네이버 클라우드와 인텔은 AI 공동연구센터(NICL, NAVER Cloud·Intel·Co-Lab)를 설립하고 카이스트, 서울대, 포스텍 등 국내 대학 및 스타트업과 함께 AI 생태계 구축에 나서기로 했습니다. 다만 가우디 2가 네이버의 AI 서비스에 바로 활용되는 것은 아닙니다. 가우디는 최근에야 시장에 합류한 신참으로 이미 시장에서 견고한 위치를 차지하고 있는 엔비디아 GPU처럼 바로 서비스에 투입할 만큼 생태계가 구축되어 있지 않습니다. 여기에 엔비디아가 계속해서 차세대 GPU를 개발하면서 경쟁자를 저 멀리 따돌리려고 하고 있기 때문에 이를 추격하기 위해서는 가우디 2의 상용화보다 후속 모델 개발에 집중해야 할 형편입니다. 따라서 이날 행사에서 인텔은 차세대 AI 가속기인 가우디 3를 공개하고 올해 하반기에 출시한다고 발표했습니다. 가우디 3는 TSMC의 5nm 공정으로 제조되며 128GB의 HBM2e 메모리를 탑재하고 있습니다. 트랜지스터 집적도를 비롯한 더 구체적인 정보는 공개하지 않았지만, 가우디 2와 비교해서 텐서 코어를 24개에서 64개로 늘리고 연산 능력도 865 TFLOPS에서 1835 TFLOPS로 두 배 이상 대폭 늘렸다는 것이 인텔의 설명입니다.비전 2024 행사에서 인텔은 가우디 3가 엔비디아의 H100보다 더 빠르다고 주장했습니다. 예를 들어 Llama2-13B 훈련 기준으로 1.7배 빠르고 GPT 3 – 175B에서는 1.5배 빠릅니다. 그리고 다른 AI 연산에서도 전력 대 성능비로 우위에 있다는 것이 인텔의 주장입니다. 하지만 이 주장이 맞다고 해도 인텔의 도전은 쉽지 않은 게 사실입니다. H100은 이제 출시된 지 2년이 지난 제품이고 엔비디아는 이미 그 후속작인 블랙웰 GPU를 공개했기 때문입니다. 블랙웰 B200의 AI 연산 능력은 FP 8 기준으로 4.5페타플롭스로 단순 수치만 봐도 가우디 3보다 몇 배 뛰어납니다. 여기에 AI 서비스 기업과 개발자들이 사용하기 쉬운 생태계가 이미 구축된 점은 엔비디아 AI 하드웨어의 넘볼 수 없는 장점입니다. 이런 점을 봤을 때 가우디 3가 시장에서 의미 있는 성과를 거둘 수 있을지는 아직 미지수입니다. 하지만 엔비디아의 AI 하드웨어가 공급 부족에 시달리는 점이 한 가지 변수가 될 수 있습니다. 공급난을 타개하기 위해 엔비디아 GPU 이외에 다른 대안에 눈을 돌리는 기업이 많아질 수 있기 때문입니다. 한국과 손잡은 인텔의 가우디 AI 가속기가 치열한 경쟁 속에서 자신의 입지를 확보할지, 아니면 경쟁에서 밀려나 사라질지는 아직 말하기 이릅니다. 하지만 발전 속도가 매우 빠르고 한 번 뒤처지면 따라잡기 어려운 IT 분야의 속성을 생각할 때 결론이 나오는 것은 먼 미래가 아닐 것으로 생각합니다.
  • 11만 전자까지?… ‘삼성 HBM’ 엔비디아 검증 통과에 달렸다

    11만 전자까지?… ‘삼성 HBM’ 엔비디아 검증 통과에 달렸다

    삼성전자가 1분기 반도체 부문 선전에 힘입어 ‘깜짝 실적’을 내놓자 증권사들도 목표 주가를 상향 조정하고 있다. 실적 개선 흐름이 당분간 지속될 것이란 기대감을 반영한 것으로 보인다. 경쟁사에 비해 열세에 놓인 고대역폭메모리(HBM) 분야에서 얼마나, 빨리 만회할 수 있느냐가 향후 관전포인트다. 8일 업계에 따르면 삼성전자가 지난 5일 시장 예측치를 뛰어넘는 1분기 잠정 실적을 공시하자 증권사들도 목표 주가 수정에 나섰다. 9만원에서 11만원, 9만 4000원에서 11만 5000원으로 올려 잡은 증권사도 있었다. 목표 주가를 11만원으로 올린 IBK투자증권 김운호 연구원은 “반도체 가격 반등으로 수익성이 개선되고 있다”면서 “부진했던 HBM도 점차 가시권에 진입할 것으로 기대된다”고 했다. 목표 주가 11만 5000원을 제시한 한화투자증권의 김광진 연구원은 “메모리 중심의 실적 개선이 가속화할 것”이라고 전망했다. 실제 삼성전자는 8일 장 초반 8만 6000원까지 올라 52주 신고가를 갈아치웠다. 이후 등락을 거듭하다 직전 거래일(5일)과 똑같은 8만 4500원에 거래를 마쳤다. ‘11만 전자’를 바라보기에는 아직 갈 길이 먼 셈이다. 현재로선 삼성전자가 급성장하는 HBM 시장에서 주도권을 가져올 수 있을지가 관건이다. 생성형 인공지능(AI) 서비스 확대로 그래픽처리장치(GPU)와 신경망처리장치(NPU) 출하량이 급증하면서 HBM 시장은 2026년까지 급성장이 예상된다. 4세대 HBM 경쟁에서 밀리며 SK하이닉스에 주도권을 내준 삼성전자는 D램 칩을 12단까지 쌓은 HBM3E(5세대 HBM)를 올해 상반기 양산한다는 계획을 세워 두고 있다. AI 반도체 ‘큰손’인 엔비디아 등 고객사에도 샘플을 보냈다. 반도체 업계에선 엔비디아의 까다로운 검증 기준을 통과해야 하기 때문에 시간이 걸리겠지만 공급망을 다변화하는 방향으로 가지 않겠느냐는 전망도 나온다. 젠슨 황 엔비디아 최고경영자(CEO)는 지난달 개발자 콘퍼런스 ‘GTC 2024’ 기간에 삼성전자 HBM에 대해 “기대가 크다”고 밝힌 뒤 부스를 방문해 HBM3E에 친필 사인을 남겼다. 송명섭 하이투자증권 연구원은 이날 보고서에서 “삼성전자의 12단 HBM3E에 대한 엔비디아의 인증은 2분기 내로 완료될 예정”이라며 “성공적인 통과 여부는 아직 미지수나 수율 등 HBM 제품 경쟁력이 지난해 대비 크게 개선되고 있는 것은 사실”이라고 했다.
  • “15초만 듣고 목소리 뚝딱”… 오픈AI, ‘보이스 엔진’ 공개

    “15초만 듣고 목소리 뚝딱”… 오픈AI, ‘보이스 엔진’ 공개

    생성형 인공지능(AI) ‘챗GPT’ 개발사인 오픈AI가 사람 음성을 학습해 모방 음성을 생성하는 AI 도구 ‘보이스 엔진’을 개발해 공개했다. 최근 미국 테네시주가 AI가 사람 음성을 베끼는 것을 금지하는 일명 ‘엘비스(Elvis) 법안’에 미국 최초로 서명한 것과 맞물려 AI 음성이 이미지 생성과 마찬가지로 딥페이크(AI 가짜 영상·음성 조작물) 유포, 개인 정보 해킹 등에 악용될 우려가 제기되고 있다. 오픈AI가 지난 29일(현지시간) 공개한 보이스 엔진 사전실험 결과를 보면 실제 사람 음성 샘플과 이를 이용해 보이스 엔진으로 생성한 음성은 구분이 거의 힘들 만큼 비슷했다. 회사 측은 15초 분량의 음성 샘플만 있으면 이런 AI 음성을 만들어 낼 수 있다고 밝혔다. 언어 질환 환자용 치료 애플리케이션, 장애인 소통 기기에 지원된 이 도구는 동영상의 다국어 번역, 교육 음성 해설, 실시간 맞춤형 응답 등 광범위하게 상용될 수도 있다. 다만 오픈AI는 “현재로선 이 기술을 ‘미리 보여주기’(preview)만 하되 일반에 출시하진 않기로 했다”며 “인조 음성의 오용 가능성 때문에 조심스럽게 접근하고 있다”고 선을 그었다. 이어 “사람 목소리를 닮은 음성을 생성하는 것은 심각한 위험을 야기하며, 선거가 있는 해엔 특히 더 그렇다”면서 “우리는 미국과 해외 정부, 미디어, 시민사회 등과 협력해 피드백을 반영하기 위해 노력하고 있다”고 강조했다. 지난달 회사가 글을 동영상으로 바꿔 주는 AI ‘소라’를 개발했을 때와 동일한 우려가 불거지는 것을 사전에 차단하기 위한 포석이다. 실제로 올해 미 대선을 앞두고 지난 1월엔 뉴햄프셔주 프라이머리(예비선거) 전날 조 바이든 대통령을 사칭한 가짜 전화로 투표 거부를 독려하는 사례가 나오면서 음성 조작 우려가 현실화됐다. 뉴욕타임스(NYT)는 “이미지나 비디오 생성과 마찬가지로 음성 생성도 소셜미디어에 허위 정보를 퍼뜨리는데 도움이 될 수 있고 범죄자가 온라인이나 전화 통화에서 다른 이를 사칭할 수도 있다”고 지적했다. 이와 관련해 빌 리 테네시 주지사는 지난 21일 AI를 사용해 사람 목소리를 베끼는 것을 금지하는 엘비스 법에 미국 최초로 서명했다. 정식 명칭이 ‘초상·음성·이미지 보안 보장법’이지만 로큰롤의 제왕으로 군림한 엘비스 프레슬리의 이름으로 별칭이 붙은 건 사전 허가 없이 예술가 저작을 사용하는 것을 보호하기 위한 법안이기 때문이다. 테네시주는 로큰롤 탄생지인 멤피스, 컨트리 뮤직 본산인 내슈빌이 위치한 대중음악 산업의 메카로, 4500개 이상의 공연장, 6만 1000개 이상의 일자리로 한 해 수십억 달러를 창출하고 있다. 엘비스 법은 지역 핵심 산업이 AI로 타격받는 것을 막은 선제 조치인 셈이다. 리 주지사는 “AI가 나쁜 행위자들의 손에 넘어가면 대중음악 산업이 파괴될 수 있다”고 경고했다. AI업계 혁신을 주도하고 있는 오픈AI는 마이크로소프트(MS)와 1000억 달러(약 132조 6000억원)를 투자해 AI 슈퍼컴퓨터를 포함한 데이터센터 구축도 추진하고 있다. 오픈AI와 MS의 ‘스타게이트’는 6년짜리 프로젝트로, AI 모델 구동을 위한 슈퍼컴퓨터와 이를 위한 초대형 데이터센터를 조성하는 사업이다. 현존 최고 수준 데이터센터와 비교해 100배 이상 큰 규모라고 정보기술(IT) 전문매체 디인포메이션이 보도했다. 데이터센터에는 슈퍼컴퓨터 구동을 위해 특별 제작된 서버 칩 수백만 개가 들어간다. 생성형 AI 연산을 위해서는 그래픽처리장치(GPU) 같은 AI 반도체를 연결하고 대규모 데이터 처리 작업을 수행할 컴퓨팅 시스템이 필요하다. 데이터센터에는 여러 공급업체의 다른 칩을 사용할 것으로 알려졌다. 이는 샘 올트먼 오픈AI 최고경영자(CEO)가 AI 반도체 시장을 90% 이상 점유한 엔비디아에 대응해 ‘AI 반도체 동맹’을 구축하려는 행보와도 연결된다. 올트먼 CEO는 지난 1월 직접 한국을 찾아 삼성전자, SK하이닉스와 협력 방안을 논의했다. 이때 이재용 삼성전자 회장, 최태원 SK그룹 회장도 만난 것으로 알려졌다.
  • “비범한 기업”… ‘AI칩의 왕’ 한마디에 삼성전자 주가 5.6% 훌쩍

    “비범한 기업”… ‘AI칩의 왕’ 한마디에 삼성전자 주가 5.6% 훌쩍

    “고대역폭메모리 테스트… 기대 커”삼성전자 제품 채택 가능성 언급5년내 인간 수준 AI 등장 전망도 ‘인공지능(AI) 반도체의 왕’으로 불리는 젠슨 황 엔비디아 최고경영자(CEO)가 19일(현지시간) “삼성전자의 고대역폭메모리(HBM)를 테스트 중”이라면서 “삼성은 매우 비범한 기업”이라고 호감을 드러냈다. 그의 말 한마디에 삼성전자 주가는 6% 가까이 상승했다. 이날 미국 캘리포니아 새너제이에서 열린 엔비디아 연례 개발자 콘퍼런스 ‘GTC 2024’에서 황 CEO는 전세계 미디어와 간담회를 갖고 이렇게 말했다. 엔비디아는 AI 고속 연산에 필수적인 그래픽처리장치(GPU)를 만드는 기업으로 전 세계 AI칩 시장의 80% 이상을 독식한다. 이 때문에 세계 반도체 업계는 ‘엔비디아와 협력하느냐’ 여부에 따라 희비가 갈리고 있다. 엔비디아의 AI용 GPU 성능을 극대화하려면 HBM이 필수인데 현재 SK하이닉스가 엔비디아 필요량의 대부분을 공급하고 있다. 황 CEO는 ‘삼성전자 HBM을 사용하는가’라는 질문에 “아직 쓰지 않는다”면서도 “(엔비디아 GPU에 탑재 가능한지) 삼성 제품을 테스트하고 있으며 (채택에) 기대가 크다”고 밝혔다. 그러면서 “HBM은 매우 복잡하고 어려운, 기술적인 기적과도 같다. 그들은 겸손하다”며 삼성과 SK 모두 에둘러 치켜세웠다. 인간과 같은 수준의 범용인공지능(AGI)이 언제 나올 수 있을지에 대한 물음에는 “5년 이내에 등장할 것”으로 전망하면서도 “이 용어를 어떻게 정의하느냐에 따라 달라진다”고 말을 아꼈다. ‘젠슨 황 효과’ 덕분에 20일 코스피에서 삼성전자는 전일보다 5.63% 상승한 7만 6900원으로 장을 마쳤다.
  • ‘AI칩의 왕’ 젠슨 황 “삼성은 비범한 회사”...주가 6% 급등

    ‘AI칩의 왕’ 젠슨 황 “삼성은 비범한 회사”...주가 6% 급등

    ‘인공지능(AI) 반도체의 왕’으로 불리는 젠슨 황 엔비디아 최고경영자(CEO)가 19일(현지시간) “삼성전자의 고대역폭메모리(HBM)를 데스트 중”이라면서 “삼성은 매우 비범한 기업”이라고 호감을 드러냈다. 그의 말 한마디에 삼성전자 주가는 6% 가까이 상승했다. 이날 미국 캘리포니아 새너제이에서 열린 엔비디아 연례 개발자 콘퍼런스 ‘GTC 2024’에서 황 CEO는 전 세계 미디어와 간담회를 갖고 이렇게 말했다. 엔비디아는 AI 고속 연산에 필수적인 그래픽처리장치(GPU)를 만드는 기업으로, 전 세계 AI칩 시장의 80% 이상 독식한다. 이 때문에 세계 반도체 업계는 ‘엔비디아와 협력하느냐’ 여부에 따라 희비가 갈리고 있다. 엔비디아의 AI용 GPU 성능을 극대화하려면 HBM이 필수인데, 현재 SK하이닉스가 엔비디아 필요량의 대부분을 공급하고 있다. 황 CEO는 ‘삼성전자 HBM을 사용하는가’라는 질문에 “아직 쓰지 않는다”면서도 “(엔비디아 GPU에 탑재 가능한지) 삼성 제품을 테스트하고 있으며 (채택에) 기대가 크다”고 밝혔다. 그러면서 “HBM은 매우 복잡하고 어려운, 기술적인 기적과도 같다. 그들은 겸손하다”며 삼성과 SK 모두 에둘러 치켜세웠다. 인간과 같은 수준의 AGI(범용인공지능)가 언제 나올 수 있을지에 대한 물음에는 “5년 이내에 등장할 것”으로 전망하면서도 “이 용어를 어떻게 정의하느냐에 달라진다”고 말을 아꼈다. ‘젠슨 황 효과’ 덕분에 20일 코스피에서 삼성전자는 전일보다 5.63% 상승한 7만 6900원으로 장을 마쳤다.
  • 현 시대 AI 하드웨어 최강자…엔비디아 블랙웰 GPU [고든 정의 TECH+]

    현 시대 AI 하드웨어 최강자…엔비디아 블랙웰 GPU [고든 정의 TECH+]

    엔비디아는 AI 시대에 가장 가치가 치솟은 기업입니다. 현재의 AI 기술 중 상당 부분이 이 회사가 만든 GPU에 의존하고 있기 때문입니다. 오래전부터 GPU의 병렬 연산을 위해 CUDA 코어와 소프트웨어를 공개했고 이를 AI 연산에 활용하는 생태계를 구축해 왔기 때문에 지금 와서 다른 회사의 하드웨어로 이를 대체하기 힘든 것이 현실입니다. 오랜 경쟁자인 AMD도 데이터 센터 GPU를 계속 공개하고 있고 인텔도 새로운 AI 시장 공략을 위해 GPU를 공개했지만, 시장을 먼저 선점한 엔비디아의 아성을 깨뜨리기는 쉽지 않습니다. 이런 상황에서 새로 공개한 블랙웰 GPU는 반도체 미세 공정의 한계를 극복하고 AI 연산 성능을 높여 누구도 따라잡기 쉽지 않은 경쟁력을 유지하려는 의도로 풀이됩니다. 블랙웰 GPU는 TSMC의 4nm 공정의 개량형인 4NP 공정으로 제조되었습니다. 3nm 공정을 적용하지 않은 이유는 확실치 않지만, 비용 및 공급 부족 등이 이유가 된 것으로 보입니다. 하지만 그런 만큼 트랜지스터 집적도를 전 세대인 호퍼 (Hopper)보다 더 높이기 힘든 상황입니다. 800억 개의 트랜지스터를 집적한 호퍼 H100 GPU는 4nm 공정에서 다이(die, 웨이퍼에서 잘라낸 반도체 칩) 면적이 814㎟에 달합니다. 이는 현재 반도체 제조 기술에서 이론적인 다이 크기의 한계치에 거의 근접한 것으로 더 크기를 늘리기 쉽지 않습니다. 따라서 블랙웰 B200은 두 개의 다이를 연결하는 방법으로 2080억 개의 트랜지스터를 집적했습니다. 이런 접근법은 최근 점점 일반적인 추세가 되고 있습니다. 공정 미세화의 한계에 부딪힌 반도체 제조사들은 하나의 큰 칩 대신 여러 개의 작은 칩인 칩렛을 연결해 거대한 크기의 프로세서를 만들고 있습니다. 인텔, AMD, 애플이 모두 이 방법을 사용했고 이번에는 엔비디아도 이 방식을 적용해 트랜지스터 집적도를 대폭 늘렸습니다. 블랙웰 B200은 AI 연산에서 전 세대인 H100과 비교해서 최대 5배인 20페타플롭스의 성능을 지니고 있습니다. 물론 칩을 두 개 붙인 점을 생각하면 실제 성능은 2.5배라고 할 수 있는데, 실은 FP 8 연산의 절반 정도의 자원을 소모하는 FP 4 연산에서 그렇다는 이야기로 FP 8 기준으로 보면 AI 연산 능력은 절반 수준인 10페타플롭스가 최대입니다. 결국 칩 하나의 성능은 사실 1.25배 정도로 트랜지스터 수 증가를 생각하면 딱 그 정도의 성능 증가인 셈입니다. 하지만 그렇다고 해서 블랙웰이 아무 의미 없는 꼼수에 지나지 않는 것은 아닙니다. FP 4 연산만 해도 충분한 경우 AI 연산 속도를 크게 높일 수 있고 심지어 FP 4와 FP 8 연산의 중간을 원하는 고객을 위해 FP 6까지 지원하는 기능을 갖춰 더 유연한 AI 연산이 가능합니다. 그보다 더 중요한 점은 AI 경쟁이 격화되면서 어떤 비용을 치르더라도 남들보다 앞서기를 원하는 고객을 위해 성능을 높일 수 있는 다양한 옵션을 제공하고 있다는 것입니다.예를 들어 블랙웰은 기반 GB 200은 그레이스 슈퍼칩 CPU 한 개와 두 개의 B200 GPU를 하나로 묶어 최대 40페타플롭스의 AI 연산 능력을 갖고 있습니다. 물론 그만큼 비싸고 전력 소모도 엄청나지만, AI 개발에 사활을 걸고 있는 기업이 많아 오히려 수요 대비 공급이 부족할 것으로 예상됩니다. 그리고 이 경우 HBM의 수요가 크게 늘어 우리나라 메모리 업계에도 호재가 될 것입니다. B200 GPU는 24GB HBM3e를 8개나 탑재해 192GB의 메모리 용량을 갖고 있고 GB200는 그 두 배인 384GB의 HBM3e 메모리를 지니고 있기 때문입니다. 여기서 화룡점정을 찍는 것 같은 소식은 비용에 상관없이 최강의 성능이 요구하는 고객을 위한 서버 랙 시스템인 GB 200 NVL 72 노드입니다. 하나의 서버 랙에 두 개의 GB 200을 탑재한 서버 트레이 18 유닛을 쌓아서 총 72개의 B200 GPU를 장착한 시스템으로 강력한 대규모 AI 연산을 위한 슈퍼컴퓨터라고 할 수 있습니다. 다만 이 경우 엄청난 전력을 소모하기 때문에 공랭 쿨러 대신 수랭 쿨러를 사용해야 시스템 발열을 처리할 수 있습니다.그런데 이렇게 많은 프로세서를 사용해 대규모 연산 시스템을 구축하는 경우 데이터를 공유하고 작업을 분산하는 과정이 새로운 문제로 떠오르게 됩니다. 이 과정에서 병목현상이 생기면 전체 시스템의 성능이 크게 저하되는 것입니다. 이를 해결하기 위해 엔비디아는 아예 NVLINK 스위치라는 새로운 네트워크 전용 프로세서를 만들었습니다. 그리고 NVLINK 스위치 프로세서를 서버 트레이 하나에 두 개씩 넣어서 총 14.4TB/s의 대역폭을 확보했습니다. 이런 트레이가 9개가 있기 때문에 GB 200 NVL 72 노드 한 개가 130TB/s에 달하는 거대한 프로세서 간 대역폭을 확보할 수 있습니다. 덕분에 갈수록 커지고 있는 대규모 AI 학습 데이터를 더 효과적으로 처리하고 학습을 빨리할 수 있게 됐습니다. 마지막으로 GB 200 NVL 72 노드를 여러 대 연결하면 엑사플롭스급 AI 슈퍼컴퓨터 구축이 가능합니다. 물론 비용도 에너지 소모량도 엄청나지만, 역시 수요는 충분할 것으로 예상됩니다. 블랙웰 GPU를 보면 AI 하드웨어가 본격적인 산업화 시대에 도달했다는 것을 알 수 있습니다. 과거 GPU는 게임용으로 많이 사용되었고 초기 AI 연산용 GPU도 이것과 크게 다르지 않았으나 최근 나오는 데이터 센터 GPU는 산업용 및 연구용으로 특화되어 관련 분야에 종사하는 사람이 아니라면 직접 한 번 보거나 다뤄보기 어려운 물건이 됐습니다. 블랙웰 GPU는 대규모 데이터 처리와 AI 연산에 적합한 데이터 센터 GPU로 AI 혁명을 한 단계 앞당길 제품이 될 것으로 보입니다.
  • “움직이는 모든 건 로봇으로”… 엔비디아, 2.5배 빠른 AI칩 내놨다

    “움직이는 모든 건 로봇으로”… 엔비디아, 2.5배 빠른 AI칩 내놨다

    “미래에 움직이는 모든 것은 로봇이 될 것입니다.” 젠슨 황 엔비디아 최고경영자(CEO)는 18일(현지시간) 미국 캘리포니아주 새너제이에서 열린 엔비디아 개발자 콘퍼런스(GTC 2024) 기조연설에서 기대를 모았던 차세대 인공지능(AI) 칩을 소개한 뒤 AI의 미래 종점인 로봇 사업에 대한 비전을 내비쳤다. AI 칩 ‘큰손’으로 떠오른 엔비디아가 자체 플랫폼을 통해 AI 생태계를 구축한 뒤 성장 가능성이 큰 휴머노이드 로봇 시장에서도 영향력을 확대하겠다는 포부를 밝힌 것이다. 검은 가죽점퍼를 입고 연단에 선 황 CEO는 이날 1만 6000여명의 관중 앞에서 엔비디아가 그리는 큰 그림의 시작점이 될 새로운 플랫폼 ‘블랙웰’ 기반의 AI 칩을 선보였다.2080억개의 트랜지스터로 가득 메운 이 칩은 현존하는 최고 AI 칩인 엔비디아 ‘H100’(호퍼 기반)에 비해 연산 처리 속도가 2.5배 더 빠르다. 두 개의 그래픽처리장치(GPU·B200)를 연결해 하나의 칩처럼 작동하는 방식이다. H100을 사용하면 생성형 AI GPT 모델을 훈련시키는 데 90일 동안 8000개의 GPU가 필요하지만 블랙웰 GPU는 같은 기간 2000개만 사용하면 된다는 게 그의 설명이다. 황 CEO는 “호퍼는 매우 환상적이었지만 우리는 더 큰 GPU를 원한다”며 “블랙웰은 이 새로운 산업 혁명을 구동하는 엔진이 될 것”이라고 강조했다. 엔비디아가 구상하는 제품은 생성형 AI의 대규모 연산이 가능한 일종의 ‘슈퍼컴퓨터’(GB200 NVL72)다. 블랙웰 GPU 2개에 중앙처리장치(CPU)를 연결한 ‘슈퍼칩’(GB200)을 36개 쌓아 올린 뒤 시스템 최적화를 통해 성능을 극대화하겠다는 계산이다. 대만 파운드리(위탁생산) 업체인 TSMC의 4㎚(나노미터·10억분의 1m) 공정으로 만들어진 뒤 올 연말부터 공급될 예정이다.엔비디아가 새 AI 칩 가격을 밝히지는 않았지만 기존 제품 가격을 감안하면 5만 달러(약 6700만원) 수준일 것이란 전망이 나온다. 황 CEO는 “(첫 제품은) 수천만 달러에 달할 것”이라고 농담을 하기도 했다. 엔비디아는 블랙웰이 최대 10조개의 매개변수(파라미터)를 가진 대규모 언어모델(LLM)에서 생성형 AI를 구축하고 실행할 수 있을 것이라 보고 있다. 파라미터는 생성형 AI가 정보를 학습하고 기억하는 신경 연결 역할을 한다. 파라미터가 많을수록 AI 성능이 뛰어나다고 평가받는다. 오픈AI가 개발한 생성형 AI GPT-4의 파라미터 수치가 공개되지 않았지만 5000억개 정도로 알려져 있다. 산술적으로는 블랙웰이 이보다 20배 뛰어난 AI 모델도 지원할 수 있다는 얘기다. AI 기술이 궁극적으로 지향하는 로봇 플랫폼을 지원하겠다는 것도 이러한 성능에 대한 자신감 때문이다. 황 CEO는 이날 무대에 자체적으로 훈련시킨 로봇 ‘오렌지’와 ‘그레이’를 등장시키고, 로봇 훈련이 가능한 ‘프로젝트 그루트’(GR00T)를 공개했다.
  • 엔비디아에 올라탄 SK하이닉스, 5세대 HBM 양산 앞서간다

    엔비디아에 올라탄 SK하이닉스, 5세대 HBM 양산 앞서간다

    SK하이닉스가 고대역폭 메모리(HBM) 5세대 신제품인 HBM3E D램을 세계 최초로 대규모 양산해 이달 말부터 제품 공급을 시작한다고 밝혔다. 미 반도체 기업인 엔비디아의 차세대 인공지능(AI)칩 ‘블랙웰’ 공개에 발맞춘 행보로 보인다. 19일 SK하이닉스는 초고성능 AI용 메모리 신제품인 HBM3E를 메모리 업체 중 가장 먼저 양산해 이달 말부터 납품을 시작한다고 밝혔다. 지난해 8월 HBM3E 개발을 알린 지 7개월 만이다. 고객사를 따로 밝히진 않았지만 세계 최대 반도체 회사인 엔비디아에 해당 제품을 공급할 전망이다.SK하이닉스에 따르면 HBM3E는 속도와 발열 제어 등 AI 메모리에 요구되는 모든 부문에서 세계 최고 성능을 갖췄다. 초당 최대 1.18테라바이트(TB)의 데이터를 처리하며 이는 풀고화질(FHD)급 영화(5GB) 230편 분량이 넘는 데이터를 1초 만에 처리하는 수준이다. SK하이닉스는 “HBM3에 이어 현존 D램 최고 성능이 구현된 HBM3E 역시 가장 먼저 고객에게 공급하게 됐다”면서 “HBM3E 양산도 성공적으로 진행해 AI 메모리 시장에서의 경쟁 우위를 이어 가겠다”고 강조했다. HBM은 D램 여러 개를 수직으로 연결해 데이터 처리 속도를 끌어올린 고성능 메모리다. 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E) 순으로 개발되고 있으며 HBM3E는 HBM3의 확장 버전이다. 앞서 세계 D램 3위 업체인 마이크론 테크놀로지가 지난달 26일(현지시간) 올해 2분기 출시 예정인 엔비디아의 H200 그래픽처리장치(GPU)에 탑재될 HBM3E 양산을 시작했다고 발표했으나 실제 HBM3E 납품을 위한 대량 양산은 SK하이닉스가 처음인 것으로 알려졌다. 한편 HBM 시장은 현재까지 SK하이닉스와 삼성전자가 양분하고 있다. 대만 시장조사업체 트렌드포스에 따르면 지난해 HBM 시장 점유율은 SK하이닉스가 53%, 삼성전자 38%, 마이크론 9%로 추정된다. 올해 HBM3E 시장이 열리면서 경쟁이 치열해질 전망이다.
  • [기고] 반도체 산업 도약에 필수인 원자력

    [기고] 반도체 산업 도약에 필수인 원자력

    지난달 27일 산업통상자원부 제2차관 주재로 경기 용인 반도체 국가 첨단전략산업 특화단지 가동에 필요한 대규모 전력의 안정적 공급에 관한 TF가 발족됐다. 용인시 일대 3개 부지 총 약 13㎢의 광대한 면적에 조성될 반도체 특화단지에는 총 10GW(기가와트) 전력이 필요하다. 2036년까지 우선 필요한 3GW는 단지 내 LNG 발전소 신규 건설을 통해 공급하고 나머지 7GW는 2037년 이후 장거리 송전선로를 통해 공급할 계획이다. 반도체 산업은 고품질의 대전력이 필요한 대표적인 산업이다. 2021년 삼성전자가 사용한 전력은 184억㎾h로 이는 100만㎾, 즉 1GW 발전소 2.1기가 1년 내내 발전하는 전력량에 해당한다. 발전소 정비기간과 송전 손실 등을 고려하면 삼성전자만을 위해 3GW 정도의 발전 용량 즉 원전 3기 정도가 필요하다는 말이다. 나아가 정교한 반도체 제조 장비는 전력 주파수의 미세한 변동에도 오작동할 수 있으므로 고품질 전력이 필요하다. 전력의 품질은 주파수 변동 폭으로 결정되는데 우리나라 전력망은 허용 변동 폭인 ±0.2㎐보다 훨씬 작은 범위에서 안정적인 주파수를 유지해 왔다. 한국 반도체 산업이 세계적 수준으로 발전하는 데는 그동안 고품질 대전력을 저비용으로 공급했던 우리나라 전력 시스템 덕이 크다. 그 기저에 원자력이 있었음은 부정할 수 없는 사실이다. 인공지능(AI)이 급속도로 발전함에 따라 데이터센터의 메모리와 CPU, GPU 등 프로세서에 필요한 반도체 수요도 급증할 전망이다. 이를 위해서는 우수한 인력뿐만 아니라 고품질 전력의 확충이 필요하다. 2037년 이후 용인 반도체특화단지에 송전망을 통해 공급될 전력 7GW에는 호남 지방의 태양광과 해상풍력이 예정돼 있다. 이들 재생에너지 전력은 변동성이 크기에 안정화를 위해서는 대용량의 에너지저장장치(ESS) 설치가 필수적이다. 이런 저장장치의 운용비용은 발전비용보다 비쌀 수 있어 전력 비용이 커진다. 고비용 전력은 반도체 생산 단가의 상승을 초래해 경쟁력을 떨어뜨린다. 고품질 전력을 저비용으로 확충하려면 원자력 확대가 필수적이다. 2030년대 이후에는 탄소중립의 필요성과 AI의 본격적 활용에 따라 전력 수요가 현재 예상하는 수준보다 더 늘어날 수 있다. 이러한 전망은 안정적이고 저비용의 무탄소 대전력원인 원자력의 확대 필요성을 더욱 부각한다. 향후 원자력은 대형 원전뿐만 아니라 소형모듈원자로(SMR)를 통해 확대할 수가 있다. SMR은 수요지 인근에 설치할 수 있을 정도로 안전성이 높고, 모듈화를 통해 경제성을 확보할 수 있는 차세대 소형 원전이다. SMR을 적기에 활용하기 위해서는 현재 개발 중인 혁신형 SMR의 국내 실증을 조속히 추진해야 한다. 아울러 전력뿐만 아니라 공정열 공급 등 다양한 용도로 활용될 수 있고 조기 실물화가 가능한 다른 유형의 SMR 개발에도 적극적인 지원을 해야 한다. 주한규 한국원자력연구원 원장
  • 지식 공유·혁신의 협업 플랫폼… 젠슨 황 비전에 전 세계가 주목

    지식 공유·혁신의 협업 플랫폼… 젠슨 황 비전에 전 세계가 주목

    황 기조연설… 온라인 생중계900개 세션·250개 전시 구성시총 3위 터치 후 주가 급등락 미국 인공지능(AI) 반도체 시장의 ‘큰손’으로 떠오른 엔비디아가 5년 만에 AI 개발자 행사를 대면으로 진행한다. 역대 최대 규모로 진행되는 이번 행사에서 엔비디아 창립자이자 최고경영자(CEO)인 젠슨 황이 어떤 비전을 내놓을지 주목된다. 11일 업계에 따르면 엔비디아는 오는 18~21일(현지시간) 미 캘리포니아주 새너제이 SAP센터 등에서 AI 개발자 콘퍼런스(GTC 2024)를 연다. 코로나19 대유행 이후 5년 만에 여는 대면 행사로 시장의 관심은 첫날 진행되는 황 CEO의 기조연설에 쏠려 있다. 황 CEO의 기조연설은 온라인을 통해 전 세계에 생중계된다. 해마다 열리는 GTC는 새로운 기술을 소개하는 자리였지만 올해는 기술 강연을 넘어 지식을 공유하고 혁신을 촉발하는 협업 플랫폼으로 차별화한 것으로 보인다. 이번 행사는 900개의 세션과 250개의 전시, 수십 개의 기술 워크숍 등으로 구성돼 있으며 온라인으로도 참석이 가능하다. 엔비디아 측은 30만명 이상의 전 세계 개발자 커뮤니티 회원이 참석할 것으로 예상하고 있다. 그레그 에스테스 엔비디아 부사장(기업 마케팅·개발자 프로그램 부문)은 “여러 산업의 선도 기업이 최고의 AI를 경험하기 위해 GTC를 찾는다”면서 “우리는 그들을 하나로 모으는 것을 자랑스럽게 생각한다”고 말했다. AI 서버에 탑재되는 그래픽처리장치(GPU) 등을 만드는 엔비디아는 ‘AI 열풍’ 수혜를 톡톡히 보면서 1년 전에 비해 주가가 세 배 이상 올랐다. 시가총액은 지난해 6월 1조 달러 돌파 이후 지난 1일 2조 달러를 넘었다. 마이크로소프트(MS), 애플에 이어 시총 3위에 오른 엔비디아 주가는 지난 7일 주당 900달러 선도 넘어섰다. 그러나 다음날인 8일 875.28달러로 하루 만에 5.5% 급락하면서 시장에 충격을 주기도 했다. 증권가에선 급락 배경으로 차익 실현 매물 등에 따른 영향을 꼽았다. 한편 엔비디아도 자체 AI 플랫폼인 ‘네모’를 학습시키기 위해 저작권이 있는 도서를 허가 없이 사용했다는 이유로 저자로부터 소송을 당한 것으로 전해졌다. 로이터통신과 CNBC 방송은 세 명의 미국 소설가가 지난 8일 샌프란시스코 연방법원에 엔비디아를 상대로 소를 제기했다고 보도했다.
  • [차상균의 혁신의 세계] 엔비디아는 어떻게 반도체 시장을 석권했나

    [차상균의 혁신의 세계] 엔비디아는 어떻게 반도체 시장을 석권했나

    생성형 인공지능(Gen AI)에 대한 글로벌 경쟁이 AI 반도체 수요 급증으로 이어지고 있다. 현재 AI 반도체 시장의 독보적인 리더는 미국의 반도체 회사 엔비디아다. 엔비디아 그래픽처리장치(GPU) 수요가 폭증하면서 엔비디아 시가총액은 2조 달러를 넘었다. 작년 6월 1조 달러를 넘어선 뒤 불과 9개월 만의 일이다. 엔비디아가 감당하지 못할 만큼 지구촌의 AI 반도체 수요가 폭증한 덕분이다. 최근 오픈AI가 텍스트로 동영상을 생성하는 소라 서비스를 예고했다. 현재의 챗GPT서비스에 비해 소라는 스케일이 다른 연산 수요를 일으키게 된다. 이 때문에 엔비디아 주가는 당분간 오를 수밖에 없다. 엔비디아 주가가 뛰면서 경쟁사 AMD의 주가도 따라 오르고 있다. 엔비디아 반도체가 많이 팔리면 중앙처리장치(CPU) 칩 수요도 올라가는데, 이 시장을 주도하는 기업이 인텔과 AMD인 것이다. 특히 AMD는 낙후된 자체의 반도체 생산 라인을 고집해 온 인텔과 달리 일찌감치 생산 파트를 매각하고 대만 반도체 위탁생산(파운드리) 기업 TSMC의 최신 공정을 사용해 왔다. 이 때문에 AMD의 가성비가 인텔에 비해 좋아 x86 기반의 CPU 시장 점유율을 높여 왔다. 엔비디아 수요가 증가하면 AMD 서버용 CPU 수요도 증가한다. 이에 더해 AMD가 엔비디아에 가장 근접한 GPU 제품을 출시하면서 시장 가치가 빠르게 오르고 있다. 사실 AI 반도체칩 설계 기술은 이제 대단한 기술은 아니다. AI 연산의 상당 부분을 차지하는 매트릭스 연산을 병렬적으로 처리하는 코어를 설계하고 이 코어 가까이에 처리할 데이터를 가능한 한 많이 올려놓을 고속 메모리를 배치하는 것이다. 모든 빅테크 회사들이 자체 AI 반도체를 이미 가지고 있다. 하지만 중요한 것은 다수의 이런 AI 반도체칩들 위에서 Gen AI 모델을 구동하는 소프트웨어다. 이 소프트웨어는 엔비디아가 2000년대부터 개발해 확산시킨 CUDA가 독보적이다. 이 CUDA 때문에 엔비디아가 독점에 가까운 95%의 시장 점유율을 가지는 것이다. 엔비디아 의존도가 큰 마이크로소프트와 메타 같은 회사들은 AMD 소프트웨어가 CUDA와 근접한 성능을 내도록 도와 왔다. AMD 주가가 빠르게 오르는 것은 AMD가 엔비디아에 근접한 성능을 낼 때가 가까워졌음을 의미한다. 한편 소프트뱅크가 90% 지분을 가진 ARM CPU는 인텔이나 AMD의 x86 CPU보다 같은 일을 할 때 전력이 적게 든다. 빅테크 클라우드 회사에는 x86에 비해 매력적인 솔루션이다. 엔비디아가 한때 인수하려 한 ARM의 주가가 오르는 이유이고, ARM 주식의 상당 부분을 보유한 소프트뱅크 주식이 오르는 이유다. 엔비디아, AMD, ARM CPU 대부분을 TSMC가 생산한다. 이 회사들의 칩 수요가 늘면 TSMC 주가도 오른다. TSMC는 시가총액 7000억 달러로 반도체 업계 2위가 됐다. TSMC의 수요가 늘면 반도체 장비 회사들의 수요도 늘어난다. ASML이 3823억 달러의 시가총액으로 반도체 업체 4위가 됐다. 그다음이 시가총액 3683억 달러의 삼성전자다. 그 뒤를 AMD가 3314억 달러의 시가총액으로 빠르게 올라오고 있다. SK하이닉스는 880억 달러로 17위다. 엔비디아는 20여년 전만 해도 게임용 GPU를 공급하는 회사에 불과했다. 그런 기업이 삼성전자 시총의 5배에 이르는 1위 반도체 회사가 된 것은 첫째는 생산을 해 주는 TSMC가 있었기 때문이고, 둘째는 소프트웨어의 중요성을 일찌감치 깨달아 게임 외에 CUDA를 개발해 퍼트린 것이다. 그다음은 Gen AI 시대가 올 것을 예상하고 과감한 기술 투자와 우수한 인재를 확보한 것이다. 모두 엔비디아 최고경영자(CEO) 젠슨 황의 리더십 없이는 불가능한 일이다. 차상균 서울대 데이터사이언스대학원 초대원장
  • 애플의 쓴맛 ‘과징금·AI 소외·中점유율’…올 시총 3500억 달러 사라져

    애플의 쓴맛 ‘과징금·AI 소외·中점유율’…올 시총 3500억 달러 사라져

    ‘혁신의 대명사’로 불리던 애플의 시가총액이 올해 들어서만 500조원 가까이 증발했다. 중국 내 아이폰 판매가 급감하고 유럽연합(EU)에 수조원의 과징금 처분을 받은 데 이어 정보기술(IT) 업계의 최대 화두인 인공지능(AI) 분야에서도 소외된 결과다. 6일(현지시간) 미국 뉴욕증시에서 애플 주가는 전날보다 0.59% 떨어진 169.12달러로 거래를 마쳤다. 지난달 27일(182.63달러) 이후 6거래일 연속 하락이다. 애플 주가가 160달러대로 내려온 것은 지난해 10월 말 이후 4개월여 만이다. 애플 주가에 ‘경고등’이 켜진 것은 중국·과징금·AI로 상징되는 삼중고에 빠진 탓이다. 지난 5일 리서치업체 카운터포인트가 낸 보고서를 보면 올해 첫 6주간 중국 내 아이폰 판매량은 전년 같은 기간 대비 24% 감소했다. 경쟁사인 화웨이 스마트폰 판매량은 64% 급증했다. 경기 침체 장기화로 가격이 높은 애플 스마트폰 수요가 줄고, 미국의 기술 제재에 대응한 중국인의 애국소비 성향도 강해진 결과다. 앞서 EU 집행위원회는 지난 4일 애플에 ‘음악 스트리밍 앱 시장에서 시장 지배력을 남용했다’는 이유로 18억 4000만 유로(약 2조 7000억원)의 과징금을 부과했다. 현재 애플은 EU뿐 아니라 주요국 규제 당국의 ‘반(反)독과점 표적’이 되고 있다. AI 분야에서 이렇다 할 성과를 보이지 못한 것도 애플의 위기를 부추긴다. IT 업계의 성장 테마가 AI로 바뀌면서 엔비디아·마이크로소프트(MS)·메타 등이 AI 기능과 그래픽처리장치(GPU) 혁신을 이끄는데 애플은 아직 흐름에 올라타지 못했다. 계속된 주가 하락으로 지난해 3조 달러(약 3990조원)를 넘었던 애플의 시가총액은 2조 6115억 달러로 쪼그라들었다. 올해 들어서만 3500억 달러가량 사라졌다. 지난 1월 MS에 ‘시총 1위’ 자리를 내주고, 3위 엔비디아에도 쫓기는 신세다. ‘AI 대장주’인 엔비디아는 이날도 주가를 3.18% 끌어올렸다. 시총은 2조 2170억 달러로 애플과의 차이를 좁히고 있다.
  • ‘중국·과징금·AI’ 애플, 올 들어 시총 470조 증발

    ‘중국·과징금·AI’ 애플, 올 들어 시총 470조 증발

    ‘혁신의 대명사’로 불리던 애플의 시가총액이 올해 들어서만 470조원 가까이 증발했다. 중국 내 아이폰 판매가 급감하고 유럽연합(EU)에 수조원의 과징금 처분을 받은 데 이어 정보기술(IT) 업계의 최대 화두인 인공지능(AI) 분야에서도 소외된 결과다. 6일(현지시간) 미국 뉴욕증시에서 애플 주가는 전날보다 0.59% 떨어진 169.12달러로 거래를 마쳤다. 지난달 27일(182.63달러) 이후 6거래일 연속 하락이다. 애플 주가가 160달러대로 내려온 것은 지난해 10월 말 이후 4개월여 만이다. 애플 주가에 ‘경고등’이 켜진 것은 중국·과징금·AI로 상징되는 삼중고에 빠진 탓이다. 5일 리서치업체 카운터포인트가 낸 보고서를 보면 올해 첫 6주간 중국 내 아이폰 판매량은 전년 동기 대비 24% 감소했다. 경쟁사인 화웨이 스마트폰 판매량은 64% 급증했다. 경기 침체 장기화로 가격이 높은 애플 스마트폰 수요가 줄고, 미국 기술 제재에 대응한 중국인의 애국소비 성향도 강해진 결과다. 앞서 EU 집행위원회는 지난 4일 애플에 ‘음악 스트리밍 앱 시장에서 시장 지배력을 남용했다’는 이유로 18억 4000만 유로(약 2조 7000억원)의 과징금을 부과했다. 현재 애플은 EU뿐 아니라 주요국 규제 당국의 ‘반(反)독과점 표적’이 되고 있다. AI 분야에서 이렇다 할 성과를 보이지 못한 것도 애플의 위기를 부추긴다. IT업계의 성장 테마가 AI로 바뀌면서 엔비디아·마이크로소프트(MS)·메타 등이 AI 기능과 그래픽처리장치(GPU) 혁신을 이끄는데 애플은 아직 흐름에 올라타지 못했다. 계속된 주가 하락으로 지난해 3조 달러(약 3990조원)를 넘었던 애플의 시가총액은 2조 6115억 달러로 쪼그라들었다. 올해 들어서만 3500억 달러가량 사라졌다. 지난 1월 MS에 ‘시총 1위’ 자리를 내주고, 3위 엔비디아에도 쫓기는 신세다. ‘AI 대장주’인 엔비디아는 이날도 주가를 3.18% 끌어올렸다. 시총은 2조 2170억 달러로 애플과의 차이를 좁히고 있다.
  • HBM 돌풍에도 건재한 GDDR 메모리…GDDR7 메모리가 온다 [고든 정의 TECH+]

    HBM 돌풍에도 건재한 GDDR 메모리…GDDR7 메모리가 온다 [고든 정의 TECH+]

    GDDR은 이름처럼 그래픽 카드를 위해 만들어진 고속 메모리입니다. 초기 그래픽 카드는 일반 SDR, DDR 메모리를 사용했지만, 처리해야 하는 그래픽 데이터의 양이 갈수록 커지면서 PC용 메모리로는 감당하기 힘들어지자, GDDR이라는 새로운 규격을 만든 것입니다. GDDR 메모리가 본격 사용된 것은 2004년에 나온 엔비디아의 지포스(GeForce) FX 5700 울트라 그래픽 카드였습니다. 이 그래픽 카드는 GDDR2 메모리를 탑재한 시험작이었습니다. 그 다음 지포스 6800 울트라에 GDDR3가 사용되면서 본격적인 GDDR 메모리 시대가 열렸습니다. GDDR 메모리는 본래 DDR2, DDR3 메모리에 기반한 고속 메모리로 데이터가 지날 수 있는 통로를 여러 개 만들고 각각의 통로의 속도를 더 빠르게 만든 것이 특징입니다. 다만 그렇기 때문에 DDR 메모리보다 가격이 비싸고 전력 소모가 큰 단점도 지니고 있습니다. 일반 컴퓨터에서 DDR 계열 메모리 대신 GDDR 메모리를 사용하지 않는 이유입니다. 시스템 메모리는 속도 못지않게 용량도 중요하고 전력 소모와 발열이 너무 커서도 안 되기 때문에 DDR 계열 메모리 정도면 적당합니다. 하지만 GPU의 경우 발전 속도가 워낙 빠르다 보니 GDDR 계열 메모리로도 충분하지 않다는 지적이 나왔습니다. 이를 대체하기 위해 개발된 메모리가 바로 HBM입니다. HBM는 여러 층으로 메모리를 쌓고 더 극단적으로 많은 통로를 만들어 속도와 용량 두 마리 토끼를 잡은 차세대 메모리입니다. 따라서 GDDR 메모리의 한계를 극복하고 차세대 그래픽 메모리가 되리라는 기대가 상당했습니다. 하지만 가격은 잡지 못했다는 게 문제였습니다.HBM을 최초로 적용한 그래픽 카드는 사실 AMD의 라데온 R9 퓨리 X입니다. 피지 GPU에 1세대 HBM 메모리 4GB를 달고 당시로는 상당히 빠른 512GB/s의 대역폭을 확보했습니다. 하지만 당시 기준으로 너무 비싼 649달러의 가격이 발목을 잡았습니다. 값비싼 HBM를 탑재하고도 성능은 경쟁사인 엔비디아의 지포스를 능가하지 못했기 때문에 한동안 HBM 메모리는 널리 쓰이지 못했습니다. HBM이 본격적으로 빛을 보게 된 것은 AI 붐과 함께 데이터 센터용 GPU에 대규모로 공급된 이후입니다. 2022년 19억 달러 수준에 불과했던 HBM 시장 규모는 2023년에는 40억 달러로 급증했고 2027년에는 330억 달러로 폭증할 것이라는 예측이 나오고 있습니다. 이렇게 시장 규모가 커지고 규모의 경제를 달성할 수 있게 되면 HBM이 가격 경쟁력을 지니게 되면서 서버용 GPU나 CPU를 넘어 GDDR 메모리의 주요 소비처인 콘솔 게임기나 일반 소비자용 그래픽 카드에 다시 탑재될 수 있는 가능성이 열리게 됩니다. 하지만 GDDR 메모리 역시 진화를 거듭하면서 성능이 높아지고 있어 당장 큰 변화가 없을 가능성이 높습니다. 현재 사용되는 GDDR 메모리의 최신 버전은 GDDR6X입니다. 하지만 삼성전자는 이미 작년에 GDDR7 개발을 완료했습니다. 그리고 메모리 표준을 정하는 JEDEC은 최근 GDDR7 규격을 확정했습니다. GDDR7 메모리의 최대 속도는 48Gbps로 GDDR6X의 두 배입니다. 덕분에 메모리 하나의 대역폭도 192GB/s로 두 배 높아졌습니다. 256비트 메모리 인터페이스라면 총 1.5TB/s, 384비트 메모리 인터페이스에서는 2.3TB/s의 대역폭을 확보할 수 있습니다. H100 같은 서버용 GPU보다는 낮지만, 게임이나 AI 연산용의 일반 고성능 그래픽 카드에는 충분한 대역폭을 확보할 수 있습니다. 다만 초기 등장할 GDDR7 메모리는 이전과 마찬가지로 규격에서 허용하는 최대 속도보다 다소 느릴 것입니다. 작년 삼성전자가 개발한 GDDR7 역시 32Gbps의 스펙을 지니고 있습니다. 하지만 이는 RTX 3080에 사용된 19Gbps의 GDDR6X 메모리나 RTX 4080 Super에 사용된 23Gbps GDDR6X 메모리보다 훨씬 빠른 것입니다. 여러 층으로 메모리를 쌓아 올리고 이를 관통하는 TSV라는 통로를 여러 개 뚫은 후 인터포저라는 별도의 통로를 통해 GPU나 CPU에 연결해야 하는 HBM는 속도와 용량에서 GDDR 메모리를 몇 배 앞설 순 있지만 여전히 가격도 몇 배 앞서게 됩니다. 기존 DDR 계열 메모리처럼 생산하고 정착할 수 있는 GDDR 메모리는 HBM의 가격이 지금보다 현저하게 떨어지지 않는 이상 시장에서 살아남게 될 것입니다. 다만 일부에서 예측하는 것처럼 HBM 시장 규모가 급격히 커지고 규모의 경제에 의해 가격이 내려가면 상황이 바뀔 수도 있습니다. 지금처럼 메모리 대역폭과 가격에 따라 DDR – GDDR - HBM의 3층 구조가 앞으로도 이어질지 아니면 HBM이 메모리의 대세가 될지 미래가 주목됩니다.
  • 뇌 닮은 초저전력 국산 AI반도체, GPT2 구동 세계 최초 성공

    뇌 닮은 초저전력 국산 AI반도체, GPT2 구동 세계 최초 성공

    인간 뇌 구조와 기능을 모방한 원리로 전력 소모를 최소화하면서도 초고속으로 거대언어모델(LLM)을 처리할 수 있는 인공지능(AI) 반도체를 국내 연구진이 세계 최초로 개발했다. 엔비디아 그래픽처리장치(GPU) A100의 41분의1 크기에 전력은 625분의1만 소모하면서 GPT 2 구동에 성공했다. 격화하는 세계 AI 반도체 전쟁에서 승기를 쥘 수 있는 실마리를 제공한 연구성과로 평가된다. 한국과학기술원(카이스트) PIM반도체 연구센터와 인공지능반도체대학원 유회준 교수 연구팀은 이 같은 초저전력 반도체 ‘상보형 트랜스포머’를 삼성전자 28㎚(나노미터) 공정을 통해 개발했다고 6일 과학기술정보통신부가 밝혔다. 연구팀은 그동안 다량의 GPU와 250W(와트)의 전력 소모를 통해 구동되던 GPT 2를 가로·세로 4.5㎜ 크기의 AI 반도체 한 개로 400㎽(밀리와트) 전력만 소모하면서 0.4초 만에 처리했다. 이번 연구 결과는 지난달 19∼23일 미국 샌프란시스코에서 열린 국제고체회로설계학회(ISSCC)에서 발표·시연됐다. 상보형 트랜스포머란 뇌의 뉴런이 정보를 처리하는 방식을 모사한 ‘스파이킹 뉴럴 네트워크’(SNN)와 여러 신경망 층으로 이뤄져 복잡한 패턴을 인식하고 학습하는 AI 모델인 ‘심층인공신경망’(DNN)을 선택적으로 사용할 수 있도록 한 기술이다. 생각할 것이 많을 때는 에너지 소모가 많고, 생각할 것이 적을 때는 에너지 소모가 적은 사람의 뇌 작동 원리를 AI반도체 형태로 구현했다. 입력값 크기가 클 때는 DNN을, 입력값이 작을 때는 SNN을 사용해 전력 소모를 최소화했다. 유회준 교수는 “뉴로모픽(뇌 기능 모사 기술) 컴퓨팅은 IBM, 인텔 같은 회사들도 의미 있게 구현하지 못한 기술로, 초저전력 뉴로모픽 가속기(상보형 트랜스포머)로 LLM을 구동한 것은 저희가 세계 최초라고 자부한다”고 말했다. 다만 당장 상용화로 이어질 수 있는 단계는 아니다. 연구팀은 향후 해당 기술을 LLM뿐 아니라 다양한 응용 분야로 확장해 연구하고, 상용화 관련 문제점들을 파악해 개선한다는 계획이다.
  • AI·반도체 대표 기업에 집중 투자하는 ‘한국투자글로벌AI&반도체TOP10펀드’

    AI·반도체 대표 기업에 집중 투자하는 ‘한국투자글로벌AI&반도체TOP10펀드’

    한국투자증권 ‘한국투자글로벌AI&반도체TOP10펀드’는 높은 성장 잠재력을 가진 AI와 반도체 두 산업의 대표 기업에 집중 투자하는 상품이다. 해당 펀드는 생성형 AI 시대에 가장 큰 수혜를 입을 빅테크 종목을 80% 이상 편입하고 있다. 동일 유형의 공모펀드 내 빅테크 종목 편입비 평균이 30~40%라는 점을 감안하면, 빅테크 편입비가 높은 셈이다. 특히 편입한 종목들 상당수가 시장 내 독점적인 위치에 있는 기업들로, 현재 편입종목 상위권에는 엔비디아, 브로드컴, 애플, 마이크로소프트, 아마존, TSMC, 구글, 테슬라, ASML 등이 이름을 올리고 있다. 이 펀드는 투자 대상 선별을 위해 자체 분석 시스템을 채용했다. 먼저 AI와 반도체 산업의 핵심분야를 선정한 뒤 각 핵심분야에 해당하는 종목을 빅데이터 분석을 통해 걸러내 투자 유니버스를 구성한다. 이를 기반으로 시장 점유율과 사업에 대한 진입장벽, 경쟁우위 등 다양한 부문에 점수를 매겨 최종적으로 투자 대상 기업을 10곳 선정한다. 핵심분야 선정 시에는 반도체 파운드리와 반도체 장비, GPU, 커뮤니케이션, 모빌리티&자율주행 등 산업 전반을 커버할 수 있도록 설계하며, 투자 대상 기업을 평가할 때는 일반적인 정량 지표와 더불어 해당 기업의 특허 경쟁력과 독점적 플랫폼 보유 여부, 데이터 보유 수준 등 테마 요소도 함께 감안한다. 또한 기본적으로 대형 기술주 위주로 투자한다. 종목 평가 점수가 높지만 비교적 낮은 시가총액으로 대표성을 띠지 못하는 차세대 TOP종목도 포트폴리오에 후보그룹으로 일부 편입해 초과 수익을 노린다. 이렇게 구성된 포트폴리오는 반기마다 핵심분야 재검토를 거쳐 산업 트렌드 변화에 대응한다. 한국투자글로벌AI&반도체TOP10펀드는 A-e, C-e클래스 등으로 나뉜다. A-e클래스는 0.5% 이내 선취수수료가 존재하며, 연보수는 0.995%다. C-e클래스는 선취수수료 없이 연보수가 1.24%다. 별도의 환매수수료는 없다.
위로