찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • H100
    2026-02-06
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
77
  • AI ‘냉정과 열정 사이’…엔비디아는 ‘갓비디아’로 남을 수 있을까[딥앤이지테크]

    AI ‘냉정과 열정 사이’…엔비디아는 ‘갓비디아’로 남을 수 있을까[딥앤이지테크]

    기업들은 급변하는 시장 상황과 기술에 맞춰 국경 없는 경쟁을 펼치고 있습니다. 이미 우리의 일상에도 깊숙이 들어온 첨단 기술과 이를 이끄는 빅테크의 소식을 흥미롭고, 이해하기 쉽게 풀어드립니다.‘인공지능(AI)은 과연 돈이 되는가.’ AI가 모든 산업에 스며들기 시작한 올 초만 해도 AI에 대한 낙관론이 팽배했지만 시장의 인내심은 그리 오래가지 못했습니다. AI 기술 개발에 천문학적 비용을 쏟아붓고 있는 빅테크 실적이 기대에 못 미치자 ‘AI 거품론’이 슬그머니 고개를 들기 시작했습니다. 뜨겁게 달아올랐던 시장이 이제야 냉정을 되찾은 것일까요. AI 열풍의 최고 수혜주로 꼽히는 엔비디아는 AI 반도체 시장의 ‘큰 손’으로 자리매김하면서 주가가 고공행진했고 지난 6월 18일(현지시간) 시가총액 1위 자리에 오르면서 세계에서 가장 비싼 기업이 됐습니다. 당시 시총 규모는 3조 3350억 달러로 4조 달러 달성도 시간 문제처럼 보였습니다.투자자들 사이에서 엔비디아는 ‘갓비디아’(God와 Nvidia의 합성어)로 불렸습니다. 엔비디아 설립 31년 만에 역사적 기록을 쓴 젠슨 황 최고경영자(CEO)의 성공 신화도 주목받았습니다. 그랬던 엔비디아 시총은 9일(현지시간) 2조 5769억 달러로 줄었습니다. 1년 전과 비교하면 주가가 크게 올랐지만 정점을 찍고는 하락세가 완연합니다. 영국 파이낸셜타임스(FT)는 지난 2일(현지시간) 헤지펀드 엘리엇 매니지먼트가 투자자들에게 “엔비디아는 거품에 빠져 있고, 칩 제조 기업의 주가를 움직이는 AI 기술은 과대평가됐다”는 내용의 서한을 보냈다고 보도했습니다. 엘리엇은 “엔비디아가 ‘거품의 땅’에 있다”면서 그 이유 중 하나로 빅테크가 엔비디아의 그래픽처리장치(GPU)를 계속해서 대량으로 사들일지에 대해 회의적이란 점을 꼽았습니다. AI의 많은 용도가 비용 효율적이지 않고 실제 작동하지 않을 것이며 에너지를 너무 많이 쓰거나 신뢰할 수 없을 것이란 점도 덧붙였습니다.엘리엇의 서한 내용이 알려진 이후 부정적 소식이 또 전해졌습니다. 엔비디아의 차세대 칩 블랙웰 B200 출시가 설계 결함으로 당초 예정보다 지연된다는 뉴스였습니다. 정보기술(IT) 매체 디인포메이션은 3일(현지시간) 소식통의 말을 인용해 엔비디아가 마이크로소프트(MS)와 다른 1곳의 클라우드 업체에 블랙웰 B200 생산 지연 사실을 통보했다고 전했습니다. 앞서 엔비디아는 지난 3월 연례 개발자 콘퍼런스(GTC)에서 B200이 연내 출시될 예정이라고 밝혔는데 이 내용대로라면 생산 계획에 차질이 빚어졌다는 겁니다. B200은 엔비디아의 호퍼 아키텍처 기반 H100의 성능을 뛰어넘는 차세대 AI 칩으로 주요 기업들이 이 칩을 확보하기 위해 경쟁을 벌이고 있는 것으로 알려졌습니다. 한 달 전 주당 134달러(7월 10일 종가 134.91달러)가 넘은 주가는 지난 7일 뉴욕 증시에서 100달러가 무너지며 98.91달러까지 내려 앉았습니다. 그러다 하루 만에 6.13% 급등했고 이튿날인 9일 0.21% 하락하며 104.75달러에 장 마감했습니다. 주가가 널뛰기를 하는 모양새입니다.‘AI 랠리’가 끝난 것인지, 단기 조정인지는 월가 내에서도 의견이 분분합니다. 월가 비관론자들은 엔비디아가 2000년대 초반 미국 네트워크 장비업체인 시스코의 전철을 밟을 수 있다는 우려를 하고 있습니다. 시스코는 ‘인터넷 혁명’의 수혜를 입고 무서운 속도로 주가가 급상승하면서 2000년 3월 시총 1위 자리에 올랐습니다. 그러나 닷컴 버블이 꺼지면서 재고가 쌓이고 적자가 나면서 주가가 폭락했습니다. 시스코는 최근에도 감원 소식이 전해집니다. 실적 부진으로 올해 두 번째 인력 구조조정을 추진한다는 내용입니다. 로이터통신은 9일(현지시간) “시스코가 사이버 보안과 AI와 같은 빠르게 성장하는 사업으로 초점을 옮기고 있다”고 설명했습니다. 엔비디아는 시스코와 비교하면 이익 대비 주가가 크게 부풀려진 게 아닐 뿐더러 AI 수요가 단기간에 사그라들지 않을 것이란 점에서 다른 길을 걸을 것이란 의견도 적지 않습니다. 엔비디아가 단순히 GPU만 파는 회사가 아니라 이 제품을 효율적으로 사용할 수 있는 프로그램인 ‘쿠다’를 통해 AI 생태계를 구축해 왔기 때문입니다. 한 가지 분명한 건 오는 28일 엔비디아 실적 발표가 불확실성을 어느 정도 걷어낼 수 있을 것이란 점입니다. 엘리엇 서한 내용처럼 엔비디아가 부진한 실적을 발표하면 마법이 깨질 수도 있겠지만 시장 전망치를 웃도는 2분기 실적과 3분기 전망치를 발표한다면 AI 거품 논란도 일부 해소할 수 있을 것으로 투자 전문가들은 보고 있습니다.
  • “폐쇄형 애플, 빌어먹을 것”… 또 저격한 메타·엔비디아

    “폐쇄형 애플, 빌어먹을 것”… 또 저격한 메타·엔비디아

    마크 저커버그 메타 최고경영자(CEO)가 젠슨 황 엔비디아 CEO와의 대담에서 애플의 ‘폐쇄적 생태계’를 저격하는 발언을 쏟아내며 반(反)애플 전선 구축을 공고히 했다. 애플은 자사의 인공지능(AI) 훈련에 엔비디아 칩을 사용하지 않는 것으로 알려지며 엔비디아와 거리두기에 나선 모습이다. 29일(현지시간) 저커버그 CEO는 미국 콜로라도 컨벤션센터에서 열린 컴퓨터 그래픽스 콘퍼런스 ‘시그라프 2024’ 특별대담에서 최근 오픈소스로 공개된 메타의 생성형 AI 모델 ‘라마 3.1’을 설명하던 중 애플과 같은 폐쇄형 플랫폼에 대해 “빌어먹을 것”이라며 강도 높게 비판했다. 저커버그 CEO는 “폐쇄형 플랫폼에 대해 얘기하면 화가 난다”며 “모바일 시대에는 애플이 승리한 것처럼 보이지만, 다음 세대에는 오픈 생태계가 승리할 것이 확실하다”고 말했다. 그러면서 “오픈소스로 AI 생태계를 만들면 예산도 엄청나게 아낄 수 있다”면서 “엔비디아가 많이 도와주고 있다”고 했다. 메타의 라마 3.1은 엔비디아의 H100 그래픽처리장치(GPU) 1만 6000개를 기반으로 훈련됐는데, 해당 칩은 개당 3만~4만 달러에 달하는 것으로 알려졌다. 애플은 구글과의 협력을 강화하며 탈(脫)엔비디아에 속도를 내는 모습이다. 애플은 이날 공개한 자사 AI 시스템 ‘애플 인텔리전스’ 관련 연구 논문에서 애플 인텔리전스의 기반이 되는 AFM 온디바이스와 AFM 서버 모델을 ‘클라우드 TPU 클러스터’에서 학습시켰다고 밝혔다. 구글을 직접 언급하진 않았지만 구글이 설계한 AI 전용 칩인 TPU를 적시함으로써 엔비디아 칩을 사용하지 않은 점을 드러낸 것이다. 주요 빅테크 가운데 엔비디아 칩을 쓰지 않는다고 공개한 곳은 애플이 처음이다. 엔비디아가 AI 전용 칩 시장의 80% 이상을 장악하고 있다는 점을 감안하면 애플의 이번 결정은 빅테크들이 AI를 구축하는 데 엔비디아에 대한 의존도를 최소화하려는 움직임으로 해석할 수 있다. 미 CNBC 역시 “빅테크들이 엔비디아의 대안을 찾고 있다는 신호”라고 평가했다.
  • GPU 한우물만 판 AI의 제왕… ‘엔비디아 생태계’를 창조하다[경제의 창]

    GPU 한우물만 판 AI의 제왕… ‘엔비디아 생태계’를 창조하다[경제의 창]

    올해 초 투자했다면 120%, 지난해 초 투자했다면 1년간 210%의 수익을 거둘 수 있었던 종목이 있다. 국내 온라인 커뮤니티에는 5년 이상 투자했다며 2000%에 가까운 수익률을 자랑하는 인증 사진이 등장한다. 심지어 지난 주말 온라인 주식 커뮤니티에선 10년간 한 종목에 투자해 1만 7000%의 수익률을 거둔 한 일본인 개미 투자자 이야기가 화제가 됐다. 그는 결과적으로 27억원이 넘는 이익을 거뒀다. 비트코인 이야기가 아니다. 인공지능(AI) 열풍의 중심에서 어느덧 공룡기업이 돼 버린 ‘엔비디아’ 이야기다. 요즘 엔비디아는 존재 자체가 뉴스다. 주가가 떨어져도 올라도 기사가 된다. 2022년 10월 기준 100달러 초반이었던 엔비디아의 주가는 최근 1100달러 선까지 올라왔다. 시가총액은 2조 달러(약 2656조원)를 훌쩍 넘어서며 글로벌 시가총액 2위인 애플 자리를 넘보고 있다. 괴물 같은 성장은 그래픽처리장치(GPU·Graphics Processing Unit)가 이끌었다고 해도 과언이 아니다. 엔비디아는 전 세계 GPU 시장에서 점유율 90% 이상을 차지하며 독주 체제를 굳건히 하고 있다최소 6개월 줄 서야 구매 “지금 (엔비디아의) GPU는 마약보다 구하기 어렵다.” 다소 과격한 듯한 일론 머스크 테슬라 최고경영자(CEO)의 말은 팩트다. 엔비디아가 만드는 GPU는 AI 연구개발의 필수재다. 말 그대로 없어서 못 산다. 주력 AI 칩인 H100은 개당 가격이 3만 달러(약 4000만원)에 달하지만 굴지의 테크 기업들도 이 칩을 받으려면 최소 6개월은 기다려야 한다. AI 모델 개발의 3대 요소는 ▲컴퓨팅 파워 ▲빅데이터 ▲모델링(알고리즘)이다. 엔비디아의 역량이 빛을 발하는 지점은 컴퓨팅 파워다. 컴퓨터 성능이라고 할 수 있는 컴퓨팅 파워는 컴퓨터의 연산 처리 능력을 뜻한다. 오픈AI의 ‘챗GPT’ 공개 이후 AI 기술에 대한 업계의 관심이 폭발했고 자연스레 컴퓨팅 기술에 대한 수요가 크게 늘었다. 이들의 수요는 고스란히 해당 분야에 강점을 지닌 엔비디아의 매출로 이어졌다. 엔비디아가 강력한 연산 능력을 갖춘 GPU를 생산할 수 있었던 건 애초에 게임용으로 설계됐기 때문이다. 속도보다는 정확성을 중시하는 중앙처리장치(CPU)와 달리 그래픽 처리를 목적으로 만들어진 GPU는 연산을 동시다발적(병렬식)으로 처리할 수 있다. CPU가 복잡한 연산을 빠르게 처리한다면 GPU는 단순한 여러 데이터를 빠르게 처리한다고 볼 수 있다. AI 개발에는 많은 양의 연산 작업이 필요하기 때문에 단순 연산을 다중 처리하는 GPU가 효과적이다. 엔비디아는 게이밍 그래픽카드 지포스(GeForce) 시리즈로 오랜 기간 게임업계의 최강자로 군림했다. 왕좌를 지키기 위해 실감 나는 3D 그래픽 전달의 필수 능력 중 하나인 연산 처리 능력을 키우는 데 주력한 덕분에 지금과 같이 최고 수준의 GPU 개발 능력을 보유하게 됐다는 것이 업계 중론이다. 엔비디아의 이 같은 전략은 AI 부흥과 함께 맞아 들어가기 시작했다. 박영준 서울대 전기정보공학부 명예교수는 “인공지능을 활용하려면 수많은 연산을 동시에 실시해야 하는데, 이런 방식으로 결과값을 얻으려면 최소 수개월에서 길게는 1년 이상 시간이 필요하다”며 “엔비디아는 AI 계산 방식에 GPU를 적용해 연산 소요 시간을 2~3일로 줄여 냈다”고 설명했다.AI칩 넘어선 비장의 무기 이후 엔비디아는 AI 맞춤형 반도체 제작에 주력하기 시작한다. 실제로 지난해까지 최근 10년 동안 엔비디아 칩의 데이터 처리 속도는 1000배 가까이 향상됐다. 엔비디아는 AI 딥러닝을 위해 CPU의 ‘다재다능함’에 GPU의 연산 처리 능력을 덧붙인 ‘GPU의 범용 연산’(GPGPU)을 개발했다. 김명주 서울여대 정보보호학과 교수는 “CPU의 기능도 일부 병행할 수 있는 GPGPU가 개발되면서 인텔을 제치고 엔비디아의 본격적인 독주 체제가 만들어졌다”고 전했다. 엔비디아는 한 손에 ‘하드웨어 무기’ GPGPU를, 다른 한 손에 ‘소프트웨어 무기’에 해당하는 ‘CUDA’(쿠다)를 들고 본격적인 점유율 확대에 나섰다. AI와 관련한 여러 애플리케이션에서 GPU가 더 효율적으로 활용될 수 있는 소프트웨어 생태계를 만들겠다는 생각이다. 쿠다는 개발자들이 일반적으로 사용하는 프로그래밍 언어 C·C++·파이선 등을 GPU코드로 변환해 준다. GPU를 활용하기 위해 개발자들이 GPU 코드를 따로 배워야 하는 수고를 덜어 준 것이다. 이 같은 소프트웨어 생태계 조성에 힘입어 지금도 대부분의 AI 모델은 쿠다를 기반으로 개발되고 있다. 쿠다를 이용하는 개발자 수는 2020년 180만명에서 2023년 450만명으로 2배 넘게 늘었다. 사실상 엔비디아가 AI 생태계를 장악할 수 있는 원동력이 된 셈이다. 김 교수는 “다른 반도체 기업들도 노력 중이지만 새로운 헤게모니(주도권)을 구축하거나 극적으로 상황이 반전되지 않는 이상 독과점 체제는 이어질 것”이라고 밝혔다.엔비디아 질주 언제까지 최근 투자자들 사이에선 “엔비디아에 조금이라도 더 일찍 투자한 이들이 곧 승자”라는 말이 나온다. 부러움을 뜻하는 라틴어 ‘인비디아’(Invidia)에서 유래한 엔비디아라는 이름이 딱 들어맞는 대목이다. 엔비디아의 성장세는 여전히 가파르다. 2019년 최저 31달러를 찍었던 엔비디아는 1분기 실적 발표가 있었던 지난달 23일 사상 처음으로 1000달러를 돌파했다. 5년 만에 주가가 30배 이상 뛰어올랐다. 지난달 30일엔 장중 한때 1158달러까지 치솟기도 했다. 자연스레 국내 시장에 미치는 영향도 커지고 있다. 삼성전자를 중심으로 한 반도체 업계에 대한 의존도가 높았던 한국 경제가 또 한번 ‘반도체 공화국’의 면모를 확인하는 듯한 모습이다. 지난달 28일엔 최근 4년간 ‘서학개미’(해외 증시에 투자하는 개인투자자)의 주식 보유액 1위 자리를 굳건히 지켜 왔던 테슬라를 제치고 서학개미 최고 관심 종목으로 등극하기도 했다. 국내 증시 시총 1, 2위인 삼성전자와 SK하이닉스는 엔비디아 관련 소식에 웃었다 울었다를 반복 중이다. 국내 증시 엔비디아 최고 수혜주 중 하나로 꼽히는 SK하이닉스는 지난달 29일 장중 한때 20만 9000원을 터치하며 52주 만에 신고가를 경신했다. GPU에 방대한 데이터를 전달하는 데 필요한 고대역폭메모리(HBM3E) 독점적 공급이 주가 상승을 이끌었다. 반면 삼성전자는 지난달 24일 HBM이 엔비디아의 납품 테스트를 아직 통과하지 못했다는 소식이 전해지면서 전 거래일보다 3.07% 급락한 바 있다. 증권가는 엔비디아의 잠재력과 성장 가능성을 인정하면서도 조건 없는 맹신은 지양해야 한다고 입을 모은다. 가파른 상승을 이어 온 엔비디아의 단기 고점이 어느 수준에서 형성될 것인지 가늠하기 쉽지 않다는 이유에서다. 강대석 유안타증권 연구원은 “하반기에도 AI에 대한 관심은 강할 것으로 예상되지만 엔비디아의 실적이 점점 높아지는 눈높이에 언제까지 부응할 수 있을지는 지켜봐야 할 것”이라고 말했다. 미국 증시에서 엔비디아를 향한 쏠림 현상은 심화돼 있다. 올해 S&P500 시가총액은 총 4조 5000억 달러가 늘었는데 이 중 35%인 1조 6000억 달러를 엔비디아가 차지했다. 지난주 국내에서도 엔비디아는 테슬라를 제치고 국내 투자자들이 가장 많이 보유한 해외 주식 1위로 등극했다. 김석환 미래에셋증권 연구원은 “AI 열풍이 끊이지 않았는데도 지난해 8월과 10월 사이, 올해 4월 등 미국의 장기금리가 높아질 때마다 가격 조정을 받아 왔다. 최근 미국의 10년물 국채 등 금리 상승이 지속되면서 지나치게 쏠려 있는 엔비디아가 파급을 받을 우려가 커졌다”고 밝혔다.
  • 주당 1100달러 넘어선 엔비디아… 애플 시총 뛰어넘나

    주당 1100달러 넘어선 엔비디아… 애플 시총 뛰어넘나

    엔비디아 주가가 연일 최고가를 갈아 치우고 있다. 올 1분기 호실적과 주식 분할 소식에 최고가를 찍었던 주가는 일론 머스크 테슬라 최고경영자(CEO)가 설립한 인공지능(AI) 스타트업의 대규모 자금 조달 소식에 1100달러를 넘어서며 신고가를 경신했다. 엔비디아의 견인으로 나스닥도 사상 처음 1만 7000선을 돌파했다. 28일(현지시간) 뉴욕 증시에서 엔비디아 주가는 전 거래일 대비 6.98% 오른 1139.01달러(약 153만원)에 거래를 마쳤다. 지난 22일 실적 발표 이후 시간 외 거래에서 주가가 1000달러를 넘어선 엔비디아는 이튿날 1000달러를 돌파하며 신고가를 쓴 데 이어 2거래일 만에 1100달러대까지 상승했다. 시가총액은 2조 8000억 달러를 넘어서며 시총 2위(2조 9130억 달러)인 애플과의 격차도 1120억 달러로 좁혔다. 시장에선 시총 3조 1983억 달러로 1위 자리를 지키고 있는 마이크로소프트(MS)를 뛰어넘을 거란 전망도 나온다. 엔비디아의 급등으로 기술주 중심으로 구성된 나스닥 지수는 이날 전 거래일 대비 0.59% 오른 1만 7019.88에 거래를 마쳤다. 이날 엔비디아 주가에는 일론 머스크의 AI 스타트업인 ‘xAI’의 대규모 투자 유치 소식이 호재로 작용했다. xAI는 전날 60억 달러(약 8조 1780억원) 규모의 투자 유치에 성공했다고 밝혔는데 조달한 자금의 상당 부분을 엔비디아 AI칩 구매에 사용할 거라는 소식에 엔비디아 주가가 급등했다. 지난해 3월 설립된 xAI는 같은 해 11월 자체 개발한 챗봇 ‘그록’을 출시했으며 올 초 업그레이드 버전인 ‘그록 1.5’를 내놨다. 그록 1.5는 오픈AI의 GPT-4 수준에 근접한 것으로 알려졌다. 머스크는 최근 ‘그록2’ 훈련에 엔비디아의 최신 칩 중 하나인 H100 그래픽처리장치(GPU) 약 2만개가 필요하다고 밝히기도 했다.생성형 AI를 상용화하려는 각 기업의 움직임이 19세기 ‘골드러시’에 비유되는 상황에서 엔비디아는 금을 찾는 이들에게 ‘곡괭이’와 ‘삽’을 파는 회사로 인식되고 있다. 고성능 컴퓨팅 인프라를 제공하는 엔비디아가 AI 모델을 선보이는 회사보다 더 안정적이고 지속적인 수익을 올릴 거란 판단에 투자금이 쏠리면서 주가가 급등세를 보이는 추세다. 국내에선 엔비디아 주가 상승의 최대 수혜주로 SK하이닉스가 꼽힌다. 엔비디아에 고대역폭메모리(HBM)를 공급하고 있는 SK하이닉스는 29일 장 초반 21만원까지 오르며 52주 신고가를 썼다. 미 CNBC에 따르면 미 투자은행 모건스탠리는 엔비디아 열풍에 가세할 7개 종목에 대만 TSMC와 함께 SK하이닉스를 포함했다. 모건스탠리는 SK하이닉스의 상승 잠재력을 33.3%로 봤다. 한편 엔비디아는 대만 남부 가오슝에 AI 연구개발(R&D) 센터를 추가 건립한다. 이날 공상시보 등 대만 언론에 따르면 엔비디아는 가오슝 아완 지역 소프트웨어 산업단지 내에 초고성능컴퓨터(HPC) 시스템을 구축할 것으로 보인다. 소식통은 엔비디아가 가오슝 소프트웨어 산업단지 내 훙하이 빌딩에 대만 최대 규모인 엔비디아의 HPC ‘타이베이 1’(Taipei-1)의 기계실 설치를 시작했다며 이곳에 앞으로 대만 내 두 번째 엔비디아 AI R&D 센터가 들어설 것이라고 밝혔다.
  • 1분기도 날아오른 엔비디아…시간외 주가 1000달러 돌파도

    1분기도 날아오른 엔비디아…시간외 주가 1000달러 돌파도

    인공지능(AI) 칩 선두 주자 엔비디아가 시장 예상치를 웃도는 분기 실적과 10대 1의 주식 분할 발표로 시간외 거래에서 주가가 1000달러를 넘어섰다. 22일(현지시간) 뉴욕증권거래소에 따르면 미 동부 시간 이날 오후 5시 47분(서부 오후 2시 47분) 기준 엔비디아 주가는 시간외 거래에서 정규장보다 6.16% 오른 1008달러에 거래됐다. 정규장이 아닌 시간외 거래이긴 하지만 엔비디아 주가가 1000달러를 넘어선 것은 이번이 처음이다. 주가는 1020달러 안팎까지 치솟기도 했다. 앞서 엔비디아는 회계연도 1분기(2~4월)에 매출은 260억 4000만 달러(35조 6000억원), 주당 순이익은 6.12달러(8366원)를 각각 기록했다고 밝혔다. 매출은 시장조사기관 LSEG가 집계한 시장 예상치 246억 5000만 달러를 웃돌았고 주당 순이익도 예상치 5.59달러를 상회했다. 1년 전 같은 기간과 비교하면 매출은 71억 9000만 달러에서 262% 급등했고, 주당 순이익은 1.09달러에서 4.5배 증가했다. 엔비디아는 또 2분기(5~7월) 매출을 280억 달러로 예상했다. 이는 LSEG가 집계한 월가 전망치 266억1천 달러를 웃도는 수치다. 월가는 주당 순이익도 5.95달러로 예상한다. AI 칩을 포함하는 엔비디아의 데이터센터 부문 1분기 매출은 전년 동기 427% 급증한 226억 달러의 매출을 기록했다. 엔비디아 최고재무책임자(CFO) 콜레트 크레스는 “(엔비디아의 핵심 AI 칩인) H100 그래픽처리장치(GPU)가 포함된 우리의 ‘호퍼’ 그래픽 프로세서 출하가 많이 늘어난 데 따른 것”이라고 설명했다. 이어 “대형 클라우드 제공업체들이 엔비디아 AI 인프라를 대규모로 설치하고 확대하면서 강력한 성장을 지속했다”고 덧붙였다. PC용 그래픽 카드를 포함하는 게임 부문은 18% 증가한 26억 4000만 달러를 기록했다. 미 경제 매체 CNBC 방송은 “엔비디아의 분기 매출이 1년 전보다 262% 증가했다”며 “이는 AI 열풍이 지속되고 있다는 것을 시사한다”고 평가했다. 젠슨 황 최고경영자(CEO)는 성명에서 지난 3월 공개한 차세대 AI 칩 블랙웰을 생산하고 있다며 기대를 나타냈다. 블랙웰은 올 하반기 본격 출시 예정이다. 그는 “차세대 AI GPU가 더 많은 성장을 이끌 것”이라며 “우리는 다음 성장의 물결을 맞이할 준비가 돼 있다”고 자신했다. 엔비디아는 블랙웰 AI 칩을 이번 분기에 출하할 예정이다. 다음 분기에는 생산량을 늘린다. 황 CEO는 “차세대 산업 혁명이 시작됐다”며 “기업과 국가는 엔비디아와 협력해 1조 달러 규모의 기존 데이터 센터를 가속화된 컴퓨팅으로 전환하고 새로운 유형의 데이터센터인 AI 공장을 구축해 새로운 상품인 AI를 생산하고 있다”고 밝혔다. 엔비디아는 주식을 10대 1로 분할하기로 했고 다음 달 10일부터 적용한다. 엔비디아의 주식 분할은 2021년 7월 4대 1로 분할한 이후 3년 만이다. 분기 배당금도 0.10 달러로 기존 0.04달러에서 150% 높였다. 이날 뉴욕 증시 정규장에서 0.46% 하락 마감한 엔비디아 주가는 실적 발표 후 상승 폭을 넓히며 약 4% 상승해 990달러에 육박하고 있다.
  • “판다 발가락이 6개?”…중국 동영상 생성 인공지능 출시

    “판다 발가락이 6개?”…중국 동영상 생성 인공지능 출시

    미국의 인공지능 기술을 따라잡기 위해 안간힘을 쓰고 있는 중국이 오픈AI의 동영상 생성 인공지능(AI) 도구인 ‘소라’의 대항마 ‘비두(Vidu)’를 내놓았다. 중국 중앙(CC)TV는 29일 중국 스타트업 ‘셍슈 테크놀로지’가 명문 칭화대와 공동 노력을 통해 문자를 영상으로 만들어내는 AI인 ‘비두’를 출시했다고 보도했다. 오픈AI의 소라가 60초의 동영상을 제작하는 데 비해 중국의 비두는 간단한 텍스트를 기반으로 1080p 해상도의 16초 이하 비디오를 생성할 수 있다. 셍슈 테크놀로지의 최고 과학자이자 칭화대 AI 연구소의 부원장이기도 한 주쥔은 베이징 중관춘 포럼에서 “비두는 자립적 혁신의 최신 성과이며 많은 분야에서 획기적인 발전을 이루었다”라고 말했다.그는 “비두가 상상력이 풍부하고, 실제 세계를 시뮬레이션할 수 있으며 일관된 캐릭터, 장면 및 타임라인으로 16초짜리 비디오를 제작할 수 있다”고 설명했다. 게다가 비두는 판다, 용 등 ‘중국적인 요소’도 이해하며 이미지를 생성할 수 있다고 덧붙였다. 모델 공개 과정에서 셍슈 테크놀로지는 기타를 연주하는 판다와 수영장에서 수영하는 강아지 등 여러 데모 영상 클립을 공개했는데 생생한 디테일을 보여준다는 평가를 받았다. 하지만 인공지능이 손가락, 발가락 등 섬세한 이미지 생성에서 보이는 오류를 비두 역시 반복했다. 기타를 치는 판다의 발가락이 5개가 아니라 6~7개로 보인다고 중국 네티즌들은 지적했다. 게다가 판다의 앞발에는 발톱이 아예 없다. 그럼에도 지난 2월 오픈AI가 동영상 생성 인공지능 소라를 공개한 지 두 달여 만에 중국에서 비슷한 서비스를 내놓자 일각에서는 희망 섞인 전망을 내놓고 있다. 경쟁이 치열한 AI 시장에서 짧은 시간에 제품을 생산한 것은 고무적이란 평가다.중국은 AI 기술 격차를 따라잡는 데 있어 미국의 첨단 칩 규제 때문에 적잖은 애로를 겪고 있다. 예를 들어 소라가 1분짜리 동영상을 제작하려면 8개의 엔비디아 A100 그래픽 처리 장치(GPU)가 3시간 이상 돌아가야만 한다. 하지만 미국은 A100, H100 GPU 등 엔비디아 등이 생산하는 첨단 칩을 중국으로 수출하는 것을 금지했다. 엔비디아의 A100과 H100 GPU는 AI 시스템 훈련용 부품으로 인기가 높다. 중국 베이징에 본사를 둔 셍슈 테크놀로지는 2023년 3월에 설립되었으며 핵심 연구원은 칭화대 AI 연구소 및 알리바바, 텐센트, 바이트댄스 등에서 온 직원 80여명으로 구성됐다. 알리바바 역시 자체적으로 문자를 영상으로 생성하는 AI 모델을 개발 중이다.
  • 우수 인재가 곧 경쟁력...美대학 파트너십으로 돌파구 찾는 반도체

    우수 인재가 곧 경쟁력...美대학 파트너십으로 돌파구 찾는 반도체

    최근 글로벌 반도체 산업이 천문학적인 보조금 지급을 앞세운 ‘쩐의 전쟁’으로 격화하고 있는 가운데 우수 인재 유치를 위한 기업들의 노력도 확대되고 있다. 반도체 시장은 생성형 인공지능(AI)을 비롯한 AI 반도체 수요 급증에 따라 이를 연구·개발(R&D)할 인력 확보가 곧 기업 미래 경쟁력으로 꼽히면서 반도체·AI 분야에 강점을 보이는 주요 대학과 기업의 파트너십이 속속 이어지는 분위기다.AI 반도체 절대 강자로 꼽히는 미국 엔비디아는 미 조지아공과대학교와 협력해 AI 슈퍼컴퓨터 허브인 ‘AI 메이커스페이스’를 선보인다고 11일(현지시간) 밝혔다. 엔비디아와 조지아공대는 애초 이번 프로젝트를 학부생들이 활용할 수 있는 방향으로 개발에 착수했으나, AI 반도체와 AI 기술 전반이 급변하면서 조지아공대 전체 학생들의 AI 기술을 심화하고 차세대 AI 시스템 전문가 양성을 목표로 계획을 변경했다. 라힘 베야 조지아공대 학과장은 “AI 메이커스페이스의 출시는 조지아공대의 교육 혁신과 리더십의 또 다른 이정표다”라면서 “엔비디아의 첨단 기술과 전문성 덕분에 모든 수준의 학생들이 빠르게 진화하는 AI 분야에 기여하고 선도할 수 있는 길을 열었다”고 말했다. AI 메이커스페이스는 20개의 엔비디아 HGX H100 시스템으로 구동된다. 여기에는 고급 AI와 머신 러닝 작업을 지원하는 컴퓨팅 가속기 중 하나인 엔비디아 H100 텐서 코어 GPU가 160개 탑재된다. 엔비디아 H100 GPU의 연산 성능은 조지아공대 5만여명의 학생이 22년 동안 수행해야 하는 곱셈 연산을 단 한 대로 1초 만에 해낼 수 있는 수준이다.고대역폭 메모리(HBM)를 비롯해 AI 반도체 기술 투자를 강화하고 있는 SK하이닉스가 첫 미국 생산기지 부지를 인디애나로 결정한 배경에는도 현지 고급 인력과의 협업 및 인재 확보라는 전략이 깔려있다. SK하이닉스는 지난 3일 인디애나 북서부 교육도시 웨스트라피엣에 38억 7000만 달러(약 5조 2200억원)를 들여 어드밴스드 패키징(첨단 후공정) 공장을 신설한다고 밝혔다. SK하이닉스는 반도체 등 첨단 공학 연구 분야에서 두각을 보이고 있는 퍼듀대와는 반도체 기술 연구·개발에 협력하기로 했다. 곽노정 SK하이닉스 대표이사 사장은 투자 협약식에서 “첨단 패키징 공장을 운영하려면 물리와 화학, 재료공학, 전자공학 분야 엔지니어 수백명이 필요하다”라면서 “최종 목표는 매우 명확하다. 미국에서 성공하려면 아주 좋은 엔지니어가 필요하다”라고 강조했다. 퍼듀대는 이미 수년 전 SK하이닉스의 요청을 받고 반도체 분야에 특화한 학부와 대학원, 자격증 프로그램 등을 운영해온 것으로 전해졌다.텍사스 오스틴 제1 파운드리(위탁생산) 공장에 이어 테일러에 제2파운드리 공장을 신설하고 있는 삼성전자는 텍사스 지역 대학 두 곳에 총 470만 달러를 투자해 인재 육성을 병행하고 있다. 삼성전자는 텍사스대(UT)와 A&M대학에 각각 370만 달러와 100만 달러를 투자해 반도체 교육 및 채용 프로그램, 학부생 장학금, 대학원생의 연구 프로그램 등을 지원하고 있다. 이밖에 애리조나주에 2개 공장을 짓고 있는 세계 최대 파운드리 기업 대만 TSMC는 반도체 인재 확보를 목적으로 애리조나 주립대와 협력하고 있고, 미국 종합 반도체 기업 인텔은 미국 내 11개 주 18개 이상의 지역 대학과 파트너십을 맺고 엔지니어 양성에 힘 쏟고 있다.
  • 엔비디아 독주에 도전장 내민 인텔 가우디3…성공할 수 있을까? [고든 정의 TECH+]

    엔비디아 독주에 도전장 내민 인텔 가우디3…성공할 수 있을까? [고든 정의 TECH+]

    최근 IT 업계의 최대 화두는 AI입니다. 주요 프로세서 제조사와 빅테크들은 너도나도 AI 기반 서비스, 플랫폼, 하드웨어를 선보이면서 시장을 선점하기 위해 노력하고 있습니다. 하지만 AI 하드웨어 시장에서는 초반부터 기세를 장악한 엔비디아의 강세가 계속 이어지고 있습니다. 인텔은 엔비디아의 AI GPU의 대항마로 가우디 AI 가속기를 내놓고 반전을 모색하고 있습니다. 하지만 이를 위해서는 AI 하드웨어만이 아니라 이 하드웨어를 사용하는 개발자와 개발 생태계가 필요합니다. 인텔의 비전 2024 행사에서는 차세대 AI 가속기인 가우디 3(Gaudi 3)의 공개와 함께 깜짝 손님으로 한국의 네이버가 초대됐습니다. 네이버는 가우디 2를 인텔 클라우드에서 테스트해 거대 언어 모델 (LLM) 성능을 검증하고 개발했습니다. 네이버 개발팀에 따르면 가우디 2는 전력 대 성능비가 우수하고 LLM에 강점을 지닌 AI 가속 하드웨어입니다. 네이버 클라우드와 인텔은 AI 공동연구센터(NICL, NAVER Cloud·Intel·Co-Lab)를 설립하고 카이스트, 서울대, 포스텍 등 국내 대학 및 스타트업과 함께 AI 생태계 구축에 나서기로 했습니다. 다만 가우디 2가 네이버의 AI 서비스에 바로 활용되는 것은 아닙니다. 가우디는 최근에야 시장에 합류한 신참으로 이미 시장에서 견고한 위치를 차지하고 있는 엔비디아 GPU처럼 바로 서비스에 투입할 만큼 생태계가 구축되어 있지 않습니다. 여기에 엔비디아가 계속해서 차세대 GPU를 개발하면서 경쟁자를 저 멀리 따돌리려고 하고 있기 때문에 이를 추격하기 위해서는 가우디 2의 상용화보다 후속 모델 개발에 집중해야 할 형편입니다. 따라서 이날 행사에서 인텔은 차세대 AI 가속기인 가우디 3를 공개하고 올해 하반기에 출시한다고 발표했습니다. 가우디 3는 TSMC의 5nm 공정으로 제조되며 128GB의 HBM2e 메모리를 탑재하고 있습니다. 트랜지스터 집적도를 비롯한 더 구체적인 정보는 공개하지 않았지만, 가우디 2와 비교해서 텐서 코어를 24개에서 64개로 늘리고 연산 능력도 865 TFLOPS에서 1835 TFLOPS로 두 배 이상 대폭 늘렸다는 것이 인텔의 설명입니다.비전 2024 행사에서 인텔은 가우디 3가 엔비디아의 H100보다 더 빠르다고 주장했습니다. 예를 들어 Llama2-13B 훈련 기준으로 1.7배 빠르고 GPT 3 – 175B에서는 1.5배 빠릅니다. 그리고 다른 AI 연산에서도 전력 대 성능비로 우위에 있다는 것이 인텔의 주장입니다. 하지만 이 주장이 맞다고 해도 인텔의 도전은 쉽지 않은 게 사실입니다. H100은 이제 출시된 지 2년이 지난 제품이고 엔비디아는 이미 그 후속작인 블랙웰 GPU를 공개했기 때문입니다. 블랙웰 B200의 AI 연산 능력은 FP 8 기준으로 4.5페타플롭스로 단순 수치만 봐도 가우디 3보다 몇 배 뛰어납니다. 여기에 AI 서비스 기업과 개발자들이 사용하기 쉬운 생태계가 이미 구축된 점은 엔비디아 AI 하드웨어의 넘볼 수 없는 장점입니다. 이런 점을 봤을 때 가우디 3가 시장에서 의미 있는 성과를 거둘 수 있을지는 아직 미지수입니다. 하지만 엔비디아의 AI 하드웨어가 공급 부족에 시달리는 점이 한 가지 변수가 될 수 있습니다. 공급난을 타개하기 위해 엔비디아 GPU 이외에 다른 대안에 눈을 돌리는 기업이 많아질 수 있기 때문입니다. 한국과 손잡은 인텔의 가우디 AI 가속기가 치열한 경쟁 속에서 자신의 입지를 확보할지, 아니면 경쟁에서 밀려나 사라질지는 아직 말하기 이릅니다. 하지만 발전 속도가 매우 빠르고 한 번 뒤처지면 따라잡기 어려운 IT 분야의 속성을 생각할 때 결론이 나오는 것은 먼 미래가 아닐 것으로 생각합니다.
  • 현 시대 AI 하드웨어 최강자…엔비디아 블랙웰 GPU [고든 정의 TECH+]

    현 시대 AI 하드웨어 최강자…엔비디아 블랙웰 GPU [고든 정의 TECH+]

    엔비디아는 AI 시대에 가장 가치가 치솟은 기업입니다. 현재의 AI 기술 중 상당 부분이 이 회사가 만든 GPU에 의존하고 있기 때문입니다. 오래전부터 GPU의 병렬 연산을 위해 CUDA 코어와 소프트웨어를 공개했고 이를 AI 연산에 활용하는 생태계를 구축해 왔기 때문에 지금 와서 다른 회사의 하드웨어로 이를 대체하기 힘든 것이 현실입니다. 오랜 경쟁자인 AMD도 데이터 센터 GPU를 계속 공개하고 있고 인텔도 새로운 AI 시장 공략을 위해 GPU를 공개했지만, 시장을 먼저 선점한 엔비디아의 아성을 깨뜨리기는 쉽지 않습니다. 이런 상황에서 새로 공개한 블랙웰 GPU는 반도체 미세 공정의 한계를 극복하고 AI 연산 성능을 높여 누구도 따라잡기 쉽지 않은 경쟁력을 유지하려는 의도로 풀이됩니다. 블랙웰 GPU는 TSMC의 4nm 공정의 개량형인 4NP 공정으로 제조되었습니다. 3nm 공정을 적용하지 않은 이유는 확실치 않지만, 비용 및 공급 부족 등이 이유가 된 것으로 보입니다. 하지만 그런 만큼 트랜지스터 집적도를 전 세대인 호퍼 (Hopper)보다 더 높이기 힘든 상황입니다. 800억 개의 트랜지스터를 집적한 호퍼 H100 GPU는 4nm 공정에서 다이(die, 웨이퍼에서 잘라낸 반도체 칩) 면적이 814㎟에 달합니다. 이는 현재 반도체 제조 기술에서 이론적인 다이 크기의 한계치에 거의 근접한 것으로 더 크기를 늘리기 쉽지 않습니다. 따라서 블랙웰 B200은 두 개의 다이를 연결하는 방법으로 2080억 개의 트랜지스터를 집적했습니다. 이런 접근법은 최근 점점 일반적인 추세가 되고 있습니다. 공정 미세화의 한계에 부딪힌 반도체 제조사들은 하나의 큰 칩 대신 여러 개의 작은 칩인 칩렛을 연결해 거대한 크기의 프로세서를 만들고 있습니다. 인텔, AMD, 애플이 모두 이 방법을 사용했고 이번에는 엔비디아도 이 방식을 적용해 트랜지스터 집적도를 대폭 늘렸습니다. 블랙웰 B200은 AI 연산에서 전 세대인 H100과 비교해서 최대 5배인 20페타플롭스의 성능을 지니고 있습니다. 물론 칩을 두 개 붙인 점을 생각하면 실제 성능은 2.5배라고 할 수 있는데, 실은 FP 8 연산의 절반 정도의 자원을 소모하는 FP 4 연산에서 그렇다는 이야기로 FP 8 기준으로 보면 AI 연산 능력은 절반 수준인 10페타플롭스가 최대입니다. 결국 칩 하나의 성능은 사실 1.25배 정도로 트랜지스터 수 증가를 생각하면 딱 그 정도의 성능 증가인 셈입니다. 하지만 그렇다고 해서 블랙웰이 아무 의미 없는 꼼수에 지나지 않는 것은 아닙니다. FP 4 연산만 해도 충분한 경우 AI 연산 속도를 크게 높일 수 있고 심지어 FP 4와 FP 8 연산의 중간을 원하는 고객을 위해 FP 6까지 지원하는 기능을 갖춰 더 유연한 AI 연산이 가능합니다. 그보다 더 중요한 점은 AI 경쟁이 격화되면서 어떤 비용을 치르더라도 남들보다 앞서기를 원하는 고객을 위해 성능을 높일 수 있는 다양한 옵션을 제공하고 있다는 것입니다.예를 들어 블랙웰은 기반 GB 200은 그레이스 슈퍼칩 CPU 한 개와 두 개의 B200 GPU를 하나로 묶어 최대 40페타플롭스의 AI 연산 능력을 갖고 있습니다. 물론 그만큼 비싸고 전력 소모도 엄청나지만, AI 개발에 사활을 걸고 있는 기업이 많아 오히려 수요 대비 공급이 부족할 것으로 예상됩니다. 그리고 이 경우 HBM의 수요가 크게 늘어 우리나라 메모리 업계에도 호재가 될 것입니다. B200 GPU는 24GB HBM3e를 8개나 탑재해 192GB의 메모리 용량을 갖고 있고 GB200는 그 두 배인 384GB의 HBM3e 메모리를 지니고 있기 때문입니다. 여기서 화룡점정을 찍는 것 같은 소식은 비용에 상관없이 최강의 성능이 요구하는 고객을 위한 서버 랙 시스템인 GB 200 NVL 72 노드입니다. 하나의 서버 랙에 두 개의 GB 200을 탑재한 서버 트레이 18 유닛을 쌓아서 총 72개의 B200 GPU를 장착한 시스템으로 강력한 대규모 AI 연산을 위한 슈퍼컴퓨터라고 할 수 있습니다. 다만 이 경우 엄청난 전력을 소모하기 때문에 공랭 쿨러 대신 수랭 쿨러를 사용해야 시스템 발열을 처리할 수 있습니다.그런데 이렇게 많은 프로세서를 사용해 대규모 연산 시스템을 구축하는 경우 데이터를 공유하고 작업을 분산하는 과정이 새로운 문제로 떠오르게 됩니다. 이 과정에서 병목현상이 생기면 전체 시스템의 성능이 크게 저하되는 것입니다. 이를 해결하기 위해 엔비디아는 아예 NVLINK 스위치라는 새로운 네트워크 전용 프로세서를 만들었습니다. 그리고 NVLINK 스위치 프로세서를 서버 트레이 하나에 두 개씩 넣어서 총 14.4TB/s의 대역폭을 확보했습니다. 이런 트레이가 9개가 있기 때문에 GB 200 NVL 72 노드 한 개가 130TB/s에 달하는 거대한 프로세서 간 대역폭을 확보할 수 있습니다. 덕분에 갈수록 커지고 있는 대규모 AI 학습 데이터를 더 효과적으로 처리하고 학습을 빨리할 수 있게 됐습니다. 마지막으로 GB 200 NVL 72 노드를 여러 대 연결하면 엑사플롭스급 AI 슈퍼컴퓨터 구축이 가능합니다. 물론 비용도 에너지 소모량도 엄청나지만, 역시 수요는 충분할 것으로 예상됩니다. 블랙웰 GPU를 보면 AI 하드웨어가 본격적인 산업화 시대에 도달했다는 것을 알 수 있습니다. 과거 GPU는 게임용으로 많이 사용되었고 초기 AI 연산용 GPU도 이것과 크게 다르지 않았으나 최근 나오는 데이터 센터 GPU는 산업용 및 연구용으로 특화되어 관련 분야에 종사하는 사람이 아니라면 직접 한 번 보거나 다뤄보기 어려운 물건이 됐습니다. 블랙웰 GPU는 대규모 데이터 처리와 AI 연산에 적합한 데이터 센터 GPU로 AI 혁명을 한 단계 앞당길 제품이 될 것으로 보입니다.
  • “움직이는 모든 건 로봇으로”… 엔비디아, 2.5배 빠른 AI칩 내놨다

    “움직이는 모든 건 로봇으로”… 엔비디아, 2.5배 빠른 AI칩 내놨다

    “미래에 움직이는 모든 것은 로봇이 될 것입니다.” 젠슨 황 엔비디아 최고경영자(CEO)는 18일(현지시간) 미국 캘리포니아주 새너제이에서 열린 엔비디아 개발자 콘퍼런스(GTC 2024) 기조연설에서 기대를 모았던 차세대 인공지능(AI) 칩을 소개한 뒤 AI의 미래 종점인 로봇 사업에 대한 비전을 내비쳤다. AI 칩 ‘큰손’으로 떠오른 엔비디아가 자체 플랫폼을 통해 AI 생태계를 구축한 뒤 성장 가능성이 큰 휴머노이드 로봇 시장에서도 영향력을 확대하겠다는 포부를 밝힌 것이다. 검은 가죽점퍼를 입고 연단에 선 황 CEO는 이날 1만 6000여명의 관중 앞에서 엔비디아가 그리는 큰 그림의 시작점이 될 새로운 플랫폼 ‘블랙웰’ 기반의 AI 칩을 선보였다.2080억개의 트랜지스터로 가득 메운 이 칩은 현존하는 최고 AI 칩인 엔비디아 ‘H100’(호퍼 기반)에 비해 연산 처리 속도가 2.5배 더 빠르다. 두 개의 그래픽처리장치(GPU·B200)를 연결해 하나의 칩처럼 작동하는 방식이다. H100을 사용하면 생성형 AI GPT 모델을 훈련시키는 데 90일 동안 8000개의 GPU가 필요하지만 블랙웰 GPU는 같은 기간 2000개만 사용하면 된다는 게 그의 설명이다. 황 CEO는 “호퍼는 매우 환상적이었지만 우리는 더 큰 GPU를 원한다”며 “블랙웰은 이 새로운 산업 혁명을 구동하는 엔진이 될 것”이라고 강조했다. 엔비디아가 구상하는 제품은 생성형 AI의 대규모 연산이 가능한 일종의 ‘슈퍼컴퓨터’(GB200 NVL72)다. 블랙웰 GPU 2개에 중앙처리장치(CPU)를 연결한 ‘슈퍼칩’(GB200)을 36개 쌓아 올린 뒤 시스템 최적화를 통해 성능을 극대화하겠다는 계산이다. 대만 파운드리(위탁생산) 업체인 TSMC의 4㎚(나노미터·10억분의 1m) 공정으로 만들어진 뒤 올 연말부터 공급될 예정이다.엔비디아가 새 AI 칩 가격을 밝히지는 않았지만 기존 제품 가격을 감안하면 5만 달러(약 6700만원) 수준일 것이란 전망이 나온다. 황 CEO는 “(첫 제품은) 수천만 달러에 달할 것”이라고 농담을 하기도 했다. 엔비디아는 블랙웰이 최대 10조개의 매개변수(파라미터)를 가진 대규모 언어모델(LLM)에서 생성형 AI를 구축하고 실행할 수 있을 것이라 보고 있다. 파라미터는 생성형 AI가 정보를 학습하고 기억하는 신경 연결 역할을 한다. 파라미터가 많을수록 AI 성능이 뛰어나다고 평가받는다. 오픈AI가 개발한 생성형 AI GPT-4의 파라미터 수치가 공개되지 않았지만 5000억개 정도로 알려져 있다. 산술적으로는 블랙웰이 이보다 20배 뛰어난 AI 모델도 지원할 수 있다는 얘기다. AI 기술이 궁극적으로 지향하는 로봇 플랫폼을 지원하겠다는 것도 이러한 성능에 대한 자신감 때문이다. 황 CEO는 이날 무대에 자체적으로 훈련시킨 로봇 ‘오렌지’와 ‘그레이’를 등장시키고, 로봇 훈련이 가능한 ‘프로젝트 그루트’(GR00T)를 공개했다.
  • HBM 돌풍에도 건재한 GDDR 메모리…GDDR7 메모리가 온다 [고든 정의 TECH+]

    HBM 돌풍에도 건재한 GDDR 메모리…GDDR7 메모리가 온다 [고든 정의 TECH+]

    GDDR은 이름처럼 그래픽 카드를 위해 만들어진 고속 메모리입니다. 초기 그래픽 카드는 일반 SDR, DDR 메모리를 사용했지만, 처리해야 하는 그래픽 데이터의 양이 갈수록 커지면서 PC용 메모리로는 감당하기 힘들어지자, GDDR이라는 새로운 규격을 만든 것입니다. GDDR 메모리가 본격 사용된 것은 2004년에 나온 엔비디아의 지포스(GeForce) FX 5700 울트라 그래픽 카드였습니다. 이 그래픽 카드는 GDDR2 메모리를 탑재한 시험작이었습니다. 그 다음 지포스 6800 울트라에 GDDR3가 사용되면서 본격적인 GDDR 메모리 시대가 열렸습니다. GDDR 메모리는 본래 DDR2, DDR3 메모리에 기반한 고속 메모리로 데이터가 지날 수 있는 통로를 여러 개 만들고 각각의 통로의 속도를 더 빠르게 만든 것이 특징입니다. 다만 그렇기 때문에 DDR 메모리보다 가격이 비싸고 전력 소모가 큰 단점도 지니고 있습니다. 일반 컴퓨터에서 DDR 계열 메모리 대신 GDDR 메모리를 사용하지 않는 이유입니다. 시스템 메모리는 속도 못지않게 용량도 중요하고 전력 소모와 발열이 너무 커서도 안 되기 때문에 DDR 계열 메모리 정도면 적당합니다. 하지만 GPU의 경우 발전 속도가 워낙 빠르다 보니 GDDR 계열 메모리로도 충분하지 않다는 지적이 나왔습니다. 이를 대체하기 위해 개발된 메모리가 바로 HBM입니다. HBM는 여러 층으로 메모리를 쌓고 더 극단적으로 많은 통로를 만들어 속도와 용량 두 마리 토끼를 잡은 차세대 메모리입니다. 따라서 GDDR 메모리의 한계를 극복하고 차세대 그래픽 메모리가 되리라는 기대가 상당했습니다. 하지만 가격은 잡지 못했다는 게 문제였습니다.HBM을 최초로 적용한 그래픽 카드는 사실 AMD의 라데온 R9 퓨리 X입니다. 피지 GPU에 1세대 HBM 메모리 4GB를 달고 당시로는 상당히 빠른 512GB/s의 대역폭을 확보했습니다. 하지만 당시 기준으로 너무 비싼 649달러의 가격이 발목을 잡았습니다. 값비싼 HBM를 탑재하고도 성능은 경쟁사인 엔비디아의 지포스를 능가하지 못했기 때문에 한동안 HBM 메모리는 널리 쓰이지 못했습니다. HBM이 본격적으로 빛을 보게 된 것은 AI 붐과 함께 데이터 센터용 GPU에 대규모로 공급된 이후입니다. 2022년 19억 달러 수준에 불과했던 HBM 시장 규모는 2023년에는 40억 달러로 급증했고 2027년에는 330억 달러로 폭증할 것이라는 예측이 나오고 있습니다. 이렇게 시장 규모가 커지고 규모의 경제를 달성할 수 있게 되면 HBM이 가격 경쟁력을 지니게 되면서 서버용 GPU나 CPU를 넘어 GDDR 메모리의 주요 소비처인 콘솔 게임기나 일반 소비자용 그래픽 카드에 다시 탑재될 수 있는 가능성이 열리게 됩니다. 하지만 GDDR 메모리 역시 진화를 거듭하면서 성능이 높아지고 있어 당장 큰 변화가 없을 가능성이 높습니다. 현재 사용되는 GDDR 메모리의 최신 버전은 GDDR6X입니다. 하지만 삼성전자는 이미 작년에 GDDR7 개발을 완료했습니다. 그리고 메모리 표준을 정하는 JEDEC은 최근 GDDR7 규격을 확정했습니다. GDDR7 메모리의 최대 속도는 48Gbps로 GDDR6X의 두 배입니다. 덕분에 메모리 하나의 대역폭도 192GB/s로 두 배 높아졌습니다. 256비트 메모리 인터페이스라면 총 1.5TB/s, 384비트 메모리 인터페이스에서는 2.3TB/s의 대역폭을 확보할 수 있습니다. H100 같은 서버용 GPU보다는 낮지만, 게임이나 AI 연산용의 일반 고성능 그래픽 카드에는 충분한 대역폭을 확보할 수 있습니다. 다만 초기 등장할 GDDR7 메모리는 이전과 마찬가지로 규격에서 허용하는 최대 속도보다 다소 느릴 것입니다. 작년 삼성전자가 개발한 GDDR7 역시 32Gbps의 스펙을 지니고 있습니다. 하지만 이는 RTX 3080에 사용된 19Gbps의 GDDR6X 메모리나 RTX 4080 Super에 사용된 23Gbps GDDR6X 메모리보다 훨씬 빠른 것입니다. 여러 층으로 메모리를 쌓아 올리고 이를 관통하는 TSV라는 통로를 여러 개 뚫은 후 인터포저라는 별도의 통로를 통해 GPU나 CPU에 연결해야 하는 HBM는 속도와 용량에서 GDDR 메모리를 몇 배 앞설 순 있지만 여전히 가격도 몇 배 앞서게 됩니다. 기존 DDR 계열 메모리처럼 생산하고 정착할 수 있는 GDDR 메모리는 HBM의 가격이 지금보다 현저하게 떨어지지 않는 이상 시장에서 살아남게 될 것입니다. 다만 일부에서 예측하는 것처럼 HBM 시장 규모가 급격히 커지고 규모의 경제에 의해 가격이 내려가면 상황이 바뀔 수도 있습니다. 지금처럼 메모리 대역폭과 가격에 따라 DDR – GDDR - HBM의 3층 구조가 앞으로도 이어질지 아니면 HBM이 메모리의 대세가 될지 미래가 주목됩니다.
  • 삼성전자, 저장용량 12단까지 쌓았다… 5세대 HBM 빅매치 돌입

    삼성전자, 저장용량 12단까지 쌓았다… 5세대 HBM 빅매치 돌입

    업계 최대 용량 36GB 구현 성공8단 쌓은 ‘선두’ SK하이닉스 추격D램 점유율 46%… 7년 만에 최고마이크론, 엔비디아용 HBM 양산새달 삼성과 ‘36GB 용량’ 맞붙어 인공지능(AI) 반도체에 탑재되는 고대역폭 메모리(HBM)를 놓고 메모리 반도체 업체간 경쟁이 본격화됐다. 선두 SK하이닉스를 추격 중인 삼성전자는 업계 최초로 D램 칩을 12단으로 쌓은 ‘5세대 HBM(HBM3E) 개발에 성공하면서 반전 계기를 맞았다. 미국 마이크론도 엔비디아용 5세대 HBM 양산을 시작하고 HBM 시장을 사실상 양분하고 있는 국내 업체에 도전장을 냈다. 27일 업계에 따르면 삼성전자가 이번에 개발한 36기가바이트(GB) 5세대 HBM은 업계 최대 용량이다. 3GB 용량인 24기가비트(Gb) D램을 12단으로 쌓아 올려 8단까지 쌓은 경쟁업체 제품(24GB)과 차별화를 한 것이다. 수천개의 미세 구멍을 뚫은 D램을 수직으로 쌓아 적층된 칩 사이를 전극으로 연결하는 기술(TSV·실리콘 관통 전극)을 활용했다고 한다. HBM은 D램 여러 개를 수직으로 연결해 데이터 처리 속도를 끌어올린 고성능 메모리다. 삼성전자가 고용량 HBM 시장을 주목한 건 AI 서비스 고도화로 데이터 처리량이 급증하고 있기 때문이다. 회사 측은 “성능과 용량이 이전 제품인 4세대 HBM(HBM3 8단) 대비 50% 이상 개선됐다”면서 “이 제품을 사용하면 그래픽처리장치(GPU) 사용량이 줄어 기업들이 비용을 절감할 수 있다”고 했다. 삼성전자는 6세대 HBM도 2026년 양산을 목표로 준비 중이다. 6세대에서는 16단까지 용량이 커질 것으로 보고, 칩과 칩 사이의 ‘갭’을 완전히 없애는 신공정도 개발하고 있다. 삼성전자의 HBM 매출이 늘면서 지난해 4분기 D램 점유율은 45.7%(옴디아 기준)를 기록했다. 2016년 3분기(48.2%) 이후 가장 높은 수준이다. 다만 HBM 시장만 놓고 보면 SK하이닉스가 앞서가고 있다는 평가를 받는다. SK하이닉스는 AI 반도체의 핵심인 GPU 시장의 80% 이상을 장악한 엔비디아에 HBM3를 사실상 독점 공급하고 있다. 지난달 8단으로 쌓은 5세대 HBM도 초기 양산을 시작했다. 내부 인증을 마친 HBM 제품을 고객사에 보냈고, 고객사 인증 절차가 마무리되는 대로 본격 양산에 돌입할 계획이다. 12단 제품도 국제 표준 규격(JEDEC)에 맞춰 개발 중이다. 국내 업체에 비해 HBM 시장 점유율이 상대적으로 미미한 마이크론도 반격에 나섰다. 마이크론은 26일(현지시간) 2분기 출시 예정인 엔비디아의 ‘H200’ GPU에 탑재될 5세대 HBM(24GB 8단) 양산을 시작한다고 공식 발표했다. H200은 엔비디아의 주력 제품인 ‘H100’을 대체할 차세대 제품이다. 마이크론도 다음달 36GB 12단 5세대 HBM의 샘플 제품을 내놓고 고용량 시장에서 삼성전자와 맞붙는다. HBM 생산 능력과 함께 얼마나 효율적으로 생산할 수 있느냐에 따라 HBM 시장의 판도도 바뀔 것으로 보인다.
  • “단일 칩에 트랜지스터 1조 개” 대만 TSMC의 반도체 야망 [고든 정의 TECH+]

    “단일 칩에 트랜지스터 1조 개” 대만 TSMC의 반도체 야망 [고든 정의 TECH+]

    1965년 인텔의 창립 멤버 고든 무어(당시 페어차일드 세미컨덕터 근무)는 일렉트로닉스 잡지에 반도체 공정 복잡도가 1년마다 두 배로 증가하는 경향이 10년 동안 유지될 것이라고 전망하는 글을 실었습니다.  10년 후 고든 무어는 2년마다 두 배로 자신의 전망을 수정했습니다. 반도체의 성능이나 트랜지스터 집적도가 2년마다 두 배 증가하는 경향은 한동안 이어졌고 이는 무어의 법칙으로 알려지게 됐습니다. 이후 수십 년간 무어의 법칙은 대체로 큰 수정 없이 이어졌습니다. 예를 들어 1978년 등장한 인텔 8086 프로세서(x86 아키텍처의 시조)은 2만9000개의 트랜지스터를 집적했지만 1985년에 등장한 80386은 27만5000개의 트랜지스터를 집적했습니다. 1991년 펜티엄 프로세서는 310만 개의 트랜지스터를 집적했고 2002년 펜티엄 4(노스우드)는 5500만 개를 집적했습니다. 2012년 등장한 3세대 코어 프로세서(아이비브릿지)는 쿼드 코어 기준으로 14억 개의 트랜지스터가 사용됐습니다. 그리고 이제는 모바일 AP도 트랜지스터 집적도가 100억 개를 넘고 있습니다. 집적도만 따지면 2년에 두 배까지는 안되지만, 성능 향상까지 생각하면 얼추 비슷하다고 말할 수 있는 정도입니다. 이런 일이 가능했던 이유는 무엇보다 반도체 미세 공정의 진보 덕분이었습니다. 더 복잡하고 빠른 프로세서를 같은 크기로 제조할 수 있다 보니 점점 더 성능이 올라갔던 것입니다. 하지만 미세 공정이 극한에 도달하면서 점점 발전 속도가 느려지고 있는 게 현실입니다. 이에 따라 무어의 법칙은 사실상 유효 기간이 지났거나 곧 그렇게 될 것이라는 비관론이 힘을 얻고 있습니다. 반도체 업계는 이 위기를 타개할 방법으로 EUV 리소그래피 기술을 이용한 차세대 미세 공정과 여러 개의 작은 칩을 3차원적으로 모아 하나의 거대한 프로세서를 만드는 3D 패키징 기술을 대안으로 제시하고 있습니다.  대만 TSMC는 최근 열린 IEDM 콘퍼런스에서 2030년대 1조 개의 트랜지스터를 지닌 초대형 프로세서 제작도 가능하다는 야심 찬 비전을 제시했습니다. TSMC는 현재 진행 중인 2㎚ 공정인 N2와 N2P 진행이 순조롭게 이뤄지고 있으며 1.4㎚ 및 1㎚ 공정도 현재 개발 중이라고 언급했습니다.  현재 가장 복잡하고 큰 단일 칩(monolithic) 프로세서는 800억 개의 트랜지스터를 집적한 엔비디아의 H100 GPU입니다. 그 면적은 800㎟가 넘는데, 이 정도가 현재 웨이퍼에서 만들 수 있는 가장 큰 칩입니다. 4㎚ 공정에서도 이 정도를 만들 수 있기 때문에 TSMC는 조만간 1000억 개가 넘는 트랜지스터를 집적한 단일 칩 프로세서가 가능할 것으로 보고 있습니다. 그리고 2030년 전후로는 2000억 개의 트랜지스터를 집적한 단일 칩도 나올 수 있을 것으로 예측했습니다. 1㎚ 공정에서 그 정도 트랜지스터 밀도 증가는 충분히 달성할 수 있을 것으로 보입니다. 여기에 더해 TSMC는 CoWoS-L이라는 새로운 패키징 기술을 통해 최대 858㎟의 칩 6개를 하나의 슈퍼 캐리어 인터포저 층에 올린 시스템 인 패키지(SiP)도 구현할 수 있다고 보고 있습니다. 하나의 칩에서 트랜지스터 집적도를 2000억 개까지 높일 수 있다면 1조 2000억 개의 집적도를 넘볼 수 있는 수준입니다.  다만 공정 미세화에 따라 반도체 웨이퍼 가격이 지속해서 비싸지고 있고 여기에 복잡한 패키징 기술까지 들어가면서 가격이 천정부지로 오르고 있는 점은 문제입니다. 더구나 이미 프로세서의 전력 소모량과 발열량은 상당한 수준까지 올라간 상태로 칩이 더 거대해지면 이 문제도 더 심각해질 것으로 보입니다.  결국 언젠가 1조 개의 트랜지스터를 집적한 프로세서도 등장하겠지만, 갈수록 증가하는 비용과 전력 소모량을 어떻게 억제할 수 있을지가 새로운 목표로 떠오를 것으로 생각합니다.
  • 세계적 수준 ‘국가 인공지능 데이터센터’ 15일 서비스 개시

    세계적 수준 ‘국가 인공지능 데이터센터’ 15일 서비스 개시

    세계적 수준의 국가인공지능(AI)데이터센터가 본격 서비스를 시작한다. 광주시는 첨단3지구 인공지능중심산업융합집적단지(이하 AI집적단지) 내 핵심시설인 세계적 수준의 국가인공지능 데이터센터 서비스를 15일 개시한다고 밝혔다. 인공지능데이터센터는 초거대 인공지능 모델을 개발할 수 있는 고성능 컴퓨팅 자원 등의 서비스를 지원한다. 인공지능 모델은 점점 더 복잡해지고 개발에 필요한 데이터량이 커지고 있는 상황에서, 메모리 용량과 데이터 처리 속도를 높인 초고성능 컴퓨팅 자원의 필요성이 커지고 있다. 광주시는 엔비디아의 최신 성능 가속기 ‘H100’ 등 고성능 컴퓨팅 자원을 활용, 짧은 시간 내 방대한 데이터 학습과 분석이 가능하도록 인공지능 연구개발에 최적화된 인프라를 제공한다. 이로 인해 창업 초기기업(스타트업)들도 복잡한 인공지능 서비스 개발·연구가 가능해져 인공지능 산업융합 생태계가 활성화될 것으로 기대된다. 국가인공지능 데이터센터는 20페타플롭스(PF) 규모의 고성능컴퓨팅(HPC)과 68.5페타플롭스(PF) 규모의 GPU 클라우드 혼용 방식으로 구축됐다. 전체적으로 88.5페타플롭스(PF) 연산자원과 107페타바이트(PB) 저장공간을 갖춘 세계적 수준의 규모다. 데이터센터는 연면적 3144㎡의 2층 구조로, 인공지능 개발을 위한 260랙 규모의 전산실에 6메가와트(MW)의 전력이 소요된다. 사용자가 통신 회선 사업자를 자유롭게 선택해 사용할 수 있는 망중립 데이터센터이며, 수도권과 동일한 네트워크 품질 신뢰성과 접근성을 제공한다. 광주시는 지난 10월23일 전체 구축량의 50%인 연산자원 44.3페타플롭스(PF), 저장공간 53.5페타플롭스(PF) 규모의 자원구축과 성능테스트를 마쳤다. 12월엔 추가로 가속기 24페타플롭스(PF) 그리고 2024년 1분기에 20페타플롭스(PF) 규모의 고성능컴퓨팅(HPC)자원을 구축할 예정이다. 광주시는 이를 통해 1000여 개의 인공지능 관련 기업을 지원할 수 있을 것으로 보고 있다. 기업은 인공지능 모델이나 관련 제품을 개발하는데 반드시 필요한 고비용의 연산자원과 저장공간 및 개발환경을 무료로 제공받고 개발시간도 단축할 수 있게 된다. 이에 따라 광주에는 국내외 인공지능 기업이 모여 협업하고, 기술개발과 활용을 촉진하는 인공지능 산업생태계가 구축될 것으로 기대하고 있다. 광주시는 자원이용 기관 및 기업 선발을 위해 지난 10월 공모를 진행, 10월27일 263개 기업에 가속기 21페타플롭스(PF)와 스토리지 8페타바이트(PB) 자원을 할당했다. 1페타플롭스(PF)는 초당 1000조번의 수학 연산처리를 의미하며, 1페타바이트(PB)는 6기가바이트(GB) 영화 17만4000편의 영화를 보관할 수 있는 용량이다. 정부가 추진하는 초고속·저전력 국산 인공지능 반도체 개발과 데이터센터 적용을 통해 국내 클라우드 경쟁력을 강화하기 위한 ‘K-클라우드 프로젝트’ 일환으로 데이터센터 내에 11페타플롭스(PF) 규모의 인공지능(AI)반도체(NPU)팜 실증·구축도 병행한다. 광주시는 1단계 인프라의 고도화와 도시규모의 실증을 목표로 인공지능 2단계 사업을 순차적으로 진행하기 위해 예비타당성 용역을 준비 중이다. 김용승 인공지능산업실장은 “광주시는 인공지능 관련 인프라와 도시규모의 실증환경을 조성해 기업에 제공하고, 기업은 이를 활용해 인공지능 서비스를 만들어가게 될 것”이라며 “이를 통해 대한민국의 인공지능 대표도시 광주가 명실상부한 한국의 실리콘밸리로 성장할 수 있을 것으로 기대한다”고 말했다.
  • 고대역폭 메모리(HBM), 미래 고성능 메모리 표준 될까? [고든 정의 TECH+]

    고대역폭 메모리(HBM), 미래 고성능 메모리 표준 될까? [고든 정의 TECH+]

    인공지능(AI)이 다시 주목받으면서 그래픽처리장치(GPU)와 함께 몸값이 높아지는 제품이 있습니다. 바로 고대역폭 메모리(HBM·High Bandwidth Memory)입니다. 사실 GPU 가운데서 HBM을 탑재한 제품은 소수에 불과합니다. 하지만 최근에는 그 소수의 제품에 대한 수요가 폭발하고 있습니다. 고성능 AI 연산을 위해서 H100 같은 강력한 성능을 지닌 GPU가 필요한데, 여기에 HBM이 탑재되기 때문입니다.  최근 미국 로스앤젤렌스(LA)에서 열린 최대 규모 컴퓨터 그래픽스 콘퍼런스 ‘시그래프’(SIGGRAPH) 행사에서 엔비디아의 젠슨 황 최고경영자(CEO)는 HBM3E를 장착한 GH200 그레이스 호퍼 슈퍼칩을 공개했습니다. 지난해 공개한 HBM3 버전과 비교해서 메모리 용량은 1.5배 정도 늘어나고 대역폭도 4TB/s에서 5TB/s로 증가해 더 많은 데이터를 학습하고 사용자가 원하는 결과를 내놓는 데 유리해졌습니다.  HBM은 사실상 SK 하이닉스와 삼성전자가 시장을 양분하고 있습니다. 시장 조사기관의 분석에 따르면 지난해 시장 점유율은 SK 하이닉스가 50%, 삼성전자가 40%, 마이크론이 10% 정도로 D램보다 더 국내 기업이 독보적인 점유율을 자랑하는 분야입니다. HBM은 상당히 고부가가치 상품일 뿐 아니라 수요가 급격히 증가하고 있어 앞으로 우리나라의 새로운 주력 상품이 될 것으로 기대되고 있습니다.  그런데 이렇게 좋은 제품이라면 더 적용 범위를 늘려 나가도 되지 않을까 하는 생각이 드는 게 사실입니다. 그래픽 카드에 쓰이는 HBM이 처음 등장했을 때만 해도 그런 생각을 지닌 사람들이 많았습니다. 많은 이들이 이제는 용량이나 속도 한계에 점점 도달한 그래픽스 더블 데이터 레이트(GDDR) 메모리를 대신해 HBM이 새로운 대세가 될 것으로 믿었습니다.  여기서 잠깐 GDDR 메모리에 대한 이야기를 먼저 해야 합니다. 초창기 GPU들은 CPU와 동일한 DDR 계열 메모리를 사용했는데, GPU가 처리하는 데이터의 양이 급격히 증가하면서 곧 병목 현상에 부딪히게 됩니다. 그래서 나온 것이 GDDR 메모리였습니다. GDDR3부터 본격적으로 시장에 공급되었고 이후 GDDR5에서는 사실상 그래픽 메모리의 표준이 되었습니다. GDDR5는 사실 DDR3 메모리의 변형으로 같은 건물에 엘리베이터와 통로를 여러 개 만들어 속도를 높인 것으로 이해할 수 있습니다.  하지만 GPU 발전 속도가 GDDR 메모리 발전 속도보다도 더 빠른 것이 다시 문제가 됐습니다. 고성능 GPU에서 필요한 메모리 대역폭을 얻기 위해서는 256bit 메모리 인터페이스와 GDDR 계열 메모리로도 부족한 상황이 된 것입니다. 여기에 GDDR 메모리는 여러 층으로 쌓기도 힘들어 용량까지 한계가 분명했습니다.  2013년 JEDEC에서 표준을 확정한 HBM은 이 문제에 대한 완벽한 해결책으로 보였습니다. HBM은 기본적으로 메모리를 4층, 8층, 12층씩 위로 쌓아 올린 적층형 메모리 구조라 면적 대비 용량이 GDDR과 비교되지 않을 정도로 높습니다. 그러면서도 데이터 전송 속도를 높이기 위해 위아래로 작은 통로인 TSV를 무수히 뚫어 데이터 전송 속도를 획기적으로 끌어 올렸습니다.  그만큼 제조가 까다롭고 프로세서와 연결을 위해 인터포저라는 중간층을 또 넣어야 한다는 것이 문제였지만, 장기적으로 보면 GDDR 메모리는 속도와 용량면에서 HBM의 상대가 되지 않을 것으로 예상되었습니다. 하지만 이런 기대에도 불구하고 2015년 1세대 HBM을 장착한 라데온 R9 Fury X는 GDDR5를 장착한 엔비디아의 GTX 980 Ti를 넘지 못하는 실망스러운 성능을 보여줬습니다. 메모리 대역폭 자체는 라데온 R9 Fury X가 높았지만, GPU 자체의 성능에서 밀렸기 때문입니다. 지포스 쪽이 데이터 압축 능력이 더 뛰어나 대역폭의 단점을 쉽게 극복한 것도 이유였습니다. 더 저렴한 GDDR 메모리를 장착해도 경쟁자를 충분히 제압할 수 있는 상황에서 엔비디아는 게이밍 GPU에 굳이 HBM을 탑재할 필요를 느끼지 못했습니다. HBM 탑재 라데온 그래픽 카드가 지포스의 성능을 뛰어넘었다면 이후에는 다른 시장 상황이 펼쳐질 수 있었다는 점은 아쉬운 부분입니다.  아무튼 이후 GDDR 메모리도 계속 발전하면서 어느 정도 고성능 게이밍 GPU에 필요한 대역폭을 제공했습니다. 그리고 그래픽 카드 시장 자체가 엔비디아 독점 시장이 되면서 급할 게 없는 엔비디아는 가격이 저렴한 GDDR6X 메모리를 RTX 4000 시리즈에도 사용하고 있습니다. 처음에는 고성능 GPU에 HBM 계열 메모리를 사용했던 AMD마저도 제품군 자체가 중급형으로 내려가면서 비싼 HBM을 탑재해야 할 이유가 사라져 GDDR로 다시 회귀했습니다.  하지만 미래에는 다른 상황이 펼쳐질 수도 있습니다. 엔비디아와 AMD 모두 AI 및 HPC 연산용 GPU에 고성능 HBM을 아낌없이 사용하고 있기 때문입니다. 이런 종류의 제품은 기본적으로 가격이 매우 비싸기 때문에 HBM이 GDDR 메모리보다 좀 더 비싸다는 것은 큰 문제가 되지 않습니다. 그보단 현재 기술적 우위를 바탕으로 시장을 장악하려는 엔비디아와 AMD나 인텔 같은 도전자들이 가진 기술을 모두 쏟아붓는 시장이기 때문에 HBM3나 HBM3E 같은 최신 메모리에 대한 수요가 폭발하고 있습니다. 여기에 인텔은 서버 CPU에도 HBM을 탑재하면서 적용 범위가 넓어지고 있습니다.  이렇게 생산이 늘어나면 결국 규모의 경제가 이뤄져 가격은 내려갈 수 있습니다. 그리고 메모리 용량 및 속도에서 HBM의 발전 속도가 GDDR보다 여전히 빨라 몇 년 후에는 고성능 그래픽 카드나 서버 부분에서 적용 범위가 점점 더 넓어질 것으로 기대할 수 있습니다. 10년 만에 본격적으로 빛을 보고 있는 HBM의 미래를 기대해 봅니다.
  • “대체품없어 큰돈 된다” 중국서 美 엔비디아 GPU 밀수시장 급성장

    “대체품없어 큰돈 된다” 중국서 美 엔비디아 GPU 밀수시장 급성장

    미국이 첨단 인공지능(AI) 기술의 대중 견제를 강화하면서 중국에서 미 반도체기업 엔비디아 제품 관련 밀수 시장이 급성장하고 있다. 29일 사우스차이나모닝포스트(SCMP)에 따르면 중국 기업들이 너도나도 AI 개발에 뛰어들면서 엔비디아의 그래픽처리장치(GPU) 반도체 수요가 급증하고 있지만 대체재가 없다보니 중국 수출금지 품목인 A100과 H100 밀거래가 성행하고 있다. 지난해 8월 미 상무부는 “중국군이 AI용 GPU 반도체를 군사적 용도로 사용할 위험이 있다”며 엔비디아 최고사양 반도체인 A100과 상위 제품인 H100의 중국 수출을 금지했다. GPU는 챗GPT 같은 생성형 AI에서 두뇌 역할을 한다. 엔비디아는 세계 AI용 GPU 시장의 90% 이상을 차지한 절대강자다. 중국의 알리바바와 텐센트, 바이두 등이 A100·H100을 사용해 왔다. 상하이의 반도체 엔지니어로 엔비디아 GPU를 불법 판매하는 탕모씨는 SCMP에 “중국 내 A100·H100 수요가 많기 때문에 GPU 밀수가 큰 돈이 된다”고 전했다. 탕씨는 AI 스타트업들이 모여있는 상하이에서는 A100이 최대 15만 위안(약 2700만원)에 팔 수 있다고 말했다. 이는 엔비디아가 책정한 A100 소매가 1만 달러(약 1300만원)의 두 배 수준이다. 매체는 “중국 소셜미디어에는 엔비디아 GPU를 공급하겠다는 판매자가 다수 활동하고 있다”고 전했다. SCMP는 “중국에서 엔비디아 제품과 경쟁할 대체품이 없다는 것을 보여준다”며 지난해 9월 상하이의 일루바타코렉스가 자체 GPU 양산에 나섰다고 주장했지만, 중국 주요 기술기업들은 여전히 엔비디아 제품에 의존하고 있다고 설명했다. 틱톡의 모회사 바이트댄스도 올해에만 엔비디아 GPU를 10억 달러 어치 주문했다.
  • 인프라·기술·인력·기업 ‘한곳에’… AI 생태계 만든다

    인프라·기술·인력·기업 ‘한곳에’… AI 생태계 만든다

    5년간 4119억원 투입… 내년 준공국내 첫 초고성능 컴퓨팅 자원 제공드라이빙 시뮬레이터 등 장비 구축 AI실무형 인재 양성·창업 지원도 인공지능(AI)이 전 세계적인 대세로 떠오르면서 광주에 자리잡은 ‘인공지능산업융합사업단’(AICA·이하 사업단)이 전국 지자체와 대학, 관련 기업들은 물론 구글 등 글로벌기업들로부터 뜨거운 관심을 받고 있다. 25일 광주시에 따르면 ‘세계 최고 수준의 인공지능산업 융합 생태계 구축’을 위해 지난 2020년 2월 출범한 사업단이 전 세계에 밀어닥친 4차 산업혁명의 물결을 헤쳐 나가는 컨트롤타워가 될 것으로 기대되기 때문이다. 특히 과학기술정보통신부와 광주시가 사업단을 통해 광주 첨단 3지구에 조성하는 ‘AI산업융합 집적단지’는 앞으로 국내 AI 관련 산업과 창업, 인재 양성을 주도할 강력한 엔진 역할을 하게 될 전망이다. AI를 자동차와 에너지, 가전 등 지역 주력산업 분야로 확장·융합한 미래차의 핵심 개념인 사물이동수단(MoT)을 미래 성장동력으로 꼽는 광주시는 ‘인공지능 산업의 메카’로 부상할 수 있는 최고의 인프라를 확보하게 됐다. 사업단이 2020년 시작해 내년까지 5년간 광주연구개발특구인 첨단3지구에서 진행하는 AI산업융합 집적단지 조성사업은 총 4만 7246㎡ 부지에 5년간 4119억원이 투입되는 초대형·최첨단 프로젝트다. AI에 특화된 인프라를 중심으로 기술과 인력, 기업이 집적된 산업융합생태계를 조성하는 게 목표다. 전체 사업은 건물 등 공간 건축과 데이터센터 및 실증기반 구축, 창업 지원, 전문 인력 양성 등 5개 분야로 나눠 추진된다. [공간 건축] 사업단은 첨단3지구 부지에 데이터센터동과 실증창업동 등 2개 동을 짓는다. 데이터센터동은 지난달 시험가동에 이어 이달 임시사용승인을 받은 뒤 운영사인 NHN이 장비를 구축할 예정이다. 실증창업동은 내년 11월 준공 예정이다. 총사업비는 989억원이며 올해 232억원이 투입된다. [데이터센터] AI산업융합단지의 두뇌이자 핵심 거점이 될 데이터센터에는 인공지능에 특화된 고성능 컴퓨팅 인프라가 들어선다. AI 제품 및 서비스 개발에 필요한 컴퓨팅 자원과 개발환경 등을 제공한다. 센터 준공 일정과 최신 AI 가속기 출시 일정 등을 감안, 3단계로 컴퓨팅자원이 구축된다. 사업단은 이달부터 AI 분야 기업과 대학, 연구소 등 100여곳을 대상으로 AI 학습에 필요한 초고성능 컴퓨팅 자원인 엔비디아의 A100 최신 버전을 클라우드 서비스를 통해 제공한다. 특히 하반기부터는 엔비디아의 초고성능 컴퓨팅 자원인 H100을 국내 최초로 제공할 예정이다. H100의 연산량은 67테라플롭스(TF)로 생성형 인공지능인 챗GPT(4.0) 개발에 활용된 A100(19.5TF)보다 무려 3배 이상 높은 연산능력을 지닌다. 1TF는 1초에 1조개의 계산을 할 수 있는 속도다. 앞으로는 국내 대기업뿐만 아니라 스타트업들도 챗GPT를 뛰어넘는 초거대 AI 모델을 개발할 수 있는 길이 열릴 것으로 기대된다.[실증 기반] 사업단은 2025년까지 645억원을 들여 자동차와 에너지, 헬스케어 분야의 실증장비 77종을 구축하고 AI 관련 제품 및 서비스 실증 지원에 나선다. 올해는 112억원을 투입해 국내 최대 규모의 ‘드라이빙 시뮬레이터’를 구축할 계획이다. 이 시뮬레이터는 도로와 자동차, 운전자 간의 복잡한 상호관계 데이터 분석 및 자율주행기술 실증 작업을 지원하게 된다. 이와 함께 각종 실증 장비를 활용해 자동차 분야의 경우 자율주행차 주행, 모션, 센서 계측 관련 데이터를 수집한다. 에너지 분야에선 건물 및 산업단지·공장의 전압과 전류, 전력, 주파수 데이터를 수집하며 헬스케어분야에선 고령자의 체성분과 보행, 체형, 피로도, 근력 데이터 등을 모아 분석하게 된다. 장비를 활용해 수집한 데이터는 기업이나 대학, 연구소에 제공된다. [창업 지원] AI 창업 활성화 그리고 창업생태계 조성을 위해 예비창업부터 창업, 기업 성장 등 다양한 AI 관련 스타트업의 성장 단계별로 맞춤형 프로그램을 지원한다. 이를 위해 내년까지 550억원의 사업비를 투입한다. 예비창업의 경우 AI창업 경진대회를 통해 예비 창업자를 발굴하고 교육 및 컨설팅, 제품제작 지원 등을 통해 창업을 유도한다. 이어 스타트업에 대해서는 성장 기반을 마련하기 위한 입주공간 지원, 투자펀드를 통한 자금 지원, 제품 및 서비스의 상용화에 필요한 네트워크를 지원한다. 기업 성장 과정에서는 새로운 시장 개척 및 창출을 위한 글로벌 판로 확보 및 제품 수요처 매칭을 지원한다. 또 각종 콘퍼런스를 통한 관련 기업과의 글로벌 네트워킹도 추진한다는 방침이다. [전문인력] 사업단은 AI로 대표되는 미래 일자리 변화에 대응하고 광주지역 AI 역량 강화 및 인재풀 확대를 목표로 실무형 AI 인재 양성에 내년까지 5년간 총 512억원을 투입한다. 현재 지역특화사업인 자동차(호남대)와 헬스케어(조선대), 에너지(전남대) 분야, AI원천기술(GIST) 기반 학부 중심의 4개 AI융합대학을 선정, 운영하고 있다. 이와 함께 산·학·연이 함께하는 대규모 AI융합과제 성공을 위해 광주과기원 AI대학원에 초고성능 AI 컴퓨팅 네트워크 및 스토리지를 구축하고 있다. AI로 인해 변화된 산업현장의 수요를 반영, 산업인력 중심의 맞춤형 교육을 통해 AI 실무형 인재를 양성하는 등 AI 직무 전환 교육도 진행한다. 특히 AI사관학교 운영을 통해 지역 AI 산업 혁신을 주도하는 핵심인재 1200명을 양성하는 데에도 적극 나선다.
  • ‘챗GPT’ 능가하는 초거대 AI 모델, 광주에서 만든다

    ‘챗GPT’ 능가하는 초거대 AI 모델, 광주에서 만든다

    광주에서도 대화형 인공지능(AI) 챗봇 ‘챗GPT’를 뛰어넘는 초거대 AI 모델을 개발할 수 있는 길이 열렸다. 국내 유수의 클라우드 기업에서 제공하는 컴퓨팅 자원보다 훨씬 더 큰 메모리 용량과 빠른 데이터 처리 속도를 자랑하는 엔비디아의 ‘H100’이 광주에서 국내 최초로 제공되는데 따른 것이다. 앞으로는 대기업뿐만 아니라 스타트업들도 이를 활용해 복잡한 AI 모델 개발이 가능할 것으로 기대된다. 인공지능산업융합사업단은 11일 광주 첨단 3지구 ‘인공지능 중심 산업융합 집적단지’의 핵심시설인 AI 데이터센터에서 올해 하반기부터 글로벌 기업 엔비디아에서 출시한 초고성능 컴퓨팅 자원인 H100을 국내 최초로 제공한다고 밝혔다. 엔비디아의 H100은 ‘챗 GPT’(4.0) 개발에 활용된 컴퓨팅 자원보다 3배 이상 높은 연산능력을 지니고 있다. 초거대 AI 모델은 엄청난 양의 데이터와 강력한 컴퓨팅 자원이 필요한 대규모 인공지능 모델로, 복잡하고 정교한 패턴을 학습할 수 있으며 높은 정확도와 성능을 보여준다. 인공지능산업융합사업단은 우선 이달부터 AI 분야의 기업과 대학, 연구소 등 100여 개소를 대상으로 AI 학습에 필요한 초고성능 컴퓨팅 자원인 엔비디아의 A100 최신 버전을 클라우드 서비스를 통해 제공한다. 갈수록 AI 모델이 복잡해지고 AI 개발에 필요한 데이터의 양이 커지고 있는 상황에서, H100과 최신 A100은 메모리 용량과 데이터 처리 속도를 높인 초고성능 컴퓨팅 자원이다. 특히 엔비디아의 H100(67 테라플롭스)은 A100(19.5 테라플롭스)에 비해 3배 이상 높은 연산량을 제공한다. 1테라플롭스(TF)는 1초에 1조 개의 계산을 할 수 있는 속도다. MS의 챗GPT, 구글의 바드 등 초거대 AI 모델을 활용한 AI 서비스가 확산되면서 초고성능 컴퓨팅 자원에 대한 수요가 늘어나고 있는 상황 속에서, 올해 H100이 제공되면 국내 AI 기업의 초거대 AI 모델 개발을 앞당기고 글로벌 경쟁력을 높일 수 있을 것으로 기대된다. 인공지능산업융합사업단은 지난해 12월 기업 모집을 통해 선정된 121개 기업들에게 9.3 PF (페타플롭스) 규모의 AI 데이터센터 컴퓨팅 자원을 제공 중이다. 1PF는 1초에 1000조 개의 계산을 할 수 있는 속도다. 사업단은 또, AI 기업들이 확보한 빅데이터를 수집·분석·가공할 수 있는 단독 스토리지 서비스와 인공지능 학습 후 상용화 전 단계의 테스트를 지원하는 상용화 수준의 서비스도 제공할 예정이다. 이를 통해 AI 데이터 가공에서부터 인공지능 모델의 학습, 상용화 전 단계의 테스트까지 모두 가능하게 됨에 따라 AI 비즈니스가 활성화될 것으로 보인다. AI 데이터센터의 컴퓨팅 자원을 추가로 제공 받기 원하는 AI 기업들은 ‘AI 통합 지원 서비스 플랫폼 (www.atops.or.kr)’ 을 통해 신청·접수할 수 있다. 김준하 인공지능산업융합사업단장은 “이달부터 제공하는 초고성능 컴퓨팅 자원인 최신 A100을 활용해 AI 스타트업들도 누구나 복잡한 AI 모델 개발을 할 수 있게 됐다”면서 “특히 올해 하반기에 국내 최초로 제공되는 H100은 최신 A100 보다도 3배 높은 연산량을 제공하는 컴퓨팅 자원으로, 국내 AI 기업의 경쟁력을 높이고 AI 비즈니스 생태계 발전에 크게 기여할 것으로 기대된다”고 밝혔다. 한편 광주 첨단 3지구 인공지능 중심 산업융합 집적단지 핵심 시설인 AI 데이터센터는 컴퓨팅 시스템 설치, 시험 운영을 거쳐 총 구축 용량인 88.5페타플롭스(PF)의 서비스 제공을 목표로 오는 10월 문을 열 예정이다.
  • ‘챗GPT’가 불 지핀 
AI반도체 개발 경쟁

    ‘챗GPT’가 불 지핀 AI반도체 개발 경쟁

    오픈AI의 인공지능(AI) 챗봇 ‘챗GPT’로 불붙은 생성 AI 서비스 시장이 반도체 업계에 드리운 불황을 걷어낼 차세대 먹거리가 될 수 있을지 기대를 모으고 있다. 짧은 시간에 무수히 많은 연산을 해야 하는 초거대 모델 기반 생성 AI 운영엔 엄청난 수량의 고효율 반도체 칩셋이 필요하기 때문이다. 14일 업계에 따르면 챗GPT 운영엔 엔비디아의 그래픽처리장치(GPU) ‘A100’ 1만여개가 사용된다. AI 운용에 쓰이는 슈퍼컴퓨터엔 보통 GPU가 몇만 개 단위로 들어간다. GPU 수만 개가 방대한 양의 연산을 빠르게 처리하기 위해서는 고전력, 고비용이 들어갈 수밖에 없다. 샘 올트먼 오픈AI 최고경영자(CEO)는 최근 트위터에 “챗GPT 1회 사용에 몇 센트가 든다”고 적기도 했다. 챗GPT 가입자가 최근 1억명에 도달한 만큼 운영 비용은 하루 수백억원에 달할 것으로 추산된다. 국내 관련 업체들과 정부까지 나서서 AI 전용 반도체 개발을 추진하는 이유가 이런 고전력·고비용 문제에 있다. 앞으로 생성 AI 서비스가 더 많아질 것으로 예상되며, 업계가 저전력·고효율 반도체를 필요로 하기 때문이다. 우선 삼성전자와 SK하이닉스는 GPU에 붙는 메모리반도체 쪽에서 앞서 나가고 있다. 삼성전자는 자체 연산 기능이 탑재된 지능형반도체(PIM) 제품을 GPU 업계 2위인 AMD에 공급하고 있다. PIM은 프로세서와 메모리 사이에 오가는 데이터의 양을 자체 연산 기능으로 조절, 데이터 병목 현상을 해결하고 전력 효율을 크게 높일 수 있다. 삼성전자는 PIM 기술 고도화를 위해 네이버와 협력하고 있다. SK하이닉스는 업계 1위 엔비디아의 A100과 더 발전한 모델인 ‘H100’ 칩셋에 자사 고대역폭메모리(HBM) 반도체를 공급한다. HBM은 대량의 데이터를 한 번에 보낼 수 있는 메모리로, 지난해부터 AI 서버용으로 적용되기 시작했다. 챗GPT 등장 이후 수요가 예상보다 빠르게 증가하고 있다는 게 업계의 설명이다. 애초 AI 전용으로 만들어진 게 아닌 GPU 이후의 반도체로 신경망처리장치(NPU)가 주목을 받고 있다. 한국전자통신연구원(ETRI)이 2021년 말 자체 개발한 NPU를 서버에 도입해 본 결과 GPU 기반 서버보다 연산 성능은 4배, 전력 효율은 7배 늘었다. 다만 아직까지 AI 개발 환경이 GPU 기반으로 형성돼 NPU 시장은 초기 단계다. 정부는 AI 반도체 부문에 4년간 총 1조 200억원을 투자하겠다고 밝혔다. 과학기술정보통신부는 국산 AI 반도체를 단계별로 데이터센터에 적용해 국내 클라우드에 기반한 AI 서비스를 실증한다는 계획을 세웠다. 여기에만 올해 428억원, 2025년까지 1000억원을 지원한다. ‘AI 컴퍼니’를 비전으로 삼은 SK텔레콤은 자체 개발한 AI 반도체 ‘사피온’ 고도화에 집중하고 있다. KT는 반도체 제조사 리벨리온과 ‘AI 반도체 드림팀’을 구성해 AI 반도체 개발에 나섰다. 리벨리온은 최근 국내 최초로 챗GPT의 원천 기술인 ‘트랜스포머’ 계열 자연어 처리 기술을 지원하는 AI 반도체 ‘아톰’(ATOM)을 출시한다고 밝혔다.
  • 챗GPT가 바꾼 ‘판’… AI 헤게모니 전쟁, 네이버·삼성도 참전

    챗GPT가 바꾼 ‘판’… AI 헤게모니 전쟁, 네이버·삼성도 참전

    오픈AI의 인공지능(AI) 챗봇 ‘챗GPT’가 AI 산업의 헤게모니(패권)를 거머쥐었다. ‘한 방 먹은’ 구글이 패권을 되찾아오려는 움직임이 자못 조급하다. 챗GPT가 만들어 낸 흐름을 국내 업계도 쫓는다. 네이버는 상반기 ‘서치GPT’를 출시해 새로운 검색 경험을 제공한다는 계획이다. 메모리 반도체 불황의 늪에 빠진 삼성전자와 SK하이닉스도 위기의 돌파구를 찾는다.4일(현지시간) 블룸버그에 따르면 구글은 오픈AI의 경쟁자인 앤스로픽에 4억 달러(약 5000억원)를 투자했다. 앤스로픽은 오픈AI 창립 멤버인 다니엘라, 다리오 애머데이 남매가 세웠으며, 지난 1월 챗GPT에 대항할 AI 챗봇 ‘클로드’의 테스트 버전을 공개했다. 특히 이번 제휴를 통해 앤스로픽은 별도 비용 없이 구글의 클라우드 컴퓨팅 인프라를 사용할 수 있게 됐다. 이는 초거대 언어모델 기반 AI 챗봇에 필수적이면서 막대한 비용이 들어, 스타트업 스스로는 해결하기 어려운 부분이다. 오픈AI도 MS의 클라우드를 이용하고 있다. 앞서 지난 2일 실적발표 뒤 콘퍼런스콜에서 구글은 20개에 달하는 AI 서비스를 올해 안으로 선보인다고도 밝혔다. AI 자회사 딥마인드의 초거대 언어모델 ‘람다’를 기반으로 AI 챗봇 ‘견습 시인’도 테스트에 들어갔다. 보다 앞서서는 텍스트 설명에 맞춰 음악을 만들어 주는 생성형 AI ‘뮤직LM’을 논문을 통해 공개하기도 했다. 모두 챗GPT가 등장하고 순다르 파차이 구글 최고경영자(CEO)가 비상선언(코드 레드)을 발령하고 나서 일어난 일들이다. 구글, 오픈AI 대항마 앤스로픽에 5000억 투자올해 안에 AI 서비스 20여개 줄줄이 공개 계획수익모델, 윤리문제, 신뢰도 고려하다 선수 놓쳐총수익 절반 이상 내는 검색광고 시장 위협느껴 구글이 오픈AI보다 기술에서 뒤처졌다고 보긴 어렵다. 다만 상대적으로 ‘몸이 가벼운’ 오픈AI보다 수익모델이나 윤리적 문제, 신뢰도 등 고민할 거리가 많아, 있는 기술도 공개를 고심했을 거라는 게 업계의 분석이다. 하지만 이렇게 한꺼번에 수십개의 AI 프로젝트를 꺼낸 것은 오픈AI에 ‘선수’를 빼앗겨 주도권을 놓쳤다는 걸 인정한 셈이다. 구글은 AI 신제품이 윤리적으로 타당한지를 검토하는 절차를 기존보다 빠르게 진행하는 ‘그린 레인’ 제도도 도입을 검토하게 됐다. 구글이 이처럼 조급해진 것은 엄청나게 넓어진 자사 사업 분야 중에서도 아직까지 수익의 절반 이상을 책임지는 검색광고 시장을 챗GPT가 위협하기 때문이다. 자연어 질문에 완결된 문장으로 결과를 내 놓는 챗GPT는 검색어를 입력하고 수많은 인터넷 사이트 링크들 중에 적합한 것을 사용자가 고르는 검색 모델을 뿌리째 흔들 수 있다. MS는 이미 자사 검색엔진인 빙에 챗GPT를 적용하고 있다. 국내에서 네이버가 서치GPT를 서둘러 출시하는 것도 이와 무관치 않다. 한국어 검색 데이터를 가장 많이 보유하고 있는 네이버는 GPT를 이용해, 영어 기반 개발 모델을 한국어로 번역하면서 발생하는 약점을 해결할 계획이다. 구글이 가진 기술·자본력과 앤스로픽의 가능성, 오픈AI가 올해 안에 출시할 예정인 새 초거대 언어모델 ‘GPT-4’의 파괴력이 아직 예측 불가능한 상황이라 AI 서비스 패권이 앞으로 어디로 향할지는 알 수 없다. 하지만, 2016년 구글 딥마인드의 알파고가 이세돌 9단을 이기며 전세계 기술 경쟁의 무대를 만든 것처럼 챗GPT가 ‘게임의 규칙’을 정한 것은 분명하다. 네이버 영어모델->한국어 단점 없는 검색GPT 상반기에삼성전자·SK하이닉스, AI 반도체에 고성능 메모리 탑재 삼성전자와 SK하이닉스는 이런 흐름 속에서 위기 탈출 가능성을 발견했다. 한번에 대량의 데이터를 처리해야 하는 AI 반도체는 고성능 그래픽처리장치(GPU)와 고성능 메모리반도체와 세트로 판매되는데, 이런 패키지 수요가 폭발적으로 늘어날 것으로 예상되기 때문이다. 삼성전자는 제휴를 맺은 AMD의 ‘MI-100’에 자사 HBM-PIM(Processing-in-Memory) 메모리를 납품한다. PIM은 메모리반도체에 연산 기능을 추가해 중앙처리장치(CPU)와 메모리 간 데이터 이동을 줄여 성능과 효율을 높일 수 있다. SK하이닉스는 GPU 시장 1위 엔비디아의 최신 GPU인 ‘H100’ 패키지에 차세대 D램 ‘HBM3’를 결합한다. HBM은 고대역폭 메모리(High Bandwidth Memory)의 약자로 여러 개의 D램을 수직으로 연결해 데이터 처리 속도를 높인 제품이다. 김재준 삼성전자 메모리사업부 부사장은 지난달 31일 실적 콘퍼런스콜에서 “자연어 기반 대화형 AI 서비스가 미래 메모리 수요에 긍정적인 영향이 있을 것으로 기대한다”며 “AI 기술에 기반한 모델의 학습과 추론을 위해서는 대량 연산이 가능한 고성능 프로세스와 이를 지원하는 고성능 고용량 메모리 조합이 필수적”이라고 말했다.
위로