찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • HBM3E
    2026-04-19
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
162
  • SK하이닉스 초격차 ‘321단 SSD’… AI PC 기준 새로 쓴다

    SK하이닉스 초격차 ‘321단 SSD’… AI PC 기준 새로 쓴다

    업계 최고층… 저장 효율 33% 높여D램 넘어 ‘낸드플래시’ 기술력 각인PC시장 공룡 ‘델’ 첫 공급처로 확보증권가, 1분기 실적 35조~38조 전망 SK하이닉스가 세계 최초로 ‘300단 낸드 시대’의 문을 열며 인공지능(AI) PC 시장의 핵심 하드웨어 주도권 선점에 나섰다. 고대역폭메모리(HBM)로 D램 시장의 판도를 바꾼 SK하이닉스가 이번엔 낸드플래시 분야에서 초격차 기술을 선보이며 ‘AI 메모리 올라운더’로서의 입지를 굳히는 모양새다. 단순히 적층 단수를 높이는 경쟁을 넘어, 폭증하는 AI 데이터를 효율적으로 처리할 수 있는 차세대 스토리지의 새로운 기준점을 제시했다는 평가가 나온다. SK하이닉스는 업계 최고층인 321단 적층 기술과 데이터 저장 효율을 극대화한 QLC(쿼드러플 레벨 셀) 방식을 결합한 소비자용 SSD(cSSD) 신제품인 ‘PQC21’을 출시하고 이달부터 본격적인 공급에 나선다고 8일 밝혔다. 특히 글로벌 PC 시장의 공룡인 델 테크놀로지스를 첫 공급처로 확보하며 단순 개발을 넘어선 즉각적인 실전 투입을 알렸다. 이번 제품의 핵심인 321단 적층은 반도체 칩 내부에서 데이터를 저장하는 셀을 수직으로 촘촘히 쌓아 올려 한정된 면적 안에 더 많은 데이터를 집어넣는 고난도 공정 기술이다. 여기에 셀 하나에 4비트의 정보를 담는 QLC 방식을 적용해 기존 TLC(트리플 레벨 셀) 대비 저장 효율을 약 33% 높이며 경제성까지 확보했다. 그동안 QLC 방식은 대용량 구현에는 유리하나 데이터 처리 속도가 느려지고 수명이 짧아진다는 점이 고질적인 기술적 난제로 지적돼 왔다. SK하이닉스는 데이터 처리 속도가 가장 빠른 SLC(싱글 레벨 셀)처럼 작동하는 특정 영역을 설정하는 ‘SLC 캐싱’ 기술을 PQC21에 적용해 이 같은 성능 저하 우려를 불식시켰다. 필요한 데이터를 신속하게 읽고 쓰는 최적화 작업을 통해 클라우드를 거치지 않고 기기 자체에서 AI 연산을 수행해야 하는 온디바이스 AI 환경에서도 매끄러운 작업 흐름을 보장한다. 특히 글로벌 PC 시장은 최근 회복세를 보이고 있다. 시장조사업체 가트너에 따르면 지난해 전 세계 PC 시장은 윈도우 11 교체 수요 등에 힘입어 9.1% 성장하며 긴 침체기를 끝냈다. AI PC가 방대한 데이터를 로컬 환경에서 실시간 처리해야 하는 만큼, SK하이닉스는 고밀도 저장장치의 표준 자리를 빠르게 선점하겠다는 전략이다. 글로벌 시장조사업체 IDC는 cSSD 시장 내 QLC 비중이 2027년 61%까지 치솟으며 주류 기술로 자리 잡을 것으로 내다봤다. 업계에서는 이번 양산 소식이 글로벌 반도체 경쟁 구도에서 한국 기술의 ‘초격차’를 다시 한번 각인시킨 결과로 평가한다. 미국의 마이크론이 최신 제품에서 276단(추정) 수준에 머물러 있는 사이 SK하이닉스가 먼저 300단의 벽을 허물며 단수 경쟁에서 확실한 승기를 잡았기 때문이다. 이런 기술 혁신은 역대급 실적에 대한 기대감으로 이어지고 있다. 전날 삼성전자가 1분기 영업이익 57조원을 돌파하며 반도체 슈퍼사이클의 귀환을 알린 가운데 이달 말 실적발표를 앞둔 SK하이닉스 역시 분기 최대 실적을 올릴 것으로 전망되고 있다. 일부 증권사에서는 SK하이닉스의 1분기 영업이익이 시장 전망치를 크게 웃도는 35조원에서 최대 38조원에 달할 것으로 추정한다. HBM3E와 같은 고성능 D램뿐만 아니라 고부가가치 낸드 제품군인 eSSD와 이번 321단 cSSD 등 ‘AI 맞춤형 솔루션’이 실적의 질적 성장을 강력하게 견인하고 있기 때문이라는 분석이다.
  • 삼성전자 ‘영업익 40조 시대’ 여나… LG는 전 사업부 반등 예고

    삼성전자 ‘영업익 40조 시대’ 여나… LG는 전 사업부 반등 예고

    삼성, 반도체 호황에 최대 실적 전망LG, 가전이 견인… MS도 흑자 전환 삼성전자와 LG전자가 7일 나란히 올해 1분기 잠정 실적을 공개한다. 대내외 여건 악화로 가전 사업 전반이 고전하는 가운데 삼성전자는 반도체 호황을 발판으로 사상 최대 실적에 도전하고 LG전자는 공조·전장 중심의 사업 재편으로 수익성 회복에 나선다. 5일 증권가 전망치를 종합하면 삼성전자의 1분기 영업이익이 40조원을 웃돌 수 있다는 전망이다. 1분기 영업이익 40조원을 달성할 경우 지난해 4분기 영업이익(20조 1000억원)을 2배 이상 웃돌며 역대 최고 기록을 경신하게 된다. 핵심은 반도체다. 삼성전자는 5세대 고대역폭메모리(HBM) ‘HBM3E’를 엔비디아, 구글, AMD 등 빅테크에 공급하며 HBM 매출 비중을 빠르게 끌어올리고 있다. 올해 초 세계 최초로 6세대 ‘HBM4’를 고객사에 양산 출하했다고 밝혔다. 김선우 메리츠증권 연구원은 “이번 메모리 사이클은 이제 미드 사이클(중간 지점)에 근접해 가고 있으며, 압도적인 실적 개선이 기대된다”고 밝혔다. LG전자에 대해서도 시장은 매출 23조원대, 영업이익 1조 3000억원 안팎을 예상하고 있다. 직전 분기에 일회성 비용과 일부 사업 부진으로 발생한 영업손실(1090억원)을 바로 털어내고 반등에 성공할 가능성이 크다는 평가다. 사업부별로는 가전(HS) 사업본부가 7000억원에 육박하는 영업이익을 내며 실적을 견인할 것으로 보인다. TV를 담당하는 MS사업본부 역시 흑자 전환이 유력하다. MS사업본부는 지난해 연간 7509억원의 적자를 기록했다. 박강호 대신증권 연구원은 “올해 중국의 저가 정책에 대응한 LCD TV의 라인업 확대와 함께 스포츠 이벤트 및 가격 전략의 다변화에 따른 유기발광다이오드(OLED) 판매 증가가 예상된다”고 밝혔다. 전장(VS) 사업이 안정적인 캐시카우 역할을 하는 가운데, 공조(ES) 사업의 이익 기여도도 확대되고 있다. 증권가에선 공조 사업본부가 4000억원 이상, 전장 사업본부가 1000억원 초반대 영업이익을 기록할 것으로 예상하고 있다.
  • 삼성SDS, 국내 첫 ‘B300’ GPU 서비스… AI 추론 시장 공략

    삼성SDS가 엔비디아의 최신 그래픽처리장치(GPU)인 ‘B300’을 기반으로 한 클라우드 서비스를 국내 처음 선보였다. 삼성SDS는 자사 클라우드 플랫폼 ‘삼성 클라우드 플랫폼(SCP)’을 통해 B300 기반 GPU 구독형 서비스 GPUaaS를 출시했다고 23일 밝혔다. 기업들이 인공지능(AI) 모델 개발을 넘어 실제 서비스에 적용하는 ‘AI 추론’ 단계로 진입하면서, 급증하는 고성능 컴퓨팅 수요에 대응하려는 것이다. B300 GPU는 12단 고대역폭메모리 HBM3E를 탑재해 GPU당 288GB의 메모리 용량과 초당 8TB의 대역폭을 제공한다. 복잡한 연산이 필요한 AI 추론 영역에서 H100 대비 용량은 3.6배, 대역폭은 2.4배로 메모리 성능이 향상됐다. 이에 따라 대규모 언어 모델(LLM) 실행 시 GPU의 빠른 연산 속도 대비 느린 메모리의 데이터 전송 속도로 인해 전반적인 성능이 저하되는 데이터 병목 현상이 획기적으로 개선됐다. SCP B300 GPUaaS를 도입하면 고용량 메모리를 통해 거대 AI 모델을 효율적으로 처리할 수 있어 AI 에이전트, 이미지·영상·코드 생성 및 분석 등 고성능이 필요한 AI 서비스의 지연 시간을 최소화할 수 있다.
  • 삼성, AMD에 HBM4 우선 공급…‘20년 동맹’ 파운드리까지 넓힌다

    삼성, AMD에 HBM4 우선 공급…‘20년 동맹’ 파운드리까지 넓힌다

    AI가속기 1·2위에 모두 공급GPU 넘어 메모리 협력 강화AI 반도체 시장 주도권 속도수, 오늘 하정우 수석과 회동 이재용 삼성전자 회장이 18일 방한한 리사 수 AMD 최고경영자(CEO)와 만나 인공지능(AI) 반도체 협력 강화에 뜻을 모았다. 전날 젠슨 황 엔비디아 CEO도 그록3 언어처리장치(LPU)를 삼성전자가 생산 중이라고 공개한 바 있다. 삼성전자가 글로벌 AI 가속기 시장의 1위인 엔비디아와 2위인 AMD 모두와 손을 잡으며 AI 반도체 시장의 주도권 확보에 속도를 내는 모습이다. 수 CEO는 이날 이 회장과 서울 용산구 한남동에 있는 승지원에서 만찬 회동을 갖고 차세대 반도체 협력 방안을 논의했다. 이 회장은 먼저 만찬 장소에 도착해 수 CEO를 맞을 준비를 했다. 이 자리에는 전영현 DS부문장(부회장), 한진만 파운드리 사업부장(사장), 송재혁 최고기술책임자(CTO) 등 반도체 사업을 담당하는 핵심 경영진이 동석했다. 승지원은 고 이병철 창업 회장의 거처를 개조한 곳으로 이 회장은 국내외 귀빈을 만날 때 영빈관으로 사용하고 있다. 수 CEO는 만찬 전에는 삼성전자 평택캠퍼스를 방문해 차세대 AI 메모리와 컴퓨팅 기술 분야에서 협력을 확대하는 업무협약(MOU)을 체결했다. 전 부문장은 “삼성과 AMD는 AI 컴퓨팅 발전이라는 공통된 목표를 공유하고 있으며, 이번 협약으로 양사 협력 범위가 확대될 것”이라고 말했다. 이에 수 CEO는 “삼성의 첨단 메모리 기술 리더십과 AMD의 인스팅트 그래픽처리장치(GPU), 에픽 중앙처리장치(EPYC CPU), 랙 스케일 플랫폼을 결합하게 돼 매우 기쁘다”고 화답했다. 업계에서는 2007년 삼성전자의 D램이 AMD 그래픽 카드에 탑재되며 시작돼 20년간 이어진 양사의 협력이 AI 반도체 생태계 전반으로 확장됐다는 평가가 나온다. 특히 삼성전자는 AMD AI 가속기에 탑재되는 6세대 고대역폭메모리(HBM4) 우선 공급업체로 지정됐다. 이에 따라 삼성전자는 AMD의 데이터센터용 AI 연산 가속기 ‘인스팅트 MI455X’ GPU에 HBM4를 본격 탑재할 계획이다. AMD가 공식적으로 삼성전자를 자사의 HBM 우선 공급자로 선정한 것은 이번이 처음이다. 삼성전자는 지난달 업계 최초로 1c D램, 4나노 베이스다이 기술 기반 HBM4를 양산 출하했다. 이번 공급을 계기로 AMD와의 파트너십은 한층 강화되고 HBM 시장 주도권도 더욱 공고해질 전망이다. 삼성전자는 지난해부터 AMD의 AI 가속기에 HBM3E를 공급하고 있다. 양사의 협력은 AI 반도체 산업 발전과 함께 메모리 기술과 연산 칩 설계 간 통합이 중요해지고 있는 흐름을 보여 주는 사례로 꼽힌다. AI 가속기 성능이 높아질수록 GPU와 HBM 간 설계 최적화가 중요해지면서 메모리 업체와 GPU 설계 기업 간 협력도 더욱 긴밀해지고 있다. 앞으로 AMD의 AI 가속기 설계와 삼성의 메모리·파운드리 기술 간 시너지도 확대될 것으로 관측된다. 삼성전자와 AMD는 AI 데이터센터 랙 단위 데이터센터 플랫폼 헬리오스(Helios)와 6세대 차세대 데이터센터 서버용 CPU의 성능을 극대화하기 위해 고성능 DDR5 메모리 솔루션 분야에서도 협력하기로 했다. 또 팹리스(반도체 설계기업)인 AMD의 차세대 제품을 위탁 생산하는 파운드리 협력에 대해서도 논의해 나가기로 했다. 업계에서는 이번 협력이 삼성전자의 ‘아픈 손가락’으로 꼽혀 온 파운드리 경쟁력을 회복하는 계기가 될 수 있다는 기대가 나온다. 삼성전자는 메모리, 파운드리(반도체 위탁생산), 패키징까지 ‘원스톱 솔루션’이 가능하다는 점을 강조하며 글로벌 빅테크 기업과의 협력 확대에 나서고 있다. 한편 한국을 처음 찾은 수 CEO는 19일에는 하정우 청와대 AI미래기획수석과 만나 정부의 AI 고속도로 구축 등 AI 생태계 전반에 대해 의견을 나누고 협력 방안을 논의한다. 이 자리에는 임문영 국가인공지능전략위원회 부위원장도 참석한다. 같은 날 노태문 삼성전자 대표이사 겸 DX부문장, AI 스타트업 업스테이지의 김성훈 대표와도 회동하며 ‘광폭 행보’를 이어 간다.
  • AI 반도체동맹 ‘운명의 일주일’

    AI 반도체동맹 ‘운명의 일주일’

    엔비디아 회의 최태원 회장 참석젠슨 황과 HBM4 최적화 조율리사 수 AMD CEO 이례적 방한이재용 회장과 HBM 공급 논의테슬라, 자체 생산 구상 본격화 이재용 삼성전자 회장과 최태원 SK그룹 회장이 이번 주 인공지능(AI) 가속기 시장 1·2위인 빅테크 수장들과 각각 회동할 것으로 전해지면서 세간의 눈길이 쏠린다. 이재용 회장은 리사 수 AMD 최고경영자(CEO)와, 최태원 회장은 젠슨 황 엔비디아 CEO를 만날 것으로 보인다. SK하이닉스가 엔비디아와의 ‘혈맹’ 관계를 바탕으로 고대역폭메모리(HBM) 시장 1위 수성에 나선 반면, 삼성전자는 엔비디아에 이어 AMD와의 협력도 강화하며 고객사 확대 전략을 펼치는 것으로 읽힌다. 15일 업계에 따르면 황 CEO는 16일(현지시간)부터 열리는 연례 기술 컨퍼런스 ‘GTC 2026’에 참석한다. 시장의 관심은 황 CEO가 오는 18일 기조연설 등에서 공개할 차세대 AI 가속기 ‘베라 루빈’에 쏠린다. 최 회장도 GTC 2026에 처음 참석할 예정이다. 최 회장은 SK하이닉스의 HBM 공급 확대와 차세대 AI 반도체 협력 방안을 논의할 것으로 예상된다. 최 회장과 황 CEO의 만남은 지난달 5일 미국 캘리포니아에서 있었던 ‘치맥 회동’ 이후 한 달 만이다. 두 CEO 간 회동이 SK하이닉스와 엔비디아와의 견고한 협력 관계를 재확인하는 계기라는 것이 업계의 시각이다. 엔비디아는 올해 베라 루빈 등에 사용할 HBM4 물량 중 약 3분의 2를 SK하이닉스에 배정한 것으로 알려졌다. 다만, 이전 모델인 HBM3(4세대)와 HBM3E(5세대)의 경우 SK하이닉스가 엔비디아에 사실상 독점 납품했지만,HBM4 시장에는 삼성전자도 진입했다. SK하이닉스는 조만간 엔비디아와 HBM4 최적화 작업을 마무리할 것으로 보인다. 리사 수 AMD CEO는 2014년 취임 이후 12년 만에 처음으로 한국을 찾는다. 이 회장은 오는 18일 방한하는 수 CEO와 만나 HBM 공급과 파운드리(반도체 위탁생산) 협력 강화 방안을 논의할 것으로 전해졌다. 수 CEO는 이 회장에게 HBM 공급 확대를 요청할 것이라는 관측이 나온다. 삼성전자는 AMD의 AI 가속기 ‘MI350’에 5세대 HBM인 HBM3E 12단을 공급하고 있다. 지난달에는 HBM4를 세계 최초로 양산 출하하며 시장 선점에 나섰다. 삼성전자와 AMD가 ‘전략적 협력 파트너’ 관계를 구축하고 있다는 평가도 나온다. 삼성전자는 HBM 시장 입지 확대와 파운드리 사업 회복을 동시에 노리고, AMD 역시 엔비디아를 견제하기 위해 안정적인 HBM 공급망 확보가 필요한 상황이다. 이런 움직임이 엔비디아를 중심으로 돌아가는 AI 반도체 공급망 구조 변화로 이어질지 주목된다. 이 가운데 일론 머스크 테슬라 CEO는 자율주행과 AI 기술에 필요한 반도체 자체 생산 구상을 본격화했다. 머스크 CEO는 엑스(X)에 “테라팹 프로젝트가 7일 내로 시작된다”고 썼다. 테라팹은 웨이퍼를 월 10만개 이상 생산하는 기가팹보다 더 큰 초대형 생산 공장을 의미한다. 즉, 테라팹을 통해 반도체 자체 개발에서 더 나아가 자체 생산 체계까지 구축하겠다는 선언으로 보인다.
  • ‘D램 1위’ 삼성, ‘괴물 칩’ SK… 노사 갈등·인력 유출 ‘동병상련’

    ‘D램 1위’ 삼성, ‘괴물 칩’ SK… 노사 갈등·인력 유출 ‘동병상련’

    삼성전자가 1년 만에 글로벌 D램 시장 1위를 되찾았다. SK하이닉스는 고대역폭메모리(HBM) 주도권을 바탕으로 질적 성장을 자신했다. 다만 역대급 실적 이면에 노사 갈등, 해외 인재 유출 등 위험 요소도 감지된다. 22일 시장조사업체 옴디아에 따르면 삼성전자는 2025년 4분기에 D램 점유율 36.6%를 기록하며 선두에 복귀했다. 지난해 1분기 HBM 대응 지연으로 33년 만에 왕좌를 내줬던 삼성전자는 1년 만에 HBM3E 공급 확대와 서버용 고부가 제품 판매를 통해 재역전에 성공했다. 4분기 매출은 전 분기 대비 40.6% 급증한 191억 5600만 달러(약 27조 7000억원)다. SK하이닉스는 ‘실리’에 집중하고 있다. 최태원 SK그룹 회장은 20일(현지시간) 워싱턴DC에서 열린 제5회 트랜스 퍼시픽 다이얼로그 환영사에서 HBM을 ‘괴물 칩’이라 지칭하며 “더 많은 몬스터 칩을 만들어야 한다. 진짜 큰돈을 벌어다 주는 제품”이라고 강조했다. 이는 마진율이 60%에 달하는 16단 HBM4 등 최첨단 기술력을 통해 질적 우위와 시장 지배력을 강화하겠다는 의미로 읽힌다. 다만 고공질주 중인 삼성전자와 SK하이닉스의 실적 경신에도 업계 내부에서는 미래 투자에 더 적극적으로 나서야 한다는 제언이 적지 않다. 인건비 상승, 시장의 변동성 증가 등 미래 투자를 위축시킬 요소들이 고개를 들고 있다는 것이다. 보상을 둘러싼 노사 간 진통이 대표적이다. 삼성전자 노조는 영업이익의 20%를 성과급(OPI) 재원으로 책정하고 상한을 폐지하라고 요구했고, 최근 중앙노동위원회에 조정을 신청했다. 조정 결렬 시 노조는 합법적인 쟁의권을 확보하게 된다. 2024년 7월의 역대 첫 총파업 이후 2년 만에 생산 현장이 실력 행사에 나설 수 있다. 양측은 입장 차이가 커 평행선을 달리고 있다. SK하이닉스는 지난해 영업이익의 10%를 성과급 재원으로 사용하는 노조안을 수용했고, 올해 초 직원들에게 사상 최대인 기본급 2964%의 성과급을 지급했다. 인건비 증가는 미래 투자 여력을 위축시킬 수 있다. 여기에 퇴직금 줄소송까지 이어지며 기업의 고정비 부담은 가중되고 있다. 또 HBM의 수익률이 일반 D램에 비해 높지만, AI 수요 급증으로 HBM 생산이 확대되자 외려 공급이 줄어든 D램의 수익률이 HBM을 앞서는 등 시장의 변동성이 극단적으로 커지는 것도 위협 요소다. 최 회장이 “올해 영업이익 예상치가 1000억 달러를 넘을 수도 있지만, 반대로 1000억 달러의 손실이 될 수도 있다”고 밝한 이유다. 해외 빅테크의 한국 인재 모집도 위험 수위다. 일론 머스크 테슬라 CEO는 한국 엔지니어들을 향한 구애 글을 소셜미디어 엑스(X)에 남겼고, 엔비디아는 4억원대 연봉으로 HBM 전문가 채용에 나섰다. 업계 관계자는 “기술 격차의 핵심인 인재들이 내부 갈등에 지쳐 떠나고 있다. 위기관리 실패 땐 투자 위축이 이어지는 악순환에 빠질 수 있다”고 말했다.
  • 세계 최초·최고 성능… 삼성전자 HBM4 출하

    세계 최초·최고 성능… 삼성전자 HBM4 출하

    삼성전자가 세계 최초로 인공지능(AI) 산업의 핵심 부품인 6세대 고대역폭메모리 HBM4를 양산 및 출하했다고 12일 밝혔다. 최대 데이터 전송 속도는 13Gbps로 기존의 HBM3E와 비교해 22% 빨라졌고, 데이터 출입구를 1024개에서 2048개로 늘리면서 전송 데이터의 양도 급격히 늘었다. 반도체업계에서는 AI 그래픽저장장치(GPU)의 메모리 병목을 획기적으로 줄일 ‘게임체인저’로 평가했다. 삼성전자는 올해 하반기와 내년에 연이어 차기 HBM도 내놓으며 관련 기술을 선도하겠다는 구상이다. 황상준 삼성전자 메모리개발담당 부사장은 이날 “기존에 검증된 공정을 적용하던 전례를 깨고 1c D램(10나노급 6세대) 및 파운드리 4나노와 같은 최선단 공정을 적용했다”며 “공정 경쟁력과 설계 개선을 통해 성능 확장을 위한 여력을 충분히 확보함으로써 고객의 성능 상향 요구를 적기에 충족할 수 있었다”고 밝혔다. 삼성전자는 이번 설 연휴 직후 양산 출하를 계획했으나 고객사와 협의를 거쳐 일정을 일주일가량 앞당긴 것으로 알려졌다. HBM4는 엔비디아가 다음달 공개할 차세대 AI 가속기 ‘베라 루빈’에 탑재돼 GPU의 고등 연산을 지원할 전망이다. HBM은 D램 메모리를 여러 층으로 쌓아 연산에 필요한 메모리 자원을 크게 늘린 반도체 소자다. 적층된 메모리를 밑에서 받치고 있는 하단의 베이스다이에는 성능과 전력 효율 측면에서 유리한 4나노 공정을 적용했다. 그 결과 JEDEC(국제 산업 표준 기구)의 업계 표준인 8Gbps를 약 46% 상회하는 11.7Gbps의 동작 속도를 안정적으로 확보했다. 이는 전작 HBM3E의 최대 핀 속도인 9.6Gbps 대비 약 1.22배 향상된 수치다. 삼성전자 관계자는 “최대 13Gbps까지 구현이 가능해 AI 모델 규모가 커질수록 심화되는 데이터 병목을 효과적으로 해소할 것”이라고 말했다. 또 삼성전자의 HBM4는 단일 스택 기준 총 메모리 대역폭을 전작 HBM3E 대비 약 2.7배 향상된 최대 3.3TB/s 수준으로 끌어올렸다. 이는 고객사 요구 수준인 3.0TB/s를 상회한다. 또 삼성전자의 HBM4는 12단 적층 기술을 통해 24~36GB의 용량을 제공하며, 고객사의 제품 일정에 맞춰 16단 적층 기술을 적용해 최대 48GB까지 용량을 확장할 계획이다. 전력 소모와 열 집중 문제 해결에도 총력을 쏟았다. HBM은 컨트롤러 역할을 하는 베이스 다이와 D램을 수직으로 적층한 코어 다이로 구성된다. HBM4는 메모리와 GPU 사이에서 데이터를 주고받는 출입구인 데이터 전송 I/O 핀 수를 1024개에서 2048개로 확대했고 이에 따라 발생하는 전력 소모와 열 집중 문제를 해결하기 위해 코어 다이에 저전력 설계 기술을 적용했다. 또 하나의 차별화된 지점은 ‘원스톱 솔루션’ 제공이다. 삼성전자는 세계에서 유일하게 로직, 메모리, 파운드리, 패키징까지 아우르는 반도체 회사다. 회사는 선단 패키징 역량을 자체적으로 보유하고 있어 공급망 리스크를 최소화하는 한편 생산 리드타임을 단축할 수 있는 경쟁력을 갖추고 있다. 삼성전자는 올해 HBM 매출이 지난해 대비 3배 이상 증가할 것으로 내다봤다. 또 HBM4에 이어 HBM4E도 준비해 올해 하반기에 샘플을 출하할 계획이다. HBM4E는 HBM4의 기본 구조를 기반으로, 동작 속도·대역폭·전력 효율을 한층 끌어올린 차세대 고대역폭 메모리다. 삼성전자는 또 AI 반도체 종류에 따라 메모리도 맞춤 설계해 성능을 극대화하는 커스텀(맞춤형) HBM도 내년부터 샘플을 출하한다. 엔비디아 GPU에 이어 구글 ‘텐서처리장치’(TPU), 마이크로소프트(MS) ‘마이아’ 등 빅테크들의 AI 반도체 자체 개발 경쟁이 격화하는 가운데 각각에 최적화한 HBM 설계 수요를 충족하겠다는 구상이다. 삼성전자가 세계 최초 HBM4 양산 및 출하로 포문을 연 데 대해 경쟁자인 SK하이닉스와 미국 마이크론은 자신만의 전략에 집중하는 분위기다. SK하이닉스 관계자는 “고객이 요청한 (HBM4) 물량을 차질 없이 양산 중이며, 현재 최적화를 진행하고 있다”고 밝혔다. 최대 고객사인 엔비디아의 차세대 AI 가속기 출시 일정에 맞춰 제품 완성도를 극대화하겠다는 ‘실리 전략’으로 읽힌다. 업계에 따르면 SK하이닉스는 엔비디아 HBM4 물량의 3분의2 이상을 확보한 것으로 알려졌다. 미국 마이크론 역시 HBM4 경쟁에서 밀려났다는 루머를 정면으로 반박하고 나섰다. 마크 머피 마이크론 최고재무책임자(CFO)는 11일(현지시간) 콘퍼런스에서 ‘엔비디아 공급망 탈락설’을 일축하며 “올해 HBM 공급 물량은 이미 완판됐으며 수율 또한 계획대로”라고 말했다. 이에 따라 메모리 공급 부족 국면에서 한국·미국 반도체 기업들의 수주 경쟁은 한층 격화될 전망이다.
  • 삼성, 설 직후 HBM4 세계 첫 양산… 차세대 메모리 기선 제압

    삼성전자의 차세대 고대역폭 메모리(HBM)인 ‘HBM4’의 세계 최초 양산 출하가 임박했다. 삼성전자가 인공지능(AI) 반도체의 차세대 주력 모델로 꼽히는 HBM4를 앞세워 기술 경쟁력을 회복하고 메모리 시장의 주도권을 쥘 수 있을지 관심이 집중된다. 8일 업계에 따르면 삼성전자는 엔비디아에 공급할 HBM4의 양산 출하 시점을 이르면 설 연휴 직후인 이달 셋째 주로 확정한 것으로 알려졌다. 업계 관계자는 “지난달 기업설명회에서 2월 중 HBM4 제품 양산 출하가 예정돼 있다고 발표했는데, 그 시점이 임박해 공식화할 수 있는 단계에 이르렀다”고 말했다. 삼성전자는 이미 엔비디아의 품질 테스트를 통과해 구매주문(PO)을 확보했으며, HBM4가 적용되는 AI 가속기 ‘베라 루빈’의 출시 일정 등을 고려해 출하 시기를 결정한 것으로 알려졌다. 고객사 완제품 테스트를 위한 HBM4 샘플 물량도 이번 PO를 통해 대폭 늘어난 것으로 전해진다. 엔비디아는 다음 달 ‘GTC 2026’에서 삼성전자 HBM4를 적용한 베라 루빈을 처음 공개할 것으로 관측된다. 차세대 HBM4의 양산 출하는 이번이 세계 최초다. 삼성전자는 개발 초기부터 국제반도체 표준협의기구(JEDEC)의 표준을 뛰어넘는 성능을 목표로 정했다. 삼성전자는 이번 HBM4에 1c(10나노급 6세대) D램과 4나노 파운드리 공정을 동시에 적용하는 승부수를 던졌다. 데이터 처리 속도는 최대 11.7Gbps로, JEDEC 표준(8Gbps) 및 현재 주력인 HBM3E(9.6Gbps)를 웃돈다. 단일 스택(묶음) 기준 메모리 대역폭은 최대 3TB/s로 전작 대비 2.4배 향상됐고, 12단 적층으로 최대 36GB 용량을 제공한다. 한편 삼성전자는 지난해 미국에서 전 세계 기업 중 가장 많은 특허를 취득해 4년 연속 1위를 기록했다. 미국 특허정보 업체 IFI 클레임스가 최근 발간한 보고서에 따르면 지난해 미국에서 등록된 특허는 32만 3272건으로, 이 중 삼성전자가 7054건의 특허를 확보해 전체 등록 특허의 2% 이상을 차지했다.
  • AI 메모리 대란으로 폭풍 성장…중국 CXMT는 메모리 4강 안착할까?

    AI 메모리 대란으로 폭풍 성장…중국 CXMT는 메모리 4강 안착할까?

    중국 정부는 오래전부터 반도체, 특히 메모리 자급을 국가 전략 과제로 설정하고 막대한 투자를 이어왔습니다. 그러나 성과는 제한적이었습니다. 반도체 산업은 이미 성숙 단계에 접어든 지 오래되었고, 신규 팹 건설에는 천문학적인 자본과 축적된 공정 기술이 필요하기 때문입니다. 실제로 칭화 유니 그룹은 자금난으로 붕괴되었고, 푸젠 진화는 미국의 제재로 사업이 중단되었으며, 우한 홍신은 사기 사건으로 사실상 역사 속으로 사라졌습니다. 이러한 실패의 연속 속에서 드물게 생존에 성공한 기업이 등장했습니다. 2019년 허페이에서 DDR4 메모리 양산에 돌입한 창신 메모리(CXMT)입니다. CXMT는 중국 최초로 의미 있는 수준의 D램 양산에 성공한 기업으로 평가받고 있습니다. CXMT는 설립 초기, 파산한 독일 메모리 기업 키몬다(Qimonda)로부터 다수의 D램 관련 특허를 정식으로 인수하며 기술적 기반을 다졌습니다. 이를 통해 제재 리스크를 줄이는 동시에 자체 공정 역량을 축적해 왔습니다. 다만 성장 과정이 순탄하지만은 않았습니다. 한국 반도체 인력 유출 논란이 제기되었고, 실제로 관련자 일부가 실형을 선고받은 사례도 있었습니다. 이로 인해 국내에서는 CXMT를 바라보는 시선이 마냥 우호적이지만은 않은 것도 사실입니다. 그럼에도 불구하고 CXMT의 기술적 진전은 분명합니다. 2019년 DDR4 양산을 시작으로 2024년에는 DDR5와 LPDDR5 양산에 성공했습니다. 허페이에 위치한 두 개의 팹을 중심으로 월 약 16만 장 수준의 웨이퍼 처리 능력을 갖춘 것으로 알려져 있으며, 베이징 경제 기술 개발구 이좡(Yizhuang) 반도체 클러스터에는 CXMT 베이징 법인 명의로 신규 생산 거점을 구축 중입니다. 베이징 팹의 구체적인 생산 규모는 공개되지 않았으나, 현재 가동 중인 1단계 팹에서 월 5만~10만 장 수준, 향후 2단계에서 두 번째 팹이 완공될 경우 월 15만 장 이상의 생산 능력이 추가될 것으로 예상됩니다. 계획대로 진행된다면 현재 목표인 월 30만 장 규모의 생산이 가능해질 전망입니다. 이곳에서는 15nm~17nm급 공정을 중심으로 DDR5와 LPDDR5X 생산에 주력할 것으로 알려져 있습니다. CXMT는 2025년 하반기 기준, 8000Mbps 속도의 DDR5와 1만 667Mbps 속도의 LPDDR5X 양산에 진입했다고 발표했습니다. 또한 DDR5 양산 수율이 80% 수준에 근접했다고 밝혔으나, 이는 회사 측 발표와 일부 업계 추정에 근거한 수치로 외부에서 이를 검증할 수 있는 자료는 제한적입니다. CXMT는 현재 상장을 앞둔 비상장 기업이라 공시한 내용 자체가 별로 없습니다. 또 중국 기업 특유의 비공개 경영 문화로 인해 세부적인 정보 파악에는 한계가 있습니다. 확실한 점은 현재 글로벌 D램 시장 점유율이 약 5% 내외로 추정되며, 아직 ‘안정적인 4위 업체’로 평가하기에는 이르다는 점입니다. 다만 최근의 AI발 메모리 가격 급등과 공급 부족 국면은 CXMT에 매우 유리한 환경을 제공하고 있습니다. 2025년 12월 30일, CXMT는 상하이 증권거래소 STAR 마켓 상장을 위한 증권신고서를 제출하면서 2025년 첫 연간 흑자 달성이 유력하다고 밝혔습니다. 2022년부터 2025년 상반기까지 누적 매출은 570억 위안, 누적 순손실은 408.6억 위안에 달했지만, 지난해 한 해 매출은 550억~580억 위안, 순이익은 20억~35억 위안으로 전망했습니다. 인공지능(AI) 수요 확대에 따른 메모리 가격 상승이 수익성 개선의 핵심 배경입니다. CXMT의 주요 고객은 레노버, 화웨이, 알리바바 등 중국 내 기업들입니다. 중국 정부의 정책적 지원 속에서 국산 메모리 채택이 확대되며 안정적인 판로를 확보했습니다. 여기에 글로벌 메모리 공급 부족이 겹치면서, 중국 외 기업들 사이에서도 CXMT 제품을 검토하는 움직임이 감지되고 있습니다. 현재의 가격 환경이 유지된다면 올해는 수익성과 고객 기반 모두 대폭 확대될 가능성이 큽니다. CXMT는 이번 상장을 통해 약 6조 원 규모의 자금 조달을 목표로 하고 있습니다. 조달 자금은 베이징 팹 2 증설과 올해 착공에 들어간 상하이 신규 팹 및 패키징 시설에 투입될 예정입니다. 미국의 제재로 ASML이나 어플라이드 머티어리얼즈(AMAT) 등 서방 장비 도입이 제한되면서, 베이징 팹은 중국산 노광·식각·증착 장비를 실제 양산에 적용하는 ‘시험장’ 성격을 띠는 만큼 실제 양산 및 수율이 얼마 정도 될 것인가가 업계의 관심으로 떠오르고 있습니다. 상하이 패키징 시설은 메모리 후공정, 특히 HBM 메모리 생산을 염두에 둔 투자입니다. CXMT는 지난해 하반기부터 화웨이 등 중국 내 주요 AI 칩 설계 기업에 HBM3 시제품을 제공했다고 밝히며, 단계적인 양산을 추진 중입니다. 또 2027년까지 HBM3E 양산을 목표로 선두 업체와의 기술 격차를 줄이겠다는 계획을 제시했습니다. 다만 초기 단계인 만큼 수율과 생산 안정성 측면에서 어려움을 겪을 가능성은 여전히 큽니다. AI발 메모리 대란은 CXMT의 공격적인 증설 전략이 치명적인 부담으로 돌아갈 가능성을 크게 낮춰주었습니다. 여기에 미국의 대중 제재 역시 역설적으로 중국 내 국산 메모리 채택을 가속하는 요인으로 작용하고 있습니다. 그러나 이러한 호황이 영원히 지속되지는 않을 것입니다. AI 산업에서 실질적인 수익을 창출하지 못하는 기업들이 투자 속도를 조절하기 시작하면, 시장은 다시 소수 업체 중심의 과점 구조로 재편될 가능성이 큽니다. 이 과정에서 과도한 메모리 생산 설비 증설은 다시 한번 메모리 가격 급락과 치킨 게임을 촉발할 수 있습니다. 그 시점이 오면 이미 막대한 현금 흐름과 기술 경쟁력을 확보한 삼성전자, SK하이닉스, 마이크론은 버틸 수 있겠지만, 후발주자인 CXMT는 생존의 기로에 설 가능성도 배제할 수 없습니다. 첨단 공정 장비에 대한 수입 제재가 장기화될 경우, 미세 공정 전환에서의 한계 역시 본격적으로 드러날 수 있습니다. 수익성이 높은 최첨단 공정과 고부가 메모리 제품에 집중한 선두 업체들은 치킨 게임 국면에서도 손실을 최소화하거나 수익을 유지할 수 있지만, 상대적으로 가격 경쟁력에 의존하는 후발 업체들은 구조적으로 불리할 수밖에 없습니다. 실제로 이와 같은 과정을 거치며 수많은 D램 업체들이 시장에서 사라졌고, 현재의 3강 체제가 형성되었습니다. CXMT가 글로벌 메모리 시장 점유율 10%를 돌파하며 4강 체제를 구축할 수 있을지, 아니면 또 하나의 치킨 게임 희생양으로 남을지는 앞으로 몇 년이 결정할 것입니다. AI라는 일시적 순풍을 넘어, 기술과 수익성이라는 본질적인 경쟁력을 입증할 수 있는지가 CXMT의 진정한 시험대가 될 것으로 보입니다.
  • AI 메모리 대란으로 폭풍 성장…중국 CXMT는 메모리 4강 안착할까? [고든 정의 TECH+]

    AI 메모리 대란으로 폭풍 성장…중국 CXMT는 메모리 4강 안착할까? [고든 정의 TECH+]

    중국 정부는 오래전부터 반도체, 특히 메모리 자급을 국가 전략 과제로 설정하고 막대한 투자를 이어왔습니다. 그러나 성과는 제한적이었습니다. 반도체 산업은 이미 성숙 단계에 접어든 지 오래되었고, 신규 팹 건설에는 천문학적인 자본과 축적된 공정 기술이 필요하기 때문입니다. 실제로 칭화 유니 그룹은 자금난으로 붕괴되었고, 푸젠 진화는 미국의 제재로 사업이 중단되었으며, 우한 홍신은 사기 사건으로 사실상 역사 속으로 사라졌습니다. 이러한 실패의 연속 속에서 드물게 생존에 성공한 기업이 등장했습니다. 2019년 허페이에서 DDR4 메모리 양산에 돌입한 창신 메모리(CXMT)입니다. CXMT는 중국 최초로 의미 있는 수준의 D램 양산에 성공한 기업으로 평가받고 있습니다. CXMT는 설립 초기, 파산한 독일 메모리 기업 키몬다(Qimonda)로부터 다수의 D램 관련 특허를 정식으로 인수하며 기술적 기반을 다졌습니다. 이를 통해 제재 리스크를 줄이는 동시에 자체 공정 역량을 축적해 왔습니다. 다만 성장 과정이 순탄하지만은 않았습니다. 한국 반도체 인력 유출 논란이 제기되었고, 실제로 관련자 일부가 실형을 선고받은 사례도 있었습니다. 이로 인해 국내에서는 CXMT를 바라보는 시선이 마냥 우호적이지만은 않은 것도 사실입니다. 그럼에도 불구하고 CXMT의 기술적 진전은 분명합니다. 2019년 DDR4 양산을 시작으로 2024년에는 DDR5와 LPDDR5 양산에 성공했습니다. 허페이에 위치한 두 개의 팹을 중심으로 월 약 16만 장 수준의 웨이퍼 처리 능력을 갖춘 것으로 알려져 있으며, 베이징 경제 기술 개발구 이좡(Yizhuang) 반도체 클러스터에는 CXMT 베이징 법인 명의로 신규 생산 거점을 구축 중입니다. 베이징 팹의 구체적인 생산 규모는 공개되지 않았으나, 현재 가동 중인 1단계 팹에서 월 5만~10만 장 수준, 향후 2단계에서 두 번째 팹이 완공될 경우 월 15만 장 이상의 생산 능력이 추가될 것으로 예상됩니다. 계획대로 진행된다면 현재 목표인 월 30만 장 규모의 생산이 가능해질 전망입니다. 이곳에서는 15nm~17nm급 공정을 중심으로 DDR5와 LPDDR5X 생산에 주력할 것으로 알려져 있습니다. CXMT는 2025년 하반기 기준, 8000Mbps 속도의 DDR5와 1만 667Mbps 속도의 LPDDR5X 양산에 진입했다고 발표했습니다. 또한 DDR5 양산 수율이 80% 수준에 근접했다고 밝혔으나, 이는 회사 측 발표와 일부 업계 추정에 근거한 수치로 외부에서 이를 검증할 수 있는 자료는 제한적입니다. CXMT는 현재 상장을 앞둔 비상장 기업이라 공시한 내용 자체가 별로 없습니다. 또 중국 기업 특유의 비공개 경영 문화로 인해 세부적인 정보 파악에는 한계가 있습니다. 확실한 점은 현재 글로벌 D램 시장 점유율이 약 5% 내외로 추정되며, 아직 ‘안정적인 4위 업체’로 평가하기에는 이르다는 점입니다. 다만 최근의 AI발 메모리 가격 급등과 공급 부족 국면은 CXMT에 매우 유리한 환경을 제공하고 있습니다. 2025년 12월 30일, CXMT는 상하이 증권거래소 STAR 마켓 상장을 위한 증권신고서를 제출하면서 2025년 첫 연간 흑자 달성이 유력하다고 밝혔습니다. 2022년부터 2025년 상반기까지 누적 매출은 570억 위안, 누적 순손실은 408.6억 위안에 달했지만, 지난해 한 해 매출은 550억~580억 위안, 순이익은 20억~35억 위안으로 전망했습니다. 인공지능(AI) 수요 확대에 따른 메모리 가격 상승이 수익성 개선의 핵심 배경입니다. CXMT의 주요 고객은 레노버, 화웨이, 알리바바 등 중국 내 기업들입니다. 중국 정부의 정책적 지원 속에서 국산 메모리 채택이 확대되며 안정적인 판로를 확보했습니다. 여기에 글로벌 메모리 공급 부족이 겹치면서, 중국 외 기업들 사이에서도 CXMT 제품을 검토하는 움직임이 감지되고 있습니다. 현재의 가격 환경이 유지된다면 올해는 수익성과 고객 기반 모두 대폭 확대될 가능성이 큽니다. CXMT는 이번 상장을 통해 약 6조 원 규모의 자금 조달을 목표로 하고 있습니다. 조달 자금은 베이징 팹 2 증설과 올해 착공에 들어간 상하이 신규 팹 및 패키징 시설에 투입될 예정입니다. 미국의 제재로 ASML이나 어플라이드 머티어리얼즈(AMAT) 등 서방 장비 도입이 제한되면서, 베이징 팹은 중국산 노광·식각·증착 장비를 실제 양산에 적용하는 ‘시험장’ 성격을 띠는 만큼 실제 양산 및 수율이 얼마 정도 될 것인가가 업계의 관심으로 떠오르고 있습니다. 상하이 패키징 시설은 메모리 후공정, 특히 HBM 메모리 생산을 염두에 둔 투자입니다. CXMT는 지난해 하반기부터 화웨이 등 중국 내 주요 AI 칩 설계 기업에 HBM3 시제품을 제공했다고 밝히며, 단계적인 양산을 추진 중입니다. 또 2027년까지 HBM3E 양산을 목표로 선두 업체와의 기술 격차를 줄이겠다는 계획을 제시했습니다. 다만 초기 단계인 만큼 수율과 생산 안정성 측면에서 어려움을 겪을 가능성은 여전히 큽니다. AI발 메모리 대란은 CXMT의 공격적인 증설 전략이 치명적인 부담으로 돌아갈 가능성을 크게 낮춰주었습니다. 여기에 미국의 대중 제재 역시 역설적으로 중국 내 국산 메모리 채택을 가속하는 요인으로 작용하고 있습니다. 그러나 이러한 호황이 영원히 지속되지는 않을 것입니다. AI 산업에서 실질적인 수익을 창출하지 못하는 기업들이 투자 속도를 조절하기 시작하면, 시장은 다시 소수 업체 중심의 과점 구조로 재편될 가능성이 큽니다. 이 과정에서 과도한 메모리 생산 설비 증설은 다시 한번 메모리 가격 급락과 치킨 게임을 촉발할 수 있습니다. 그 시점이 오면 이미 막대한 현금 흐름과 기술 경쟁력을 확보한 삼성전자, SK하이닉스, 마이크론은 버틸 수 있겠지만, 후발주자인 CXMT는 생존의 기로에 설 가능성도 배제할 수 없습니다. 첨단 공정 장비에 대한 수입 제재가 장기화될 경우, 미세 공정 전환에서의 한계 역시 본격적으로 드러날 수 있습니다. 수익성이 높은 최첨단 공정과 고부가 메모리 제품에 집중한 선두 업체들은 치킨 게임 국면에서도 손실을 최소화하거나 수익을 유지할 수 있지만, 상대적으로 가격 경쟁력에 의존하는 후발 업체들은 구조적으로 불리할 수밖에 없습니다. 실제로 이와 같은 과정을 거치며 수많은 D램 업체들이 시장에서 사라졌고, 현재의 3강 체제가 형성되었습니다. CXMT가 글로벌 메모리 시장 점유율 10%를 돌파하며 4강 체제를 구축할 수 있을지, 아니면 또 하나의 치킨 게임 희생양으로 남을지는 앞으로 몇 년이 결정할 것입니다. AI라는 일시적 순풍을 넘어, 기술과 수익성이라는 본질적인 경쟁력을 입증할 수 있는지가 CXMT의 진정한 시험대가 될 것으로 보입니다.
  • 삼성 ‘신제품’·하이닉스 ‘성능’… K반도체 ‘슈퍼 사이클’ 굳힌다

    삼성 ‘신제품’·하이닉스 ‘성능’… K반도체 ‘슈퍼 사이클’ 굳힌다

    D램·SSD 폭증에 수익 구조 다변화삼성, 차세대 HBM4 이달부터 양산하이닉스, 수율·안정성 더욱 공고화전략적 경쟁이 성장 동력의 기폭제美 관세 압박·해외 기업 추격 복병 대한민국 반도체가 새해 초입부터 1월 기준으로 역대 최대 수출 실적을 갈아치웠다. 삼성전자와 SK하이닉스가 선의의 경쟁 속에 영업이익 300조원 이상을 합작하면서 경제 성장을 견인할 것이라는 기대감이 높다. 인공지능(AI) 인프라 확충에 따라 메모리 수요가 공급 능력을 압도하는 ‘슈퍼 사이클’이 본격화했다. 또 기업용 고성능 저장장치(eSSD)의 수요 폭증 속에 장기 침체 속 낸드플래시마저 약진하며 D램과 함께 핵심 축으로 부상했다. 산업통상부는 메모리 중 범용 D램(DDR4 8Gb)의 가격이 지난해 1월 1.35달러(약 1960원)에서 지난 1월 11.5달러(1만 6700원)로 8.5배 폭등했다고 1일 밝혔다. 또 낸드플래시(128GB)는 같은 기간 2.18달러(3165원)에서 9.46달러(1만 3740원)로 4.3배 뛰었다. 업계에서는 올해 1분기 중에 SSD 가격이 30% 추가 인상될 가능성도 거론된다. 우리나라 반도체 산업이 수익 구조 다변화로 역대급 실적을 거둘 기반을 다지게 됐다는 의미다. 삼성전자와 SK하이닉스는 차세대 AI 메모리인 ‘HBM4’(6세대) 시장을 두고 서로 다른 전략적 카드를 꺼내 들었다. 삼성전자는 10나노급(1c) D램과 자체 4나노 파운드리 공정을 결합한 신제품을 2월부터 전격 양산해 출하할 계획이다. HBM3E(5세대·현재 주력 제품)에서 SK하이닉스를 추격하는 입장이었다면, 선단 공정 도입이라는 리스크를 감수하더라도 최상위 제품을 선제적으로 공급해 기술 주도권을 탈환하겠다는 승부수다. 선단 공정은 기술 난도가 높고 대규모 투자가 필요하나 기존의 레거시 공정에 비해 성능이 뛰어난 반도체를 생산할 수 있다. 반면 시장 1위인 SK하이닉스는 ‘수율’과 ‘안정성’의 성벽을 더욱 공고히 쌓고 있다. 무리한 공정 전환 대신 이미 검증된 1b(10나노급 5세대) 공정과 독자적인 조립 기술(MR-MUF)을 통해 최상위 성능을 구현했다. SK하이닉스 관계자는 “기존 제품에 적용 중인 1b 공정 기반으로도 고객 요구 성능을 구현했다”며 검증된 패키징 기술을 통해 높은 수익성과 원가 경쟁력을 내세웠다. SK하이닉스가 지난달 28일 공개한 지난해 4분기 영업이익률은 무려 58%로 대만 TSMC(54%)도 추월했다. 하지만 대외 환경은 녹록지 않다. 하워드 러트닉 미 상무장관은 한국이 강한 메모리 반도체를 콕 집어 100% 관세를 내지 않으려면 미국에서 생산해야 한다고 압박했고, 미국의 마이크론과 중국의 창신메모리테크놀로지(CXMT) 등 해외 기업의 거센 추격도 복병이다. 다만 증권가는 리스크보다 반도체 장기 호황에 무게를 두고 있다. SK증권 등은 삼성전자의 연간 영업이익을 전년 대비 300% 이상 급증한 180조원으로, SK하이닉스는 148조원으로 상향 조정했고, 이를 단순 합산하면 328조원에 이른다. AI 메모리의 장기 공급 계약 체결에 더해 가파르게 오르는 이익률을 반영한 것이다.
  • ‘80만 닉스’ 위상… 역대 최대실적 찍었다

    ‘80만 닉스’ 위상… 역대 최대실적 찍었다

    HBM3E 시장 점유율 60% 이상차세대 전장 HBM4도 독주 시사 美에 ‘AI 컴퍼니’ 설립 청사진도자사주 12조 2400억원 소각 결정직원 성과급만 1억 4000만원 추산증시 84만 1000원… 연일 최고가 인공지능(AI) 반도체 시장의 견고한 수요에 힘입어 SK하이닉스가 지난해 사상 최대 실적을 달성했다. 특히 고대역폭메모리(HBM) 시장에서의 주도적 입지를 바탕으로 삼성전자의 연간 전사 영업이익을 사상 처음으로 넘어섰다. 또 지난해 4분기 대만 TSMC의 분기 영업이익률도 웃돌며 수익성에서도 새 이정표를 썼다. SK하이닉스는 2025년 연결 기준 연간 매출액은 97조 1467억원, 영업이익은 47조 2063억원을 기록했다고 28일 밝혔다. 전년 대비 매출액은 46.8%, 영업이익은 101.2% 증가했다. 특히 SK하이닉스의 연간 영업이익은 삼성전자가 지난 8일 발표한 연간 영업이익 잠정치(43조 5300억원)를 약 3조 7000억원 정도 상회했다. 지난해 영업이익률은 49%로 가장 높았던 2018년(52%)과 3%포인트 차이에 불과했다. TSMC의 지난해 영업이익률(50.8%)와 2%포인트도 나지 않았다. 특히 지난해 4분기만 비교하면 SK하이닉스의 영업이익률은 58%로 TSMC(54%)를 현격하게 앞섰다. 실적 개선의 핵심 동력은 선제적인 제품 포트폴리오 재편과 시장 지배력 강화에 있다. SK하이닉스는 엔비디아의 핵심 공급사로서 HBM3E 시장 점유율 60% 이상을 유지하며 수익성을 극대화했다. 특히 지난해 4분기에 매출 32조 8267억원, 영업이익 19조 1696억원을 달성하며 분기 기준으로 사상 최대 실적을 경신했다. 58%에 달하는 분기 영업이익률은 서버용 DDR5와 기업용 SSD(eSSD) 등 고수익 제품 중심의 포트폴리오가 안착하며 범용 D램 가격 상승 효과를 배가시킨 결과다. 업계에 따르면 엔비디아는 차세대 AI 플랫폼 ‘루빈(Rubin)’에 탑재될 HBM4 물량의 약 3분의 2(약 70%)를 SK하이닉스에 우선 배정한 것으로 알려졌다. SK하이닉스는 “지난해 9월 업계 최초로 양산 체제를 구축한 HBM4는 고객이 요청한 물량을 현재 양산 중”이라고 설명했다. 업계에선 SK하이닉스가 예정대로 내달부터 엔비디아에 HBM4를 공급하게 될 것으로 예상하고 있다. 이러한 수요 증가에 대비해 SK하이닉스는 충북 청주에 19조원을 투입해, 첨단 패키징 시설인 ‘P&T 7’을 신설하고 생산 기반을 확충하며 주도권 수성에 총력을 기울이는 모습이다. AI 산업의 중심지인 미국 공략에도 속도를 낸다. SK하이닉스는 이날 미국 자회사 솔리다임을 개편해 ‘AI Company(가칭)’를 설립하고 100억 달러를 출자해, 단순 메모리 제조를 넘어 글로벌 AI 데이터센터 생태계의 핵심 파트너로 거듭나겠다는 청사진도 함께 제시했다. 기업 가치 제고를 위한 주주 환원 정책도 전격 단행됐다. SK하이닉스는 이날 이사회를 통해 지분율 2.1%에 해당하는 자기주식 1530만주(약 12조 2400억원 규모)를 전부 소각하기로 결정했다. 또 1조원 규모의 추가 배당을 실시해 2025 회계연도 총 배당금을 2조 1000억원으로 확대했다. 확보된 수익을 바탕으로 주주 가치를 높여 주가 ‘100만닉스’ 시대를 열겠다는 의지로 풀이된다. 또 SK하이닉스는 다음달 5일 연간 실적에 따라 영업이익의 10%(약 4조 7000억원)를 재원으로 활용해 1년에 한 번 연봉의 일정 비율을 지급하는 ‘초과이익분배금(PS)’을 지급할 예정이다. 전체 구성원 수인 3만 3000명으로 단순 계산할 때 1인당 PS는 1억 4000만원 수준으로 추산된다. SK하이닉스는 이날 정규장에서 전일 대비 5.13% 급등한 84만 1000원으로 마감하며 연일 사상 최고가 경신을 이어갔다. SK하이닉스가 반도체 슈퍼사이클을 타고 연간 영업이익 100조원 시대를 열 것이라는 관측도 나온다. 한편, 29일 한 시간 간격으로 예정된 SK하이닉스와 삼성전자의 콘퍼런스콜은 향후 반도체 시장의 향방을 가늠할 분수령이 될 전망이다.
  • 엔비디아 천하 끝낸다… MS도 AI칩 독립선언

    엔비디아 천하 끝낸다… MS도 AI칩 독립선언

    구글·아마존도 자체 칩 본격화삼성·SK, HBM 다변화 기회로 글로벌 인공지능(AI) 반도체 시장이 범용 성능을 앞세운 ‘엔비디아 표준’과 비용·전력 효율을 극대화한 ‘빅테크 전용 칩’ 간에 2차 경쟁 국면으로 진입했다. 구글과 아마존에 이어 마이크로소프트(MS)까지 독자 AI 가속기를 공개하며 자체 칩 생태계를 확대한 가운데, SK하이닉스가 MS의 신규 가속기에 고대역폭메모리(HBM)를 단독 공급하는 등 우리나라 반도체 산업의 선전은 계속될 전망된다. MS는 26일(현지시간) 자체 개발한 AI 가속기 ‘마이아 200’을 공개하고 “MS가 지금까지 배포한 추론 시스템 가운데 가장 효율적이며, 현재 운영 중인 최신 시스템 대비 달러당 성능이 30% 더 좋다”고 밝혔다. 마이아200은 대만 TSMC의 3나노 공정을 적용한 주문형 반도체(ASIC) 기반 칩으로, 대규모 AI 추론 작업의 효율을 극대화한다. 마이아 200에는 총 216GB의 5세대 고대역폭 메모리(HBM3E)가 탑재됐고, SK하이닉스가 12단 HBM3E를 단독 공급하는 것으로 알려졌다. 구글과 아마존웹서비스(AWS) 역시 엔비디아 의존도를 낮추기 위한 행보를 이어가고 있다. 구글은 브로드컴과 공동 설계한 텐서처리장치(TPU) ‘트릴리움’을 고도화해 자사 AI 서비스 전반에 적용 중이며, AWS는 AI 학습에 특화된 전용 칩 ‘트레이니엄’을 중심으로 자체 칩 전략을 확대하고 있다. 이들 전용 칩은 범용 연산에 강점을 지닌 GPU와 달리, AI 연산의 핵심인 행렬 계산에 자원을 집중하는 구조로 설계돼 비용과 전력 효율을 크게 끌어올린 것이 특징이다. 엔비디아는 이에 맞서 차세대 플랫폼 ‘루빈(Rubin)’을 통해 기술 격차를 다시 벌리겠다는 전략을 내세우고 있다. 루빈은 차세대 고대역폭 메모리인 HBM4를 기반으로 성능과 확장성을 동시에 강화하는 것이 핵심으로, 자체 AI 칩 확산에 ‘절대 성능’으로 대응하겠다는 구상으로 해석된다. 이 같은 ‘탈 엔비디아’ 흐름은 국내 메모리 반도체 업계에는 오히려 기회로 작용하고 있다. SK하이닉스는 MS의 마이아 200을 비롯해 구글, AWS 등 글로벌 빅테크의 자체 AI 전용 칩으로 HBM 공급처를 빠르게 넓히며 시장 1위의 입지를 공고히 하고 있다. AI 학습에서 추론으로 무게중심이 이동하는 2차 경쟁 국면 역시 고성능 메모리 수요를 확대하는 요인으로 작용하고 있다. 삼성전자는 최근 엔비디아와 AMD가 진행한 HBM4 관련 품질 테스트에서 긍정적인 평가를 받은 것으로 전해졌고, 차세대 제품 양산을 목표로 준비에 속도를 내고 있다.
  • 삼성·SK 성과급 잔치…삼성은 연봉 절반, SK는 1.4억

    삼성·SK 성과급 잔치…삼성은 연봉 절반, SK는 1.4억

    삼성 DS부문 47%·SK하이닉스 1.36억 HBM 특수 속 보상 경쟁 가열 삼성 ‘과반 노조’ 탄생 초읽기 변수 인공지능(AI) 시장 확대에 따른 고대역폭 메모리(HBM) 수요 폭증으로 국내 반도체 기업들의 실적이 가파르게 반등하면서, 삼성전자와 SK하이닉스가 나란히 대규모 성과급 지급을 확정했다. 지난해 하반기부터 이어진 실적 회복세가 올해 합산 영업이익 200조원 전망으로 이어지며, 그간 축소됐던 보상 규모도 다시 확대되는 양상이다. 16일 업계에 따르면 삼성전자와 SK하이닉스는 각각 사내 공지를 통해 2025년도 성과급 지급률을 확정했다. 삼성전자는 반도체(DS) 부문의 초과이익성과급(OPI) 지급률을 연봉의 47%로 책정했다. 업황 부진으로 14%에 불과했던 지난해와 비교하면 세 배 넘게 오른 수치다. 범용 D램 가격 상승과 5세대 고대역폭 메모리(HBM3E)의 본격 공급 등이 실적을 견인한 결과로 풀이된다. 스마트폰 사업을 담당하는 모바일경험(MX) 사업부 역시 플래그십 모델의 흥행에 힘입어 법정 상한선인 50%의 지급률을 달성했다. SK하이닉스 또한 전년 영업이익의 10%를 재원으로 삼는 산정 기준에 따라 1인당 평균 약 1억 3600만원 수준의 초과이익분배금(PS)을 지급할 것으로 추산된다. 특히 SK하이닉스는 성과급 일부를 자사주로 매입할 수 있는 ‘주주 참여 프로그램’을 시행해 책임 경영을 유도한다. 다만 자사주 소각을 의무화하는 상법 개정안이 국회에서 논의 중인 만큼, 법안 통과 여부에 따라 향후 제도 유지나 축소 가능성이 상존하고 있다. 이러한 대규모 성과급 발표에도 불구하고 삼성전자 내부에서는 보상 기준과 체계를 둘러싼 목소리가 어느 때보다 높다. 특히 SK하이닉스의 ‘성과급 상한제 폐지’ 등 경쟁사의 공격적인 보상안과 비교해 상대적 박탈감을 느낀 직원들이 대거 노조 문을 두드리고 있다. 실제로 삼성그룹 초기업 노동조합 삼성전자 지부의 조합원 수는 최근 급증하며 5만 7579명을 기록했다. 창립 이래 첫 ‘과반 노조’ 달성까지 약 5000명만을 남겨둔 상태로, 향후 노사 관계의 새로운 국면이 예상된다. 업계에서는 삼성전자와 SK하이닉스가 올해 사상 최대 규모인 합산 영업이익 200조원 시대를 열며 본격적인 슈퍼사이클에 진입할 것으로 기대하고 있다. 반도체 기술 경쟁이 국가 대항전 양상으로 격화되는 상황에서, 실적 회복에 걸맞은 합리적인 보상 체계 확립과 이를 통한 우수 인재 확보는 향후 글로벌 주도권 유지를 위한 핵심 과제가 될 전망이다.
  • 삼성전자 성과급 확정… 반도체 47%·모바일 50% 지급

    삼성전자 성과급 확정… 반도체 47%·모바일 50% 지급

    삼성전자가 2025년도 초과이익성과급(OPI) 지급률을 확정하고 16일 이를 사내에 공지했다. 실적 반등에 성공한 반도체(DS) 부문은 연봉의 47%를 받게 됐으며, 실적 견인차 역할을 한 모바일(MX) 부문은 최대치인 50%를 받는다. 이번 성과급은 오는 30일 지급될 예정이다. OPI는 소속 사업부의 실적이 목표를 초과했을 때 이익의 20% 한도 내에서 개인 연봉의 최대 50%까지 지급하는 삼성전자의 대표적인 인센티브 제도다. 사업부별로는 반도체 사업을 담당하는 DS부문의 약진이 두드러졌다. DS부문은 메모리·파운드리·시스템LSI 공통으로 47%의 지급률이 책정됐다. 업황 부진으로 14%에 그쳤던 지난해와 비교해 3배 넘게 오른 수치다. 범용 D램 가격 상승과 5세대 고대역폭 메모리(HBM3E)의 본격적인 공급 등이 실적 개선을 이끈 결과로 풀이된다. 특히 DS부문은 지난해 4분기 삼성전자 전체 영업이익(20조원) 중 80% 가량을 견인한 것으로 추정된다. 파운드리 사업부의 테슬라 공급 계약과 시스템LSI의 애플 이미지센서 납품 등 굵직한 수주 성과도 이번 성과급 산정에 반영됐다. 스마트폰을 담당하는 MX사업부는 갤럭시 S 25와 폴드 7 시리즈의 판매 호조에 힘입어 지급 한도인 50%를 채웠다. 경영지원 부문과 전장 자회사 하만은 39%로 결정됐다. 반면 가전과 TV 사업 부문은 상대적으로 저조한 성적표를 받았다. 영상디스플레이(VD)와 생활가전(DA), 네트워크, 의료기기 사업부의 OPI 지급률은 모두 12%로 확정됐다.
  • 삼성 초격차 통했다…영업익 20조 새 역사

    삼성 초격차 통했다…영업익 20조 새 역사

    삼성전자가 국내 기업 사상 처음으로 ‘분기 영업이익 20조원’ 시대를 열었다. 삼성전자의 역대 최대 분기 실적은 물론 한국 기업 중 사상 첫 기록이다. 글로벌 인공지능(AI) 패권 경쟁이 메모리 반도체 수요를 키우면서 촉발된 ‘메모리 슈퍼사이클’을 타고 올해 영업이익이 100조원을 돌파할 거라는 기대도 나온다. 삼성전자는 8일 잠정 실적 공시를 통해 2025년 4분기 연결 기준 매출 93조원, 영업이익 20조원을 기록했다고 밝혔다. 매출과 영업이익 모두 창사 이래 최고치다. 영업이익은 전년 동기 대비 208.2%, 전 분기 대비 64.3% 증가했다. 지난해 연간 누적 매출 역시 332조 7700억원으로 사상 최대 기록을 새로 썼다. 이번 ‘어닝 서프라이즈’는 단순한 업황 수혜를 넘어 삼성의 비즈니스 모델이 ‘범용 칩 공급’에서 ‘AI 플랫폼 파트너’로 진화하고 있음을 시사한다. 실제 삼성전자는 엔비디아에 5세대 고대역폭메모리(HBM3E)를 본격 공급하기 시작한 데 이어 최근 북미 빅테크 기업들로부터 차세대 HBM4와 AI 가속기용 맞춤형 칩을 잇달아 수주하며 실적의 질적 변화를 이끌어 냈다. 과거의 실적이 수요에 따른 가격 변동에 의존했다면 이제는 고객사와 긴밀히 연계된 ‘수주형 비즈니스’가 20조원 시대를 견인하는 핵심 동력이 된 셈이다. 재계에서는 이재용 회장의 글로벌 네트워크 경영과 전영현 부회장의 ‘기술 쇄신’ 전략이 시너지를 낸 결과로 보고 있다. 이 회장은 직접 엔비디아, 테슬라, 애플 등 빅테크 수장들과 연쇄 회동하며 맞춤형 HBM과 파운드리 수주를 주도했고 전 부회장은 제조 현장의 근원적 경쟁력을 복원하며 ‘기술 초격차’ 본능을 깨웠다. 이번 실적의 질적 성장을 뒷받침하는 핵심 병기로는 본격 양산 궤도에 진입한 6세대 HBM4가 꼽힌다. 삼성은 메모리(1c 나노)와 파운드리(4나노 로직 공정) 역량을 결합한 단일 아키텍처를 선보이며 AI 데이터센터의 최대 난제인 발열과 에너지 효율 개선에 주력했다. 당초 예상을 앞당겨 올해 초부터 공급 물량을 확대하기 시작하면서, 기획 단계부터 고객사 맞춤형으로 칩을 만드는 ‘수주형 플랫폼 비즈니스’로의 체질 개선에도 탄력이 붙고 있다는 분석이다. 압도적인 제조 효율은 수익성 개선의 일등 공신이다. 지난해 하반기 1c 나노 D램 수율이 양산 안정권인 80% 수준에 근접했다는 평가 속에 삼성은 업계 최고 수준의 원가 경쟁력을 확보한 것으로 보인다. 여기에 범용 D램 가격이 2018년 슈퍼사이클 당시의 고점을 넘어 9.3달러까지 치솟으면서, 생산 원가 절감과 제품 가격 상승이 맞물린 강력한 이익 구조가 형성됐다. 실제 이날 시장조사업체 카운터포인트리서치에 따르면 삼성전자는 지난해 4분기 D램 시장에서 192억 달러(약 26조원)의 매출을 기록하며 1년 만에 글로벌 점유율 1위 자리를 탈환한 것으로 나타났다. 그간 전체 실적의 발목을 잡았던 비메모리 부문의 약진도 주목할 대목이다. 증권업계에서는 파운드리와 시스템LSI 부문의 지난해 4분기 적자폭이 8000억원 미만으로 줄어들며 흑자 전환의 기틀을 마련했을 것으로 관측한다. 메모리 사업에서 거둔 수익을 파운드리 시설에 투자하고, 여기서 확보한 최첨단 공정 기술로 다시 고성능 맞춤형 칩 수주를 끌어오는 삼성만의 ‘통합 제조 경쟁력’이 실질적인 성과로 나타나고 있다는 분석이다. 실제 파운드리는 테슬라와의 자율주행 칩 협력을 공고히 하는 한편 구글·메타·AMD 등 빅테크 기업들과의 차세대 AI 칩 수주 전선에서도 유의미한 진전을 보이고 있다. 여기에 퀄컴이 차세대 모바일 프로세서 생산 일부를 삼성 2나노 공정에 맡길 가능성까지 제기되면서 특정 고객사에 의존하지 않는 ‘수주 다변화’에 대한 기대감도 어느 때보다 커지는 분위기다. 삼성이 열어젖힌 ‘분기 20조원’ 시대는 마이크론과 SK하이닉스를 포함한 글로벌 반도체 산업 전체가 전례 없는 ‘슈퍼 사이클’에 진입했음을 알리는 신호탄이다. 앞서 마이크론이 시장의 예상을 훌쩍 뛰어넘는 실적을 기록한 데 이어 오는 21일 실적 발표를 앞둔 SK하이닉스 역시 역대급 성적이 확실시되면서 업계 전반에선 반도체 투톱의 ‘연간 영업이익 100조원’ 시대가 현실화할 것이라는 기대감이 커지고 있다.
  • SK하이닉스, HBM4 16단 첫 공개… AI 메모리 신화 이어간다

    SK하이닉스, HBM4 16단 첫 공개… AI 메모리 신화 이어간다

    SK하이닉스가 미국 라스베이거스에서 열리는 ‘CES 2026’에 기업고객용 전시관을 열고 ‘고대역폭메모리(HBM)4 16단 48GB’를 처음 선보인다고 6일 밝혔다. HBM4 16단 48GB는 현재 업계 최고 속도인 11.7Gbps(초당 11.7기가비트)를 구현한 HBM4 12단 36GB의 후속 모델로 글로벌 초격차를 가속하는 데 일조할 것으로 보인다. 또 올해 전체 HBM 시장을 선도할 ‘HBM3E 12단 36GB’도 전시된다. HBM3E 12단 36GB는 엔비디아의 최신 인공지능(AI) 서버용 그래픽처리장치(GPU)에 탑재되는 모델이다. 이번 전시장에는 GPU 모듈을 함께 전시해 SK하이닉스의 HBM3E 12단 36GB가 AI 시스템 내에서 하는 역할을 시각적으로 구체화해 보여 줄 예정이다. 곽노정 대표이사(사장), 김주선 AI 인프라 사장(CMO) 등 SK하이닉스 임원진은 이날 오후 라스베이거스 퐁텐블로 호텔에서 열린 젠슨 황 엔비디아 최고경영자(CEO)의 특별 연설 직후 이곳을 찾아 엔비디아 측 인사들과 만났다. 엔비디아에 HBM4, HBM3E 등을 공급하는 핵심 협력사로서의 입지를 공고히 하는 행보로 보인다. 또 SK하이닉스 전시관엔 AI 서버에 특화돼 AI 서버 수요가 폭증할 경우에 대비한 저전력 메모리 모듈 ‘소캠2’도 전시된다. 온디바이스 AI 구현에 최적화된 차세대 저전력 메모리 LPDDR6도 선보인다. 낸드 분야에서는 AI 데이터센터 구축 확대로 수요가 급증하는 초고용량 기업용 메모리 저장장치(eSSD)에 최적화된 321단 2Tb 쿼드레벨 셀(QLC) 제품도 공개된다. QLC는 전력 효율과 성능을 크게 개선해 데이터센터의 저전력 환경에 적합하다. 이런 솔루션들이 실제 AI 생태계에서 어떻게 연결돼 움직이는지 살펴볼 수 있는 ‘AI 시스템 데모존’도 마련됐다. 특히 데모존에서는 고객 요청 사항을 반영해 GPU 등에 있던 일부 기능을 HBM에 옮기는 고객 맞춤형 cHBM(커스텀 HBM)의 내부 구조를 직접 확인할 수 있는 대형 모형이 등장한다. 해당 전시는 AI의 경쟁 축이 단순 성능에서 추론 효율과 비용 최적화로 이동하고 있다는 것을 보여 준다.
  • “중국발 반도체 수요 증가 전망” “생산량 제약·수익성 조정 우려”

    “중국발 반도체 수요 증가 전망” “생산량 제약·수익성 조정 우려”

    HBM3E 90% 공급 하이닉스 수혜中 정책 변화·美 세금 부담은 변수 미국이 엔비디아의 고성능 인공지능(AI) 칩 ‘H200’의 중국 수출을 허용하면서 국내 반도체 업계가 중국발 수요 증가에 주목하고 있다. 그동안 수출 규제로 막혀 있던 중국향 고대역폭메모리(HBM) 수요가 살아날 가능성이 커졌기 때문이다. H200은 대용량 연산을 위해 5세대 HBM3E를 다량 탑재하는 구조여서 삼성전자와 SK하이닉스 등 메모리 공급업체에는 우호적인 환경이 조성된 것이다. 특히 엔비디아향 HBM3E의 공급량은 SK하이닉스가 약 90%를 담당하는 것으로 알려졌다. 삼성전자의 경우 올해 하반기 해당 공급망에 합류했지만 주력은 여전히 미국이 대중 수출을 봉쇄 중인 차세대 ‘블랙웰’ 칩이다. 이 때문에 단기적으로는 SK하이닉스의 수혜 가능성이 더 크다는 분석이 나온다. 중국 빅테크들의 AI 인프라 확장 역시 긍정 요인이다. 알리바바·바이트댄스 등은 이미 고성능 메모리 기반의 대규모 데이터센터 투자를 이어 오고 있어 H200이 시장에 풀릴 경우 추가 수요가 자연스럽게 발생할 것이라는 전망이 우세하다. 다만 수혜가 즉시 실적로 연결되기엔 제약도 있다. SK하이닉스는 내년도 HBM 물량이 대부분 소진된 상태고, 삼성전자 역시 HBM4 중심의 생산라인 증설이 진행 중이어서 H200용 신규 물량을 단기에 대규모로 수용하기 어려운 구조다. 미국 정부가 H200 판매 수익의 25%를 세금으로 부과하는 만큼 엔비디아가 비용 부담을 HBM 단가에 반영할 경우 국내 업체의 수익성이 조정될 가능성도 있다. 중국 정부의 정책 변수도 여전하다. 국산화 전략을 강화하는 가운데 특정 모델의 구매 제한이나 수입 물량 할당을 적용할 가능성이 있어 H200 도입 규모가 정책 방향에 따라 달라질 수 있다는 전망도 나온다. 업계 관계자는 “중국 시장의 불확실성이 줄어든 것은 분명한 긍정 요인이지만, 실제 수혜는 생산능력과 가격 조건에 따라 제한될 수 있다”며 “결국 HBM4·HBM4E와 첨단 패키징 경쟁력이 향후 K반도체의 시장 지위를 좌우할 것”이라고 말했다.
  • AI 버블 논란에 구글, 아마존 도전장까지…엔비디아는 왕좌를 지킬 수 있을까?

    AI 버블 논란에 구글, 아마존 도전장까지…엔비디아는 왕좌를 지킬 수 있을까?

    지난 3분기, 엔비디아는 570억 달러의 매출과 함께 무려 73.4%에 달하는 매출 총이익률(gross margin)을 발표했습니다. 그만큼 GPU 하나 팔아서 남기는 게 많다는 이야기로 영업 이익은 매출의 절반이 넘는 360억 달러에 달했습니다. 사실상 원가에 몇 배에 달하는 폭리를 취하면서 매출보다 이익이 더 가파르게 증가한 것입니다. 하지만 이렇게 파는데도 데이터 센터 GPU는 다 팔려 나가 물량 구하기가 쉽지 않다는 게 젠슨 황 CEO의 설명입니다. 그런데도 AI 버블 논란은 여전히 가라앉지 않고 있습니다. AI를 통해 인력을 감축하고 비용을 절감하는 기업들은 늘고 있지만, 정작 막대한 비용이 들어가는 AI 서비스 자체는 그에 걸맞은 수익을 창출하지 못하고 있기 때문입니다. 예를 들어, ChatGPT를 서비스하는 오픈 AI는 재무제표를 공개하지는 않지만, 창립 이래 계속해서 적자를 기록하고 있는 것으로 알려져 있습니다. 따라서 최근에는 막대한 투자 비용을 감당하기 위해 대규모 자금 조달에 나서는 한편 광고와 같은 다른 수익 창출 방법도 모색하고 있습니다. 물론 오픈 AI와 경쟁하는 다른 AI 서비스들 역시 상황은 크게 다르지 않습니다. AI가 미래의 성장 동력이라는 점을 의심하는 이는 없지만, 갈수록 치솟는 GPU, 메모리, 스토리지, 그리고 막대한 전기 사용료 등을 고려하면 기업들이 적자를 감수하고 무작정 투자를 계속할 수는 없습니다. 결국, 어느 시점에는 자금력과 기술력이 뒤처지는 회사는 시장에서 도태되고, 비용 절감과 수익 모델 창출에 성공한 기업만이 살아남게 될 것입니다. 이에 따라 구글이나 아마존 같은 빅테크들은 자체 AI 칩(ASIC)에 막대한 투자를 단행하며 엔비디아 GPU보다 저렴한 대안을 모색하고 있습니다. 그런 의미에서 최근 구글이 공개한 7세대 TPU인 아이언우드(Ironwood)는 시장에 큰 충격을 던져주었습니다. TPU(Tensor Processing Unit)는 애플리케이션 특정 통합 회로(ASIC)의 일종으로, 신경망의 행렬 곱셈과 같은 연산을 효율적으로 처리하기 위한 특수 목적 프로세서입니다. CPU가 가장 일반적인 용도의 프로세서라고 한다면 GPU는 그래픽 연산에 필요한 병렬 연산에 최적화된 프로세서라고 할 수 있습니다. 엔비디아는 GPU에 고성능 컴퓨팅에 필요한 좀 더 범용 연산 능력을 부여해 일반 목적 GPU(GPGPU)라고 명명했습니다. 그리고 여기에 사용되는 언어인 쿠다(CUDA)를 개발했습니다. GPU의 GPGPU 성능이 가장 큰 힘을 발휘한 분야가 바로 AI였습니다. 딥러닝 모델 학습과 같이 대규모 데이터를 병렬로 처리해야 하는 작업이 GPGPU에 적합했기 때문입니다. 결국 최근에 나오는 GPU는 AI 성능을 담당하는 부분이 더 커지면서 핵심 기능으로 자리 잡고 있습니다. 구글의 TPU는 GPU보다 더 좁은 범위의 연산만 수행하는 특수 프로세서로 CPU – GPU – TPU의 순으로 점점 더 할 수 있는 기능은 좁아진다고 할 수 있습니다. 다만 반대로 에너지 효율은 더 높아질 수 있습니다. 사실 3D 그래픽도 CPU만 가지고 처리할 수 있습니다. 하지만 처리 속도가 너무 느리고 기능이 제한적이라 3D 가속기라는 별도의 보조 프로세서가 나오게 되었고 그것이 나중에 GPU로 발전한 것입니다. TPU도 그런 연장선상에서 보면 엔비디아의 GPU에 상당히 위협적인 존재가 될 수 있습니다. 아이언우드 자체의 성능은 4,614 FP8 TFLOPS 정도로 B200 블랙웰 GPU의 4.5 PFLOPS와 비슷하지만, GPU보다 구조가 단순할 가능성이 높아 생산비나 제작 단가가 저렴할 수 있습니다. 최근 제미나이 3의 놀라운 성능을 보면 그렇다고 기능이 부족한 것도 아닌 것으로 보여 적지 않은 충격을 주고 있습니다. 여기에 아마존의 AWS 역시 3세대 AI ASIC 칩인 트레이니움3(Trainium3)을 공개하면서 도전장을 내밀고 있습니다. 트레이니움3 칩 하나는 PF8 기준 2.52 PFLOPs의 연산 능력을 지니고 있으며 144GB의 HBM3e 메모리와 4.9TB/s의 대역폭을 지니고 있습니다. 그리고 144개의 칩이 모인 Trn3 UltraServers는 총 362 FP8 PFLOPs의 연산 능력을 확보해 100만 토큰 이상의 AI 서비스를 감당할 수 있습니다. 칩 하나의 성능만 보면 엔비디아의 B200 GPU보다 낮지만, 역시 GPU보다 단순한 구조로 전체 비용은 더 낮을 가능성이 있습니다. 다만 아직은 AI 생태계에서 엔비디아의 입지가 지배적인 만큼 아마존은 트레이니움4에서는 엔비디아의 고속 인터페이스인 NVLink를 지원해 트레이니움4와 엔비디아 GPU를 같이 쓸 수 있게 한다는 계획입니다. 만약 이런 빅테크들의 맞춤형 ASIC 칩들이 비용 효과적인 대안을 제시할 경우 엔비디아에 대한 의존도는 낮아질 수 있습니다. 그러면 지금처럼 높은 가격에도 없어서 못 파는 상황은 지속되지 않을 가능성이 있습니다. 물론 엔비디아를 왕좌에서 그렇게 쉽게 끌어내리진 못할 것이라는 의견도 있습니다. 엔비디아가 AI 왕좌를 지킬 수 있는 가장 강력한 무기는 단순한 하드웨어 성능이 아닌, CUDA(쿠다)라는 소프트웨어 생태계에 있습니다. 2006년부터 구축된 CUDA 플랫폼은 수많은 AI 개발자들에게 압도적인 편의성과 최적화된 도구를 제공해 왔습니다. 이처럼 개발자들이 이미 CUDA 환경에 깊이 익숙해져 있다는 점은 다른 칩으로 전환하는 데 막대한 전환 비용을 발생시킵니다. 따라서 구글, 아마존 같은 빅테크들의 자체 ASIC이 고성능과 저비용을 달성하더라도, 이 CUDA 생태계의 장벽을 어떻게 뛰어넘을 것인가는 여전히 가장 큰 숙제로 남아 있습니다. 여기에 엔비디아 역시 경쟁자들처럼 차세대 칩을 준비하고 있습니다. 차세대 루빈 GPU는 FP4 기준 50 PFLOPS의 연산 능력을 지니고 있으며 이를 이용한 렉 시스템인 베라 루빈 NVL 144는 3.6EFLOPS라는 슈퍼컴퓨터급 연산 능력을 지니고 있습니다. 엔비디아는 루빈 GPU의 양산을 서두르는 한편 다음 세대 제품에서 성능을 더 높여 경쟁자들의 추격을 따돌리기 위해 고군분투할 것으로 보입니다. 과연 빅테크들의 거센 도전에서 엔비디아가 왕좌를 지킬 수 있을지 주목됩니다.
  • AI 버블 논란에 구글, 아마존 도전장까지…엔비디아는 왕좌를 지킬 수 있을까? [고든 정의 TECH+]

    AI 버블 논란에 구글, 아마존 도전장까지…엔비디아는 왕좌를 지킬 수 있을까? [고든 정의 TECH+]

    지난 3분기, 엔비디아는 570억 달러의 매출과 함께 무려 73.4%에 달하는 매출 총이익률(gross margin)을 발표했습니다. 그만큼 GPU 하나 팔아서 남기는 게 많다는 이야기로 영업 이익은 매출의 절반이 넘는 360억 달러에 달했습니다. 사실상 원가에 몇 배에 달하는 폭리를 취하면서 매출보다 이익이 더 가파르게 증가한 것입니다. 하지만 이렇게 파는데도 데이터 센터 GPU는 다 팔려 나가 물량 구하기가 쉽지 않다는 게 젠슨 황 CEO의 설명입니다. 그런데도 AI 버블 논란은 여전히 가라앉지 않고 있습니다. AI를 통해 인력을 감축하고 비용을 절감하는 기업들은 늘고 있지만, 정작 막대한 비용이 들어가는 AI 서비스 자체는 그에 걸맞은 수익을 창출하지 못하고 있기 때문입니다. 예를 들어, ChatGPT를 서비스하는 오픈 AI는 재무제표를 공개하지는 않지만, 창립 이래 계속해서 적자를 기록하고 있는 것으로 알려져 있습니다. 따라서 최근에는 막대한 투자 비용을 감당하기 위해 대규모 자금 조달에 나서는 한편 광고와 같은 다른 수익 창출 방법도 모색하고 있습니다. 물론 오픈 AI와 경쟁하는 다른 AI 서비스들 역시 상황은 크게 다르지 않습니다. AI가 미래의 성장 동력이라는 점을 의심하는 이는 없지만, 갈수록 치솟는 GPU, 메모리, 스토리지, 그리고 막대한 전기 사용료 등을 고려하면 기업들이 적자를 감수하고 무작정 투자를 계속할 수는 없습니다. 결국, 어느 시점에는 자금력과 기술력이 뒤처지는 회사는 시장에서 도태되고, 비용 절감과 수익 모델 창출에 성공한 기업만이 살아남게 될 것입니다. 이에 따라 구글이나 아마존 같은 빅테크들은 자체 AI 칩(ASIC)에 막대한 투자를 단행하며 엔비디아 GPU보다 저렴한 대안을 모색하고 있습니다. 그런 의미에서 최근 구글이 공개한 7세대 TPU인 아이언우드(Ironwood)는 시장에 큰 충격을 던져주었습니다. TPU(Tensor Processing Unit)는 애플리케이션 특정 통합 회로(ASIC)의 일종으로, 신경망의 행렬 곱셈과 같은 연산을 효율적으로 처리하기 위한 특수 목적 프로세서입니다. CPU가 가장 일반적인 용도의 프로세서라고 한다면 GPU는 그래픽 연산에 필요한 병렬 연산에 최적화된 프로세서라고 할 수 있습니다. 엔비디아는 GPU에 고성능 컴퓨팅에 필요한 좀 더 범용 연산 능력을 부여해 일반 목적 GPU(GPGPU)라고 명명했습니다. 그리고 여기에 사용되는 언어인 쿠다(CUDA)를 개발했습니다. GPU의 GPGPU 성능이 가장 큰 힘을 발휘한 분야가 바로 AI였습니다. 딥러닝 모델 학습과 같이 대규모 데이터를 병렬로 처리해야 하는 작업이 GPGPU에 적합했기 때문입니다. 결국 최근에 나오는 GPU는 AI 성능을 담당하는 부분이 더 커지면서 핵심 기능으로 자리 잡고 있습니다. 구글의 TPU는 GPU보다 더 좁은 범위의 연산만 수행하는 특수 프로세서로 CPU – GPU – TPU의 순으로 점점 더 할 수 있는 기능은 좁아진다고 할 수 있습니다. 다만 반대로 에너지 효율은 더 높아질 수 있습니다. 사실 3D 그래픽도 CPU만 가지고 처리할 수 있습니다. 하지만 처리 속도가 너무 느리고 기능이 제한적이라 3D 가속기라는 별도의 보조 프로세서가 나오게 되었고 그것이 나중에 GPU로 발전한 것입니다. TPU도 그런 연장선상에서 보면 엔비디아의 GPU에 상당히 위협적인 존재가 될 수 있습니다. 아이언우드 자체의 성능은 4,614 FP8 TFLOPS 정도로 B200 블랙웰 GPU의 4.5 PFLOPS와 비슷하지만, GPU보다 구조가 단순할 가능성이 높아 생산비나 제작 단가가 저렴할 수 있습니다. 최근 제미나이 3의 놀라운 성능을 보면 그렇다고 기능이 부족한 것도 아닌 것으로 보여 적지 않은 충격을 주고 있습니다. 여기에 아마존의 AWS 역시 3세대 AI ASIC 칩인 트레이니움3(Trainium3)을 공개하면서 도전장을 내밀고 있습니다. 트레이니움3 칩 하나는 PF8 기준 2.52 PFLOPs의 연산 능력을 지니고 있으며 144GB의 HBM3e 메모리와 4.9TB/s의 대역폭을 지니고 있습니다. 그리고 144개의 칩이 모인 Trn3 UltraServers는 총 362 FP8 PFLOPs의 연산 능력을 확보해 100만 토큰 이상의 AI 서비스를 감당할 수 있습니다. 칩 하나의 성능만 보면 엔비디아의 B200 GPU보다 낮지만, 역시 GPU보다 단순한 구조로 전체 비용은 더 낮을 가능성이 있습니다. 다만 아직은 AI 생태계에서 엔비디아의 입지가 지배적인 만큼 아마존은 트레이니움4에서는 엔비디아의 고속 인터페이스인 NVLink를 지원해 트레이니움4와 엔비디아 GPU를 같이 쓸 수 있게 한다는 계획입니다. 만약 이런 빅테크들의 맞춤형 ASIC 칩들이 비용 효과적인 대안을 제시할 경우 엔비디아에 대한 의존도는 낮아질 수 있습니다. 그러면 지금처럼 높은 가격에도 없어서 못 파는 상황은 지속되지 않을 가능성이 있습니다. 물론 엔비디아를 왕좌에서 그렇게 쉽게 끌어내리진 못할 것이라는 의견도 있습니다. 엔비디아가 AI 왕좌를 지킬 수 있는 가장 강력한 무기는 단순한 하드웨어 성능이 아닌, CUDA(쿠다)라는 소프트웨어 생태계에 있습니다. 2006년부터 구축된 CUDA 플랫폼은 수많은 AI 개발자들에게 압도적인 편의성과 최적화된 도구를 제공해 왔습니다. 이처럼 개발자들이 이미 CUDA 환경에 깊이 익숙해져 있다는 점은 다른 칩으로 전환하는 데 막대한 전환 비용을 발생시킵니다. 따라서 구글, 아마존 같은 빅테크들의 자체 ASIC이 고성능과 저비용을 달성하더라도, 이 CUDA 생태계의 장벽을 어떻게 뛰어넘을 것인가는 여전히 가장 큰 숙제로 남아 있습니다. 여기에 엔비디아 역시 경쟁자들처럼 차세대 칩을 준비하고 있습니다. 차세대 루빈 GPU는 FP4 기준 50 PFLOPS의 연산 능력을 지니고 있으며 이를 이용한 렉 시스템인 베라 루빈 NVL 144는 3.6EFLOPS라는 슈퍼컴퓨터급 연산 능력을 지니고 있습니다. 엔비디아는 루빈 GPU의 양산을 서두르는 한편 다음 세대 제품에서 성능을 더 높여 경쟁자들의 추격을 따돌리기 위해 고군분투할 것으로 보입니다. 과연 빅테크들의 거센 도전에서 엔비디아가 왕좌를 지킬 수 있을지 주목됩니다.
위로