찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • HBM3E
    2026-02-07
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
154
  • AI 메모리 대란으로 폭풍 성장…중국 CXMT는 메모리 4강 안착할까?

    AI 메모리 대란으로 폭풍 성장…중국 CXMT는 메모리 4강 안착할까?

    중국 정부는 오래전부터 반도체, 특히 메모리 자급을 국가 전략 과제로 설정하고 막대한 투자를 이어왔습니다. 그러나 성과는 제한적이었습니다. 반도체 산업은 이미 성숙 단계에 접어든 지 오래되었고, 신규 팹 건설에는 천문학적인 자본과 축적된 공정 기술이 필요하기 때문입니다. 실제로 칭화 유니 그룹은 자금난으로 붕괴되었고, 푸젠 진화는 미국의 제재로 사업이 중단되었으며, 우한 홍신은 사기 사건으로 사실상 역사 속으로 사라졌습니다. 이러한 실패의 연속 속에서 드물게 생존에 성공한 기업이 등장했습니다. 2019년 허페이에서 DDR4 메모리 양산에 돌입한 창신 메모리(CXMT)입니다. CXMT는 중국 최초로 의미 있는 수준의 D램 양산에 성공한 기업으로 평가받고 있습니다. CXMT는 설립 초기, 파산한 독일 메모리 기업 키몬다(Qimonda)로부터 다수의 D램 관련 특허를 정식으로 인수하며 기술적 기반을 다졌습니다. 이를 통해 제재 리스크를 줄이는 동시에 자체 공정 역량을 축적해 왔습니다. 다만 성장 과정이 순탄하지만은 않았습니다. 한국 반도체 인력 유출 논란이 제기되었고, 실제로 관련자 일부가 실형을 선고받은 사례도 있었습니다. 이로 인해 국내에서는 CXMT를 바라보는 시선이 마냥 우호적이지만은 않은 것도 사실입니다. 그럼에도 불구하고 CXMT의 기술적 진전은 분명합니다. 2019년 DDR4 양산을 시작으로 2024년에는 DDR5와 LPDDR5 양산에 성공했습니다. 허페이에 위치한 두 개의 팹을 중심으로 월 약 16만 장 수준의 웨이퍼 처리 능력을 갖춘 것으로 알려져 있으며, 베이징 경제 기술 개발구 이좡(Yizhuang) 반도체 클러스터에는 CXMT 베이징 법인 명의로 신규 생산 거점을 구축 중입니다. 베이징 팹의 구체적인 생산 규모는 공개되지 않았으나, 현재 가동 중인 1단계 팹에서 월 5만~10만 장 수준, 향후 2단계에서 두 번째 팹이 완공될 경우 월 15만 장 이상의 생산 능력이 추가될 것으로 예상됩니다. 계획대로 진행된다면 현재 목표인 월 30만 장 규모의 생산이 가능해질 전망입니다. 이곳에서는 15nm~17nm급 공정을 중심으로 DDR5와 LPDDR5X 생산에 주력할 것으로 알려져 있습니다. CXMT는 2025년 하반기 기준, 8000Mbps 속도의 DDR5와 1만 667Mbps 속도의 LPDDR5X 양산에 진입했다고 발표했습니다. 또한 DDR5 양산 수율이 80% 수준에 근접했다고 밝혔으나, 이는 회사 측 발표와 일부 업계 추정에 근거한 수치로 외부에서 이를 검증할 수 있는 자료는 제한적입니다. CXMT는 현재 상장을 앞둔 비상장 기업이라 공시한 내용 자체가 별로 없습니다. 또 중국 기업 특유의 비공개 경영 문화로 인해 세부적인 정보 파악에는 한계가 있습니다. 확실한 점은 현재 글로벌 D램 시장 점유율이 약 5% 내외로 추정되며, 아직 ‘안정적인 4위 업체’로 평가하기에는 이르다는 점입니다. 다만 최근의 AI발 메모리 가격 급등과 공급 부족 국면은 CXMT에 매우 유리한 환경을 제공하고 있습니다. 2025년 12월 30일, CXMT는 상하이 증권거래소 STAR 마켓 상장을 위한 증권신고서를 제출하면서 2025년 첫 연간 흑자 달성이 유력하다고 밝혔습니다. 2022년부터 2025년 상반기까지 누적 매출은 570억 위안, 누적 순손실은 408.6억 위안에 달했지만, 지난해 한 해 매출은 550억~580억 위안, 순이익은 20억~35억 위안으로 전망했습니다. 인공지능(AI) 수요 확대에 따른 메모리 가격 상승이 수익성 개선의 핵심 배경입니다. CXMT의 주요 고객은 레노버, 화웨이, 알리바바 등 중국 내 기업들입니다. 중국 정부의 정책적 지원 속에서 국산 메모리 채택이 확대되며 안정적인 판로를 확보했습니다. 여기에 글로벌 메모리 공급 부족이 겹치면서, 중국 외 기업들 사이에서도 CXMT 제품을 검토하는 움직임이 감지되고 있습니다. 현재의 가격 환경이 유지된다면 올해는 수익성과 고객 기반 모두 대폭 확대될 가능성이 큽니다. CXMT는 이번 상장을 통해 약 6조 원 규모의 자금 조달을 목표로 하고 있습니다. 조달 자금은 베이징 팹 2 증설과 올해 착공에 들어간 상하이 신규 팹 및 패키징 시설에 투입될 예정입니다. 미국의 제재로 ASML이나 어플라이드 머티어리얼즈(AMAT) 등 서방 장비 도입이 제한되면서, 베이징 팹은 중국산 노광·식각·증착 장비를 실제 양산에 적용하는 ‘시험장’ 성격을 띠는 만큼 실제 양산 및 수율이 얼마 정도 될 것인가가 업계의 관심으로 떠오르고 있습니다. 상하이 패키징 시설은 메모리 후공정, 특히 HBM 메모리 생산을 염두에 둔 투자입니다. CXMT는 지난해 하반기부터 화웨이 등 중국 내 주요 AI 칩 설계 기업에 HBM3 시제품을 제공했다고 밝히며, 단계적인 양산을 추진 중입니다. 또 2027년까지 HBM3E 양산을 목표로 선두 업체와의 기술 격차를 줄이겠다는 계획을 제시했습니다. 다만 초기 단계인 만큼 수율과 생산 안정성 측면에서 어려움을 겪을 가능성은 여전히 큽니다. AI발 메모리 대란은 CXMT의 공격적인 증설 전략이 치명적인 부담으로 돌아갈 가능성을 크게 낮춰주었습니다. 여기에 미국의 대중 제재 역시 역설적으로 중국 내 국산 메모리 채택을 가속하는 요인으로 작용하고 있습니다. 그러나 이러한 호황이 영원히 지속되지는 않을 것입니다. AI 산업에서 실질적인 수익을 창출하지 못하는 기업들이 투자 속도를 조절하기 시작하면, 시장은 다시 소수 업체 중심의 과점 구조로 재편될 가능성이 큽니다. 이 과정에서 과도한 메모리 생산 설비 증설은 다시 한번 메모리 가격 급락과 치킨 게임을 촉발할 수 있습니다. 그 시점이 오면 이미 막대한 현금 흐름과 기술 경쟁력을 확보한 삼성전자, SK하이닉스, 마이크론은 버틸 수 있겠지만, 후발주자인 CXMT는 생존의 기로에 설 가능성도 배제할 수 없습니다. 첨단 공정 장비에 대한 수입 제재가 장기화될 경우, 미세 공정 전환에서의 한계 역시 본격적으로 드러날 수 있습니다. 수익성이 높은 최첨단 공정과 고부가 메모리 제품에 집중한 선두 업체들은 치킨 게임 국면에서도 손실을 최소화하거나 수익을 유지할 수 있지만, 상대적으로 가격 경쟁력에 의존하는 후발 업체들은 구조적으로 불리할 수밖에 없습니다. 실제로 이와 같은 과정을 거치며 수많은 D램 업체들이 시장에서 사라졌고, 현재의 3강 체제가 형성되었습니다. CXMT가 글로벌 메모리 시장 점유율 10%를 돌파하며 4강 체제를 구축할 수 있을지, 아니면 또 하나의 치킨 게임 희생양으로 남을지는 앞으로 몇 년이 결정할 것입니다. AI라는 일시적 순풍을 넘어, 기술과 수익성이라는 본질적인 경쟁력을 입증할 수 있는지가 CXMT의 진정한 시험대가 될 것으로 보입니다.
  • AI 메모리 대란으로 폭풍 성장…중국 CXMT는 메모리 4강 안착할까? [고든 정의 TECH+]

    AI 메모리 대란으로 폭풍 성장…중국 CXMT는 메모리 4강 안착할까? [고든 정의 TECH+]

    중국 정부는 오래전부터 반도체, 특히 메모리 자급을 국가 전략 과제로 설정하고 막대한 투자를 이어왔습니다. 그러나 성과는 제한적이었습니다. 반도체 산업은 이미 성숙 단계에 접어든 지 오래되었고, 신규 팹 건설에는 천문학적인 자본과 축적된 공정 기술이 필요하기 때문입니다. 실제로 칭화 유니 그룹은 자금난으로 붕괴되었고, 푸젠 진화는 미국의 제재로 사업이 중단되었으며, 우한 홍신은 사기 사건으로 사실상 역사 속으로 사라졌습니다. 이러한 실패의 연속 속에서 드물게 생존에 성공한 기업이 등장했습니다. 2019년 허페이에서 DDR4 메모리 양산에 돌입한 창신 메모리(CXMT)입니다. CXMT는 중국 최초로 의미 있는 수준의 D램 양산에 성공한 기업으로 평가받고 있습니다. CXMT는 설립 초기, 파산한 독일 메모리 기업 키몬다(Qimonda)로부터 다수의 D램 관련 특허를 정식으로 인수하며 기술적 기반을 다졌습니다. 이를 통해 제재 리스크를 줄이는 동시에 자체 공정 역량을 축적해 왔습니다. 다만 성장 과정이 순탄하지만은 않았습니다. 한국 반도체 인력 유출 논란이 제기되었고, 실제로 관련자 일부가 실형을 선고받은 사례도 있었습니다. 이로 인해 국내에서는 CXMT를 바라보는 시선이 마냥 우호적이지만은 않은 것도 사실입니다. 그럼에도 불구하고 CXMT의 기술적 진전은 분명합니다. 2019년 DDR4 양산을 시작으로 2024년에는 DDR5와 LPDDR5 양산에 성공했습니다. 허페이에 위치한 두 개의 팹을 중심으로 월 약 16만 장 수준의 웨이퍼 처리 능력을 갖춘 것으로 알려져 있으며, 베이징 경제 기술 개발구 이좡(Yizhuang) 반도체 클러스터에는 CXMT 베이징 법인 명의로 신규 생산 거점을 구축 중입니다. 베이징 팹의 구체적인 생산 규모는 공개되지 않았으나, 현재 가동 중인 1단계 팹에서 월 5만~10만 장 수준, 향후 2단계에서 두 번째 팹이 완공될 경우 월 15만 장 이상의 생산 능력이 추가될 것으로 예상됩니다. 계획대로 진행된다면 현재 목표인 월 30만 장 규모의 생산이 가능해질 전망입니다. 이곳에서는 15nm~17nm급 공정을 중심으로 DDR5와 LPDDR5X 생산에 주력할 것으로 알려져 있습니다. CXMT는 2025년 하반기 기준, 8000Mbps 속도의 DDR5와 1만 667Mbps 속도의 LPDDR5X 양산에 진입했다고 발표했습니다. 또한 DDR5 양산 수율이 80% 수준에 근접했다고 밝혔으나, 이는 회사 측 발표와 일부 업계 추정에 근거한 수치로 외부에서 이를 검증할 수 있는 자료는 제한적입니다. CXMT는 현재 상장을 앞둔 비상장 기업이라 공시한 내용 자체가 별로 없습니다. 또 중국 기업 특유의 비공개 경영 문화로 인해 세부적인 정보 파악에는 한계가 있습니다. 확실한 점은 현재 글로벌 D램 시장 점유율이 약 5% 내외로 추정되며, 아직 ‘안정적인 4위 업체’로 평가하기에는 이르다는 점입니다. 다만 최근의 AI발 메모리 가격 급등과 공급 부족 국면은 CXMT에 매우 유리한 환경을 제공하고 있습니다. 2025년 12월 30일, CXMT는 상하이 증권거래소 STAR 마켓 상장을 위한 증권신고서를 제출하면서 2025년 첫 연간 흑자 달성이 유력하다고 밝혔습니다. 2022년부터 2025년 상반기까지 누적 매출은 570억 위안, 누적 순손실은 408.6억 위안에 달했지만, 지난해 한 해 매출은 550억~580억 위안, 순이익은 20억~35억 위안으로 전망했습니다. 인공지능(AI) 수요 확대에 따른 메모리 가격 상승이 수익성 개선의 핵심 배경입니다. CXMT의 주요 고객은 레노버, 화웨이, 알리바바 등 중국 내 기업들입니다. 중국 정부의 정책적 지원 속에서 국산 메모리 채택이 확대되며 안정적인 판로를 확보했습니다. 여기에 글로벌 메모리 공급 부족이 겹치면서, 중국 외 기업들 사이에서도 CXMT 제품을 검토하는 움직임이 감지되고 있습니다. 현재의 가격 환경이 유지된다면 올해는 수익성과 고객 기반 모두 대폭 확대될 가능성이 큽니다. CXMT는 이번 상장을 통해 약 6조 원 규모의 자금 조달을 목표로 하고 있습니다. 조달 자금은 베이징 팹 2 증설과 올해 착공에 들어간 상하이 신규 팹 및 패키징 시설에 투입될 예정입니다. 미국의 제재로 ASML이나 어플라이드 머티어리얼즈(AMAT) 등 서방 장비 도입이 제한되면서, 베이징 팹은 중국산 노광·식각·증착 장비를 실제 양산에 적용하는 ‘시험장’ 성격을 띠는 만큼 실제 양산 및 수율이 얼마 정도 될 것인가가 업계의 관심으로 떠오르고 있습니다. 상하이 패키징 시설은 메모리 후공정, 특히 HBM 메모리 생산을 염두에 둔 투자입니다. CXMT는 지난해 하반기부터 화웨이 등 중국 내 주요 AI 칩 설계 기업에 HBM3 시제품을 제공했다고 밝히며, 단계적인 양산을 추진 중입니다. 또 2027년까지 HBM3E 양산을 목표로 선두 업체와의 기술 격차를 줄이겠다는 계획을 제시했습니다. 다만 초기 단계인 만큼 수율과 생산 안정성 측면에서 어려움을 겪을 가능성은 여전히 큽니다. AI발 메모리 대란은 CXMT의 공격적인 증설 전략이 치명적인 부담으로 돌아갈 가능성을 크게 낮춰주었습니다. 여기에 미국의 대중 제재 역시 역설적으로 중국 내 국산 메모리 채택을 가속하는 요인으로 작용하고 있습니다. 그러나 이러한 호황이 영원히 지속되지는 않을 것입니다. AI 산업에서 실질적인 수익을 창출하지 못하는 기업들이 투자 속도를 조절하기 시작하면, 시장은 다시 소수 업체 중심의 과점 구조로 재편될 가능성이 큽니다. 이 과정에서 과도한 메모리 생산 설비 증설은 다시 한번 메모리 가격 급락과 치킨 게임을 촉발할 수 있습니다. 그 시점이 오면 이미 막대한 현금 흐름과 기술 경쟁력을 확보한 삼성전자, SK하이닉스, 마이크론은 버틸 수 있겠지만, 후발주자인 CXMT는 생존의 기로에 설 가능성도 배제할 수 없습니다. 첨단 공정 장비에 대한 수입 제재가 장기화될 경우, 미세 공정 전환에서의 한계 역시 본격적으로 드러날 수 있습니다. 수익성이 높은 최첨단 공정과 고부가 메모리 제품에 집중한 선두 업체들은 치킨 게임 국면에서도 손실을 최소화하거나 수익을 유지할 수 있지만, 상대적으로 가격 경쟁력에 의존하는 후발 업체들은 구조적으로 불리할 수밖에 없습니다. 실제로 이와 같은 과정을 거치며 수많은 D램 업체들이 시장에서 사라졌고, 현재의 3강 체제가 형성되었습니다. CXMT가 글로벌 메모리 시장 점유율 10%를 돌파하며 4강 체제를 구축할 수 있을지, 아니면 또 하나의 치킨 게임 희생양으로 남을지는 앞으로 몇 년이 결정할 것입니다. AI라는 일시적 순풍을 넘어, 기술과 수익성이라는 본질적인 경쟁력을 입증할 수 있는지가 CXMT의 진정한 시험대가 될 것으로 보입니다.
  • 삼성 ‘신제품’·하이닉스 ‘성능’… K반도체 ‘슈퍼 사이클’ 굳힌다

    삼성 ‘신제품’·하이닉스 ‘성능’… K반도체 ‘슈퍼 사이클’ 굳힌다

    D램·SSD 폭증에 수익 구조 다변화삼성, 차세대 HBM4 이달부터 양산하이닉스, 수율·안정성 더욱 공고화전략적 경쟁이 성장 동력의 기폭제美 관세 압박·해외 기업 추격 복병 대한민국 반도체가 새해 초입부터 1월 기준으로 역대 최대 수출 실적을 갈아치웠다. 삼성전자와 SK하이닉스가 선의의 경쟁 속에 영업이익 300조원 이상을 합작하면서 경제 성장을 견인할 것이라는 기대감이 높다. 인공지능(AI) 인프라 확충에 따라 메모리 수요가 공급 능력을 압도하는 ‘슈퍼 사이클’이 본격화했다. 또 기업용 고성능 저장장치(eSSD)의 수요 폭증 속에 장기 침체 속 낸드플래시마저 약진하며 D램과 함께 핵심 축으로 부상했다. 산업통상부는 메모리 중 범용 D램(DDR4 8Gb)의 가격이 지난해 1월 1.35달러(약 1960원)에서 지난 1월 11.5달러(1만 6700원)로 8.5배 폭등했다고 1일 밝혔다. 또 낸드플래시(128GB)는 같은 기간 2.18달러(3165원)에서 9.46달러(1만 3740원)로 4.3배 뛰었다. 업계에서는 올해 1분기 중에 SSD 가격이 30% 추가 인상될 가능성도 거론된다. 우리나라 반도체 산업이 수익 구조 다변화로 역대급 실적을 거둘 기반을 다지게 됐다는 의미다. 삼성전자와 SK하이닉스는 차세대 AI 메모리인 ‘HBM4’(6세대) 시장을 두고 서로 다른 전략적 카드를 꺼내 들었다. 삼성전자는 10나노급(1c) D램과 자체 4나노 파운드리 공정을 결합한 신제품을 2월부터 전격 양산해 출하할 계획이다. HBM3E(5세대·현재 주력 제품)에서 SK하이닉스를 추격하는 입장이었다면, 선단 공정 도입이라는 리스크를 감수하더라도 최상위 제품을 선제적으로 공급해 기술 주도권을 탈환하겠다는 승부수다. 선단 공정은 기술 난도가 높고 대규모 투자가 필요하나 기존의 레거시 공정에 비해 성능이 뛰어난 반도체를 생산할 수 있다. 반면 시장 1위인 SK하이닉스는 ‘수율’과 ‘안정성’의 성벽을 더욱 공고히 쌓고 있다. 무리한 공정 전환 대신 이미 검증된 1b(10나노급 5세대) 공정과 독자적인 조립 기술(MR-MUF)을 통해 최상위 성능을 구현했다. SK하이닉스 관계자는 “기존 제품에 적용 중인 1b 공정 기반으로도 고객 요구 성능을 구현했다”며 검증된 패키징 기술을 통해 높은 수익성과 원가 경쟁력을 내세웠다. SK하이닉스가 지난달 28일 공개한 지난해 4분기 영업이익률은 무려 58%로 대만 TSMC(54%)도 추월했다. 하지만 대외 환경은 녹록지 않다. 하워드 러트닉 미 상무장관은 한국이 강한 메모리 반도체를 콕 집어 100% 관세를 내지 않으려면 미국에서 생산해야 한다고 압박했고, 미국의 마이크론과 중국의 창신메모리테크놀로지(CXMT) 등 해외 기업의 거센 추격도 복병이다. 다만 증권가는 리스크보다 반도체 장기 호황에 무게를 두고 있다. SK증권 등은 삼성전자의 연간 영업이익을 전년 대비 300% 이상 급증한 180조원으로, SK하이닉스는 148조원으로 상향 조정했고, 이를 단순 합산하면 328조원에 이른다. AI 메모리의 장기 공급 계약 체결에 더해 가파르게 오르는 이익률을 반영한 것이다.
  • ‘80만 닉스’ 위상… 역대 최대실적 찍었다

    ‘80만 닉스’ 위상… 역대 최대실적 찍었다

    HBM3E 시장 점유율 60% 이상차세대 전장 HBM4도 독주 시사 美에 ‘AI 컴퍼니’ 설립 청사진도자사주 12조 2400억원 소각 결정직원 성과급만 1억 4000만원 추산증시 84만 1000원… 연일 최고가 인공지능(AI) 반도체 시장의 견고한 수요에 힘입어 SK하이닉스가 지난해 사상 최대 실적을 달성했다. 특히 고대역폭메모리(HBM) 시장에서의 주도적 입지를 바탕으로 삼성전자의 연간 전사 영업이익을 사상 처음으로 넘어섰다. 또 지난해 4분기 대만 TSMC의 분기 영업이익률도 웃돌며 수익성에서도 새 이정표를 썼다. SK하이닉스는 2025년 연결 기준 연간 매출액은 97조 1467억원, 영업이익은 47조 2063억원을 기록했다고 28일 밝혔다. 전년 대비 매출액은 46.8%, 영업이익은 101.2% 증가했다. 특히 SK하이닉스의 연간 영업이익은 삼성전자가 지난 8일 발표한 연간 영업이익 잠정치(43조 5300억원)를 약 3조 7000억원 정도 상회했다. 지난해 영업이익률은 49%로 가장 높았던 2018년(52%)과 3%포인트 차이에 불과했다. TSMC의 지난해 영업이익률(50.8%)와 2%포인트도 나지 않았다. 특히 지난해 4분기만 비교하면 SK하이닉스의 영업이익률은 58%로 TSMC(54%)를 현격하게 앞섰다. 실적 개선의 핵심 동력은 선제적인 제품 포트폴리오 재편과 시장 지배력 강화에 있다. SK하이닉스는 엔비디아의 핵심 공급사로서 HBM3E 시장 점유율 60% 이상을 유지하며 수익성을 극대화했다. 특히 지난해 4분기에 매출 32조 8267억원, 영업이익 19조 1696억원을 달성하며 분기 기준으로 사상 최대 실적을 경신했다. 58%에 달하는 분기 영업이익률은 서버용 DDR5와 기업용 SSD(eSSD) 등 고수익 제품 중심의 포트폴리오가 안착하며 범용 D램 가격 상승 효과를 배가시킨 결과다. 업계에 따르면 엔비디아는 차세대 AI 플랫폼 ‘루빈(Rubin)’에 탑재될 HBM4 물량의 약 3분의 2(약 70%)를 SK하이닉스에 우선 배정한 것으로 알려졌다. SK하이닉스는 “지난해 9월 업계 최초로 양산 체제를 구축한 HBM4는 고객이 요청한 물량을 현재 양산 중”이라고 설명했다. 업계에선 SK하이닉스가 예정대로 내달부터 엔비디아에 HBM4를 공급하게 될 것으로 예상하고 있다. 이러한 수요 증가에 대비해 SK하이닉스는 충북 청주에 19조원을 투입해, 첨단 패키징 시설인 ‘P&T 7’을 신설하고 생산 기반을 확충하며 주도권 수성에 총력을 기울이는 모습이다. AI 산업의 중심지인 미국 공략에도 속도를 낸다. SK하이닉스는 이날 미국 자회사 솔리다임을 개편해 ‘AI Company(가칭)’를 설립하고 100억 달러를 출자해, 단순 메모리 제조를 넘어 글로벌 AI 데이터센터 생태계의 핵심 파트너로 거듭나겠다는 청사진도 함께 제시했다. 기업 가치 제고를 위한 주주 환원 정책도 전격 단행됐다. SK하이닉스는 이날 이사회를 통해 지분율 2.1%에 해당하는 자기주식 1530만주(약 12조 2400억원 규모)를 전부 소각하기로 결정했다. 또 1조원 규모의 추가 배당을 실시해 2025 회계연도 총 배당금을 2조 1000억원으로 확대했다. 확보된 수익을 바탕으로 주주 가치를 높여 주가 ‘100만닉스’ 시대를 열겠다는 의지로 풀이된다. 또 SK하이닉스는 다음달 5일 연간 실적에 따라 영업이익의 10%(약 4조 7000억원)를 재원으로 활용해 1년에 한 번 연봉의 일정 비율을 지급하는 ‘초과이익분배금(PS)’을 지급할 예정이다. 전체 구성원 수인 3만 3000명으로 단순 계산할 때 1인당 PS는 1억 4000만원 수준으로 추산된다. SK하이닉스는 이날 정규장에서 전일 대비 5.13% 급등한 84만 1000원으로 마감하며 연일 사상 최고가 경신을 이어갔다. SK하이닉스가 반도체 슈퍼사이클을 타고 연간 영업이익 100조원 시대를 열 것이라는 관측도 나온다. 한편, 29일 한 시간 간격으로 예정된 SK하이닉스와 삼성전자의 콘퍼런스콜은 향후 반도체 시장의 향방을 가늠할 분수령이 될 전망이다.
  • 엔비디아 천하 끝낸다… MS도 AI칩 독립선언

    엔비디아 천하 끝낸다… MS도 AI칩 독립선언

    구글·아마존도 자체 칩 본격화삼성·SK, HBM 다변화 기회로 글로벌 인공지능(AI) 반도체 시장이 범용 성능을 앞세운 ‘엔비디아 표준’과 비용·전력 효율을 극대화한 ‘빅테크 전용 칩’ 간에 2차 경쟁 국면으로 진입했다. 구글과 아마존에 이어 마이크로소프트(MS)까지 독자 AI 가속기를 공개하며 자체 칩 생태계를 확대한 가운데, SK하이닉스가 MS의 신규 가속기에 고대역폭메모리(HBM)를 단독 공급하는 등 우리나라 반도체 산업의 선전은 계속될 전망된다. MS는 26일(현지시간) 자체 개발한 AI 가속기 ‘마이아 200’을 공개하고 “MS가 지금까지 배포한 추론 시스템 가운데 가장 효율적이며, 현재 운영 중인 최신 시스템 대비 달러당 성능이 30% 더 좋다”고 밝혔다. 마이아200은 대만 TSMC의 3나노 공정을 적용한 주문형 반도체(ASIC) 기반 칩으로, 대규모 AI 추론 작업의 효율을 극대화한다. 마이아 200에는 총 216GB의 5세대 고대역폭 메모리(HBM3E)가 탑재됐고, SK하이닉스가 12단 HBM3E를 단독 공급하는 것으로 알려졌다. 구글과 아마존웹서비스(AWS) 역시 엔비디아 의존도를 낮추기 위한 행보를 이어가고 있다. 구글은 브로드컴과 공동 설계한 텐서처리장치(TPU) ‘트릴리움’을 고도화해 자사 AI 서비스 전반에 적용 중이며, AWS는 AI 학습에 특화된 전용 칩 ‘트레이니엄’을 중심으로 자체 칩 전략을 확대하고 있다. 이들 전용 칩은 범용 연산에 강점을 지닌 GPU와 달리, AI 연산의 핵심인 행렬 계산에 자원을 집중하는 구조로 설계돼 비용과 전력 효율을 크게 끌어올린 것이 특징이다. 엔비디아는 이에 맞서 차세대 플랫폼 ‘루빈(Rubin)’을 통해 기술 격차를 다시 벌리겠다는 전략을 내세우고 있다. 루빈은 차세대 고대역폭 메모리인 HBM4를 기반으로 성능과 확장성을 동시에 강화하는 것이 핵심으로, 자체 AI 칩 확산에 ‘절대 성능’으로 대응하겠다는 구상으로 해석된다. 이 같은 ‘탈 엔비디아’ 흐름은 국내 메모리 반도체 업계에는 오히려 기회로 작용하고 있다. SK하이닉스는 MS의 마이아 200을 비롯해 구글, AWS 등 글로벌 빅테크의 자체 AI 전용 칩으로 HBM 공급처를 빠르게 넓히며 시장 1위의 입지를 공고히 하고 있다. AI 학습에서 추론으로 무게중심이 이동하는 2차 경쟁 국면 역시 고성능 메모리 수요를 확대하는 요인으로 작용하고 있다. 삼성전자는 최근 엔비디아와 AMD가 진행한 HBM4 관련 품질 테스트에서 긍정적인 평가를 받은 것으로 전해졌고, 차세대 제품 양산을 목표로 준비에 속도를 내고 있다.
  • 삼성·SK 성과급 잔치…삼성은 연봉 절반, SK는 1.4억

    삼성·SK 성과급 잔치…삼성은 연봉 절반, SK는 1.4억

    삼성 DS부문 47%·SK하이닉스 1.36억 HBM 특수 속 보상 경쟁 가열 삼성 ‘과반 노조’ 탄생 초읽기 변수 인공지능(AI) 시장 확대에 따른 고대역폭 메모리(HBM) 수요 폭증으로 국내 반도체 기업들의 실적이 가파르게 반등하면서, 삼성전자와 SK하이닉스가 나란히 대규모 성과급 지급을 확정했다. 지난해 하반기부터 이어진 실적 회복세가 올해 합산 영업이익 200조원 전망으로 이어지며, 그간 축소됐던 보상 규모도 다시 확대되는 양상이다. 16일 업계에 따르면 삼성전자와 SK하이닉스는 각각 사내 공지를 통해 2025년도 성과급 지급률을 확정했다. 삼성전자는 반도체(DS) 부문의 초과이익성과급(OPI) 지급률을 연봉의 47%로 책정했다. 업황 부진으로 14%에 불과했던 지난해와 비교하면 세 배 넘게 오른 수치다. 범용 D램 가격 상승과 5세대 고대역폭 메모리(HBM3E)의 본격 공급 등이 실적을 견인한 결과로 풀이된다. 스마트폰 사업을 담당하는 모바일경험(MX) 사업부 역시 플래그십 모델의 흥행에 힘입어 법정 상한선인 50%의 지급률을 달성했다. SK하이닉스 또한 전년 영업이익의 10%를 재원으로 삼는 산정 기준에 따라 1인당 평균 약 1억 3600만원 수준의 초과이익분배금(PS)을 지급할 것으로 추산된다. 특히 SK하이닉스는 성과급 일부를 자사주로 매입할 수 있는 ‘주주 참여 프로그램’을 시행해 책임 경영을 유도한다. 다만 자사주 소각을 의무화하는 상법 개정안이 국회에서 논의 중인 만큼, 법안 통과 여부에 따라 향후 제도 유지나 축소 가능성이 상존하고 있다. 이러한 대규모 성과급 발표에도 불구하고 삼성전자 내부에서는 보상 기준과 체계를 둘러싼 목소리가 어느 때보다 높다. 특히 SK하이닉스의 ‘성과급 상한제 폐지’ 등 경쟁사의 공격적인 보상안과 비교해 상대적 박탈감을 느낀 직원들이 대거 노조 문을 두드리고 있다. 실제로 삼성그룹 초기업 노동조합 삼성전자 지부의 조합원 수는 최근 급증하며 5만 7579명을 기록했다. 창립 이래 첫 ‘과반 노조’ 달성까지 약 5000명만을 남겨둔 상태로, 향후 노사 관계의 새로운 국면이 예상된다. 업계에서는 삼성전자와 SK하이닉스가 올해 사상 최대 규모인 합산 영업이익 200조원 시대를 열며 본격적인 슈퍼사이클에 진입할 것으로 기대하고 있다. 반도체 기술 경쟁이 국가 대항전 양상으로 격화되는 상황에서, 실적 회복에 걸맞은 합리적인 보상 체계 확립과 이를 통한 우수 인재 확보는 향후 글로벌 주도권 유지를 위한 핵심 과제가 될 전망이다.
  • 삼성전자 성과급 확정… 반도체 47%·모바일 50% 지급

    삼성전자 성과급 확정… 반도체 47%·모바일 50% 지급

    삼성전자가 2025년도 초과이익성과급(OPI) 지급률을 확정하고 16일 이를 사내에 공지했다. 실적 반등에 성공한 반도체(DS) 부문은 연봉의 47%를 받게 됐으며, 실적 견인차 역할을 한 모바일(MX) 부문은 최대치인 50%를 받는다. 이번 성과급은 오는 30일 지급될 예정이다. OPI는 소속 사업부의 실적이 목표를 초과했을 때 이익의 20% 한도 내에서 개인 연봉의 최대 50%까지 지급하는 삼성전자의 대표적인 인센티브 제도다. 사업부별로는 반도체 사업을 담당하는 DS부문의 약진이 두드러졌다. DS부문은 메모리·파운드리·시스템LSI 공통으로 47%의 지급률이 책정됐다. 업황 부진으로 14%에 그쳤던 지난해와 비교해 3배 넘게 오른 수치다. 범용 D램 가격 상승과 5세대 고대역폭 메모리(HBM3E)의 본격적인 공급 등이 실적 개선을 이끈 결과로 풀이된다. 특히 DS부문은 지난해 4분기 삼성전자 전체 영업이익(20조원) 중 80% 가량을 견인한 것으로 추정된다. 파운드리 사업부의 테슬라 공급 계약과 시스템LSI의 애플 이미지센서 납품 등 굵직한 수주 성과도 이번 성과급 산정에 반영됐다. 스마트폰을 담당하는 MX사업부는 갤럭시 S 25와 폴드 7 시리즈의 판매 호조에 힘입어 지급 한도인 50%를 채웠다. 경영지원 부문과 전장 자회사 하만은 39%로 결정됐다. 반면 가전과 TV 사업 부문은 상대적으로 저조한 성적표를 받았다. 영상디스플레이(VD)와 생활가전(DA), 네트워크, 의료기기 사업부의 OPI 지급률은 모두 12%로 확정됐다.
  • 삼성 초격차 통했다…영업익 20조 새 역사

    삼성 초격차 통했다…영업익 20조 새 역사

    삼성전자가 국내 기업 사상 처음으로 ‘분기 영업이익 20조원’ 시대를 열었다. 삼성전자의 역대 최대 분기 실적은 물론 한국 기업 중 사상 첫 기록이다. 글로벌 인공지능(AI) 패권 경쟁이 메모리 반도체 수요를 키우면서 촉발된 ‘메모리 슈퍼사이클’을 타고 올해 영업이익이 100조원을 돌파할 거라는 기대도 나온다. 삼성전자는 8일 잠정 실적 공시를 통해 2025년 4분기 연결 기준 매출 93조원, 영업이익 20조원을 기록했다고 밝혔다. 매출과 영업이익 모두 창사 이래 최고치다. 영업이익은 전년 동기 대비 208.2%, 전 분기 대비 64.3% 증가했다. 지난해 연간 누적 매출 역시 332조 7700억원으로 사상 최대 기록을 새로 썼다. 이번 ‘어닝 서프라이즈’는 단순한 업황 수혜를 넘어 삼성의 비즈니스 모델이 ‘범용 칩 공급’에서 ‘AI 플랫폼 파트너’로 진화하고 있음을 시사한다. 실제 삼성전자는 엔비디아에 5세대 고대역폭메모리(HBM3E)를 본격 공급하기 시작한 데 이어 최근 북미 빅테크 기업들로부터 차세대 HBM4와 AI 가속기용 맞춤형 칩을 잇달아 수주하며 실적의 질적 변화를 이끌어 냈다. 과거의 실적이 수요에 따른 가격 변동에 의존했다면 이제는 고객사와 긴밀히 연계된 ‘수주형 비즈니스’가 20조원 시대를 견인하는 핵심 동력이 된 셈이다. 재계에서는 이재용 회장의 글로벌 네트워크 경영과 전영현 부회장의 ‘기술 쇄신’ 전략이 시너지를 낸 결과로 보고 있다. 이 회장은 직접 엔비디아, 테슬라, 애플 등 빅테크 수장들과 연쇄 회동하며 맞춤형 HBM과 파운드리 수주를 주도했고 전 부회장은 제조 현장의 근원적 경쟁력을 복원하며 ‘기술 초격차’ 본능을 깨웠다. 이번 실적의 질적 성장을 뒷받침하는 핵심 병기로는 본격 양산 궤도에 진입한 6세대 HBM4가 꼽힌다. 삼성은 메모리(1c 나노)와 파운드리(4나노 로직 공정) 역량을 결합한 단일 아키텍처를 선보이며 AI 데이터센터의 최대 난제인 발열과 에너지 효율 개선에 주력했다. 당초 예상을 앞당겨 올해 초부터 공급 물량을 확대하기 시작하면서, 기획 단계부터 고객사 맞춤형으로 칩을 만드는 ‘수주형 플랫폼 비즈니스’로의 체질 개선에도 탄력이 붙고 있다는 분석이다. 압도적인 제조 효율은 수익성 개선의 일등 공신이다. 지난해 하반기 1c 나노 D램 수율이 양산 안정권인 80% 수준에 근접했다는 평가 속에 삼성은 업계 최고 수준의 원가 경쟁력을 확보한 것으로 보인다. 여기에 범용 D램 가격이 2018년 슈퍼사이클 당시의 고점을 넘어 9.3달러까지 치솟으면서, 생산 원가 절감과 제품 가격 상승이 맞물린 강력한 이익 구조가 형성됐다. 실제 이날 시장조사업체 카운터포인트리서치에 따르면 삼성전자는 지난해 4분기 D램 시장에서 192억 달러(약 26조원)의 매출을 기록하며 1년 만에 글로벌 점유율 1위 자리를 탈환한 것으로 나타났다. 그간 전체 실적의 발목을 잡았던 비메모리 부문의 약진도 주목할 대목이다. 증권업계에서는 파운드리와 시스템LSI 부문의 지난해 4분기 적자폭이 8000억원 미만으로 줄어들며 흑자 전환의 기틀을 마련했을 것으로 관측한다. 메모리 사업에서 거둔 수익을 파운드리 시설에 투자하고, 여기서 확보한 최첨단 공정 기술로 다시 고성능 맞춤형 칩 수주를 끌어오는 삼성만의 ‘통합 제조 경쟁력’이 실질적인 성과로 나타나고 있다는 분석이다. 실제 파운드리는 테슬라와의 자율주행 칩 협력을 공고히 하는 한편 구글·메타·AMD 등 빅테크 기업들과의 차세대 AI 칩 수주 전선에서도 유의미한 진전을 보이고 있다. 여기에 퀄컴이 차세대 모바일 프로세서 생산 일부를 삼성 2나노 공정에 맡길 가능성까지 제기되면서 특정 고객사에 의존하지 않는 ‘수주 다변화’에 대한 기대감도 어느 때보다 커지는 분위기다. 삼성이 열어젖힌 ‘분기 20조원’ 시대는 마이크론과 SK하이닉스를 포함한 글로벌 반도체 산업 전체가 전례 없는 ‘슈퍼 사이클’에 진입했음을 알리는 신호탄이다. 앞서 마이크론이 시장의 예상을 훌쩍 뛰어넘는 실적을 기록한 데 이어 오는 21일 실적 발표를 앞둔 SK하이닉스 역시 역대급 성적이 확실시되면서 업계 전반에선 반도체 투톱의 ‘연간 영업이익 100조원’ 시대가 현실화할 것이라는 기대감이 커지고 있다.
  • SK하이닉스, HBM4 16단 첫 공개… AI 메모리 신화 이어간다

    SK하이닉스, HBM4 16단 첫 공개… AI 메모리 신화 이어간다

    SK하이닉스가 미국 라스베이거스에서 열리는 ‘CES 2026’에 기업고객용 전시관을 열고 ‘고대역폭메모리(HBM)4 16단 48GB’를 처음 선보인다고 6일 밝혔다. HBM4 16단 48GB는 현재 업계 최고 속도인 11.7Gbps(초당 11.7기가비트)를 구현한 HBM4 12단 36GB의 후속 모델로 글로벌 초격차를 가속하는 데 일조할 것으로 보인다. 또 올해 전체 HBM 시장을 선도할 ‘HBM3E 12단 36GB’도 전시된다. HBM3E 12단 36GB는 엔비디아의 최신 인공지능(AI) 서버용 그래픽처리장치(GPU)에 탑재되는 모델이다. 이번 전시장에는 GPU 모듈을 함께 전시해 SK하이닉스의 HBM3E 12단 36GB가 AI 시스템 내에서 하는 역할을 시각적으로 구체화해 보여 줄 예정이다. 곽노정 대표이사(사장), 김주선 AI 인프라 사장(CMO) 등 SK하이닉스 임원진은 이날 오후 라스베이거스 퐁텐블로 호텔에서 열린 젠슨 황 엔비디아 최고경영자(CEO)의 특별 연설 직후 이곳을 찾아 엔비디아 측 인사들과 만났다. 엔비디아에 HBM4, HBM3E 등을 공급하는 핵심 협력사로서의 입지를 공고히 하는 행보로 보인다. 또 SK하이닉스 전시관엔 AI 서버에 특화돼 AI 서버 수요가 폭증할 경우에 대비한 저전력 메모리 모듈 ‘소캠2’도 전시된다. 온디바이스 AI 구현에 최적화된 차세대 저전력 메모리 LPDDR6도 선보인다. 낸드 분야에서는 AI 데이터센터 구축 확대로 수요가 급증하는 초고용량 기업용 메모리 저장장치(eSSD)에 최적화된 321단 2Tb 쿼드레벨 셀(QLC) 제품도 공개된다. QLC는 전력 효율과 성능을 크게 개선해 데이터센터의 저전력 환경에 적합하다. 이런 솔루션들이 실제 AI 생태계에서 어떻게 연결돼 움직이는지 살펴볼 수 있는 ‘AI 시스템 데모존’도 마련됐다. 특히 데모존에서는 고객 요청 사항을 반영해 GPU 등에 있던 일부 기능을 HBM에 옮기는 고객 맞춤형 cHBM(커스텀 HBM)의 내부 구조를 직접 확인할 수 있는 대형 모형이 등장한다. 해당 전시는 AI의 경쟁 축이 단순 성능에서 추론 효율과 비용 최적화로 이동하고 있다는 것을 보여 준다.
  • “중국발 반도체 수요 증가 전망” “생산량 제약·수익성 조정 우려”

    “중국발 반도체 수요 증가 전망” “생산량 제약·수익성 조정 우려”

    HBM3E 90% 공급 하이닉스 수혜中 정책 변화·美 세금 부담은 변수 미국이 엔비디아의 고성능 인공지능(AI) 칩 ‘H200’의 중국 수출을 허용하면서 국내 반도체 업계가 중국발 수요 증가에 주목하고 있다. 그동안 수출 규제로 막혀 있던 중국향 고대역폭메모리(HBM) 수요가 살아날 가능성이 커졌기 때문이다. H200은 대용량 연산을 위해 5세대 HBM3E를 다량 탑재하는 구조여서 삼성전자와 SK하이닉스 등 메모리 공급업체에는 우호적인 환경이 조성된 것이다. 특히 엔비디아향 HBM3E의 공급량은 SK하이닉스가 약 90%를 담당하는 것으로 알려졌다. 삼성전자의 경우 올해 하반기 해당 공급망에 합류했지만 주력은 여전히 미국이 대중 수출을 봉쇄 중인 차세대 ‘블랙웰’ 칩이다. 이 때문에 단기적으로는 SK하이닉스의 수혜 가능성이 더 크다는 분석이 나온다. 중국 빅테크들의 AI 인프라 확장 역시 긍정 요인이다. 알리바바·바이트댄스 등은 이미 고성능 메모리 기반의 대규모 데이터센터 투자를 이어 오고 있어 H200이 시장에 풀릴 경우 추가 수요가 자연스럽게 발생할 것이라는 전망이 우세하다. 다만 수혜가 즉시 실적로 연결되기엔 제약도 있다. SK하이닉스는 내년도 HBM 물량이 대부분 소진된 상태고, 삼성전자 역시 HBM4 중심의 생산라인 증설이 진행 중이어서 H200용 신규 물량을 단기에 대규모로 수용하기 어려운 구조다. 미국 정부가 H200 판매 수익의 25%를 세금으로 부과하는 만큼 엔비디아가 비용 부담을 HBM 단가에 반영할 경우 국내 업체의 수익성이 조정될 가능성도 있다. 중국 정부의 정책 변수도 여전하다. 국산화 전략을 강화하는 가운데 특정 모델의 구매 제한이나 수입 물량 할당을 적용할 가능성이 있어 H200 도입 규모가 정책 방향에 따라 달라질 수 있다는 전망도 나온다. 업계 관계자는 “중국 시장의 불확실성이 줄어든 것은 분명한 긍정 요인이지만, 실제 수혜는 생산능력과 가격 조건에 따라 제한될 수 있다”며 “결국 HBM4·HBM4E와 첨단 패키징 경쟁력이 향후 K반도체의 시장 지위를 좌우할 것”이라고 말했다.
  • AI 버블 논란에 구글, 아마존 도전장까지…엔비디아는 왕좌를 지킬 수 있을까?

    AI 버블 논란에 구글, 아마존 도전장까지…엔비디아는 왕좌를 지킬 수 있을까?

    지난 3분기, 엔비디아는 570억 달러의 매출과 함께 무려 73.4%에 달하는 매출 총이익률(gross margin)을 발표했습니다. 그만큼 GPU 하나 팔아서 남기는 게 많다는 이야기로 영업 이익은 매출의 절반이 넘는 360억 달러에 달했습니다. 사실상 원가에 몇 배에 달하는 폭리를 취하면서 매출보다 이익이 더 가파르게 증가한 것입니다. 하지만 이렇게 파는데도 데이터 센터 GPU는 다 팔려 나가 물량 구하기가 쉽지 않다는 게 젠슨 황 CEO의 설명입니다. 그런데도 AI 버블 논란은 여전히 가라앉지 않고 있습니다. AI를 통해 인력을 감축하고 비용을 절감하는 기업들은 늘고 있지만, 정작 막대한 비용이 들어가는 AI 서비스 자체는 그에 걸맞은 수익을 창출하지 못하고 있기 때문입니다. 예를 들어, ChatGPT를 서비스하는 오픈 AI는 재무제표를 공개하지는 않지만, 창립 이래 계속해서 적자를 기록하고 있는 것으로 알려져 있습니다. 따라서 최근에는 막대한 투자 비용을 감당하기 위해 대규모 자금 조달에 나서는 한편 광고와 같은 다른 수익 창출 방법도 모색하고 있습니다. 물론 오픈 AI와 경쟁하는 다른 AI 서비스들 역시 상황은 크게 다르지 않습니다. AI가 미래의 성장 동력이라는 점을 의심하는 이는 없지만, 갈수록 치솟는 GPU, 메모리, 스토리지, 그리고 막대한 전기 사용료 등을 고려하면 기업들이 적자를 감수하고 무작정 투자를 계속할 수는 없습니다. 결국, 어느 시점에는 자금력과 기술력이 뒤처지는 회사는 시장에서 도태되고, 비용 절감과 수익 모델 창출에 성공한 기업만이 살아남게 될 것입니다. 이에 따라 구글이나 아마존 같은 빅테크들은 자체 AI 칩(ASIC)에 막대한 투자를 단행하며 엔비디아 GPU보다 저렴한 대안을 모색하고 있습니다. 그런 의미에서 최근 구글이 공개한 7세대 TPU인 아이언우드(Ironwood)는 시장에 큰 충격을 던져주었습니다. TPU(Tensor Processing Unit)는 애플리케이션 특정 통합 회로(ASIC)의 일종으로, 신경망의 행렬 곱셈과 같은 연산을 효율적으로 처리하기 위한 특수 목적 프로세서입니다. CPU가 가장 일반적인 용도의 프로세서라고 한다면 GPU는 그래픽 연산에 필요한 병렬 연산에 최적화된 프로세서라고 할 수 있습니다. 엔비디아는 GPU에 고성능 컴퓨팅에 필요한 좀 더 범용 연산 능력을 부여해 일반 목적 GPU(GPGPU)라고 명명했습니다. 그리고 여기에 사용되는 언어인 쿠다(CUDA)를 개발했습니다. GPU의 GPGPU 성능이 가장 큰 힘을 발휘한 분야가 바로 AI였습니다. 딥러닝 모델 학습과 같이 대규모 데이터를 병렬로 처리해야 하는 작업이 GPGPU에 적합했기 때문입니다. 결국 최근에 나오는 GPU는 AI 성능을 담당하는 부분이 더 커지면서 핵심 기능으로 자리 잡고 있습니다. 구글의 TPU는 GPU보다 더 좁은 범위의 연산만 수행하는 특수 프로세서로 CPU – GPU – TPU의 순으로 점점 더 할 수 있는 기능은 좁아진다고 할 수 있습니다. 다만 반대로 에너지 효율은 더 높아질 수 있습니다. 사실 3D 그래픽도 CPU만 가지고 처리할 수 있습니다. 하지만 처리 속도가 너무 느리고 기능이 제한적이라 3D 가속기라는 별도의 보조 프로세서가 나오게 되었고 그것이 나중에 GPU로 발전한 것입니다. TPU도 그런 연장선상에서 보면 엔비디아의 GPU에 상당히 위협적인 존재가 될 수 있습니다. 아이언우드 자체의 성능은 4,614 FP8 TFLOPS 정도로 B200 블랙웰 GPU의 4.5 PFLOPS와 비슷하지만, GPU보다 구조가 단순할 가능성이 높아 생산비나 제작 단가가 저렴할 수 있습니다. 최근 제미나이 3의 놀라운 성능을 보면 그렇다고 기능이 부족한 것도 아닌 것으로 보여 적지 않은 충격을 주고 있습니다. 여기에 아마존의 AWS 역시 3세대 AI ASIC 칩인 트레이니움3(Trainium3)을 공개하면서 도전장을 내밀고 있습니다. 트레이니움3 칩 하나는 PF8 기준 2.52 PFLOPs의 연산 능력을 지니고 있으며 144GB의 HBM3e 메모리와 4.9TB/s의 대역폭을 지니고 있습니다. 그리고 144개의 칩이 모인 Trn3 UltraServers는 총 362 FP8 PFLOPs의 연산 능력을 확보해 100만 토큰 이상의 AI 서비스를 감당할 수 있습니다. 칩 하나의 성능만 보면 엔비디아의 B200 GPU보다 낮지만, 역시 GPU보다 단순한 구조로 전체 비용은 더 낮을 가능성이 있습니다. 다만 아직은 AI 생태계에서 엔비디아의 입지가 지배적인 만큼 아마존은 트레이니움4에서는 엔비디아의 고속 인터페이스인 NVLink를 지원해 트레이니움4와 엔비디아 GPU를 같이 쓸 수 있게 한다는 계획입니다. 만약 이런 빅테크들의 맞춤형 ASIC 칩들이 비용 효과적인 대안을 제시할 경우 엔비디아에 대한 의존도는 낮아질 수 있습니다. 그러면 지금처럼 높은 가격에도 없어서 못 파는 상황은 지속되지 않을 가능성이 있습니다. 물론 엔비디아를 왕좌에서 그렇게 쉽게 끌어내리진 못할 것이라는 의견도 있습니다. 엔비디아가 AI 왕좌를 지킬 수 있는 가장 강력한 무기는 단순한 하드웨어 성능이 아닌, CUDA(쿠다)라는 소프트웨어 생태계에 있습니다. 2006년부터 구축된 CUDA 플랫폼은 수많은 AI 개발자들에게 압도적인 편의성과 최적화된 도구를 제공해 왔습니다. 이처럼 개발자들이 이미 CUDA 환경에 깊이 익숙해져 있다는 점은 다른 칩으로 전환하는 데 막대한 전환 비용을 발생시킵니다. 따라서 구글, 아마존 같은 빅테크들의 자체 ASIC이 고성능과 저비용을 달성하더라도, 이 CUDA 생태계의 장벽을 어떻게 뛰어넘을 것인가는 여전히 가장 큰 숙제로 남아 있습니다. 여기에 엔비디아 역시 경쟁자들처럼 차세대 칩을 준비하고 있습니다. 차세대 루빈 GPU는 FP4 기준 50 PFLOPS의 연산 능력을 지니고 있으며 이를 이용한 렉 시스템인 베라 루빈 NVL 144는 3.6EFLOPS라는 슈퍼컴퓨터급 연산 능력을 지니고 있습니다. 엔비디아는 루빈 GPU의 양산을 서두르는 한편 다음 세대 제품에서 성능을 더 높여 경쟁자들의 추격을 따돌리기 위해 고군분투할 것으로 보입니다. 과연 빅테크들의 거센 도전에서 엔비디아가 왕좌를 지킬 수 있을지 주목됩니다.
  • AI 버블 논란에 구글, 아마존 도전장까지…엔비디아는 왕좌를 지킬 수 있을까? [고든 정의 TECH+]

    AI 버블 논란에 구글, 아마존 도전장까지…엔비디아는 왕좌를 지킬 수 있을까? [고든 정의 TECH+]

    지난 3분기, 엔비디아는 570억 달러의 매출과 함께 무려 73.4%에 달하는 매출 총이익률(gross margin)을 발표했습니다. 그만큼 GPU 하나 팔아서 남기는 게 많다는 이야기로 영업 이익은 매출의 절반이 넘는 360억 달러에 달했습니다. 사실상 원가에 몇 배에 달하는 폭리를 취하면서 매출보다 이익이 더 가파르게 증가한 것입니다. 하지만 이렇게 파는데도 데이터 센터 GPU는 다 팔려 나가 물량 구하기가 쉽지 않다는 게 젠슨 황 CEO의 설명입니다. 그런데도 AI 버블 논란은 여전히 가라앉지 않고 있습니다. AI를 통해 인력을 감축하고 비용을 절감하는 기업들은 늘고 있지만, 정작 막대한 비용이 들어가는 AI 서비스 자체는 그에 걸맞은 수익을 창출하지 못하고 있기 때문입니다. 예를 들어, ChatGPT를 서비스하는 오픈 AI는 재무제표를 공개하지는 않지만, 창립 이래 계속해서 적자를 기록하고 있는 것으로 알려져 있습니다. 따라서 최근에는 막대한 투자 비용을 감당하기 위해 대규모 자금 조달에 나서는 한편 광고와 같은 다른 수익 창출 방법도 모색하고 있습니다. 물론 오픈 AI와 경쟁하는 다른 AI 서비스들 역시 상황은 크게 다르지 않습니다. AI가 미래의 성장 동력이라는 점을 의심하는 이는 없지만, 갈수록 치솟는 GPU, 메모리, 스토리지, 그리고 막대한 전기 사용료 등을 고려하면 기업들이 적자를 감수하고 무작정 투자를 계속할 수는 없습니다. 결국, 어느 시점에는 자금력과 기술력이 뒤처지는 회사는 시장에서 도태되고, 비용 절감과 수익 모델 창출에 성공한 기업만이 살아남게 될 것입니다. 이에 따라 구글이나 아마존 같은 빅테크들은 자체 AI 칩(ASIC)에 막대한 투자를 단행하며 엔비디아 GPU보다 저렴한 대안을 모색하고 있습니다. 그런 의미에서 최근 구글이 공개한 7세대 TPU인 아이언우드(Ironwood)는 시장에 큰 충격을 던져주었습니다. TPU(Tensor Processing Unit)는 애플리케이션 특정 통합 회로(ASIC)의 일종으로, 신경망의 행렬 곱셈과 같은 연산을 효율적으로 처리하기 위한 특수 목적 프로세서입니다. CPU가 가장 일반적인 용도의 프로세서라고 한다면 GPU는 그래픽 연산에 필요한 병렬 연산에 최적화된 프로세서라고 할 수 있습니다. 엔비디아는 GPU에 고성능 컴퓨팅에 필요한 좀 더 범용 연산 능력을 부여해 일반 목적 GPU(GPGPU)라고 명명했습니다. 그리고 여기에 사용되는 언어인 쿠다(CUDA)를 개발했습니다. GPU의 GPGPU 성능이 가장 큰 힘을 발휘한 분야가 바로 AI였습니다. 딥러닝 모델 학습과 같이 대규모 데이터를 병렬로 처리해야 하는 작업이 GPGPU에 적합했기 때문입니다. 결국 최근에 나오는 GPU는 AI 성능을 담당하는 부분이 더 커지면서 핵심 기능으로 자리 잡고 있습니다. 구글의 TPU는 GPU보다 더 좁은 범위의 연산만 수행하는 특수 프로세서로 CPU – GPU – TPU의 순으로 점점 더 할 수 있는 기능은 좁아진다고 할 수 있습니다. 다만 반대로 에너지 효율은 더 높아질 수 있습니다. 사실 3D 그래픽도 CPU만 가지고 처리할 수 있습니다. 하지만 처리 속도가 너무 느리고 기능이 제한적이라 3D 가속기라는 별도의 보조 프로세서가 나오게 되었고 그것이 나중에 GPU로 발전한 것입니다. TPU도 그런 연장선상에서 보면 엔비디아의 GPU에 상당히 위협적인 존재가 될 수 있습니다. 아이언우드 자체의 성능은 4,614 FP8 TFLOPS 정도로 B200 블랙웰 GPU의 4.5 PFLOPS와 비슷하지만, GPU보다 구조가 단순할 가능성이 높아 생산비나 제작 단가가 저렴할 수 있습니다. 최근 제미나이 3의 놀라운 성능을 보면 그렇다고 기능이 부족한 것도 아닌 것으로 보여 적지 않은 충격을 주고 있습니다. 여기에 아마존의 AWS 역시 3세대 AI ASIC 칩인 트레이니움3(Trainium3)을 공개하면서 도전장을 내밀고 있습니다. 트레이니움3 칩 하나는 PF8 기준 2.52 PFLOPs의 연산 능력을 지니고 있으며 144GB의 HBM3e 메모리와 4.9TB/s의 대역폭을 지니고 있습니다. 그리고 144개의 칩이 모인 Trn3 UltraServers는 총 362 FP8 PFLOPs의 연산 능력을 확보해 100만 토큰 이상의 AI 서비스를 감당할 수 있습니다. 칩 하나의 성능만 보면 엔비디아의 B200 GPU보다 낮지만, 역시 GPU보다 단순한 구조로 전체 비용은 더 낮을 가능성이 있습니다. 다만 아직은 AI 생태계에서 엔비디아의 입지가 지배적인 만큼 아마존은 트레이니움4에서는 엔비디아의 고속 인터페이스인 NVLink를 지원해 트레이니움4와 엔비디아 GPU를 같이 쓸 수 있게 한다는 계획입니다. 만약 이런 빅테크들의 맞춤형 ASIC 칩들이 비용 효과적인 대안을 제시할 경우 엔비디아에 대한 의존도는 낮아질 수 있습니다. 그러면 지금처럼 높은 가격에도 없어서 못 파는 상황은 지속되지 않을 가능성이 있습니다. 물론 엔비디아를 왕좌에서 그렇게 쉽게 끌어내리진 못할 것이라는 의견도 있습니다. 엔비디아가 AI 왕좌를 지킬 수 있는 가장 강력한 무기는 단순한 하드웨어 성능이 아닌, CUDA(쿠다)라는 소프트웨어 생태계에 있습니다. 2006년부터 구축된 CUDA 플랫폼은 수많은 AI 개발자들에게 압도적인 편의성과 최적화된 도구를 제공해 왔습니다. 이처럼 개발자들이 이미 CUDA 환경에 깊이 익숙해져 있다는 점은 다른 칩으로 전환하는 데 막대한 전환 비용을 발생시킵니다. 따라서 구글, 아마존 같은 빅테크들의 자체 ASIC이 고성능과 저비용을 달성하더라도, 이 CUDA 생태계의 장벽을 어떻게 뛰어넘을 것인가는 여전히 가장 큰 숙제로 남아 있습니다. 여기에 엔비디아 역시 경쟁자들처럼 차세대 칩을 준비하고 있습니다. 차세대 루빈 GPU는 FP4 기준 50 PFLOPS의 연산 능력을 지니고 있으며 이를 이용한 렉 시스템인 베라 루빈 NVL 144는 3.6EFLOPS라는 슈퍼컴퓨터급 연산 능력을 지니고 있습니다. 엔비디아는 루빈 GPU의 양산을 서두르는 한편 다음 세대 제품에서 성능을 더 높여 경쟁자들의 추격을 따돌리기 위해 고군분투할 것으로 보입니다. 과연 빅테크들의 거센 도전에서 엔비디아가 왕좌를 지킬 수 있을지 주목됩니다.
  • 구글 TPU 부상, HBM 판도 바꿨다… 삼성·SK ‘마이크론 뺀 투톱 체제’로

    구글 TPU 부상, HBM 판도 바꿨다… 삼성·SK ‘마이크론 뺀 투톱 체제’로

    SK하이닉스, HBM3E 공급 주도권구글 TPU 내 HBM 절반 이상 맡아삼성전자, HBM 공급량 SK 앞설 듯일반 D램 수요 늘어 성장동력 확보양사 생산능력, 마이크론의 약 3배구글의 자체 AI 가속기 ‘텐서처리장치(TPU)’가 급부상하면서 HBM(고대역폭 메모리) 시장이 대대적인 재편 국면에 들어섰다. 경쟁사 마이크론이 생산 능력에서 뒤처지면서, 삼성전자와 SK하이닉스가 압도적인 제조 역량을 기반으로 ‘2강 체제’를 형성할 것이라는 전망에 힘이 실린다. 30일 업계에 따르면 최근 구글의 새 AI 모델 ‘제미나이3’가 챗GPT를 위협하는 성능을 보이자, 이 모델의 학습과 추론을 담당하는 구글의 자체 칩 TPU도 주목을 받고 있다. TPU는 구글이 미국 팹리스(설계 업체) 브로드컴과 함께 개발한 칩으로, 한 개에 6~8개의 HBM이 탑재된다. 시장에서는 삼성전자와 SK하이닉스가 이미 구글 TPU 공급망의 핵심으로 자리 잡았다는 평가가 나온다. SK하이닉스는 구글 최신 TPU 모델에 HBM3E(5세대) 8단 제품을 먼저 공급하며 초기 시장을 선점했다. 전력 효율을 개선한 차세대 12단 제품도 선도적으로 공급하고 있다. 국내 증권사들은 SK하이닉스가 초기 주도권을 확보하면서, 올해 구글 TPU에 들어가는 HBM의 절반 이상을 맡을 것으로 내다봤다. 한국투자증권은 SK하이닉스의 공급 비중을 56.6%로, 메리츠증권은 60% 수준으로 추정했다. 삼성전자는 구글과의 오랜 협력 관계와 대규모 생산 역량을 바탕으로 공급 물량을 빠르게 확대하고 있다. 올해 하반기부터 구글·브로드컴향 HBM 공급이 증가하면서, 연간 총 공급량 기준에서는 SK하이닉스를 앞설 거란 전망이다. 삼성전자는 HBM 외에도 TPU와 관련한 선단 공정 파운드리 수주 증가와 TPU 구동을 위한 일반 D램 수요 증가가 겹치면서 추가 성장 동력을 확보할 것으로 분석된다. KB증권은 삼성전자를 ‘TPU 수혜 최선호주’로 제시하고, 2026년 영업이익이 100조원에 근접할 가능성을 언급했다. HBM 시장에서 삼성전자와 SK하이닉스의 양강 구도가 부각되는 건 마이크론과의 생산 능력 격차 때문이다. 글로벌투자은행 HSBC에 따르면 올해 말 기준으로 SK하이닉스(월 16만장)와 삼성전자(15만장)의 HBM 생산 능력은 마이크론(5만5000장)의 약 3배에 달한다. 다만, 양강인 삼성과 SK하이닉스 간 경쟁은 더욱 치열할 전망이다. 구글·엔비디아·아마존 등 초대형 고객사들이 차세대 AI 가속기에 필요한 HBM 사양을 잇달아 높이고 있어 양사는 더 높은 적층 기술, 수율, 전력 효율을 앞세워 주도권 확보에 나설 수밖에 없다.
  • 구글, TPU·제미나이3 무장… 엔비디아 흔든다

    구글이 자체 개발한 인공지능(AI) 칩 텐서처리장치(TPU)와 최신 AI 모델 제미나이3를 통해 글로벌 AI 산업 판도를 흔들고 있다. TPU는 AI 연산에 최적화된 맞춤형 반도체로, 엔비디아 그래픽처리장치(GPU) 없이도 대규모 연산을 수행한다. 최근 메타플랫폼 등 글로벌 빅테크 기업이 TPU 도입을 검토하면서, 엔비디아 중심의 AI 하드웨어 시장에 균열이 생길지 주목된다. 25일(현지시간) 블룸버그와 WSJ에 따르면 구글은 TPU 7세대 모델 ‘아이언우드’를 활용해 제미나이3를 학습시켰다. 제미나이3는 추론 성능과 코딩 능력에서 오픈AI의 챗GPT 5.1을 뛰어넘는다는 평가를 받는데, 실제 업무와 데이터 분석까지 수행할 수 있는 ‘에이전틱 AI’로도 주목받고 있다. TPU는 2015년 처음 공개됐지만 엔비디아 GPU 중심의 AI 시장에서 크게 주목받지 못했다. 그러나 제미나이3로 TPU 기술력이 입증되면서, 구글이 엔비디아의 유일한 대항마로 자리 잡을 수 있다는 전망이 나왔다. 여기에 메타 등이 TPU 도입을 검토한다는 소식이 전해지면서 엔비디아 주가는 이날 약 2.6% 하락해 시가총액 1150억 달러(약 169조원)가 증발했다. 반면 구글 모회사 알파벳의 주가는 1.62% 올라 사상 최고치를 기록했다. 주가는 최근 5거래일 동안 14% 뛰었고, 연초 이후 70% 급등했다. 구글 TPU 강점은 단순한 하드웨어 성능에만 국한되지 않는다. 검색 엔진, 유튜브, 안드로이드 OS 등 방대한 자체 데이터와 클라우드를 활용해 매일 AI 학습에 필요한 자료를 확보할 수 있다는 점이 차별점이다. 또 모바일 기기, 자율주행 차량 웨이모 등 현실 세계와 연관된 센서 데이터를 통합해 제미나이3의 학습 효율을 극대화할 수 있다. 결과적으로 구글은 AI 모델부터 칩, 데이터, 클라우드 인프라까지 전 영역에서 통합 역량을 갖춘 몇 안 되는 기업으로 평가된다. TPU가 데이터센터에서 대규모로 활용될 가능성이 떠오르면서 국내 반도체 기업들이 받을 수혜에도 관심이 쏠린다. TPU 7세대 모델 아이언우드에는 SK하이닉스가 공급하는 5세대 고대역폭메모리(HBM3E)가 탑재돼 있으며, 향후 TPU의 데이터센터 활용이 확대되면 삼성전자까지 공급망이 늘어날 수 있다. GPU뿐 아니라 TPU와 CPU를 함께 사용하면서 DDR5·LPDDR5 등 범용 D램 수요도 증가할 전망이다. 삼성전자는 전체 D램 생산능력 중 70%가 범용 D램인 만큼 수혜 폭이 상대적으로 클 거라는 분석이다.
  • ‘치맥회동’ 여운, 업계 최대 ‘AI 팩토리’로 잇는다…삼성전자, 엔비디아에 HBM4 공급

    ‘치맥회동’ 여운, 업계 최대 ‘AI 팩토리’로 잇는다…삼성전자, 엔비디아에 HBM4 공급

    삼성전자가 31일 엔비디아에 성능과 에너지 효율을 대폭 향상시킨 6세대 고대역폭메모리(HBM)4를 엔비디아에 공급한다고 밝혔다. 또 엔비디아의 그래픽처리장치(GPU) 5만개 이상을 도입해 ‘반도체 인공지능(AI) 팩토리’를 구축하기로 했다. 삼성전자는 이날 엔비디아에 ▲HBM3E ▲HBM4 ▲GDDR7 ▲SOCAMM2 등 차세대 메모리와 파운드리 서비스를 공급한다고 밝혔다. 삼성전자의 HBM4는 1c(10나노급 6세대) D램 기반에 4나노 로직 공정을 적용하고 설계를 최적화해 고객 요구를 상회하는 11기가비트(Gbps) 이상의 성능을 구현한 것이 특징이다. 초고대역폭과 저전력 특성을 바탕으로 AI 모델 학습과 추론 속도를 높여 엔비디아의 AI 플랫폼 성능을 향상시키겠다는 전략이다. HBM 외에 업계 최초로 개발한 고성능 그래픽 D램(GDDR7)과 차세대 저전력 메모리 모듈 ‘SOCAMM2’ 공급도 협의 중이다. 현재 삼성전자는 글로벌 전 고객사에게 HBM3E를 공급하고 있으며 HBM4도 샘플을 요청한 모든 고객사에 샘플 출하를 완료한 뒤 양산 출하를 준비 중이다. 또 삼성전자는 향후 5만 개 이상의 엔비디아 GPU를 도입해 업계 최고 수준의 반도체 AI 팩토리를 구축하기로 했다. AI 팩토리는 ▲설계 ▲공정 ▲운영 ▲장비 ▲품질관리 등 반도체 설계와 생산을 아우르는 모든 과정에 AI를 적용해 스스로 분석·예측·제어하는 ‘생각하는’ 제조 시스템이 구현된 스마트 공장이다. AI 팩토리가 갖춰지면 차세대 반도체의 개발과 양산 주기를 단축하고, 제조 효율성과 품질 경쟁력을 혁신적으로 강화할 수 있다는 장점이 있다. 삼성전자의 AI 팩토리는 엔비디아의 시뮬레이션 라이브러리 옴니버스를 기반으로 ‘디지털 트윈’ 제조 환경을 구현하는 것이 골자다. 디지털 트윈은 실제 공장, 장비 등을 가상 환경에 동일하게 구현한 모델로, 현장에 가지 않고도 가상 환경에서 실시간 운영 분석·예측이 가능하다는 장점이 있다. 디지털트윈 기반 시뮬레이션을 활용하면 개발 기간을 크게 단축하는 것은 물론, 소량의 웨이퍼로도 공정 개발이 가능해진다. 수율 분석 소요 시간도 크게 단축돼 조기에 수율을 향상시킬 수 있으며 실시간으로 공정의 문제점을 분석해 자동 조치도 가능하다. 향후 삼성전자는 AI 팩토리 인프라 구축과 관련 노하우를 한국과 미국 테일러 등 해외 주요 생산 거점에까지 확장해, 글로벌 반도체 공급망 전체의 지능화와 효율화를 완성한다는 전략이다. 또 AI 팩토리를 중심으로 엔비디아와 함께 국내외 파트너사와 차세대 반도체 설계 도구를 공동 개발하고 AI 기반 반도체 제조 표준을 선도해 AI 생태계 발전에 이바지하겠다고 밝혔다.
  • 삼성전자, HBM 내년 물량 사실상 완판했다… “증산 검토”

    삼성전자, HBM 내년 물량 사실상 완판했다… “증산 검토”

    삼성전자가 고대역폭메모리(HBM)의 경쟁력을 회복하며 올해 3분기 7조원의 영업이익을 기록했다. 삼성전자는 HBM의 내년 물량을 사실상 완판했다며 증산 가능성을 검토하고 있다고 밝혔다. 삼성전자는 올해 3분기 연결 기준 영업이익이 12조 1661억원으로 지난해 3분기 대비 32.5% 증가한 것으로 잠정 집계했다고 30일 공시했다. 반도체 사업을 담당하는 디바이스솔루션(DS) 부문이 영업이익 7조원을 기록하며 호실적을 이끌었다. 매출은 33조 1000억원으로 집계됐다. 특히 메모리는 HBM3E 판매 확대와 DDR5, 서버용 솔리드 스테이트 드라이브(SSD) 등의 수요 강세로 사상 최고 분기 매출을 기록했다. 삼성전자는 “HBM3E는 전 고객 대상으로 양산 판매 중이고, HBM4도 샘플을 요청한 모든 고객사에 출하했다”고 밝혔다. 삼성전자는 그동안 5세대 제품인 HBM3E를 엔비디아에 납품하기 위해 노력해 왔는데, 납품 사실을 공식화한 것이다. 삼성전자는 이날 콘퍼런스콜에서 올해 3분기 HBM 판매 추세에 대해 이전 분기 대비 80%대 중반 수준으로 확대됐다고 설명했다. 삼성전자는 “내년 HBM 생산 계획은 올해 대비 크게 확대해서 수립했다”면서 “다만 추가적 고객 수요가 지속되고 있어 HBM 증산 가능성에 대해 내부 검토 중”이라고 밝혔다. 4분기 이후에도 인공지능(AI) 투자 확대에 따른 고성능 메모리 반도체에 대한 수요가 지속될 것으로 보이면서 일부 제품에서는 공급 부족 현상도 예상된다. 이에 삼성전자는 고성능 메모리 위주의 캐파(생산능력) 확대를 통해 AI 응용처 수요 확대에 대응할 예정이다. 삼성전자는 “내년 메모리 투자는 적극 투자 기조 하에 전년 대비 상당 수준의 증가를 고려하고 있고, 전체 투자 중 D램 비중은 전년 대비 증가할 전망”이라고 말했다. 디바이스경험(DX) 부문도 폴더블 신모델 출시 효과와 견조한 고급 스마트폰 판매 등으로 매출 48조 4000억원, 영업이익 3조 5000억원을 기록했다. 삼성전자는 AI 산업의 성장으로 DS, DX 부문 모두 새로운 시장 기회가 열릴 것으로 내다봤다. 다만 삼성전자는 내년 하반기 전망에 대해선 “관세와 AI 관련 반도체 수출 제한 등 지정학적 이슈로 인한 불확실성이 있어 더 주의 깊게 보고 있다”고 말했다. 이날 삼성전자의 선전으로 코스피는 종가(4086.89)와 장중 최고치(4146.72)를 모두 경신했다. 투자자예탁금도 지난 29일 기준 사상 최대인 85조 9159억원까지 불어나며 개미들을 중심으로 ‘불장’을 이어갔다.
  • 삼성전자 3분기 영업이익 작년 대비 32.5%↑…매출 분기 기준 최대

    삼성전자 3분기 영업이익 작년 대비 32.5%↑…매출 분기 기준 최대

    삼성전자가 연결 기준 올해 3분기 영업이익이 12조 1661억원으로 지난해 같은 기간 대비 32.5% 증가한 것으로 잠정 집계됐다고 30일 공시했다. 매출은 86조 617억원으로 작년 동기 대비 8.8% 증가하며 역대 최대 분기 매출을 기록했다. 순이익은 12조 2257억원으로 21% 늘었다. 사업부별로 반도체 사업을 담당하는 디바이스솔루션(DS) 부문은 HBM3E와 서버 솔리드 스테이트 드라이브(SSD) 판매 확대로 분기 최대 메모리 매출을 달성했다. 매출은 33조 1000억원, 영업이익은 7조원을 기록했다. 특히 HBM3E는 전 고객 대상으로 양산 판매 중이고, HBM4도 샘플을 요청한 모든 고객사에 샘플을 출하했다. 디바이스 경험(DX) 부문은 폴더블 신모델 출시 효과와 견조한 플래그십 스마트폰 판매 등으로 매출 48조 4000억원, 영업이익 3조 5000억원을 기록했다. 삼성전자는 미래 성장을 위해 연구개발 투자를 지속하며 3분기 누계 기준 역대 최대인 26조 9000억원의 연구개발비를 집행했다. 환율의 경우 전 분기 대비 원화 강세로 달러 거래 비중이 높은 DS 부문에서 소폭 부정적 영향이 있었으나, DX 부문에서 일부 긍정적 영향이 발생해 전사 전체 영업이익에 미치는 영향은 미미했다고 삼성전자는 설명했다.
  • 엔비디아, 삼성·SK·현대차·네이버에 AI칩 공급한다

    엔비디아, 삼성·SK·현대차·네이버에 AI칩 공급한다

    오늘 젠슨 황·이재용·정의선 회동최태원 추가 합류 가능성도 나와 세계 최대 인공지능(AI) 반도체 기업인 미국 엔비디아가 아시아태평양경제협력체(APEC) 정상회의 한국 개최를 계기로 국내 주요 기업들과 대규모 AI 칩 공급 계약을 체결한다. 29일 재계와 외신에 따르면 엔비디아는 삼성전자, SK, 현대차그룹, 네이버 등 국내 주요 기업과 AI 반도체 공급 계약을 체결하고 이를 31일 공개할 예정이다. 이날은 15년 만에 공식 방한하는 젠슨 황 엔비디아 최고경영자(CEO)가 APEC 서밋 마지막 날 특별 세션에서 연설하는 날로, 계약 관련 내용은 세션 전에 발표될 것으로 전망된다. 황 CEO는 30일 서울 강남 인근에서 이재용 삼성전자 회장, 정의선 현대차그룹 회장과 만찬 회동을 갖고 계약 세부 내용에 대해 논의할 것으로 보인다. 당초 이 회장과 정 회장의 3자 회동으로 알려졌으나, 계약 당사자인 SK그룹 최태원 회장 등도 추가로 합류할 가능성이 제기된다. 앞서 황 CEO는 28일(현지시간) 미국 워싱턴DC에서 열린 개발자 행사(GTC)에서 “삼성, SK, 현대차, LG, 네이버 등 한국의 주요 기업들은 나의 깊은 친구이자 아주 좋은 파트너”라며 “한국을 방문할 때 한국 국민들을 기쁘게 할 수 있는 발표가 있을 것이라 기대한다”고 말했다. 업계에서는 이날 언급한 발표가 한국 기업들과의 대규모 AI 칩 공급 계약일 것으로 보고 있다. 블룸버그통신은 이번 계약과 관련해 “미중 무역 갈등으로 중국 시장 진출에 제약을 받은 엔비디아에 도움이 될 것”이라며 “한국 대기업은 AI 모델 학습과 운영에 필요한 GPU를 안정적으로 확보할 수 있게 된다”고 분석했다. 엔비디아의 AI 칩을 공급받을 국내 기업들은 기존에도 긴밀한 협력을 이어 온 곳이다. 삼성전자는 현재 5세대 고대역폭메모리(HBM) 제품인 ‘HBM3E 12단’이 엔비디아의 테스트를 통과해 납품을 앞두고 있다. 삼성은 SK와 더불어 엔비디아가 오픈AI, 소프트뱅크와 함께 추진 중인 거대 AI 인프라 프로젝트 ‘스타게이트’에 전방위 협력을 약속했는데, 이에 따라 AI 연산 효율 혁신을 위한 삼성전자 데이터센터에 엔비디아의 AI 반도체가 공급될 수 있다는 전망이 나온다. SK그룹은 아마존웹서비스(AWS)와 손잡고 울산에 짓는 약 7조원(49억 달러) 규모의 AI 데이터센터에 엔비디아의 칩이 들어갈 것으로 관측된다. 엔비디아는 현대차그룹과 올해 1월 모빌리티 혁신을 위한 전략적 파트너십을 체결했으며 네이버 역시 엔비디아와 긴밀한 AI 동맹을 맺어 온 대표 국내 기업이다.
  • SK하이닉스, 창사 이래 최대 실적…“내년 주요 고객사 HBM 공급 협의 완료”

    SK하이닉스, 창사 이래 최대 실적…“내년 주요 고객사 HBM 공급 협의 완료”

    SK하이닉스가 인공지능(AI) 열풍을 타고 창사 이래 최대 실적을 달성했다. HBM(고대역폭메모리) 시장에서의 독보적인 기술력을 바탕으로 내년도 주요 고객사와의 공급 협의를 모두 마쳤으며, 최신 HBM4를 4분기부터 출하해 판매 확대에 나선다는 계획이다. SK하이닉스는 29일 올해 3분기 매출액 24조 4489억원, 영업이익 11조 3834억원의 경영실적을 기록했다고 밝혔다. 특히 영업이익은 창사 이래 최초로 10조원을 넘어섰으며, 영업이익률은 47%에 달했다. 매출은 전년 동기(17조 5731억원) 대비 39.1% 증가했고, 영업이익은 같은 기간 61.9% 늘었다. 순이익 역시 12조 5975억원으로 119% 급증하며 역대 최대 분기 실적을 경신했다. AI 서버용 고성능 제품이 실적 견인 회사 측은 실적 호조의 배경으로 D램과 낸드 가격 상승이 본격화된 가운데, AI 서버용 고성능 제품 출하량이 증가한 점을 꼽았다. SK하이닉스는 “고객들의 AI 인프라 투자 확대로 메모리 전반의 수요가 급증했다”며 “HBM3E 12단과 서버향 DDR5 등 고부가가치 제품군 판매 확대로 역대 최고 실적을 다시 넘어섰다”고 설명했다. 특히 AI 서버향 수요 증가로 128GB 이상 고용량 DDR5 출하량은 전 분기 대비 2배 이상 늘었으며, 낸드에서도 가격 프리미엄이 있는 AI 서버용 기업용 SSD(eSSD) 비중이 확대된 것이 주효했다. 내년 HBM 공급 협의 완료...HBM4 4분기 출하 시작 SK하이닉스는 AI 메모리 리더십을 강화하기 위해 공격적인 행보를 예고했다. 회사는 “주요 고객들과 내년 HBM 공급 협의를 모두 완료했다”고 밝히며 AI 시장에서의 입지를 더욱 공고히 할 것임을 시사했다. 주요 고객엔 엔비디아 등이 포함된 것으로 보인다. 특히 지난 9월 개발을 완료하고 양산 체제를 구축한 최신 제품 HBM4는 고객 요구 성능을 모두 충족하고 업계 최고 속도 지원이 가능하도록 준비됐으며, 이번 4분기부터 출하를 시작해 내년에는 본격적인 판매 확대에 나설 계획이다. 또 급증하는 AI 메모리 수요로 인해 HBM을 포함한 D램과 낸드 전 제품에 대해 내년까지 고객 수요를 모두 확보했다고 밝혔다. SK하이닉스는 예상을 뛰어넘는 고객 수요에 대응하고자 최근 클린룸을 조기 오픈하고 장비 반입을 시작한 M15X를 통해 신규 생산능력(Capa)을 빠르게 확보하고 선단공정 전환을 가속화한다는 방침이다. 이에 따라 내년 투자 규모는 올해보다 증가할 것으로 예상된다. 김우현 SK하이닉스 부사장(CFO)은 “AI 기술 혁신으로 메모리 시장이 새로운 패러다임으로 전환하며 전 제품 영역으로 수요가 확산되기 시작했다”며 “앞으로도 시장을 선도하는 제품과 차별화된 기술 경쟁력을 바탕으로 고객 수요에 대응하며 AI 메모리 리더십을 공고히 지켜가겠다”고 강조했다.
  • “엔비디아 등과 물량 확정”…SK하이닉스, 창사 첫 ‘10조 클럽’

    “엔비디아 등과 물량 확정”…SK하이닉스, 창사 첫 ‘10조 클럽’

    SK하이닉스가 HBM(고대역폭메모리) 시장을 장악하며 창사 이래 처음으로 분기 영업이익 10조원을 돌파했다. 29일 실적발표회에서 공개된 3분기 영업이익은 11조 3834억원으로, 전년 동기 대비 61.9% 급증했다. 영업이익률은 47%에 달했다. 매출액은 24조 4489억원을 기록하며 전년 대비 39.1% 성장했고, 순이익은 12조 5975억원으로 전년 동기(5조 7534억원)보다 119% 폭증했다. D램과 낸드 가격 상승세가 본격화된 데다 AI 서버용 고성능 제품 출하량이 급증하면서 분기 기준 역대 최대 실적을 경신했다. 회사 측은 “고객들의 AI 인프라 투자 확대로 메모리 전반의 수요가 급증했다”며 “HBM3E 12단과 서버향 DDR5 등 고부가가치 제품군 판매 확대로 지난 분기 최고 실적을 다시 넘어섰다”고 설명했다. 특히 AI 서버향 수요 증가로 128GB 이상 고용량 DDR5 출하량은 전 분기 대비 2배 이상 늘었고, 가격 프리미엄이 있는 AI 서버향 기업용 SSD(eSSD) 비중도 확대됐다. 호실적을 바탕으로 SK하이닉스는 재무구조 개선에도 성공했다. 3분기 말 현금성 자산은 전 분기 대비 10조 9000억원 증가한 27조 9000억원을 기록했다. 차입금은 24조 1000억원으로 줄어들며 3조 8000억원의 순현금 체제로 전환했다. SK하이닉스는 AI 시장이 추론 중심으로 빠르게 재편되면서 AI 서버의 연산 부담을 일반 서버 등 다양한 인프라로 분산하려는 움직임이 나타나고 있다고 분석했다. 이에 따라 고성능 DDR5와 eSSD 등 메모리 전반으로 수요가 확장될 것으로 전망했다. 최근 주요 AI 기업들이 스타게이트 프로젝트 등 전략적 파트너십을 잇달아 체결하며 AI 데이터센터 확장 계획을 발표하고 있는 점도 긍정적이다. HBM뿐 아니라 일반 서버용 메모리를 포함한 다양한 제품군에 걸쳐 고른 수요 성장이 예상된다. HBM4 출하 임박…엔비디아 등 주요 고객 협의 완료 SK하이닉스는 엔비디아를 비롯한 주요 고객들과 내년 HBM 공급 협의를 모두 완료했다고 밝혔다. 지난 9월 개발을 완료하고 양산 체제를 구축한 6세대 HBM4는 고객 요구 성능을 충족하며 업계 최고 속도를 지원한다. 회사는 4분기부터 HBM4 출하를 시작해 내년 본격적인 판매 확대에 나선다. 급증하는 AI 메모리 수요에 대응해 D램과 낸드 전 제품에 대한 내년 고객 수요를 이미 확보한 상태다. 최근 클린룸을 조기 오픈하고 장비 반입을 시작한 청주 M15X 팹(공장)을 통해 신규 생산능력을 빠르게 확보하고 있다. 회사는 안정적으로 양산 중인 최선단 10나노급 6세대(1c) 공정으로의 전환을 가속화해 서버, 모바일, 그래픽 등 풀라인업 D램 제품군을 갖추고 공급을 확대할 계획이다. 낸드에서는 세계 최고층 321단 기반 트리플레벨셀(TLC), 쿼드레벨셀(QLC) 제품 공급을 늘려 고객 요구에 신속히 대응한다. 내년 투자 규모는 올해보다 증가할 전망이다. 김우현 SK하이닉스 부사장(CFO)은 “AI 기술 혁신으로 메모리 시장이 새로운 패러다임으로 전환하며 전 제품 영역으로 수요가 확산되기 시작했다”며 “시장을 선도하는 제품과 차별화된 기술 경쟁력을 바탕으로 AI 메모리 리더십을 공고히 지켜가겠다”고 밝혔다.
위로