찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • HBM4
    2026-04-15
    검색기록 지우기
  • KEL
    2026-04-15
    검색기록 지우기
  • hy
    2026-04-15
    검색기록 지우기
  • OE
    2026-04-15
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
112
  • “3분기 HBM 시장 선점”… SK 독주냐, 삼성 뒤집기냐

    “3분기 HBM 시장 선점”… SK 독주냐, 삼성 뒤집기냐

    인공지능(AI) 반도체 수요 폭발로 고대역폭메모리(HBM) 시장이 갈수록 커지면서 이 시장을 선점하려는 업체들 간 경쟁이 치열해지고 있다. 현재 최대 승부처는 6세대 HBM(HBM4)으로 넘어가기 전 마지막 단계인 HBM3E 12단 제품을 누가 먼저 엔비디아에 납품하느냐다. SK하이닉스의 독주가 이어질지, 후발주자인 삼성전자의 뒤집기가 가능할지도 이번 3분기가 지나면 어느 정도 윤곽이 드러날 것으로 보인다. 1일 업계에 따르면 삼성전자는 오는 5일 2분기 잠정 실적을 발표하고 이달 말 사업부별 실적과 함께 콘퍼런스콜을 진행한다. 메모리반도체 업황 개선으로 2분기 호실적이 전망되면서 이제 시장의 관심은 이러한 호실적의 지속 여부에 쏠려 있다. 삼성전자가 AI 흐름에 올라타 HBM 시장에서도 주도권을 쥘 수 있는지가 관건인데 이달 말 콘퍼런스콜에선 그간 HBM 시장에서의 성과와 하반기 전망에 대해 구체적 설명이 나올 것으로 예상된다. 앞서 김재준 삼성전자 메모리사업부 전략마케팅실장(부사장)은 지난 4월 말 1분기 실적 발표 콘퍼런스콜에서 “(HBM3E) 8단 제품은 빠르면 2분기 말부터 매출이 발생할 전망”이라면서 “올해 하반기 HBM3E로의 급격한 전환을 통해 고용량 HBM 시장 선점에 주력하겠다”고 말했다. 일단 5세대 HBM인 HBM3E 8단 제품은 SK하이닉스가 엔비디아의 최대 공급사로 낙점받은 가운데, 삼성전자도 이 제품을 공급하기 위해 엔비디아의 품질 테스트를 받고 있다. 증권가에서는 삼성전자가 3분기 초에는 8단 제품 테스트와 관련해 유의미한 성과를 낼 수 있을 것이란 관측도 내놓고 있지만, 테스트를 통과하더라도 급격한 매출 증가로 이어지기는 쉽지 않을 것이란 견해도 있다. 엔비디아로서는 공급처 다변화 못지않게 안정적 공급도 중요하기 때문이다. 결국 승부는 이제 시장이 열리는 HBM3E 12단 제품에서 날 가능성이 있다. SK하이닉스는 12단 제품 양산 시점을 3분기로 앞당기면서 이 시장을 놓치지 않겠다는 뜻을 분명히 밝혔다. 삼성전자도 지난 2월 12단 제품을 가장 먼저 개발한 뒤 엔비디아의 품질 테스트 통과에 공을 들이고 있다. 차세대 HBM4 시장에서 주도권을 쥐기 위해서라도 12단 제품에서 승기를 잡아 SK하이닉스와의 점유율 격차를 줄여야 하는데 ‘복병’ 마이크론의 등장으로 시간이 많지 않은 상황이다. 한편 상장사인 솔루스첨단소재는 엔비디아에 AI 가속기용 동박을 공급하는 것으로 알려지면서 이날 주가가 직전 거래일보다 26.37% 오른 2만 3050원에 장을 마감했다. 이 업체가 만든 초극저조도(HVLP) 동박은 엔비디아가 올해 출시 예정인 차세대 AI 가속기에 탑재된다. 삼성전자 반도체 사장 출신의 진대제(72) 전 정보통신부 장관이 이 업체 회장을 맡고 있다.
  • 엔비디아 올라탄 SK하이닉스, 시장선 “30만닉스” 전망 나왔다

    엔비디아 올라탄 SK하이닉스, 시장선 “30만닉스” 전망 나왔다

    글로벌 빅테크들의 생성형 인공지능(AI) 개발 경쟁에 따라 AI 칩 개발에 필수인 고대역폭메모리(HBM) 시장을 선점한 SK하이닉스의 2분기 실적 기대감도 더욱 커지고 있다. 시장에서는 SK하이닉스의 주가가 30만원까지 오를 것이라는 ‘30만닉스’ 전망까지 나왔다.DB금융투자는 21일 SK하이닉스가 2분기 ‘어닝 서프라이즈’를 기록할 것이라고 전망하면서 목표주가를 기존 21만 5000원에서 30만원으로 39.5% 상향하고 투자의견은 ‘매수’를 유지했다. 해외 투자은행에서 SK하이닉스 목표주가를 30만원대로 제시한 적은 있지만 국내 증권사 중에서는 이번이 처음이다. 서승연 DB금융투자 연구원은 “SK하이닉스의 2분기 매출액은 전년 동기보다 35% 증가한 16조 8000억원, 영업이익은 흑자로 전환한 5조 8000억원을 기록할 것”이라며 “시장 기대치를 각각 7%, 18%씩 상회할 것”이라고 내다봤다. 이어 “우호적인 환율 영향 가운데 AI 기반 HBM과 eSSD 수요 강세가 지속하며 2분기 메모리 출하와 판가가 전분기에 이어 견조한 모습을 보일 것”이라고 전망했다. 그는 “특히 2분기에는 일반서버의 교체수요 역시 일부 감지돼 메모리 출하량과 판가 상승에 일조할 것”이라고 덧붙였다. 서 연구원은 또 “SK하이닉스는 글로벌 AI반도체, 클라우드 서비스 사업자(CSP)의 강력한 AI 서버수요에 기반해 HBM3와 HBM3E 8단을 순조롭게 공급 중”이라며 “AI 수요에 더해 하반기 계절적 성수기가 도래하며 재고 축적 수요가 예상되는 가운데 업황 저점을 인식한 고객사들의 구매 수요도 나타나고 있다”고 분석했다. 그는 올해 SK하이닉스의 영업이익을 종전 20조 9453억원에서 24조 5345억원으로, 2025년 영업이익을 23조 2175억원에서 35조 1562억원으로 각각 상향했다. 그는 HBM 시장 전망과 관련해서는 “하반기 주요 GPU업체에 HBM3E 8단을 순조롭게 공급한 SK하이닉스는 HBM 후공정 기술 경쟁력과 품질 안정성을 기반으로 12단 역시 2025년부터 공급하며 시장을 선도할 가능성이 높다”고 전망했다.SK하이닉스는 AI칩 시장을 독점하고 있는 엔비디아와 협력하며 차세대 HBM 양산 시점도 앞당긴다는 전략이다. SK하이닉스는 HBM4는 2026년, HBM4E는 2027년에 각각 양산하려던 계획을 최근 일 년씩 앞당겼다. HBM4는 내년, HBM4E는 2026년 양산 목표로 세부적인 개발 중이다. HBM이 탑재되는 엔비디아의 AI 가속기 출시 주기가 2년에서 1년으로 단축되면서 여기에 맞춰 신제품을 제공한다는 전략이다. 시장조사업체 트렌드포스에 따르면 지난해 SK하이닉스는 글로벌 HBM 시장에서 53% 점유율로 삼성전자(38%), 미국 마이크론(9%)을 앞섰다. 젠슨 황 엔비디아 최고경영자(CEO)는 지난 3월 미국에서 열린 ‘GTC 2024’와 이달 대만서 개최된 ‘컴퓨텍스 2024’에서 모두 HBM 공급사로 SK하이닉스를 가장 먼저 언급했다.
  • TSMC 회장 만난 최태원 SK 회장 “AI 시대 초석 함께 열자”

    TSMC 회장 만난 최태원 SK 회장 “AI 시대 초석 함께 열자”

    최태원 SK그룹 회장이 세계 최대 파운드리(위탁생산) 기업 대만 TSMC와 만나 인공지능(AI) 반도체 경쟁력 강화를 위한 협력을 강화하기로 했다. 지난달 30일 이혼 항소심 판결 이후 공개된 첫 해외 출장으로, 총수가 흔들림 없이 그룹 경영에 매진하는 모습을 보임으로써 반도체 시장을 비롯해 SK그룹을 둘러싼 외부의 우려를 불식시키기 위한 행보로도 풀이된다.7일 SK에 따르면 최 회장은 지난 6일(현지시간) 대만 신주과학단지 TSMC 본사에서 웨이저자 TSMC 이사회 의장(회장) 및 임원들과 회동했다. 이 자리에는 곽노정 SK하이닉스 사장도 함께했다. 그간 모리스 창 TSMC 창업자 퇴진 이후 류더인 회장과 공동으로 회사를 이끌던 웨이저자 회장은 지난 4일 열린 주주총회에서 이사회 의장으로 공식 선임됐다. 최 회장은 이 자리에서 “인류에 도움되는 AI 시대 초석을 함께 열어가자”고 제안하고, 참석자들은 고대역폭 메모리(HBM) 분야에서 SK하이닉스와 TSMC의 협력을 강화하는 데 뜻을 모았다. SK하이닉스는 지난 4월 6세대 HBM인 HBM4 개발과 어드밴스드 패키징 기술 역량을 강화하기 위해 TSMC와 기술 협력에 대한 양해각서(MOU)를 교환했다. SK하이닉스는 HBM4부터 성능 향상을 위해 TSMC의 선단 공정을 활용할 계획이다. 이를 바탕으로 HBM4를 2025년부터 양산하는 것을 목표로 하고 있다. 양사는 또 SK하이닉스의 HBM과 TSMC의 첨단 패키징 공정 ‘칩 온 웨이퍼 온 서브스트레이트’(CoWoS) 기술 결합도 최적화하고, HBM 관련 고객 요청에도 공동 대응하기로 했다. 전날 대만으로 출국한 최 회장은 TSMC 외에도 대만 정보기술(IT) 업계 주요 인사들과 만나 AI와 반도체 분야 협업 방안 등을 논의한 것으로 알려졌다. 최 회장의 대만 출장은 지난 3일 “개인적인 일로 SK 구성원과 이해관계자 모두에게 심려를 끼쳐 죄송하다”며 “이번 사안에 슬기롭게 대처하는 것 외에 엄혹한 글로벌 환경 변화에 대응하며 사업 경쟁력을 제고하는 등 그룹 경영에 한층 매진하고자 한다”고 이혼 항소심 판결에 대한 공식 입장을 낸 지 사흘 만이다. 최 회장은 최근 AI와 반도체 분야 글로벌 협력을 위해 글로벌 비즈니스를 이어가고 있다. 지난 4월에는 미국 새너제이 엔비디아 본사에서 젠슨 황 CEO를 만나 파트너십 강화 방안을 논의했다. 당시 최 회장은 자신의 인스타그램에 황 CEO와 찍은 사진과 함께 황 CEO가 ‘AI와 인류의 미래를 함께 만들어가는 파트너십을 위해!’라고 적은 메시지도 공개했다.지난해 12월에는 반도체 업계 ‘슈퍼 을(乙)’로 불리는 네덜란드 ASML 본사를 찾아 SK하이닉스와 극자외선(EUV)용 수소 가스 재활용 기술 및 차세대 EUV 개발 기술 협력 방안을 모색했다.
  • 젠슨 황 효과… ‘AI 반도체’ 인력·자본 다 빨아들이는 대만

    젠슨 황 효과… ‘AI 반도체’ 인력·자본 다 빨아들이는 대만

    엔비디아, 블랙웰 발표 3개월 만에 HBM4 12개 신제품 ‘루빈’ 첫 공개대만, 엔비디아 공급망 핵심 역할AMD “차세대 가속기 4분기 출시” 주도권 찾기 위해 삼성과 동맹 관심 “엔비디아 젠슨 황 최고경영자(CEO)의 영향력을 보여 주는 자리 같다.”(국내 한 정보기술(IT) 업계 관계자) 4일(현지시간)부터 나흘간 일정으로 대만 타이베이에서 열리는 국제 컴퓨터쇼 ‘컴퓨텍스 2024’가 개막 전부터 전 세계 IT 업계의 주목을 받는 배경으로 ‘젠슨 황 효과’가 꼽힌다. 올해는 인텔, 퀄컴, AMD 등 글로벌 반도체 기업의 CEO가 총출동하면서 컴퓨텍스의 위상도 ‘동북아시아 최대’에서 ‘세계 최대’ 반도체·IT 전시회로 격상됐다. 파운드리(위탁생산)와 팹리스(반도체 설계), 디자인, 후공정 분야를 함께 키워 놓은 게 인공지능(AI) 반도체 시장의 경쟁력으로 부각되면서 대만 반도체 생태계가 주목받고 있는 것이다. ‘메모리반도체 1위’ 국가인 한국도 뒤늦게 생태계 확장에 나서고 있지만 인력·자본의 ‘대만 쏠림’ 우려가 커지면서 이미 벌어진 격차를 좁히기가 쉽지 않을 것이란 전망이 나온다.3일 업계에 따르면 황 CEO는 컴퓨텍스 2024 개막 이틀 전인 지난 2일 주요 IT 기업 중에선 가장 먼저 기조연설을 하며 주목도를 최대로 끌어올렸다. 황 CEO는 이 자리에서 “처음 공개하는 것이고 (언급을) 후회할 수도 있지만 우리의 다음 세대 플랫폼은 ‘루빈’”이라며 차세대 AI 플랫폼을 최초로 공개했다. 지난 3월 엔비디아의 AI 칩인 호퍼를 이을 차세대 AI 칩 ‘블랙웰’을 공개한 지 불과 3개월 만에 신제품 로드맵을 공개한 것이다. 2026년 출시되는 루빈에는 고대역폭메모리(HBM) 6세대 제품인 HBM4 8개, 2027년 출시할 루빈 울트라에는 HBM4 12개를 탑재할 계획이다. 기존 AI 플랫폼과 비교해 4~8개 더 많은 HBM을 탑재한다는 점에서 HBM을 생산하는 SK하이닉스와 삼성전자, 그리고 마이크론의 경쟁 구도는 더욱 격화될 가능성이 높다. 이번 전시회에는 전 세계 기업 1500여곳이 참가했는데 국내 업체 중에선 SK하이닉스가 올해 처음으로 부스를 꾸렸다. 황 CEO가 대만 전시회에서 향후 계획을 발표한 것은 그만큼 대만이 엔비디아의 반도체 공급망에서 핵심 역할을 하고 있다는 걸 보여 주는 방증이기도 하다. 황 CEO는 지난달 말 대만 IT 업계 CEO들과 비공개 만찬을 한 뒤에도 “AI로 인해 대만에는 절호의 기회가 왔다”며 “대만이 전 세계 과학기술산업의 중심에 있을 것”이라고 말했다. 황 CEO가 대만 띄우기에 나선 건 단지 그가 대만계라서가 아니라 파운드리 1위 업체인 TSMC의 생산 거점을 중심으로 오랜 기간에 걸쳐 탄탄하게 다져진 대만 반도체 생태계가 AI 시대 강력한 힘을 발휘할 것이라고 확신하고 있기 때문으로 풀이된다. 이번 전시회에는 엔비디아뿐 아니라 인텔, 퀄컴, AMD, ARM 등 굴지의 반도체 업체 CEO들도 직접 참가했다. 리사 수 AMD CEO는 이날 기조연설을 통해 ‘AMD 인스팅트 MI325X 가속기’와 함께 5세대 AMD 에픽 서버 프로세서, 라이젠 AI 300 시리즈 등 신제품을 미리 선보였다. MI325X 가속기는 5세대 HBM3E를 탑재한 제품으로 오는 4분기 출시될 예정이다. 엔비디아와 SK하이닉스의 협력 체계가 굳혀진 것처럼 AMD가 AI 가속기 시장에서 주도권을 찾기 위해 삼성전자와 손잡을지도 관심사다. 업계에선 삼성의 HBM3E 탑재가 유력한 것으로 보고 있다. 이종환 상명대 시스템반도체공학과 교수는 “메모리와 비메모리 반도체의 경계선이 허물어지면서 비메모리 기술력을 가진 기업이 살아남는 구조가 되고 있다”면서 “우리 기업으로서는 굉장히 불리한 상황”이라고 말했다. 이남우 연세대 국제학대학원 객원교수는 “대만이 예전부터 PC, 부품 업계에선 경쟁력을 갖고 있었다. 그런 네트워크가 진가를 발휘하고 있는 것”이라면서 “우리 기업들도 반도체 협업에 필요한 유연한 사고, 오픈 마인드를 통해 기업 문화 DNA를 바꿀 필요가 있다”고 말했다.
  • “차세대 HBM 반도체 시장도 주도”… SK하이닉스, 빅테크와 공급 협의

    인공지능(AI) 반도체에 필수적으로 탑재되는 고대역폭 메모리(HBM) 시장에서 선두를 달리는 SK하이닉스는 차세대 HBM 주도권을 유지하기 위해 내년 공급 계획에 대해서도 빅테크 기업과 긴밀하게 협의하고 있는 것으로 나타났다. 30일 SK하이닉스 뉴스룸에 따르면 김기태 HBM 세일즈·마케팅(S&M) 부사장은 최근 진행된 신임 임원 좌담회에서 “현재 시장 상황을 보면 빅테크 고객들이 AI 시장 주도권을 확보하기 위해 신제품 출시 시점을 앞당기고 있다”면서 “이에 맞춰 차세대 HBM 제품 등을 적기에 공급할 수 있도록 올해에 이어 내년까지의 계획을 미리 논의 중”이라고 밝혔다. SK하이닉스는 지난 3월 5세대 HBM3E 8단 양산에 들어갔고 6세대 HBM4 양산 시점도 내년으로 앞당겼다. 김 부사장은 또 “AI 서비스가 다변화해도 지금의 컴퓨팅 구조가 지속될 때까지는 메모리에 요구되는 최우선 스펙은 속도와 용량”이라며 “AI 메모리 기술 우위를 유지하려면 전공정의 설계, 소자, 제품 경쟁력뿐 아니라 후공정의 고단 적층 패키징 기술력도 강화해야 한다”고 말했다. 좌담회에선 장기간의 연구개발(R&D)과 투자, 고객과의 긴밀한 협업 등도 AI 메모리 시장에서 주도권을 갖게 된 비결로 꼽혔다. 권언오 HBM PI 부사장은 “시장이 열리기 전부터 오랜 시간 이어져 온 AI 메모리에 대한 투자와 연구가 밑거름이 됐다”고 말했다. 손호영 어드밴스드 패키징 개발 부사장은 “앞으로 더 다양해질 시장 요구에 부응하려면 메모리와 시스템, 전공정과 후공정의 경계가 허물어지는 이종 간 융합을 위한 협업을 준비해야 한다”고 했다.
  • 내년 HBM 매출, D램의 30%로… 반도체 맑음

    내년 HBM 매출, D램의 30%로… 반도체 맑음

    인공지능(AI) 반도체에 필수적으로 탑재되는 고대역폭 메모리(HBM)가 내년 전 세계 D램 매출의 30% 이상을 차지할 것이란 전망이 나왔다. HBM 시장을 주도하고 있는 국내 반도체 기업 실적도 고가의 HBM 덕분에 빠르게 개선될 것으로 보인다. 7일 대만 시장조사업체 트렌드포스에 따르면 HBM 판매 단가는 내년 5~10% 오를 것으로 예측됐다. 글로벌 D램 시장에서 HBM이 차지하는 비중(매출 기준)은 지난해 8%에서 올해 21%, 내년 30% 이상으로 크게 늘어날 전망이다. 트렌드포스는 “HBM의 판매 단가는 기존 D램의 몇 배, DDR(더블데이터레이트)5의 약 5배에 달한다”면서 “D램 전체 생산 능력이 제한돼 있어 공급업체들이 가격을 5~10% 인상했다”고 설명했다. 다만 현재 시장은 HBM 구매 업체들이 안정적이고 우수한 품질의 제품을 확보하기 위한 차원에서 가격 인상을 수용한 측면이 강하다. 앞으로는 공급 업체의 신뢰성, 공급 능력에 따라 HBM의 가격이 달라질 수 있다는 게 트렌스포스의 설명이다. 3분기 본격적으로 열리는 5세대 HBM(HBM3E) 시장에서 국내 업체들이 주도권을 잃지 않으면서도 수익성을 최대한 높이려면 수율(합격품 비율) 개선은 피할 수 없을 것으로 보인다. 지난해 4세대 HBM(HBM3) 시장에서 점유율 90% 이상을 차지한 SK하이닉스도 HBM3E 12단 제품을 놓고는 경쟁사인 삼성전자와 치열한 싸움이 불가피할 전망이다. HBM3E 12단 제품을 업계 최초로 개발해 기술력을 과시한 삼성전자는 AI 반도체 시장의 ‘큰손’인 엔비디아의 문을 두드리고 있다. 다음달 안에 HBM3E 12단 제품을 양산한다는 목표를 세우고 수율 향상을 위해 인력도 대거 투입했다. 엔비디아의 까다로운 품질 테스트를 통과한다면 고용량 HBM 시장에서 판을 뒤집을 수도 있다. 삼성전자가 올해 HBM 판매 수량의 3분의2 이상을 HBM3E로 채우겠다고 한 것도 이런 기대가 담긴 것으로 풀이된다. 이에 SK하이닉스는 이달 HBM3E 12단 샘플을 제공하고 양산 시점도 3분기로 앞당기면서 삼성에 주도권을 내주지 않겠다는 뜻을 분명히 했다. 내년부터는 6세대 HBM으로 불리는 HBM4를 둘러싼 경쟁도 치열할 것으로 보인다. SK하이닉스는 파운드리 1위 업체인 대만 TSMC와 손잡고 맞춤형 개발에 나서겠다는 전략이다. 이에 맞서 삼성전자는 차세대 HBM 개발을 위해 메모리, 파운드리, 시스템LSI, 어드밴스트 패키징 사업 역량을 총동원하기로 했다. HBM을 이을 제품으로 떠오른 컴퓨트 익스프레스 링크(CXL) 개발을 놓고도 두 업체 간 경쟁이 본격화됐다. CXL은 중앙처리장치(CPU)·그래픽처리장치(GPU)·메모리 등을 효율적으로 사용하기 위해 만들어진 인터페이스다. 신도시에 만들어진 8차선 도로처럼 깔끔하게 정비돼 ‘병목 현상’ 없이 대량의 데이터를 빠르게 처리할 수 있어 AI 시장의 핵심 기술로 주목받고 있다. 한편 이날 삼성전자 주가는 직전 거래일보다 4.77% 오른 8만 1300원, SK하이닉스는 3.70% 오른 17만 9600원에 마감했다.
  • SK하이닉스 “3분기 12단 AI반도체 양산… 내년 물량도 완판”

    SK하이닉스 “3분기 12단 AI반도체 양산… 내년 물량도 완판”

    “올해 이미 완판됐고 내년 역시 거의 완판입니다.” 인공지능(AI) 반도체에 필수적으로 탑재되는 고대역폭메모리(HBM) 시장에서 선두를 달리고 있는 SK하이닉스의 곽노정 최고경영자(CEO·사장)는 “고객과 협의를 완료한 상태에서 고객 수요에 맞춰 공급량을 증가시키고 있다”며 HBM 과잉 공급 우려를 일축했다. AI 서비스 공급자 확대, HBM 수요처 확대로 연평균 60% 정도의 수요 성장이 예상되기 때문에 지금은 경쟁사들과 선의의 경쟁을 하며 시장을 키우는 게 중요하다고 했다. 곽 CEO는 2일 경기 이천캠퍼스 연구개발(R&D)센터에서 열린 기자간담회에서 “HBM 시장 리더십을 확고히 하기 위해 HBM3E 12단 제품의 샘플을 이달 중 제공하고 3분기 양산이 가능하도록 준비하고 있다”고 밝혔다. 2분기 중 HBM3E 12단 제품 양산에 나서겠다고 선언한 삼성전자와의 하반기 치열한 경쟁을 예고한 것이다. 1분기 시장 예측치를 뛰어넘는 2조 8860억원의 영업이익을 올리며 AI 시대 전성기를 보내고 있는 SK하이닉스는 이날 국내외 언론에 이천캠퍼스를 공개했다. 2012년 SK그룹에 편입된 뒤 SK하이닉스가 이천캠퍼스에서 기자간담회를 진행한 건 처음이다. 곽 CEO는 “AI 반도체 경쟁력은 한순간에 확보할 수 있는 게 아니다”라며 “HBM은 D램 기술력에 기반한 것으로 어딘가에서 갑자기 뚝 떨어진 게 아니다”라고 강조했다. 메모리 반도체 업황이 좋지 않을 때도, 언제 HBM 시장이 열릴지 모르는 불확실성 속에서도 투자를 확대했기 때문에 지금의 경쟁력을 갖출 수 있었다는 설명이다. 그는 “우리 혼자 할 수 있는 게 아니다”라며 생태계의 중요성도 강조했다. 곽 CEO는 “2013년 세계 최초로 HBM을 개발한 이후 우리의 고객사, 협력 파트너들과 긴밀하게 협업해 왔다”면서 “AI 반도체는 기존 범용 반도체의 기술 역량에 더해 고객 맞춤형 성격을 띠고 있어 글로벌 협력이 무엇보다 중요하다”고 말했다. 최태원 SK그룹 회장의 글로벌 네트워킹도 협업 관계를 구축해 나가는 데 큰 역할을 했다고 덧붙였다. 경쟁사가 빠르게 추격해 오고 있는 것과 관련해선 “국내외 경쟁사 모두 높은 기술 역량을 갖고 있고 잘할 수 있는 잠재력도 있다”면서 “자만, 방심하지 않고 우리 페이스에 맞춰 고객 요구에 맞는 제품을 공급하겠다”고 했다. 2016년부터 올해까지 예상되는 HBM 누적 매출을 묻는 질문에는 “(하반기 시장 변화도 감안해야 하지만) 현재 예상으로는 백수십억 달러 정도가 될 것”이라고 답했다. 이어 “현재 AI는 데이터센터 중심이지만 향후 스마트폰과 PC, 자동차 등 온디바이스 AI로 빠르게 확산될 전망”이라며 “AI에 특화된 초고속·고용량·저전력 메모리 수요가 폭발적으로 증가할 것”이라고 내다봤다. 내년부터 본격 경쟁이 시작될 6세대 HBM(HBM4) 제품과 관련해 간담회에 배석한 최우진 부사장(패키지&테스트 담당)은 핵심 패키지 기술(MR-MUF) 경쟁력을 강조하며 “HBM4에선 16단 제품을 구현할 예정”이라고 말했다.
  • 삼성 “차세대 16단 도입” SK “TSMC와 기술동맹”

    삼성 “차세대 16단 도입” SK “TSMC와 기술동맹”

    차세대 인공지능(AI) 메모리 반도체인 6세대 고대역폭메모리 ‘HBM4’ 개발을 놓고 국내 업체 간 주도권 경쟁이 치열하다. 삼성전자는 자체 기술력, SK하이닉스는 파운드리(위탁생산) 1위인 대만 TSMC와의 협업으로 성능의 한계를 돌파한다는 전략이다. 2026년 HBM4 양산을 앞두고 두 업체가 얼마나 많은 고객사를 확보하느냐가 관건이 될 것으로 보인다. 21일 업계에 따르면 삼성전자는 지난 2월 D램 칩을 12단까지 쌓아 올린 5세대 HBM(HBM3E)을 가장 먼저 개발한 데 이어 HBM4에는 16단 기술을 도입한다는 계획이다. D램 칩을 수직으로 많이 쌓을수록 용량과 대역폭(메모리의 데이터 전송 속도)이 늘어난다. 대역폭이 높을수록 한번에 처리할 수 있는 데이터의 양이 많아지기 때문에 고성능 메모리를 요구하는 인공지능(AI) 반도체 업체로부터 선택받을 확률도 커진다. 다만 HBM 제품의 전체 두께는 고정돼 있는 상황에서 층수를 높이는 거라 조립 난도가 높아지고 열 저항이 커지는 문제가 발생한다. 메모리와 파운드리 역량을 결집해 차세대 HBM 전담팀을 구성한 삼성전자는 자체 기술력으로 이 한계를 극복하면서 수율을 극대화한다는 전략이다. 윤재윤 삼성전자 D램개발실 상무는 지난 18일 삼성전자 뉴스룸 인터뷰에서 16단 도입 계획을 밝히며 “HBM 칩 1개라도 불량이 발생하면 AI 서비스가 그 순간 멈출 수 있기 때문에 HBM의 품질을 완벽하게 보증할 수 있는 설계·테스트 기술을 확보하는 게 중요하다”고 강조했다. 이에 맞서 SK하이닉스는 파운드리 1위 업체인 대만 TSMC와의 협업 카드를 꺼내 들었다. SK하이닉스는 5세대 HBM까지는 자체 공정으로 HBM의 두뇌 역할을 하는 ‘베이스 다이’를 만들었는데, 6세대부터는 TSMC가 보유한 초미세 선단 공정을 활용한다는 것이다. 베이스 다이는 HBM 제품의 바닥 부분으로 그래픽처리장치(GPU)와 연결돼 HBM을 통제하는 역할을 한다. TSMC의 패키징 방식(CoWoS)과 SK하이닉스의 HBM 기술 결합을 최적화해 HBM 관련 고객사 요청에도 공동 대응한다는 방침이다. 업계에선 두 업체가 HBM 설계·생산부터 함께하면 맞춤형 설계 요구에 대응하기 수월해져 이들의 고객사인 엔비디아와의 공조 체제도 더 강화될 것으로 본다. 김양팽 산업연구원 전문연구원은 “메모리와 파운드리 업체 간 협력은 (기존에) 없었던 모델”이라면서 “이러한 협업으로 SK하이닉스가 TSMC의 고객사까지 확보가 용이해졌다는 점은 주목할 만하다”고 말했다.
  • 삼성 반도체 수장, 사이버트럭 시승기 올리며 “HBM 리더십 우리에게”

    삼성 반도체 수장, 사이버트럭 시승기 올리며 “HBM 리더십 우리에게”

    삼성전자 반도체 사업부를 이끌고 있는 경계현 디바이스솔루션(DS) 부문장(사장)이 29일 “전담팀의 노력으로 고대역폭 메모리(HBM)의 리더십이 우리에게로 오고 있다”고 자신감을 내비쳤다. 경 사장은 이날 사회관계망서비스(SNS)를 통해 최근 미국 출장 소회와 함께 “AI 애플리케이션에서 고용량 HBM은 경쟁력”이라면서 “HBM3와 HBM3E 12H(12단)를 고객이 더 찾는 이유”라고 썼다.경 사장은 이어 “여전히 메모리와 컴퓨트 사이의 트래픽이 병목”이라며 “많은 고객이 이 문제를 풀기 위해 각자만의 방식으로 커스텀 HBM4를 개발하고 싶어 한다. 그리고 고객들은 우리와 함께 그 일을 할 것”이라고 전망했다. 또 “많은 고객이 파운드리 2나노 공정을 위한 테스트 칩을 흘리고 있거나 흘리기로 했다”며 “성공적인 기술 개발을 통해 이들이 2나노 제품 개발로 이어지도록 할 것”이라고 했다. 지난 20일 정기 주주총회에서 공개한 자체 AI 가속기 ‘마하-1’도 언급했다. 경 사장은 “추론 전용인 마하-1에 대한 고객의 관심 또한 증가하고 있다”며 “일부 고객은 1T 파라미터 이상의 큰 애플리케이션에 마하를 쓰고 싶어 한다”고 밝혔다. 그러면서 “생각보다 더 빠르게 마하-2의 개발이 필요한 이유가 생긴 것”이라며 “준비를 해야겠다”고 덧붙였다. 경 사장은 테슬라 사이버트럭을 시승한 소감과 영상도 공개했다. 그는 “생각보다 안락했고, 생각보다 가속력이 대단했다”라면서 “10개의 카메라로 주변을 인식하는 능력이 훌륭해 보였고, 짧은 회전반경과 큰 와이퍼가 인상적”이라고 남겼다.
  • 삼성전자 D램 ‘흑자 전환’… 바닥 찍은 반도체에 봄바람 분다

    삼성전자 D램 ‘흑자 전환’… 바닥 찍은 반도체에 봄바람 분다

    반도체 불황으로 실적 부진의 늪에 빠져 있던 삼성전자가 주력 제품인 D램의 흑자 전환에 힘입어 적자폭을 크게 줄였다. 삼성전자는 올해 1분기 D램, 낸드를 포함한 메모리 사업이 흑자로 돌아설 것으로 내다봤다. 지난해 4분기 연구개발(R&D) 투자금액이 역대 최대치를 기록한 것도 바닥을 찍고 반등할 것이란 자신감이 반영된 것이란 분석이 나온다. 삼성전자는 지난해 4분기 반도체(DS)부문에서 2조 1800억원의 영업손실을 기록했다고 31일 밝혔다. 이 회사의 캐시카우(현금창출원)인 반도체 사업의 고전으로 지난해 연간 영업이익도 6조 5670억원으로 쪼그라들었다. 전년 대비 84.86% 줄어든 수치다. DS 부문은 2022년 4분기 2700억원의 흑자를 낸 뒤 지난해 1분기부터 적자 행진을 이어 왔다. 지난 한 해 반도체 적자 규모만 14조 8800억원에 이른다. 눈여겨볼 점은 지난해 1분기(4조 5800억원)에 비해 4분기 적자 규모가 절반 아래로 줄었다는 점이다. 이는 반도체 업황이 최악의 국면을 지나 다시 살아난다는 신호로 읽힐 수 있는 대목이다. 실제 메모리 사업부의 D램 부문은 지난해 4분기 재고 개선의 영향으로 흑자 전환을 달성했다. 구체적 실적은 공개되지 않았지만 증권가에서는 7200억~1조 2000억원 사이의 흑자를 낸 것으로 추정한다. D램에 비해 회복세가 더딘 낸드도 서버용 솔리드스테이트드라이브(SSD) 제품 중심으로 수요가 늘면서 1분기 실적 전망은 밝은 편이다. 김재준 삼성전자 메모리사업부 전략마케팅실장(부사장)은 실적 발표 콘퍼런스 콜에서 “생성형 인공지능(AI) 관련 고대역폭 메모리(HBM)와 서버 SSD 수요에 적극 대응해 수익성 개선에 집중하겠다”면서 “올해 1분기 메모리 사업은 흑자 전환이 예상된다”고 말했다. 지난해 4분기 HBM 판매량은 전년 같은 기간 대비 3.5배 늘어난 것으로 나타났다. 김 부사장은 “차세대 HBM3E는 상반기 내에 양산 준비가 완료될 예정이고, HBM4는 2026년 양산을 목표로 개발 중”이라고 밝혔다. 완제품을 만드는 디바이스경험(DX)부문에선 영상디스플레이·가전 사업이 지난해 4분기 실적 둔화로 적자 전환(-500억원)했다. 스마트폰을 담당하는 모바일 사업도 신모델 출시 효과 둔화로 전분기 대비 매출, 이익이 모두 감소했다. 다만 모바일경험(MX)사업부와 네트워크사업부의 연간 영업이익은 전년 대비 14.3% 늘어난 13조 100억원으로 집계됐다. 삼성전자는 이날 정식 출시한 첫 AI폰 ‘갤럭시S24’를 앞세워 초기 AI폰 시장의 주도권을 장악하겠다는 포부도 내비쳤다. 삼성전자는 실적 부진에도 미래 성장 준비를 위해 R&D 투자액을 끌어올렸다. 지난해 4분기 R&D 투자액은 7조 5500억원으로 역대 분기 최대치를 기록했다. 올해부터 2026년까지 3년간 발생하는 잉여현금흐름의 50%를 주주 환원에 활용하고 연간 9조 8000억원의 배당금을 지급하겠다는 계획도 내놓았다.
  • GPU 1만개로 만든 그 답변… 수천 가구가 쓸 전력 삼켰다

    GPU 1만개로 만든 그 답변… 수천 가구가 쓸 전력 삼켰다

    챗GPT의 등장으로 인공지능(AI)은 디지털 시대에 거스를 수 없는 대세가 됐다. AI는 스스로 판단해 작업을 최적화, 효율화하고 많은 분야에서 에너지를 절감할 것으로 예상된다. 하지만 AI 스스로는 개발, 구축, 운영에 천문학적인 비용이 들어가며, 전력 소모가 극심하다. 모든 업계가 환경·사회·지배구조(ESG) 경영을 부르짖는 시대를 이끄는 AI가, 정작 엄청난 에너지를 소비하는 역설적인 상황이다. ●SKT ‘에이닷’ GPU 1040개 사용 초거대 AI는 복잡한 연산을 동시다발로 하기에 고성능 처리장치를 필요로 한다. 그런데 고성능 처리장치는 전기를 많이 쓴다. 초거대 AI 운용엔 대체로 중앙처리장치(CPU)가 아닌 그래픽처리장치(GPU)가 쓰인다. AI반도체 시장점유율 90% 이상을 차지하는 엔비디아의 최신 GPU ‘A100’의 소비전력은 모델에 따라 300~400W(와트)이며 시간당 전력 소비량은 300~400Wh(와트시)이다. 초거대 AI 운용엔 GPU가 수백~수천개 사용된다. SK텔레콤의 초거대 AI 서비스 ‘에이닷’의 기반인 슈퍼컴퓨터 ‘타이탄’엔 A100이 1040개 들어간다. 챗GPT 구동엔 A100 1만개가 사용되는 것으로 알려졌다. 초거대 AI 운용에 필수인 인터넷데이터센터(IDC)도 대표적인 고전력 시설이다. 산업통상자원부의 지난달 자료에 따르면 IDC 한 개당 평균 연간 전력 사용량은 25GWh(기가와트시)로, 4인가구 기준 6000가구가 사용하는 전력량과 같은 수준이다. 애초에 AI 연산용이 아니라 그래픽 처리 속도를 높이기 위해 만들어진 GPU는 데이터를 한 번에 대량으로 처리할 수 있지만, 값이 비싸고 전력도 많이 소비한다. 이에 신경망처리장치(NPU)라는 AI 전용 반도체 개발이 GPU의 문제를 해결할 대안으로 주목받았다. SK텔레콤이 지분 50%를 보유한 사피온이 2020년 발표한 NPU ‘X220’은 지난해 AI 구동 성능 테스트에서 엔비디아의 ‘A2’를 뛰어넘은 바 있다. 그러면서도 65W에 불과한 소비전력은 고성능 CPU들과 비교해도 적은 축에 들어간다. 사피온은 올해 전작 대비 성능을 약 4배 향상시킨 신제품 ‘X330’을 출시할 예정이다. KT와 ‘AI 드림팀’을 이룬 반도체 회사 리벨리온도 ‘아톰’이라는 NPU를 개발했다. 아톰 역시 소비전력이 60~150W에 불과하며 챗GPT의 원천 기술인 ‘트랜스포머’ 계열 자연어 처리 기술을 지원한다. 개발 환경 등 현재 AI 생태계 자체가 GPU 체제에서 세워진 만큼 NPU 시장이 짧은 시일 내에 활성화되긴 어려울 것으로 보인다. 이에 GPU와 함께 칩셋을 이루며 방대한 데이터를 빠르게 처리하는 고성능 D램인 고대역폭메모리(HBM)가 AI 반도체의 효율을 극대화할 수 있는 방책으로 떠올랐다. ●침체된 반도체 시장 훈풍 기대감 SK하이닉스의 3세대 ‘HBM3’ 제품은 A100에 탑재되고 있으며, 엔비디아의 차기 GPU 신제품에 4세대 ‘HBM4’가 적용될 전망이다. 삼성전자는 HBM에 AI 프로세서를 결합한 지능형메모리(HBM-PIM) 제품을 AMD의 최신 GPU 제품에 공급하고 있다. 삼성전자에 따르면 HBM-PIM을 활용하면 기존 GPU 가속기 대비 평균 성능이 2배 증가하고 에너지 소모는 50% 감소한다. 업계에선 이런 고성능 D램이 얼어붙은 메모리반도체 시장의 ‘구원투수’ 역할을 할 수 있다고 보고 있다.
  • [고든 정의 TECH+] 차세대 GPU 메모리의 미래…한국이 주도하는 HBM 메모리

    [고든 정의 TECH+] 차세대 GPU 메모리의 미래…한국이 주도하는 HBM 메모리

    현재 그래픽 카드 메모리의 주류는 GDDR (Graphics DDR) SDRAM 메모리입니다. 초창기 그래픽 카드는 PC용 시스템 메모리와 동일한 메모리를 사용했지만, 그래픽 처리 프로세서인 GPU의 급격한 성능 발달로 이미 2000년대 초반 속도 한계에 직면했습니다. CPU용으로 개발된 시스템 메모리로는 GPU가 처리하는 방대한 데이터를 감당하기 어려워진 것입니다. 기본적으로 GPU는 큰 크기의 고해상도 그래픽 데이터를 빠르게 (가능한 초당 60 프레임 이상으로) 처리해야 합니다. 그래야 화려한 게임 그래픽을 끊김 없이 처리할 수 있습니다. 이런 이유로 2003년부터 일반 DDR 메모리보다 더 큰 대역폭을 지닌 GDDR 메모리가 그래픽 카드에 도입되기 시작합니다. GDDR2 메모리는 2003년 출시한 엔비디아의 지포스 FX 5700/5800 울트라 시리즈에 처음 사용됩니다. (1세대 GDDR 메모리는 90년대 후반 등장했는데 당시 그래픽 카드에는 사용되지 않았습니다) 하지만 GDDR 메모리의 본격적인 보급은 2004년 등장한 GDDR3부터입니다. GDDR3는 나중에 AMD에 합병된 ATI와 엘피다, 하이닉스, 인피니온 등 메모리 제조사들이 협력해 만든 그래픽 메모리 규격입니다. 이름과는 달리 DDR2 기반으로 덕분에 DDR3 메모리 규격이 확립되기 전인 2004년부터 본격적으로 보급될 수 있었습니다. GDDR 메모리는 DDR 메모리보다 데이터가 지날 수 있는 통로가 더 많고 데이터 전송 속도가 빨라 3D 그래픽처럼 대용량 데이터를 빠르게 처리할 때 유리합니다. 사실 GPU가 빠른 속도로 발전할 수 있었던 것은 이를 뒷받침할 GDDR 메모리의 발전이 있었기 때문입니다. 따라서 DDR 메모리보다 버전 업데이트가 훨씬 빨리 이뤄져 DDR4 메모리가 도입되는 동안 GDDR5, GDDR5x, GDDDR6 같은 새로운 규격이 등장했습니다. GDDR6 메모리를 사용한 지포스 RTX 2080의 경우 14Gbps GDDR5 (256bit) 메모리에서 448GB/s의 넓은 대역폭을 지원받고 있습니다. 이는 DVD 영화 100편 정도를 1초에 전송하는 속도입니다. 하지만 GDDR 메모리 규격 역시 점점 한계에 도달하고 있습니다. GDDR3에서 메모리 칩 하나 당 19.9 GB/s의 속도를 확보했고, GDDR5에서 40–64 GB/s, GDDR6에서 112–128 GB/s으로 늘어나기는 했지만, GPU의 연산 능력이 급격히 향상되면서 한계에 봉착한 것입니다. 이는 GPU가 게임에서만 쓰이는 것이 아니라 인공지능이나 슈퍼컴퓨터 같은 더 중요한 분야에 사용되면서 연산 능력이 급격히 높아진 것도 원인입니다. HBM (High Bandwidth Memory) 메모리는 이 문제에 대한 가장 합리적인 해결책입니다. HBM 메모리는 삼성전자, SK 하이닉스, AMD의 협력으로 개발되었으며 2013년 SK 하이닉스에서 첫 제품을 내놓았습니다. HBM은 여러 개의 D램 다이(die)를 아파트처럼 수직으로 쌓고 여기에 데이터 통로인 TSV (through-silicon via)를 뚫어 고속으로 데이터를 주고받는 메모리라고 할 수 있습니다. 아예 통로를 여러 개 뚫어 대량으로 데이터를 전송하기 때문에 대역폭에서 GDDR6 메모리를 크게 앞설 수 있습니다. 따라서 슈퍼컴퓨터나 인공지능 연산용 고성능 GPU에 사용됩니다. 하지만 비싼 가격으로 인해 일반 그래픽 카드에는 제한적으로 보급되고 있습니다.올해 출시된 AMD의 라데온 VII 그래픽 카드는 HBM2 메모리를 사용하는데, 4개만 있어도 1TB/s의 대역폭과 16GB의 메모리 용량을 확보할 수 있습니다. 하지만 이미 국내 메모리 제조사들은 이를 뛰어넘는 제품을 개발했습니다. 올해 3월 삼성전자가 공개한 플래시볼트 (Flashbolt) HBM2E 메모리는 칩 하나 당 410GB/s의 대역폭과 16GB의 용량을 제공합니다. 8개의 다이를 수직으로 올린 후 5000개 이상의 TSV로 연결해 속도와 용량을 획기적으로 끌어 올렸습니다. 그리고 이번 달 SK 하이닉스는 이보다 더 빠른 460GB/s 속도의 HBM2E 메모리를 개발했다고 발표했습니다. 이 제품을 4개 사용한 GPU는 1.84TB/s의 대역폭과 64GB의 용량을 확보할 수 있습니다. 이렇게 빠르고 용량이 큰 메모리가 필요한지 의문을 지닐 수도 있지만, 단순히 게임용이 아니라 인공지능 및 슈퍼컴퓨터를 위해서는 이것도 부족할 수 있습니다. 현재 국내 제조사들은 HBM2E보다 더 빠른 HBM3 및 HBM4 메모리 개발을 위한 연구를 진행하고 있습니다. 이 메모리는 현재 미국이 개발하는 엑사스케일 슈퍼컴퓨터에 사용될 것입니다. 국내 기업이 주도하는 HBM 메모리는 인공지능 및 슈퍼컴퓨터 개발에 없어서는 안 될 핵심 부품이라고 할 수 있습니다. 다른 한편으로 일반 소비자용 그래픽 카드에서 HBM 메모리를 사용할 수 있게 하려는 시도도 진행 중입니다. GDDR 규격도 좀 더 빨라질 수 있지만, 대역폭 문제의 근본적인 해결책은 메모리 구조 자체를 혁신한 HBM 메모리의 염가형 버전을 보급하는 것입니다. HBM 메모리를 사용한 그래픽 카드 중 그나마 저렴한 라데온 VII이 699달러로 아직 꽤 비싼 편이기 때문에 500달러 이하 그래픽 카드에서 사용할 수 있는 HBM 메모리가 필요할 것입니다. 결국 이 문제 역시 국내 제조사들의 노력에 달려 있습니다. GDDR 메모리가 결국 DDR 메모리를 대체하고 그래픽 카드 메모리의 대세가 된 것처럼 언젠가는 HBM 메모리가 새로운 대세가 될 날이 올 것으로 기대합니다. 고든 정 칼럼니스트 jjy0501@naver.com 
위로