찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • SOCAMM2
    2026-04-21
    검색기록 지우기
  • TCU
    2026-04-21
    검색기록 지우기
  • PC
    2026-04-21
    검색기록 지우기
  • LED
    2026-04-21
    검색기록 지우기
  • ISE
    2026-04-21
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
5
  • SK하이닉스 전성비갑 ‘소캠2’ 출격… AI 메모리 새판짜기

    SK하이닉스 전성비갑 ‘소캠2’ 출격… AI 메모리 새판짜기

    적은 전기로 데이터 처리 속도 2배엔비디아 슈퍼칩 ‘베라 루빈’ 최적화HBM과 투트랙으로 효율성 높여차세대 기술서도 주도권 확보 총력“메모리 성능의 새로운 기준 될 것” SK하이닉스가 차세대 인공지능(AI) 서버용 메모리 모듈인 ‘소캠2(SOCAMM2) 192GB’를 본격 양산한다고 20일 밝혔다. 스마트폰 등에 쓰이던 저전력 D램(LPDDR5X)을 AI 서버에서 빠른 속도로 구동하면서도 전력 소비는 낮도록 개량한 제품이다. AI의 추론기능이 중요해지면서 전력 소비 대비 높은 성능이 요구되는 가운데 SK하이닉스가 고대역폭메모리(HBM)에 이어 차세대 영역에서도 주도권을 잡겠다고 선언한 셈이다. SK하이닉스는 “소캠2는 (DDR5를 활용한) 기존 서버용 메모리 모듈(RDIMM) 대비 데이터 처리 속도(대역폭)가 2배 이상 빠르고, 전력 효율은 75% 이상 개선된 고성능 AI 연산 최적화 솔루션”이라고 이날 밝혔다. 더 적은 전기로 더 많은 데이터를 처리할 수 있다는 의미다. 특히 이 제품은 엔비디아의 차세대 AI 플랫폼 ‘베라 루빈’에 맞춰 설계돼 향후 AI 서버에 본격 적용될 가능성이 크다. 이번 발표가 주목받는 이유는 AI 메모리 시장의 구조 변화와 맞물려 있어서다. 그간 AI 서버는 그래픽처리장치(GPU)가 연산을 수행하고, 이를 초고속으로 지원하는 HBM과 데이터를 저장·공급하는 RDIMM 중심으로 구성돼 왔다. GPU가 요리사라면 HBM은 바로 사용할 재료를 올려두는 도마, RDIMM은 재료를 보관하다 필요할 때 꺼내 쓰는 냉장고 역할을 했던 셈이다. 다만 AI 연산 속도가 급격히 빨라지면서 RDIMM의 데이터 공급 속도와 전력 효율이 병목 요인으로 지적돼 왔다. HBM 중심 구조를 유지하면서도, 보다 빠르고 효율적인 메모리에 대한 수요가 확대된 이유다. SK하이닉스는 소캠2를 통해 이런한 문제를 줄여, AI 처리 속도를 높이겠다는 전략이다. 업계에서는 소캠2에 대해 HBM의 완전한 대체품보다 역할을 나눌 것으로 보고 있다. HBM이 최고 성능을 담당한다면, 소캠2는 전력과 비용을 줄이면서 데이터를 효율적으로 공급하는 역할을 맡는 식이다. 이를 통해 AI 서버는 더 많은 작업을 보다 효율적으로 처리할 수 있게 된다. 이 같은 흐름은 AI 시장이 ‘학습’ 중심에서 ‘추론’ 중심으로 이동하는 변화와도 맞닿아 있다. 학습은 데이터를 이용해 AI 모델을 훈련시키는 과정이고, 추론은 학습된 AI를 실제 서비스에 활용하는 단계다. 최근에는 많은 기업들이 AI를 실제 서비스에 적용하면서 전력 효율이 높은 메모리 수요가 빠르게 늘고 있다. SK하이닉스 김주선 AI 인프라 사장은 “소캠2 192GB 제품 공급으로 AI 메모리 성능의 새로운 기준을 세웠다”며 “글로벌 AI 고객과의 긴밀한 협력을 바탕으로 최적의 성능을 제공하고, 신뢰받는 AI 메모리 솔루션 기업으로 자리매김하겠다”고 밝혔다.
  • 최태원 “2030년까지 칩 부족… 국내 생산 시설로 신속 대응”

    최태원 “2030년까지 칩 부족… 국내 생산 시설로 신속 대응”

    최 회장 “가격 안정화 계획 곧 발표”SK하이닉스, 미국 ADR 상장 검토젠슨 황 “여러분들 완벽하다” 극찬 최태원 SK그룹 회장이 인공지능(AI) 혁명에 따른 메모리 반도체 공급 부족 현상이 2030년까지 이어질 것이라는 분석을 내놨다. 최 회장은 시장의 수급 불균형에 대응하기 위해 국내 생산 기지를 활용한 신속 대응 체제를 강조하는 한편, 기업 가치 재평가를 위한 미국 주식예탁증서(ADR) 상장 검토 사실을 공식화했다. 최 회장은 16일(현지시간) 미국 새너제이에서 열린 엔비디아의 연례 개발자 콘퍼런스(GTC 2026)에 곽노정 SK하이닉스 사장 등 핵심 경영진과 함께 참석했다. 최 회장이 GTC를 직접 찾은 것은 이번이 처음이다. 젠슨 황 엔비디아 최고경영자(CEO)의 기조연설 직후 취재진과 만난 최 회장은 “웨이퍼 확보에만 최소 4, 5년이 걸리는 만큼 2030년까지 업계 전반의 (메모리) 공급 부족이 20% 이상 지속될 가능성이 높다”고 진단했다. 특히 특정 제품군에만 수요가 쏠리는 현상을 경계하며 “HBM에 너무 집중하면 일반 D램 부족으로 스마트폰 등 기존 산업이 타격을 입는다”며 균형 있는 생태계 조성을 위한 가격 안정화 계획을 조만간 발표할 것이라고 덧붙였다. 최 회장은 해외 공장 설립에 대해 “전력·용수·건설 여건·엔지니어링 인력이 갖춰져야 한다”며 한국 생산 시설에 집중하겠다는 뜻을 밝혔다. SK하이닉스의 미국 ADR 상장 가능성에 대해선 “글로벌 주주들에게 노출을 확대해 더 글로벌한 회사가 되기 위한 검토를 진행 중”이라고 밝혔다. 최 회장은 이날 오후 SK하이닉스 부스를 직접 찾은 황 CEO와 재회했다. 지난달 비공식 ‘치맥 회동’ 이후 한 달여 만에 다시 마주한 두 사람은 부스 내 전시된 차세대 메모리 솔루션들을 차례로 살폈다. 황 CEO는 차세대 HBM4와 서버용 D램 모듈인 SOCAMM2가 실제 GPU 모듈에 장착된 전시용 모형을 유심히 살폈으며, 최신 ‘그레이스 블랙웰(GB300)’ 기반 시스템 실물을 통해 양사의 기술 결합력을 확인했다. 현장에서 황 CEO는 “여러분들은 완벽하다(You guys are perfect)”는 극찬을 건네기도 했다. 그러면서 양사의 핵심 협력 제품인 ‘베라 루빈 200’ 패키지 위에 “JENSEN♡SK HYNIX”라는 친필 사인을 남기며 파트너십을 재확인했다. 최 회장 역시 전시장 이동 중 황 CEO의 딸인 매디슨 황 엔비디아 총괄과 인사를 나누며 각별한 유대를 보여줬다. 다만 시장의 경쟁 구도는 한층 치열해지는 양상이다. 황 CEO가 SK하이닉스뿐만 아니라 삼성전자와 마이크론 부스를 잇달아 방문한 것은 엔비디아가 특정 업체에 대한 의존도를 낮추는 ‘공급망 다변화’ 전략을 본격화했음을 시사한다. 실제로 마이크론은 이날 베라 루빈용 HBM4 12단 제품의 양산 출하를 공식화했고, 삼성전자는 차세대 ‘HBM4E’ 실물 칩을 전격 공개하며 추격에 박차를 가했다.
  • 젠슨 황 “내년 매출 1500조원”… 삼성이 ‘차세대 AI칩’ 찍어낸다

    젠슨 황 “내년 매출 1500조원”… 삼성이 ‘차세대 AI칩’ 찍어낸다

    젠슨 황 엔비디아 최고경영자(CEO)가 16일(현지시간) 미국 새너제이 SAP 센터에서 열린 엔비디아의 연례 개발자 콘퍼런스(GTC 2026) 기조연설에서 “2027년 엔비디아가 맞이할 인공지능(AI) 칩 매출 기회가 1조 달러(약 1500조원)에 달할 것”이라고 선언했다. 지난 GTC에서 제시한 전망치보다 2배 커진 숫자에 현장에서는 환호성이 나왔다. 엔비디아는 이 새로운 전환을 현실화할 전략적 우군으로 삼성전자를 지목했다. 추론 특화 LPU ‘그록3’ 공개AI슈퍼컴퓨터 ‘베라 루빈’에 통합언어 추론 시간 줄여 효율 극대화그록 칩 80% ‘삼성 S램’으로 채워황 CEO는 최근 시장에서 제기된 ‘AI 버블’과 ‘빅테크의 자체 칩 개발’이라는 의구심을 정면 돌파했다. 황 CEO는 자신을 ‘토큰 킹’이라 부르며, AI 답변 생성 단위인 ‘토큰’을 ‘새로운 시대의 원자재’로 정의한 뒤 “엔비디아 시스템의 토큰당 생성 비용은 세계에서 가장 저렴하다”고 강조했다. 빅테크들이 막대한 고정비를 들여 직접 칩을 설계하는 것보다 엔비디아 생태계 안에서 토큰을 생산하는 것이 경제적이라는 의미다. 엔비디아는 이날 빠른 추론에 특화된 전용 칩인 언어처리장치(LPU) ‘그록3’를 공개하고, 이를 차세대 AI 슈퍼컴퓨터 ‘베라 루빈’에 통합한다고 밝혔다. 기존의 ‘루빈’ 그래픽처리장치(GPU)는 대규모 데이터 처리에 강하고 새로운 LPU는 언어 추론의 지연 시간을 줄인다. 이 둘을 함께 쓰면 성능과 효율을 모두 높일 수 있다는 의미다. 이 중 엔비디아식 고효율 비용 파괴를 실현할 그록3는 삼성전자가 평택 공장에서 위탁 생산하고 있다. 삼성이 제조한 그록 칩은 내부의 80%가 S램(SRAM)으로 채워져 전력당 토큰 처리량을 35배 높이는 ‘괴물 같은 성능’을 자랑한다. 황 CEO는 이날 기조연설 중 “삼성이 우리를 위해 칩을 제조해줘 정말 감사하다”고 이례적인 감사를 표했다. 해당 제품은 올해 3분기 말에서 4분기 초 양산에 들어갈 예정이다. 삼성전자는 메모리와 파운드리를 하나로 묶는 독보적인 ‘종합 반도체 업체’(IDM)의 면모를 보이며 화답했다. 삼성은 GTC 전시장에서 메모리업체 중 유일하게 차세대 GPU인 ‘베라 루빈’ 플랫폼에 HBM4, 저전력 메모리(SOCAMM2), 초고속 SSD가 모두 탑재된 실물 서버를 공개했다. 베라 루빈은 단일 칩을 넘어 CPU, GPU, 네트워크, 보안, 메모리를 시스템으로 통합한 아키텍처다. 삼성전자 독보적 종합 반도체 업체HBM4 등 탑재된 실물 서버 공개2나노 도입 계획… 기술 초격차 자신“성능 최적화 위해 선단 공정 불가피”황상준 삼성전자 메모리개발담당 부사장은 현장에서 “올해 HBM 생산량을 작년보다 3배 이상 늘리고 이 중 절반 이상을 6세대 HBM4로 채우겠다”며 프리미엄 시장 주도권을 확보하겠다는 뜻을 보였다. 차세대 로드맵도 구체화했다. 삼성은 현재 양산 중인 6세대 HBM4와 7세대 HBM4E 베이스 다이(HBM 맨 아래 탑재되는 핵심 부품)에 4나노 공정을 적용하고, 8세대 HBM5부터는 삼성 파운드리의 2나노 선단 공정을 전격 도입한다. 황 부사장은 “성능 최적화를 위해 선단 공정 활용은 불가피하다”며 기술 초격차에 대한 자신감을 드러냈다. 기조연설 직후 삼성전자 전시장을 찾은 황 CEO는 HBM4 코어다이에 ‘어메이징(Amazing) HBM4!’, 평택산 그록 웨이퍼에는 ‘그록 슈퍼 패스트’(Groq Super Fast)라고 서명하며 기술력을 공인했다. 이튿날인 18일에는 리사 수 AMD CEO도 삼성 평택캠퍼스를 방문해 파운드리 협력 확대를 논의할 예정이다. 엔비디아와 AMD라는 반도체 양강이 동시에 삼성에 손을 내미는 셈이다. 젠슨 황 “어메이징 HBM4”평택산 웨이퍼에 ‘슈퍼 패스트’ 서명AMD CEO도 오늘 평택공장 방문반도체 2강, 삼성전자에 손 내밀어이날 엔비디아는 삼성전자가 생산하는 그록 LPU를 포함한 차세대 로드맵을 발표했다. 황 CEO는 차세대 GPU인 ‘루빈’ 아키텍처를 기반으로 144개의 GPU를 연결하는 ‘루빈 울트라’ 시스템을 공개했다. 여기에 에이전트 AI 연산을 지휘할 차세대 CPU ‘로자’, 그리고 루빈의 뒤를 이을 차차세대 GPU ‘파인만’을 차례로 발표했다. 특히 소프트웨어 플랫폼 ‘네모클로’를 소개하며 AI가 스스로 작업을 수행하는 ‘에이전트’ 개발 생태계까지 엔비디아 내에 구축하겠다는 야심을 드러냈다. 연설 말미에는 지상 너머 우주 데이터센터인 ‘베라 루빈 스페이스 원’을 깜짝 공개하며 우주에서도 가속 컴퓨팅이 가동되는 시대를 예고했다.
  • AI ‘장치 vs 서비스’로 양극화…마이크론 날고 오러클은 주춤

    AI ‘장치 vs 서비스’로 양극화…마이크론 날고 오러클은 주춤

    ●마이크론, 2026년 1분기 깜짝 성장’ 금융시장에서 인공지능(AI) 거품론(투자 과열 논란)이 확산하고 있지만, AI 산업에서는 온도 차가 뚜렷하다. 실제 수익까지 장기간이 소요되는 인프라 투자 분야는 AI 거품론이 힘을 받는 반면, 수요가 여전히 견조한 핵심 부품 산업은 거품론이 무색하다. AI 서비스·클라우드 기업 오러클이 대규모 데이터센터 투자에 제동이 걸리며 AI 거품론의 중심에 선 반면, 마이크론테크놀로지는 ‘어닝 서프라이즈’를 기록하며 반도체 슈퍼사이클에 대한 기대감을 끌어올린 것이 대표적이다. 마이크론은 17일(현지시간) 2026회계연도 1분기(2025년 9~11월) 매출이 전년 동기 대비 57% 급증한 136억 4000만 달러(약 20조 1800억원)를 기록했다고 밝혔다. 산제이 메흐로트라 마이크론 CEO는 컨퍼런스콜에서 “1분기에 사상 최대 매출을 기록했다”며 “D램 수요의 50~60%만 충족할 수 있을 정도로 공급이 부족한 상황”이라고 강조했다. 마이크론은 HBM 시장 규모(TAM)가 2025년 350억 달러에서 2028년 1000억 달러로 급팽창할 것으로 내다봤다. 기존 예상보다 2년이나 앞당겨진 것이다. ●오러클, 14조원대 데이터센터 난항 이런 낙관론은 간밤에 전해진 오러클발 소식과 극명한 대비를 이룬다. 오러클은 오픈AI를 위한 100억 달러 규모의 AI 데이터센터 건설을 추진했지나, 핵심 투자자인 블루아울 캐피털이 자금 조달 조건 악화로 이탈하며 프로젝트에 불확실성이 커졌다. 대규모 AI 인프라 투자가 실제 수익으로 연결될 수 있냐는 시장의 의구심에 다시 불을 지핀 셈이다. 업계는 빅테크의 AI 투자 확대는 지속될 것으로 본다. 다만, AI 산업 내 분야별 사업 특성 상 특정 산업에 대한 거품론 우려는 지속될 수 있다고 본다. 일례로 오러클의 사업과 같은 데이터센터는 막대한 초기 인프라 투자 후 수익 회수까지 시간이 걸려 금융 환경에 민감하다. 반면 메모리는 AI 모델의 학습과 추론 과정에서 소모되는 필수재 성격이 커서 수요 증가가 즉각 실적으로 이어지고 있다. 마이크론의 선전은 국내 업계에도 대형 호재다. 글로벌 D램 시장은 삼성전자·SK하이닉스·마이크론 3사가 매출의 90% 이상을 점유하는 과점 구조로, HBM 양산이 가능한 곳도 이들뿐이다. 증권가는 삼성전자 반도체(DS) 부문의 올해 4분기 영업이익을 15조원 안팎으로, SK하이닉스는 16조원대 중반으로 전망하고 있다. 양사의 분기 합산 영업이익이 30조원을 넘어설 것이라는 관측이 지배적이다. ●D램 업계 차세대 기술 경쟁 치열 차세대 기술 경쟁도 치열하다. SK하이닉스는 업계 최초로 인텔의 최신 서버 플랫폼 ‘제온 6’로부터 256GB DDR5 모듈의 호환성 인증을 획득하며 고용량 시장 선점에 나섰다. 기존 제품 대비 추론 성능은 16% 높이고 전력 소모는 18% 줄였다. 삼성전자는 엔비디아의 차세대 AI 플랫폼 ‘베라 루빈’을 겨냥해 저전력·고대역폭 특성을 갖춘 모듈형 메모리 ‘SOCAMM2’ 협력을 논의 중이다. 기존 DDR5 대비 전력 소모를 최대 77% 절감할 수 있는 SOCAMM2는 고성능 칩이 밀집된 차세대 서버 환경의 핵심 솔루션으로 꼽힌다.
  • ‘치맥회동’ 여운, 업계 최대 ‘AI 팩토리’로 잇는다…삼성전자, 엔비디아에 HBM4 공급

    ‘치맥회동’ 여운, 업계 최대 ‘AI 팩토리’로 잇는다…삼성전자, 엔비디아에 HBM4 공급

    삼성전자가 31일 엔비디아에 성능과 에너지 효율을 대폭 향상시킨 6세대 고대역폭메모리(HBM)4를 엔비디아에 공급한다고 밝혔다. 또 엔비디아의 그래픽처리장치(GPU) 5만개 이상을 도입해 ‘반도체 인공지능(AI) 팩토리’를 구축하기로 했다. 삼성전자는 이날 엔비디아에 ▲HBM3E ▲HBM4 ▲GDDR7 ▲SOCAMM2 등 차세대 메모리와 파운드리 서비스를 공급한다고 밝혔다. 삼성전자의 HBM4는 1c(10나노급 6세대) D램 기반에 4나노 로직 공정을 적용하고 설계를 최적화해 고객 요구를 상회하는 11기가비트(Gbps) 이상의 성능을 구현한 것이 특징이다. 초고대역폭과 저전력 특성을 바탕으로 AI 모델 학습과 추론 속도를 높여 엔비디아의 AI 플랫폼 성능을 향상시키겠다는 전략이다. HBM 외에 업계 최초로 개발한 고성능 그래픽 D램(GDDR7)과 차세대 저전력 메모리 모듈 ‘SOCAMM2’ 공급도 협의 중이다. 현재 삼성전자는 글로벌 전 고객사에게 HBM3E를 공급하고 있으며 HBM4도 샘플을 요청한 모든 고객사에 샘플 출하를 완료한 뒤 양산 출하를 준비 중이다. 또 삼성전자는 향후 5만 개 이상의 엔비디아 GPU를 도입해 업계 최고 수준의 반도체 AI 팩토리를 구축하기로 했다. AI 팩토리는 ▲설계 ▲공정 ▲운영 ▲장비 ▲품질관리 등 반도체 설계와 생산을 아우르는 모든 과정에 AI를 적용해 스스로 분석·예측·제어하는 ‘생각하는’ 제조 시스템이 구현된 스마트 공장이다. AI 팩토리가 갖춰지면 차세대 반도체의 개발과 양산 주기를 단축하고, 제조 효율성과 품질 경쟁력을 혁신적으로 강화할 수 있다는 장점이 있다. 삼성전자의 AI 팩토리는 엔비디아의 시뮬레이션 라이브러리 옴니버스를 기반으로 ‘디지털 트윈’ 제조 환경을 구현하는 것이 골자다. 디지털 트윈은 실제 공장, 장비 등을 가상 환경에 동일하게 구현한 모델로, 현장에 가지 않고도 가상 환경에서 실시간 운영 분석·예측이 가능하다는 장점이 있다. 디지털트윈 기반 시뮬레이션을 활용하면 개발 기간을 크게 단축하는 것은 물론, 소량의 웨이퍼로도 공정 개발이 가능해진다. 수율 분석 소요 시간도 크게 단축돼 조기에 수율을 향상시킬 수 있으며 실시간으로 공정의 문제점을 분석해 자동 조치도 가능하다. 향후 삼성전자는 AI 팩토리 인프라 구축과 관련 노하우를 한국과 미국 테일러 등 해외 주요 생산 거점에까지 확장해, 글로벌 반도체 공급망 전체의 지능화와 효율화를 완성한다는 전략이다. 또 AI 팩토리를 중심으로 엔비디아와 함께 국내외 파트너사와 차세대 반도체 설계 도구를 공동 개발하고 AI 기반 반도체 제조 표준을 선도해 AI 생태계 발전에 이바지하겠다고 밝혔다.
위로