찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • 소캠2
    2026-04-21
    검색기록 지우기
  • TCU
    2026-04-21
    검색기록 지우기
  • PC
    2026-04-21
    검색기록 지우기
  • LED
    2026-04-21
    검색기록 지우기
  • ISE
    2026-04-21
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
3
  • 소캠2 메모리 규격, AI 넘어 서버 시장의 미래될까? [고든 정의 TECH+]

    소캠2 메모리 규격, AI 넘어 서버 시장의 미래될까? [고든 정의 TECH+]

    AI 데이터 센터 건설 붐이 거센 가운데, 메모리 수요 역시 폭증하고 있습니다. 메모리 종류 역시 전통적인 HBM이나 DDR5 메모리뿐 아니라 그래픽 카드용 GDDR 메모리는 물론 스마트폰용으로 개발된 LPDDR 메모리까지 AI 데이터센터가 블랙홀처럼 빨아 들이고 있습니다. 이런 현상을 보여주는 대표적인 제품이 엔비디아의 베라 루빈 (Vera Rubin) 입니다. Arm 아키텍처 기반의 베라 CPU와 루빈 GPU를 결합한 제품으로 루빈 GPU에는 최초로 HBM4 메모리가 탑재됩니다. 하지만 베라 CPX 같은 일부 제품은 HBM4 메모리 대신 저렴한 GDDR7 128GB 메모리를 탑재해 소비자용 그래픽 카드의 메모리 수급난이 더 심해질 것으로 예상됩니다. 베라 CPU의 경우 전통적인 DDR5 메모리는 물론 차세대 메모리 규격인 SOCAMM 2 (Small Outline Compression Attached Memory Module 2, 이하 소캠 2)을 사용할 수 있습니다. 소캠 2는 LPDDR5x 메모리를 서버에서도 사용할 수 있게 만든 규격으로 기존의 서버 메모리 모듈의 대세인 RDIMM를 대체할 수 있는 규격으로 주목받고 있습니다. LPDDR5x 메모리는 본래 스마트폰 등 모바일 기기를 위해 제안된 규격이기 때문에 메모리를 PCB 기판에 직접 붙이는 방식을 사용합니다. 따라서 교체나 업그레이드가 불가능합니다. 이는 스마트폰에서는 큰 문제가 되지 않으나 수리를 위해 메모리를 교체하거나 혹은 메모리 증설이 필요한 서버에서는 매우 불리한 방식입니다. 이런 단점을 개선하기 위해 LPDDR5x 메모리를 탈부착이 가능한 규격으로 만든 것이 소캠 2라고 할 수 있습니다. 소캠은 사실 노트북용으로 개발된 규격인 캠 (Compression Attached Memory Module, 압축 부착 메모리 모듈, CAMM)에서 유래한 규격입니다. 본래 의도는 노트북에서 사용되는 SO-DIMM이라는 오래된 규격을 대신해 LPDDR 메모리를 노트북에서도 사용할 수 있게 하는 것이었습니다. 하지만 캠 규격은 노트북 시장에서는 기대만큼 널리 사용되지 못했습니다. 인텔은 아예 LPDDR5x 메모리를 CPU와 함께 패키징 했고 AMD도 일부 모델에서 메모리를 같이 패키징 해서 크기를 줄이는 방향으로 개발했기 때문입니다. 그런데 LPDDR5x 메모리를 스마트폰 말고 컴퓨터에서도 쓰자는 아이디어가 AI 서버에서 더 주목받게 됩니다. 서버용 소캠 2 규격은 단일 모듈로 최대 256GB의 대용량을 구현할 수 있으며, 기존 DDR5보다 월등히 높은 153.6GB/s의 대역폭을 확보할 수 있습니다. 더욱 주목할 점은 장착 방식의 변화입니다. 수직으로 세워 장착하던 기존 RDIMM과 달리, 소캠 2는 CPU나 GPU처럼 기판에 평평하게 눕혀 장착하는 ‘압축 부착’ 방식을 취합니다. 덕분에 시스템 전체의 높이를 낮출 수 있고 일체형 냉각 솔루션을 적용하기가 훨씬 수월해졌습니다. 이는 강력한 발열 관리를 위해 수랭식 시스템 도입이 필수적인 베라 루빈 같은 고성능 서버에 매우 유리한 물리적 특성입니다. 여기에 막대한 전력 소모와 발열 문제로 골머리를 앓는 AI 데이터 센터 운영자들에게 저전력 특성을 지닌 LPDDR5x 기반의 소캠 2는 운영 비용을 절감할 수 있는 매력적인 해법입니다. 기본적으로 저전력인 LPDDR 규격인 데다 메인보드와 메모리 사이의 거리를 줄인 압축 부착 방식 덕분에 데이터 전송 과정에서 발생하는 전력 손실과 신호 간섭을 줄여 전력 소모는 줄이고 성능은 높일 수 있습니다. 최근 하이닉스의 192GB 소캠 2 메모리 양산을 발표했는데, 베라 CPU는 소캠 모듈 8개를 지원해 1.5TB의 용량을 채울 수 있습니다. 그리고 삼성과 마이크론 모두 256GB 소캠 2 제품의 샘플을 출하한 상태이기 때문에 미래에는 2TB 메모리 (256GB x8)까지 확장할 수 있을 것으로 보입니다. 물론 소캠 2의 장점은 엔비디아만 주목하는 것이 아닙니다. 경쟁자인 AMD 역시 차세대 에픽 서버 CPU인 베라노 (Verano)에 소캠 2를 지원할 예정입니다. 베라노는 2027년 출시를 목표로 하고 있으며 인스팅트 IM500 GPU와 함께 AMD의 AI 플랫폼을 구성할 예정입니다. 사정이 이렇다면 인텔 역시 서버 제품에서 소캠 2 지원을 고려하지 않을 수 없을 것입니다. 이렇게 AI 데이터 센터 시장에서 소캠 2 채택이 확산되면 소비자용 스마트폰 및 노트북 시장까지 영향이 있을 것으로 예상됩니다. LPDDR5x까지 데이터 센터로 빨려 들어가기 때문입니다. 물론 현재는 모든 형태의 메모리가 AI 데이터 센터로 향하고 있다고 해도 과언이 아닌 시기이기도 합니다. 다만 현재와 같은 AI 데이터 센터 붐이 가라앉더라도 LPDDR 메모리를 서버에서 사용할 때 누릴 수 있는 장점이 확실하기 때문에 결국 서버 시장에서 소캠이 새로운 대세로 자리잡을 가능성이 높아 보입니다. 그리고 언젠가 데스크톱 시장 역시 소캠이나 혹은 노트북용인 CAMM 규격이 확산되어 높은 성능과 낮은 전력 소모라는 장점을 누릴 날이 올 것으로 기대합니다.
  • SK하이닉스 전성비갑 ‘소캠2’ 출격… AI 메모리 새판짜기

    SK하이닉스 전성비갑 ‘소캠2’ 출격… AI 메모리 새판짜기

    적은 전기로 데이터 처리 속도 2배엔비디아 슈퍼칩 ‘베라 루빈’ 최적화HBM과 투트랙으로 효율성 높여차세대 기술서도 주도권 확보 총력“메모리 성능의 새로운 기준 될 것” SK하이닉스가 차세대 인공지능(AI) 서버용 메모리 모듈인 ‘소캠2(SOCAMM2) 192GB’를 본격 양산한다고 20일 밝혔다. 스마트폰 등에 쓰이던 저전력 D램(LPDDR5X)을 AI 서버에서 빠른 속도로 구동하면서도 전력 소비는 낮도록 개량한 제품이다. AI의 추론기능이 중요해지면서 전력 소비 대비 높은 성능이 요구되는 가운데 SK하이닉스가 고대역폭메모리(HBM)에 이어 차세대 영역에서도 주도권을 잡겠다고 선언한 셈이다. SK하이닉스는 “소캠2는 (DDR5를 활용한) 기존 서버용 메모리 모듈(RDIMM) 대비 데이터 처리 속도(대역폭)가 2배 이상 빠르고, 전력 효율은 75% 이상 개선된 고성능 AI 연산 최적화 솔루션”이라고 이날 밝혔다. 더 적은 전기로 더 많은 데이터를 처리할 수 있다는 의미다. 특히 이 제품은 엔비디아의 차세대 AI 플랫폼 ‘베라 루빈’에 맞춰 설계돼 향후 AI 서버에 본격 적용될 가능성이 크다. 이번 발표가 주목받는 이유는 AI 메모리 시장의 구조 변화와 맞물려 있어서다. 그간 AI 서버는 그래픽처리장치(GPU)가 연산을 수행하고, 이를 초고속으로 지원하는 HBM과 데이터를 저장·공급하는 RDIMM 중심으로 구성돼 왔다. GPU가 요리사라면 HBM은 바로 사용할 재료를 올려두는 도마, RDIMM은 재료를 보관하다 필요할 때 꺼내 쓰는 냉장고 역할을 했던 셈이다. 다만 AI 연산 속도가 급격히 빨라지면서 RDIMM의 데이터 공급 속도와 전력 효율이 병목 요인으로 지적돼 왔다. HBM 중심 구조를 유지하면서도, 보다 빠르고 효율적인 메모리에 대한 수요가 확대된 이유다. SK하이닉스는 소캠2를 통해 이런한 문제를 줄여, AI 처리 속도를 높이겠다는 전략이다. 업계에서는 소캠2에 대해 HBM의 완전한 대체품보다 역할을 나눌 것으로 보고 있다. HBM이 최고 성능을 담당한다면, 소캠2는 전력과 비용을 줄이면서 데이터를 효율적으로 공급하는 역할을 맡는 식이다. 이를 통해 AI 서버는 더 많은 작업을 보다 효율적으로 처리할 수 있게 된다. 이 같은 흐름은 AI 시장이 ‘학습’ 중심에서 ‘추론’ 중심으로 이동하는 변화와도 맞닿아 있다. 학습은 데이터를 이용해 AI 모델을 훈련시키는 과정이고, 추론은 학습된 AI를 실제 서비스에 활용하는 단계다. 최근에는 많은 기업들이 AI를 실제 서비스에 적용하면서 전력 효율이 높은 메모리 수요가 빠르게 늘고 있다. SK하이닉스 김주선 AI 인프라 사장은 “소캠2 192GB 제품 공급으로 AI 메모리 성능의 새로운 기준을 세웠다”며 “글로벌 AI 고객과의 긴밀한 협력을 바탕으로 최적의 성능을 제공하고, 신뢰받는 AI 메모리 솔루션 기업으로 자리매김하겠다”고 밝혔다.
  • SK하이닉스, HBM4 16단 첫 공개… AI 메모리 신화 이어간다

    SK하이닉스, HBM4 16단 첫 공개… AI 메모리 신화 이어간다

    SK하이닉스가 미국 라스베이거스에서 열리는 ‘CES 2026’에 기업고객용 전시관을 열고 ‘고대역폭메모리(HBM)4 16단 48GB’를 처음 선보인다고 6일 밝혔다. HBM4 16단 48GB는 현재 업계 최고 속도인 11.7Gbps(초당 11.7기가비트)를 구현한 HBM4 12단 36GB의 후속 모델로 글로벌 초격차를 가속하는 데 일조할 것으로 보인다. 또 올해 전체 HBM 시장을 선도할 ‘HBM3E 12단 36GB’도 전시된다. HBM3E 12단 36GB는 엔비디아의 최신 인공지능(AI) 서버용 그래픽처리장치(GPU)에 탑재되는 모델이다. 이번 전시장에는 GPU 모듈을 함께 전시해 SK하이닉스의 HBM3E 12단 36GB가 AI 시스템 내에서 하는 역할을 시각적으로 구체화해 보여 줄 예정이다. 곽노정 대표이사(사장), 김주선 AI 인프라 사장(CMO) 등 SK하이닉스 임원진은 이날 오후 라스베이거스 퐁텐블로 호텔에서 열린 젠슨 황 엔비디아 최고경영자(CEO)의 특별 연설 직후 이곳을 찾아 엔비디아 측 인사들과 만났다. 엔비디아에 HBM4, HBM3E 등을 공급하는 핵심 협력사로서의 입지를 공고히 하는 행보로 보인다. 또 SK하이닉스 전시관엔 AI 서버에 특화돼 AI 서버 수요가 폭증할 경우에 대비한 저전력 메모리 모듈 ‘소캠2’도 전시된다. 온디바이스 AI 구현에 최적화된 차세대 저전력 메모리 LPDDR6도 선보인다. 낸드 분야에서는 AI 데이터센터 구축 확대로 수요가 급증하는 초고용량 기업용 메모리 저장장치(eSSD)에 최적화된 321단 2Tb 쿼드레벨 셀(QLC) 제품도 공개된다. QLC는 전력 효율과 성능을 크게 개선해 데이터센터의 저전력 환경에 적합하다. 이런 솔루션들이 실제 AI 생태계에서 어떻게 연결돼 움직이는지 살펴볼 수 있는 ‘AI 시스템 데모존’도 마련됐다. 특히 데모존에서는 고객 요청 사항을 반영해 GPU 등에 있던 일부 기능을 HBM에 옮기는 고객 맞춤형 cHBM(커스텀 HBM)의 내부 구조를 직접 확인할 수 있는 대형 모형이 등장한다. 해당 전시는 AI의 경쟁 축이 단순 성능에서 추론 효율과 비용 최적화로 이동하고 있다는 것을 보여 준다.
위로