찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • HBM
    2026-02-14
    검색기록 지우기
  • 2026
    2026-02-14
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
575
  • [고든 정의 TECH+] GPU도 서로 합쳤다…AMD 인스팅트 MI200 시리즈 공개

    [고든 정의 TECH+] GPU도 서로 합쳤다…AMD 인스팅트 MI200 시리즈 공개

    최근 CPU 업계의 한 가지 트랜드는 한 번에 큰 칩을 만드는 대신 여러 개의 작은 다이(Die, 집적회로 칩)를 서로 연결해 하나의 큰 칩처럼 만드는 것입니다. 제조사들은 프로세서의 성능을 높이기 위해 점점 더 복잡한 구조를 지닌 CPU를 개발하고 있습니다. 여기에 GPU나 각종 컨트롤러 및 인터페이스를 통합한 결과 프로세서의 크기는 최신 미세 공정으로도 감당하기가 부담스러울 정도로 커지고 있습니다. 최신 미세 공정을 사용할수록 가격이 천정부지로 치솟는 점 역시 제조사들에게 부담입니다. AMD는 7nm 공정 CPU부터 아예 CPU 코어 부분을 별도의 작은 칩렛(Chiplet)으로 분리시키고 여기에 14nm 공정으로 만든 I/O 다이를 붙여 CPU를 제조했습니다. 이렇게 하면 패키징 방식이 복잡해지는 단점이 있지만, 대신 꼭 최신 미세 공정을 적용하지 않아도 되는 부분에 저렴한 공정을 사용하고 칩렛을 여러 개 붙이는 방식으로 코어 숫자를 늘릴 수 있다는 장점이 있습니다. 인텔 역시 AMD의 칩렛 방식에 대응해 타일 방식의 멀티 다이 패키징 방식을 개발했습니다. 인텔은 고성능 GPU에서 이 방식을 먼저 적용한 후 소비자용 CPU인 메테오 레이크에 적용할 계획입니다. 그런데 사실 여러 개의 작은 다이를 하나로 합쳐 큰 프로세서를 만드는 방식은 CPU보다 거대한 GPU에 더 적합한 방식입니다. AMD는 최근 발표한 인스팅트 (Instinct) IM200 시리즈에서 두 개의 다이를 고속 인터페이스로 연결해 하나의 GPU처럼 만드는 방식을 도입했습니다.CPU와 마찬가지로 여러 개의 GPU를 사용해서 성능을 높이는 방식은 사실 오래전부터 사용되어 왔습니다. 엔비디아의 SLI, AMD 크로스파이어 기술이 대표적입니다. 하지만 이 방식은 두 개 이상의 GPU가 서로 데이터를 주고받는 과정에서 상당한 성능 손실이 발생합니다. 두 개의 그래픽 카드를 연결하면 성능이 두 배가 되는 것이 아니라 1.7배가 되는 식입니다. 이 단점을 극복하기 위해 그래픽 카드가 아니라 여러 개의 GPU 다이 사이를 직접 연결하는 방식이 필요했습니다. AMD의 인스팅트 IM200 가속기는 290억 개의 트랜지스터를 집적한 GCD 다이 두 개를 고속 인터페이스로 연결해 580억 개의 트랜지스터를 지닌 하나의 거대한 GPU처럼 작동하게 만들었습니다. (참고로 제조 공정은 TSMC의 N6) 덕분에 47.9TFLOPS의 FP32/64 벡터 역산 성능과 95.7TFLOPS의 FP32/64 메트릭스 연산 능력을 지니고 있습니다. 일반 연산 능력에 있어서는 542억 개의 트랜지스터를 하나의 거대한 다이에 집적한 엔비디아의 A100 가속기를 최대 4.9배 넘어선 것입니다. AMD는 인공지능 연산에 중요한 INT8 메트릭스 연산능력도 383TOPS로 경쟁사보다 좀 더 빠르다고 주장했습니다.IM200 시리즈는 8개의 HBM2E 메모리를 128GB를 탑재했으며 최대 3.2TB/s의 엄청난 대역폭을 자랑합니다. AMD는 OAM이라는 새로운 폼팩터를 도입해 4개에서 8개의 IM200 GPU를 1개 혹은 2개의 에픽 CPU와 조합해 사용할 수 있게 만들었습니다. 각각의 GPU는 560W의 전력을 소모하기 때문에 큰 벽돌 같은 대형 쿨러가 필요합니다. IM200 시리즈는 주로 게임을 구동하기 위한 일반적인 GPU가 아니라 2022년 공개할 엑사스케일 슈퍼컴퓨터에 들어갈 고성능 연산용 GPU입니다. 하지만 여기서 개발한 멀티 다이 패키징 기술은 앞으로 차세대 GPU에도 적용될 수 있습니다. 다이 사이를 연결하는 기술의 발전으로 여러 개를 연결해도 하나처럼 사용할 수 있다면 큰 다이를 만들 이유가 줄어들기 때문입니다. 한 번에 큰 칩을 제조할 경우 실패할 가능성도 높아져 수율은 떨어지고 가격은 올라갑니다. 앞으로 여러 개의 다이를 연결한 CPU나 GPU를 보게 될 가능성이 높아지는 이유입니다. AMD 인스팅트 IM 200 시리즈 자체는 일반 소비자가 사용할 일이 없는 서버, 슈퍼컴퓨터, 인공지능 연산 GPU이지만, 앞으로 소비자용 GPU의 발전 방향을 가늠하게 한다는 점에서 주목됩니다. 인텔과 AMD가 고성능 GPU에서 여러 개의 다이를 연결하는 방식을 이미 선보인 만큼 엔비디아의 대응 역시 주목됩니다. 
  • ‘풀HD 영화 163편 1초에 처리’ 4세대 D램 첫 개발

    ‘풀HD 영화 163편 1초에 처리’ 4세대 D램 첫 개발

    SK하이닉스, 데이터 처리 78% 빨라스스로 오류 정정 기능 갖춰 신뢰 높여머신러닝 등에 쓰이는 슈퍼컴에 적용16GB·24GB 제품 내년 중반부터 양산SK하이닉스는 현존 최고 사양을 갖춘 D램인 ‘HBM3’를 업계 최초로 개발했다고 20일 밝혔다. HBM(고대역폭 메모리)은 여러 개의 D램을 수직으로 연결한 것으로, 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고성능의 제품이다. 이번에 개발한 HBM3는 1세대에 해당하는 HBM을 시작으로 2세대(HBM2), 3세대(HBM2E)에 이은 4세대에 해당한다. SK하이닉스는 2013년 업계 최초로 HBM을 출시한 후 지난해 7월 HBM2E를 내놓은데 이어 1년 3개월만에 성능을 대폭 향상시킨 제품을 또다시 내놓게 됐다. 속도 측면에서 HBM3는 초당 819GB(기가바이트)의 데이터를 처리할 수 있다. 3세대 제품과 비교해 속도가 약 78% 빨라진 것으로, 풀HD급 영화 163편을 1초에 처리할 수 있다. 기존 HBM2E는 초당 460GB의 데이터 처리가 가능했었다. 신제품은 고성능 데이터센터에 탑재돼 인공지능(AI)의 완성도를 높이는 머신러닝과 기후변화 해석, 신약개발 등에 사용되는 슈퍼컴퓨터에도 적용될 전망이다. HBM3는 이전 세대와 달리 오류 정정코드가 제품에 내장돼 있어 데이터 송수신 시 오류를 스스로 보정해 신뢰성을 높인 점도 특징이다. HBM3는 16GB와 업계 최대 용량인 24GB 2종으로 출시된다. SK하이닉스는 HBM3를 채용하는 시스템이 구축되는 내년 중반부터 본격적으로 제품을 양산할 계획이다. 차선용 SK하이닉스 부사장은 “앞으로도 프리미엄 메모리 반도체 시장에서 리더십을 공고히 하겠다”고 말했다.
  • [고든 정의 TECH+] 멀티 타일 구조로 변화를 택한 인텔 사파이어 래피즈 프로세서

    [고든 정의 TECH+] 멀티 타일 구조로 변화를 택한 인텔 사파이어 래피즈 프로세서

    현재 우리가 사용하는 대부분의 모바일 AP나 데스크톱, 노트북 CPU는 다이(die)라고 부르는 하나의 집적회로 칩으로 구성되어 있습니다. 물론 두 개 이상의 다이를 사용하는 경우도 있는데, CPU + GPU나 CPU + 캐시 메모리, 혹은 두 개 이상의 CPU 다이를 붙여 만든 멀티 칩 패키징 (MCM) 방식의 프로세서들이 있습니다. 과거에는 한 번에 모든 부분을 제조하기 힘들었기 때문에 캐시 메모리나 보조 프로세서를 별도의 다이에 배치한 경우도 있었습니다. 하지만 반도체 제조 공정이 눈부시게 발전하면서 수십억 개의 트랜지스터를 하나의 다이에 집적할 수 있게 됐고, 덕분에 CPU나 GPU는 물론이고 과거에는 칩셋에 있던 부분까지 하나로 모은 SoC(System on a chip)가 새로운 대세가 됐습니다. 그런데 최근에는 반도체 미세 공정의 발전보다 프로세서가 커지는 속도가 빨라 하나의 다이로 된 모노리식(monolithic) 프로세서의 제조가 매우 어려워지고 있습니다. 여기에 10nm 이하의 최신 미세 공정 웨이퍼의 가격이 비싸지는 것도 부담입니다. 따라서 CPU 제조사들은 여러 개의 다이를 결합한 디자인으로 다시 회귀하고 있습니다. AMD의 경우 8코어 CPU를 모은 CPU 칩렛과 I/O 다이를 별도로 만든 후 이를 조합해 다양한 프로세서를 만들고 있습니다. 오랜 세월 거대한 서버 프로세서에도 모노리식 디자인을 고집했던 인텔 역시 최근 과감한 변화를 시도하고 있습니다. 인텔은 내년 정식으로 출시할 제온 프로세서인 사파이어 래피즈(Sapphire Rapids)에 여러 개의 다이를 인텔의 고속 인터페이스인 EMIB 방식으로 연결한 멀티 타일 구조를 도입했다고 발표했습니다.인텔 7 공정(과거 10nm ESF)으로 제조되는 사파이어 래피즈는 최대 400㎟의 SoC 다이 (타일) 네 개를 연결해 최대 1600㎟ 크기의 CPU를 만들 수 있습니다. 현재 제조 기술로 만들 수 있는 가장 큰 모노리식 다이는 700-800㎟ 정도 크기입니다. 최신 미세 공정과 거대한 크기 덕분에 사파이어 래피즈는 최근 인텔의 최대 약점으로 꼽힌 코어 숫자의 열세를 쉽게 극복할 수 있을 것으로 예상됩니다. AMD는 최대 8개의 칩렛을 붙이는 방식으로 64코어 프로세서를 만든 반면 인텔의 아이스레이크 제온의 경우 최대 38코어에 불과했습니다. 모노리식 다이 구조이다 보니 여러 개의 다이를 결합한 구조를 이기기 힘들었던 것입니다. 인텔은 사파이어 래피즈의 코어 숫자에 대해 언급하지 않았지만, 1600㎟의 거대한 크기를 생각하면 코어 숫자가 대폭 늘어났다고 볼 수밖에 없습니다. 그런데 이렇게 멀티 타일 구조를 선택할 경우 가장 큰 문제점은 타일 간 데이터 전송입니다. 만약에 여기서 병목현상이 생기면 속도는 현저히 느려질 것입니다. 인텔은 EMIB 방식을 통해 이 문제를 최대한 극복했습니다. 다만 얼마나 극복했는지는 실제 프로세서가 나와야 검증이 가능한 부분입니다. 사파이어 래피즈의 가장 큰 변화는 멀티 타일 구조의 채택이지만, 그 밖에도 성능을 높이기 위해 여러 가지 변화를 시도했습니다. 코어의 경우 소비자용 CPU인 앨더 레이크(12세대 코어 프로세서)에 사용된 골든 코브(Gold Cove) 코어를 사용해 성능을 최대 19% 높였습니다(동일 클럭 기준). 그리고 서버용 콜든 코브 코어는 높은 성능을 위해 소비자용에는 없는 몇 가지 추가 기능과 함께 더 많은 L2 캐시를 탑재했습니다. DDR5 메모리 적용과 PCIe 5.0 같은 최신 인터페이스도 적용되어 더 고속으로 데이터를 처리할 수 있습니다. 그러나 이보다 더 눈에 띄는 변화는 차세대 고속 메모리인 HBM2E 메모리 적용입니다.HBM은 비싸지만, 속도가 매우 빠른 메모리로 지금까지는 주로 고가의 GPU에만 탑재되었습니다. 서버칩에 탑재되는 것은 사파이어 래피즈가 처음입니다. HBM2E 메모리 적용 모델의 경우 타일 하나당 HMB2E가 하나씩 붙어 다이가 4+4가 됩니다. HBM2E 메모리를 고속으로 연결하는 역할 역시 EMIB이 담당합니다. HBM2E 메모리는 캐시로 사용할 수도 있고 D램처럼 같이 사용할 수도 있습니다. 본래 인텔은 서버 시장에서 독점적 위치에 있었으나 최근 AMD 에픽이 급성장하고 아마존 같은 대형 고객사가 ARM 기반의 자체 서버 프로세서를 만들면서 최대 위기에 처했다는 평가를 받고 있습니다. 사파이어 래피즈의 파격적인 변화는 더 이상 서버 시장에서 밀리지 않겠다는 의지를 반영한 것으로 풀이됩니다. 과연 인텔이 AMD와 ARM 진영이 거센 도전을 물리치고 서버 시장 1위 자리를 지킬 수 있을지 궁금합니다.
  • [고든 정의 TECH+] 3D 칩렛 기술 로드맵 발표한 AMD…인텔과 높이 쌓기 경쟁 시작?

    [고든 정의 TECH+] 3D 칩렛 기술 로드맵 발표한 AMD…인텔과 높이 쌓기 경쟁 시작?

    최근 열린 반도체 관련 학회인 핫 칩(Hot Chips) 콘퍼런스에서 AMD는 3차원 반도체 패키징 기술에 대한 새로운 내용을 공개했습니다. 리사 수 CEO가 컴퓨텍스 2021에서 3D 칩렛 기술 (3D chiplet technology)을 공개한 지 몇 달 만의 일입니다. 당시 리사 수 박사는 8 코어 라이젠 칩렛 (chiplet, CPU 코어를 모은 반도체) 위에 6x6mm 크기의 64MB L3 캐시를 탑재해 게임 성능을 평균 15% 높일 수 있다고 주장했습니다.  CPU가 가장 직접적으로 사용하는 메모리인 캐시 (cache) 메모리는 빠르게 접근할 수 있는 위치부터 L1, L2, L3, L4로 명명합니다. 캐시 메모리는 CPU 입장에서 보면 바로 책상 위에 펼쳐 놓고 쓰는 공책에 해당합니다. 시스템 메모리는 가방 속 참고서, 그리고 하드디스크나 SSD 같은 저장 장치는 도서관에 해당한다고 할 수 있습니다.  당연히 캐시 메모리가 많을수록 CPU 성능이 높아지지만, CPU에서 캐시 메모리가 차지하는 면적을 늘리면 가격도 따라서 올라가기 때문에 적당한 타협이 필요합니다. 최신 8코어 CPU는 대개 16-32MB의 L3 캐시를 지니고 있습니다. 그런데 AMD는 여기에 64MB L3 캐시 메모리를 추가로 쌓을 수 있다는 폭탄선언을 한 셈입니다.  당시에는 이런 일이 어떻게 가능한지 자세히 설명하지 않았지만, 이번 핫 칩 컨퍼러스에서는 보다 구체적인 내용이 공개됐습니다. AMD의 3D 칩렛 기술은 TSMC가 개발한 SoIC (System on Integrated Chip) 적층 기술에 기반하고 있습니다. AMD는 반도체 생산 시설이 없는 팹리스 반도체 회사이고 실제 제조는 TSMC가 위탁 생산을 하고 있으니 당연한 결과입니다.  하지만 이번 발표가 대단하지 않은 것은 아닙니다. L3 캐시 메모리는 CPU와 매우 밀접하게 붙여 있어야 고속으로 데이터를 주고받을 수 있어 하나의 반도체 칩 안에 있는 것이 일반적입니다. 따라서 3D 칩렛 기술은 상당히 일반적이지 않은 결과입니다. AMD와 TSMC가 업계 최초로 L3 캐시 메모리를 CPU 다이 위에 올릴 수 있었던 이유는 아주 미세한 구리 회로를 직접 두 개의 반도체 다이 사이에 정확히 밀착시켜 데이터 전송 속도를 크게 높인 덕분입니다. (사진)  AMD에 따르면 3D 칩렛 기술은 기존의 마이크로 범프 3D (Micro Bump 3D)의 50μm 간격 연결 부위보다 훨씬 촘촘한 9μm 간격으로 연결되어 있어 에너지 효율이 3배나 우수하고 밀도는 15배나 높습니다. 덕분에 CPU와 빠른 데이터 전송이 필요한 L3 캐시 메모리를 CPU 칩렛이 아니라 별도의 칩렛으로 만든 후 위에 쌓을 수 있었던 것입니다. 이번 발표에 따르면 L3 캐시 메모리 칩렛 적층은 시작에 불과합니다. 앞으로 CPU 칩렛 위에 다시 CPU 칩렛을 쌓거나 GPU 같이 다른 프로세서를 쌓을 수도 있고 DRAM 같이 위에 올릴 수 있습니다. 또 이렇게 위로 쌓은 칩들을 평면으로 연결해 마치 고층 빌딩이 서로 연결된 것 같은 하이브리드 2D/2.5D/3D 칩을 만들 수도 있습니다. 이 부분은 HBM 메모리 같은 고속 적층형 메모리를 3D 칩렛과 연결해 프로세서+메모리 형태의 고성능 제품을 만들 수 있다는 의미로 해석됩니다. 그런데 사실 이 이야기는 인텔이 내년에 출시할 폰테 베키오 GPU에서 이미 구현된 내용이기도 합니다. 인텔은 5개의 다른 공정에서 만든 47개의 액티브 타일을 연결해 트랜지스터 숫자가 1000억 개가 넘는 거대 GPU를 생산한다고 발표한 상황입니다. 그리고 2년 후 등장할 메테오 레이크 CPU는 CPU/GPU/SoC-LP 세 개의 타일을 결합해 제조할 예정입니다. 인텔 역시 이름만 다를 뿐 여러 개의 다이를 3D 및 2D 패키징으로 연결해 하나의 CPU를 만드는 셈입니다. 3차원 적층 기술은 메모리 반도체 업계에서는 이미 오래전부터 진행됐습니다. 평면으로 확장해서는 필요한 만큼 용량을 늘리기 어렵기 때문입니다. 구조가 매우 복잡한 시스템 반도체는 메모리보다 3차원 적층이 어렵지만, 조금씩 한계를 극복하면서 돌파구를 마련해 이제는 상용화 단계에 이르렀습니다. 현 시점에서 인텔과 AMD 모두 반도체를 높이 쌓으려는 데는 그럴 만한 이유가 있습니다. 미세 공정으로 진행할수록 반도체 웨이퍼 가격은 급등하기 때문에 모든 부분을 최신 미세 공정으로 제조하면 늘어나는 비용을 감당하기 어렵습니다. 좀 더 저렴한 공정을 이용할 수 있는 부분은 따로 제조하면 상당한 비용을 절감할 수 있습니다. 또 큰 반도체 하나보다 작은 부분을 만든 후 조립하면 제조도 쉽게 수율도 올라갑니다. 마지막으로 여러 개의 다이를 하나처럼 연결하면 과거에는 상상하기 힘들었던 초대형 프로세서도 제조할 수 있다는 장점이 있습니다. 현재 개발 중인 3D 패키징 기술을 통해 프로세서 성능은 한 단계 더 업그레이드될 것입니다. 그리고 이런 기술적 진보의 혜택은 최종적으로 소비자에게 돌아갈 것입니다.
  • [고든 정의 TECH+] 인텔, 차세대 제온 프로세서 고대역폭 메모리 달고 날아오를까?

    [고든 정의 TECH+] 인텔, 차세대 제온 프로세서 고대역폭 메모리 달고 날아오를까?

    최근 인텔은 서버 프로세서 영역에서 거센 도전을 받고 있습니다. x86 서버 영역에서는 가격대 성능비가 우수한 에픽(EPYC) 프로세서를 앞세운 AMD의 공세에 점유율을 잃고 있고 비x86 서버 부분에서는 ARM 서버 프로세서가 무서운 속도로 성장하고 있습니다. 인텔이 오랜 세월 14nm 공정 프로세서만 생산하는 사이 이미 경쟁자들은 7nm 칩을 대량으로 출시해 절대 성능은 물론 전력 대 성능비도 더 우수해진 상황입니다. 인텔은 4세대 제온 스케일러블 프로세서인 사파이어 래피즈(Sapphire Rapids)를 통해 반전을 시도하고 있습니다. 사파이어 래피즈는 인텔의 차세대 10nm 공정인 10ESF(10nm Enhanced SuperFin) 공정과 최신 마이크로 아키텍처가 적용된 골든 코브(Golden Cove) 코어를 사용해 성능을 높였습니다. 여기에 DDR5를 사용해 메모리 대역폭과 용량을 높이고 PCIe 5.0을 도입해 GPU 등 다른 기기와의 연결 속도도 높였습니다. 하지만 이 정도는 사실 남들도 곧 도입 예정인 기술입니다. 그래서 인텔은 한 가지 더 비장의 무기를 준비했습니다. 바로 고대역폭 메모리(HBM)를 제온 프로세서에 탑재하는 것입니다. 고대역폭 메모리(High Bandwidth Memory, HBM) 기술은 삼성, SK 하이닉스, AMD가 협업해 개발한 고속, 고밀도 메모리로 DRAM을 아파트처럼 여러 층으로 쌓고 각 층을 통과하는 통로(TSV)를 이용해 데이터를 고속으로 전송하는 메모리 기술입니다. 2015년 AMD의 GPU에 최초로 탑재된 후 현재까지는 주로 고성능 GPU에만 탑재되어 왔습니다. 속도가 빠르고 크기도 작지만, 대신 가격이 비싸고 전력 소모도 많다는 점이 보급에 발목을 잡고 있습니다. HBM 보급이 더딘 것은 서버 분야도 마찬가지입니다. 언뜻 생각하기에 비싸더라도 높은 성능이 필요한 서버 분야에 적합할 것 같지만, 테라바이트(TB)급 메모리 장착도 가능한 서버용 DDR 메모리와 달리 HBM은 프로세서 옆에 붙이는 방식이라 장착할 수 있는 메모리 용량이 많지 않고 원하는 만큼 확장이나 교체도 불가능합니다. 작년에 양산을 시작한 SK 하이닉스의 HBM2E 메모리도 460GB/s 대역폭을 지녀 속도는 DDR4 메모리가 범접하기 어려운 수준이지만, 용량은 최대 16GB 정도입니다. HBM2E 메모리 네 개를 탑재하면 최대 64GB 용량에 1.82TB/s의 엄청난 속도를 구현할 수 있으나 GPU라면 몰라도 대부분 서버는 이보다 느리더라도 많은 메모리를 탑재하는 것이 작업에 더 유리합니다. 이런 점 때문에 인텔이 개발하는 HBM 탑재 제온 프로세서인 SPR-HBM(Sapphire Rapids Xeon Scalable with High-Bandwidth Memory)는 DDR5도 같이 사용할 수 있습니다. 덕분에 여러 가지 목적의 서버와 고성능 컴퓨터에 이를 적용할 수 있습니다. 일반적인 서버에는 HBM을 탑재하지 않은 제온 프로세서를 사용하고 고속 데이터 처리가 필요한 영역에는 HBM 탑재 제온 프로세서를 DDR5와 함께 이용하거나 아예 HBM 탑재 제온 프로세서만 사용하는 방법도 사용할 수 있습니다. 후자의 장점은 메모리가 CPU와 함께 들어가기 때문에 시스템 크기가 매우 작아진다는 것입니다.사실 사파이어 래피즈가 이런 독특한 형태를 하게 된 이유는 올해 말 등장할 인텔 최초의 엑사스케일 슈퍼컴퓨터인 오로라(Aurora)의 영향이 큰 것으로 보입니다. 오로라의 기본 유닛은 2개의 사파이어 래피즈 프로세서와 6개의 폰테 베키오 GPU를 탑재했습니다. 고성능 연산을 위해서는 대용량보다 빠른 메모리가 더 유리한 만큼 HBM 탑재 버전으로 봐도 무리가 없을 것입니다. 사파이어 래피즈의 초기 물량은 오로라에 우선 사용되고 이후 차례로 주요 고객사에 공급될 것으로 보입니다. 실제 서버 및 HPC 시장에 투입되는 시기는 내년 상반기가 될 것입니다. HBM 탑재 사파이어 래피즈는 비쌀 수밖에 없습니다. 비싼 몸값을 성능으로 입증하는지가 관건이 될 것입니다. 여담이지만, 메모리 기술이라면 경쟁자인 AMD 역시 비장의 카드가 있습니다. 최근 AMD의 리사 수 CEO는 L3 캐쉬 메모리를 CPU 칩렛 위에 쌓는 신기술인 3D V-Cache를 공개했습니다. 같이 공개한 벤치 마크에서는 기존 CPU에 3D V-Cache를 접목하기만 해도 게임 성능이 대폭 향상되는 것을 보여줬습니다. 그런데 사실 대용량 캐쉬는 게임보다 서버에서 더 큰 힘을 발휘합니다. 구체적인 도입 일정은 밝히지 않았지만, 차세대 에픽 프로세서에 이를 도입할 가능성이 높은 셈입니다. 새로운 캐쉬 기술로 무장한 AMD와 고대역폭 메모리를 탑재한 인텔 중 누가 옳은 선택을 했는지도 중요한 관전 포인트가 될 것입니다.
  • 삼성전자 차세대 핵심기술 ‘패키지’ 공개

    삼성전자 차세대 핵심기술 ‘패키지’ 공개

    삼성전자가 반도체 산업의 미래 경쟁력을 좌우할 ‘패키지’ 신기술을 공개했다. 삼성전자는 중앙처리장치(CPU) 등의 연산가능(로직) 칩과 4개의 HBM(고대역폭 메모리) 칩을 하나의 패키지로 구현한 차세대 패키지 기술 ‘아이큐브(I-Cube)4’를 개발했다고 6일 밝혔다. ‘아이큐브’ 뒤에 붙은 숫자는 HBM의 개수를 의미한다. ‘아이큐브4’는 초미세 배선을 구현한 실리콘 인터포저 위에 CPU 등의 로직과 HBM을 배치해 하나의 반도체처럼 동작하도록 하는 기술이 적용됐다. 여러 개의 칩을 1개의 패키지 안에 배치해 전송 속도를 높이고, 패키지의 면적도 줄일 수 있다는 설명이다. 더불어 반도체 구동에 필요한 전력도 안정적으로 공급할 수 있도록 했다. 기존 반도체들은 각각 고유의 성능을 가지고 단품 형태로 공급돼 왔다. ‘패키지’는 메모리·비메모리 반도체를 함께 집적하는 등 각기 다른 반도체를 훼손 없이 최적으로 연결해 성능을 높여주는 기술이다. 특히 반도체 집적회로 성능이 2년마다 2배로 증가한다는 ‘무어의 법칙’이 무의미해질만큼 ‘미세 공정’ 경쟁이 극단에 다다른 ‘포스트 무어’ 시대에서 패키지 기술은 반도체 산업의 중요 분야로 더욱 주목받고 있다. PC와 모바일 위주의 반도체 시장이 인공지능(AI), 자율주행, 사물인터넷(IoT), 웨어러블 등 새로운 플랫폼으로 확대되고 있는 상황에서 패키지 기술은 반도체 핵심 기술로 평가된다. 강문수 삼성전자 파운드리사업부 마켓전략팀 전무는 “고성능 컴퓨팅 분야를 중심으로 차세대 패키지 기술의 중요성이 높아지고 있다”면서 “차별화된 기술 경쟁력을 기반으로 HBM을 8개까지 탑재하는 신기술도 개발해 시장에 선보이겠다”고 밝혔다. 한편 삼성전자는 2018년 로직과 2개의 HBM을 집적한 ‘아이큐브2’ 개발을 시작으로 2020년 ‘엑스 큐브’를 선보이는 등 차세대 패키지 기술 개발을 진행해왔다. 안석 기자 sartori@seoul.co.kr
  • 세계 최초 연산 가능 삼성 메모리 반도체

    세계 최초 연산 가능 삼성 메모리 반도체

    삼성전자가 세계 최초로 인공지능(AI) 프로세서를 장착한 ‘지능형 메모리 반도체’를 개발했다. 정보 저장만 가능했던 메모리 반도체가 시스템 반도체의 영역인 AI 연산 기능까지 겸하는 새로운 패러다임을 열어 낸 것이다. 삼성전자는 차세대 융합기술이 적용된 ‘HBM-PIM’을 개발했다고 17일 밝혔다. 2018년 슈퍼컴퓨터에도 사용할 수 있는 2세대 고대역폭 메모리 반도체인 ‘HBM2아쿠아볼트’를 양산했는데, 이번에는 여기다 AI 엔진 기능을 장착한 새로운 제품을 만들어 낸 것이다. 슈퍼컴퓨터와 같은 AI 시스템에 이번에 개발한 HBM-PIM을 적용하면 기존 시스템과 견줘 성능은 약 2배 이상 높아지고, 시스템 에너지는 70% 이상 줄일 수 있다. 최근 AI 응용 영역이 넓어지면서 고성능 메모리 반도체 수요가 가파르게 성장 중인데 이번 신제품은 기존 D램이 지니던 한계를 뛰어넘었다. 여태까지의 설계에서는 중앙처리장치(CPU)와 기억장치(메모리) 사이에 직렬 방식으로 이동하는 데이터가 많아지면 지연 현상이 발생했다. 이를 극복하기 위해 메모리 내부에 AI 엔진을 장착한 뒤 병렬 처리를 극대화하니 일부 연산은 굳이 CPU까지 갈 필요가 없어 데이터 이동량이 줄었다. CPU의 기능을 완전히 대체한 것은 아니지만 HBM-PIM이 일부 ‘연산 업무’를 덜어 간 것이다. 삼성전자는 최근 국제고체회로학회(ISSCC)에 HBM-PIM에 대한 논문을 공개했다. 상반기 내 고객사와 함께 테스트 검증을 완료해 PIM 생태계를 구축해 나가며 반도체 ‘기술 초격차’ 전략을 이어 갈 계획이다. 한재희 기자 jh@seoul.co.kr
  • 삼성전자, 세계최초 ‘연산 가능’ 메모리 반도체 내놓는다

    삼성전자, 세계최초 ‘연산 가능’ 메모리 반도체 내놓는다

    삼성전자가 세계 최초로 인공지능(AI) 프로세서를 장착한 ‘지능형 메모리 반도체’를 개발했다. 정보 저장만 가능했던 메모리 반도체가 시스템 반도체의 영역인 AI 연산 기능까지 겸하는 새로운 패러다임을 열어 낸 것이다. 삼성전자는 차세대 융합기술이 적용된 ‘HBM-PIM’을 개발했다고 17일 밝혔다. 2018년 슈퍼컴퓨터에도 사용할 수 있는 2세대 고대역폭 메모리 반도체인 ‘HBM2아쿠아볼트’를 양산했는데, 이번에는 여기다 AI 엔진 기능을 장착한 새로운 제품을 만들어 낸 것이다. 슈퍼컴퓨터와 같은 AI 시스템에 이번에 개발한 HBM-PIM을 적용하면 기존 시스템과 견줘 성능은 약 2배 이상 높아지고, 시스템 에너지는 70% 이상 줄일 수 있다.최근 AI 응용 영역이 넓어지면서 고성능 메모리 반도체 수요가 가파르게 성장 중인데 이번 신제품은 기존 D램이 지니던 한계를 뛰어넘었다. 여태까지의 설계에서는 중앙처리장치(CPU)와 기억장치(메모리) 사이에 직렬 방식으로 이동하는 데이터가 많아지면 지연 현상이 발생했다. 이를 극복하기 위해 메모리 내부에 AI 엔진을 장착한 뒤 병렬 처리를 극대화하니 일부 연산은 굳이 CPU까지 갈 필요가 없어 데이터 이동량이 줄었다. CPU의 기능을 완전히 대체한 것은 아니지만 HBM-PIM이 일부 ‘연산 업무’를 덜어 간 것이다. 삼성전자는 최근 국제고체회로학회(ISSCC)에 HBM-PIM에 대한 논문을 공개했다. 상반기 내 고객사와 함께 테스트 검증을 완료해 PIM 생태계를 구축해 나가며 반도체 ‘기술 초격차’ 전략을 이어 갈 계획이다. 한재희 기자 jh@seoul.co.kr
  • “코로나 멈췄거라” 180도회전 자동분사 첨단 무인소독기

    “코로나 멈췄거라” 180도회전 자동분사 첨단 무인소독기

    최근 하루 확진자가 500~600명 넘게 발생하며 국내 코로나19 3차 대유행이 진행되는 가운데 자동분사식 첨단 무인소독기가 출시돼 눈길을 끌고 있다. 11일 방역당국에 따르면 이번 3차 대유행은 상점이나 체육시설·의료기관·요양원·음식점·직장·군부대·친목모임 등 사람이 살아가면서 접하게 되는 모든 일상에서 집단발생이 일어나고 있어 비상 상황이다. 경기 부천의 중소벤처기업 ‘지나테크‘에서 개발한 무인소독기제품은 사무실 빈공간에서 원하는 시간에 원하는 양만큼 소독제를 자동으로 분무할 수 있다는 게 가장 큰 장점이다. 소독기는 조작이 간편해 누구나 쉽게 설정할 수가 있고 수정이 가능하다. 또 인체 감지센서가 있어 5m 이내에서 사람을 감지하면 분사 중 자동으로 멈춘다. 다시 인체감지가 없을 경우 입력된 시간에서 기존 사용한 시간을 제외한 나머지 시간만큼 자동으로 분사한다. 원하는 일·시·분·초를 선택해 분사시간을 설정하면 시간에 맞춰 자동으로 하루 3번까지 분무할 수 있다. 분사 범위는 좌우로 180도 회전하며 사각지대가 없고 골고루 분사할 수 있는 점이 타제품과 다른 특징이다. 뿐만 아니라 타사제품은 인체에 살포하는 데 반해 이 제품은 사무실·교실 등 공간에 살포한다는 점에서 역발상적이다. 학교나 관공서에서는 표면 면적이 너무 넓어 손으로 직접 닦아내는 수동식 소독은 불가능하다. 주로 외부기관에 전체 소독을 의뢰해 소독을 실시한 뒤 방역후 방역 필증을 보관해야 한다. 보통 외부기관 청소 용역업체에서 청소는 가능하나 소독은 할 수 없다. 방역 필증이 교부되는 방역업체에 의뢰할 수밖에 없다. 이번에 개발된 무인소독기는 교실·체육관·강의실·사무실 등에 무인소독방역기를 설치해 지정된 장소에서 원하는 대로 방역소독을 자동으로 실시할 수 있다. 면적규모에 따라 다양한 용량이 개발돼 방역소독의 어려움을 해소하고 외주기관 검사비용이 절약된다. 이 제품에서 사용되는 액체는 천연 미생물 살균제인 하이비엠 (HBM)으로 새로운 신개념 예방·방역 액체다. 무알코올이며 무색소·무독성·저자극액체로,일반세균과 사상균·포도상구균 등 각종 세균도 박멸한다. 분사기에 사용되는 약품 용량은 한 통이 20L가 기본이다. 소용량인 경우 하단 기본 통에서 10L를 사용하면 자동으로 위통에서부터 소모되는 양만큼 기본통으로 약품을 자동으로 내려보내므로 소진시마다 매번 약품을 교환하는 번거로움이 없다. 학교 교실·급식실이나 강당·체육관·화장실 등 전용면적 크기에 따라 다양한 용량이 있다. 정전에도 끄떡없다. 갑자기 발생한 정전 등으로 인해 전원이 꺼질 경우 보조 전원이 있어 입력된 시간 등을 유지해 전원이 다시 들어오면 원래상태로 복원된다. 특수 바퀴를 사용해 안정감도 유지된다. 이명선 기자 mslee@seoul.co.kr
  • 반도체 실적 호황에도… 반도체 미래 살핀 이재용

    반도체 실적 호황에도… 반도체 미래 살핀 이재용

    검찰 기소 위기에 몰린 이재용 삼성전자 부회장이 30일 “머뭇거릴 시간이 없다”며 ‘초격차’ 전략을 주문했다. 이 부회장은 이날 충남 아산시 삼성전자 온양사업장을 찾아 차세대 반도체 패키징 기술개발 전략을 점검했다. 이 부회장이 올해 사업장에서 임직원들과 간담회를 진행한 것은 이번이 여덟 번째다. 특히 이 부회장은 검찰 기소 여부가 언제 결정될지 모르는 상황 속에서도 7월에만 ‘현장경영’을 네 번 나서며 광폭 행보를 보여 줬다. 일주일에 한 번꼴로 현장을 찾은 것은 대내외적 여건이 녹록지 않지만 흔들리지 않고 혁신을 이어 나가야 한다는 메시지를 강조하기 위한 것으로 해석된다. 이 부회장은 이날 임직원 간담회에서 “포스트 코로나 미래를 선점해야 한다”며 “도전해야 도약할 수 있다. 끊임없이 혁신하자”고 말했다. 삼성 온양사업장에서는 차세대 패키징 기술 개발에 집중하고 있다. 지난해 8월 이후 두 번째로 온양사업장을 찾은 이 부회장은 인공지능(AI) 및 5세대(5G) 이동통신 모듈, 초고성능메모리(HBM) 등 ‘미래 먹거리’가 될 반도체에 활용되는 차세대 패키징 기술을 집중적으로 살펴봤다. 패키징이랑 회로가 새겨진 반도체 웨이퍼와 전자기기가 서로 신호를 주고받을 수 있도록 반도체 칩을 포장하는 ‘후공정’ 기술이다. 반도체 패키징은 최근 성능과 불량률 개선을 위한 핵심 기술로 주목받고 있다. 삼성전자는 2018년 말에 패키지 제조와 연구조직을 통합해 ‘TSP 총괄조직’을 신설하고, 2019년에는 삼성전기의 ‘PLP 사업부’를 인수하는 등 차세대 패키징 역량 강화에 힘을 쏟고 있다. 한재희 기자 jh@seoul.co.kr
  • SK하이닉스, 현존 최고 속도 D램 양산 돌입

    SK하이닉스, 현존 최고 속도 D램 양산 돌입

    SK하이닉스가 현존하는 최고 속도의 D램인 ‘HBM2E’를 본격적으로 양산한다고 2일 밝혔다. 지난해 8월 개발한 이후 10개월 만에 거둔 성과다. HBM2E는 1초에 풀HD급 영화(편당 3.7GB) 124편을 전달할 수 있는 업계에서 가장 빠른 D램 솔루션이다. HBM2E는 정보 출입구 1개당 초당 3.6기가비트(Gbps)의 데이터를 처리할 수 있다. 정보 출입구 전체가 1024개이므로 1초에 460기가바이트(GB)의 데이터를 처리할 수 있는 성능을 지녔다. 용량은 8개의 16Gb D램 칩을 TSV라는 기술로 수직 연결해 이전 세대보다 2배 이상 늘어난 16GB를 구현했다. TSV 기술은 D램 칩에 미세한 구멍 수천 개를 뚫어 상층과 하층 칩의 구멍을 수직으로 관통하는 전극으로 연결하는 기술로 전력 소모를 50% 이상 줄인다. SK하이닉스는 “초고속·고용량·저전력 특성을 지닌 HBM2E는 고도의 연산력을 필요로 하는 딥러닝 가속기 등 차세대 인공지능(AI) 시스템에 최적화한 메모리 솔루션”이라며 “기상 변화, 우주 탐사 등 차세대 기초·응용과학 연구를 주도할 슈퍼컴퓨터에도 활용할 수 있을 것으로 전망한다”고 밝혔다. 정서린 기자 rin@seoul.co.kr
  • 1초에 영화 124편 쏙...SK하이닉스, 가장 빠른 D램 양산

    1초에 영화 124편 쏙...SK하이닉스, 가장 빠른 D램 양산

    SK하이닉스가 현존하는 최고 속도의 D램인 ‘HBM2E’을 본격적으로 양산한다고 2일 밝혔다. 지난해 8월 개발한 이후 10개월 만에 거둔 성과다. HBM2E은 1초에 풀HD급 영화(편당 3.7GB) 124편을 전달할 수 있는 업계에서 가장 빠른 D램 솔루션이다. HBM2E는 정보 출입구 1개당 초당 3.6기가비트(Gbps)의 데이터 처리를 할 수 있다. 정보 출입구 전체가 1024개이므로 1초에 460기가바이트(GB)의 데이터를 처리할 수 있는 성능을 지녔다.  용량은 8개의 16Gb D램 칩을 TSV라는 기술로 수직 연결해 이전 세대보다 2배 이상 늘어난 16GB를 구현했다. TSV 기술은 D램 칩에 미세한 구멍 수천 개를 뚫어 상층과 하층 칩의 구멍을 수직으로 관통하는 전극으로 연결하는 기술로 전력 소모를 50% 이상 줄인다.  SK하이닉스는 “초고속·고용량·저전력 특성을 지닌 HBM2E는 고도의 연산력을 필요로 하는 딥러닝 가속기 등 차세대 인공지능(AI) 시스템에 최적화한 메모리 솔루션”이라며 “기상 변화, 우주 탐사 등 차세대 기초·응용과학 연구를 주도할 슈퍼컴퓨터에도 활용할 수 있을 것으로 전망한다”고 밝혔다.  정서린 기자 rin@seoul.co.kr
  • [고든 정의 TECH+] 노트북에서 이제는 슈퍼컴퓨터까지…x86 권좌 흔드는 ARM CPU

    [고든 정의 TECH+] 노트북에서 이제는 슈퍼컴퓨터까지…x86 권좌 흔드는 ARM CPU

    최근 일본은 슈퍼컴퓨터 경쟁에서 다시 1위를 차지했습니다. 2011년 세계 1위 슈퍼컴퓨터로 이름을 올린 K 컴퓨터(K는 10의 16승인 경(京)의 일본식 발음)의 후계자인 후카쿠(富岳·후지산의 다른 이름)는 415페타플롭스의 성능을 달성해 미국의 서밋(Summit)을 가볍게 제치고 세계 1위를 달성했습니다. 후카쿠는 선배인 K 컴퓨터와 마찬가지로 고베에 있는 일본 이화학연구소(RIKEN)의 컴퓨터 과학 센터(R-CCS)에 건설 중인데, 사실 아직 건설이 다 끝나지 않은 상태입니다. 후카쿠가 모두 설치되면 K 컴퓨터보다 100배 빠른 엑사플롭스급 연산 능력을 지니게 될 것입니다. 하지만 후카쿠가 눈길을 끄는 또 다른 이유는 ARM 계열 CPU로 세계 1위 슈퍼컴퓨터가 된 첫 번째 사례라는 것입니다. 과거에도 ARM 기반 슈퍼컴퓨터를 만들려는 시도는 몇 차례 있었지만, 그다지 인상적인 성공 사례는 없었습니다. 사실 슈퍼컴퓨터 TOP500 명단에 이름을 올린 첫 번째 페타플롭스급 ARM 슈퍼컴퓨터는 2018년에 204위를 한 아스트라(Astra) 정도였습니다. 그런데 갑자기 후지쯔가 ARM 기반 슈퍼컴퓨터로 1위를 한 것입니다. 그러나 후카쿠는 절대 갑자기 튀어나온 물건이 아닙니다. 후지쯔는 2016년 국제 슈퍼컴퓨팅 컨퍼런스에서 차세대 슈퍼컴퓨터는 ARMv8 기반의 엑사스케일(Exascale) 슈퍼컴퓨터가 될 것이라고 발표했었습니다. 후카쿠라는 이름은 2019년에 정했지만, 사실 개발은 2014년부터였습니다. 본래 후지쯔는 지금은 오라클에 합병된 썬 마이크로시스템스와 협력해 스팍(SPARC) 계열 서버 프로세서를 개발했기 때문에 K 컴퓨터 역시 스팍 계열인 SPARC64 VIIIfx 8를 사용했습니다. 하지만 서버 시장에서 인텔의 독주 체제가 굳어지면서 스팍 프로세서의 입지는 줄어들었습니다. 결국 후지쯔는 빠른 속도로 성능을 높인 ARM 계열에 눈을 돌리게 됩니다. 이렇게 해서 만든 후지쯔의 A64FX CPU는 48개의 연산 코어와 4개의 보조 코어로 된 52코어 CPU라는 매우 독특한 구조를 지니고 있습니다. A64FX는 ARMv8.2-A 스케일러블 벡터 확장 Scalable Vector Extension(SVE)을 지원하는 첫 번째 ARM CPU로 매우 강력한 연산 능력을 지니고 있습니다. 별도의 GPU 없이 CPU만으로도 2.7TFLOPS 연산이 가능한 수준입니다. A64FX의 또 다른 장점은 크기가 매우 작다는 것입니다. A64FX는 서버용 DDR4 메모리 대신 1TB/s의 대역폭을 지닌 4개의 8GB HBM2 메모리 사용합니다. HBM2 메모리는 CPU 옆에 타일처럼 붙어 있어 전체 시스템의 크기가 매우 작습니다. 참고로 HBM2 메모리는 어느 회사 제품인지는 밝히지 않았지만, 제조사가 삼성과 SK 하이닉스 외에는 없으므로 한국산 HBM2 메모리를 사용했을 것으로 추정됩니다. 아무튼 카드 형식의 작은 A64FX CPU 노드를 만들 수 있어 하나의 서버랙에 많은 시스템을 넣을 수 있습니다. (사진) 덕분에 7,299,072개의 코어를 이용해 2,414,592개의 코어를 사용한 미국의 서밋을 누르고 세계 최고 슈퍼컴퓨터가 될 수 있었던 것입니다. 흥미로운 사실은 다른 나라에서도 ARM 슈퍼컴퓨터 프로젝트를 추진하고 있다는 것입니다. 프랑스의 ARM 프로세서 개발사인 SiPearl은 유럽 연합의 유럽 프로세서 계획(European Processor Initiative project)에서 자금을 지원받아 고성능 서버칩을 개발하고 있습니다. 현재 계획으로는 2022-2023년 사이 독자 엑사스케일 시스템을 개발할 예정입니다. 미국의 산디아 국립 연구소 역시 고성능 ARM 슈퍼컴퓨터 개발을 진행 중입니다. 이들이 구체적인 결과를 내놓으면 ARM 슈퍼컴퓨터는 신기한 물건이 아니라 통상적인 형태의 슈퍼컴퓨터로 자리잡을 것입니다. ARM 계열 CPU가 최근 몇 년 사이 서버 및 슈퍼컴퓨터 시장에서 급부상한 이유는 기본적으로 CPU 성능이 좋아졌기 때문이지만, 라이선스 비용만 내면 누구나 고성능 프로세서를 개발할 수 있는 ARM의 정책 덕분이기도 합니다. TSMC나 삼성 같은 파운드리 회사가 경쟁적으로 최신 미세공정을 제공하기 때문에 돈만 있으면 누구나 인텔, AMD 부럽지 않은 고성능 프로세서를 제조할 수 있습니다. 이는 독자 CPU 아키텍처와 반도체 생산 시설을 갖추지 못한 기업과 국가도 슈퍼컴퓨터를 개발할 수 있다는 뜻입니다. ARM 계열 슈퍼컴퓨터가 단발성으로 끝나지 않을 것임을 시사하는 대목입니다. 물론 그렇다고 해서 오랜 세월 쌓아 올린 x86의 아성의 쉽게 무너지지는 않을 것입니다. 하지만 IT 업계의 변화는 매우 빠르며 1등 기업도 순식간에 변화에 도태되어 몰락할 수 있습니다. 최근 거세지는 ARM 진영의 도전에 인텔과 AMD가 어떤 대응책을 내놓을지 주목됩니다. 고든 정 칼럼니스트 jjy0501@naver.com
  • 1초만에 고화질 영화 82편 전송… 삼성 ‘초고속 D램’ 세계 첫 출시

    1초만에 고화질 영화 82편 전송… 삼성 ‘초고속 D램’ 세계 첫 출시

    AI 데이터 등 활용 “초고가 메모리 선점”삼성전자가 풀HD 화질(5GB)의 영화를 1초당 82편씩 전송할 수 있는 초고속 메모리 반도체를 세계 최초로 시장에 내놨다. 삼성전자는 4일 슈퍼컴퓨터와 인공지능(AI) 기반 데이터 분석에 활용할 수 있는 초고속 D램인 ‘플래시 볼트’를 출시한다고 밝혔다. 이번 제품은 16기가바이트(GB) 용량의 3세대 고대역폭 메모리(HBM2E) D램이다. 2세대 제품(초당 영화 61편 전송 가능 수준)보다 속도는 1.3배, 용량은 2.0배 향상됐다. 현존하는 D램 패키지 중에 데이터 처리 속도가 가장 빠르다. 2017년 12월에 2세대 제품을 양산한 지 2년여 만에 세계 최초로 3세대 제품 양산에 돌입했다. SK하이닉스도 지난해 8월 3세대 제품을 개발했다고 밝혔지만 아직 양산에 돌입하지는 않았다. 이번에 출시한 HBM2E는 HBM D램의 최신 규격이다. HBM은 칩 상단과 하단에 미세한 전자이동 통로를 만든 뒤 D램 칩을 쌓아 수직으로 연결한 제품을 뜻한다. 칩을 관통해 전극으로 연결하는 방식이어서 금선(와이어)을 통해 외부에서 묶는 것보다 칩 간에 신호를 빠르게 주고받는다. 특히 삼성전자는 16기가비트(Gb) D램에 5600개 이상의 미세한 구멍을 뚫고 총 4만개가 넘는 ‘실리콘 관통 전극’(TSV) 접합볼로 8개 칩을 수직 연결한 ‘초고집적 TSV 기술’을 이 제품에 적용해 속도가 빨라지게 했다. ‘신호전송 최적화 회로 설계’ 덕에 총 1024개의 데이터 전달 통로에서 초당 3.2Gb의 속도로 410GB의 데이터를 처리할 수 있다. 삼성전자는 이번 제품을 통해 차세대 초고가 메모리 시장을 선점하겠다는 계획을 지녔다. 한재희 기자 jh@seoul.co.kr
  • [고든 정의 TECH+] 차세대 슈퍼컴퓨터 왕좌 노리는 인텔의 비밀무기

    [고든 정의 TECH+] 차세대 슈퍼컴퓨터 왕좌 노리는 인텔의 비밀무기

    오바마 행정부 시절 미국 정부는 슈퍼컴퓨터 부분에서 미국을 위협할 정도로 성장한 중국에 대응하고 IT와 과학 기술 분야에서 미국의 주도권을 유지하기 위해 국가 주도 슈퍼컴퓨터 산업 육성 계획인 국가 전략 컴퓨팅 구상(National Strategic Computing Initiative, NSCI)을 발표했습니다. 이미 미국 내 쟁쟁한 IT 기업이 있고 기반 기술력이 충분한 만큼 국가에서 지원만 해주면 미국의 슈퍼컴퓨터 세계 1위 탈환은 시간 문제로 생각됐습니다. 그리고 실제로 2018년 슈퍼컴퓨터 서밋(Summit)을 통해 세계 1위를 탈환했습니다. 하지만 미국은 여기서 멈추지 않고 2021년까지 서밋보다 훨씬 빠른 엑사스케일 슈퍼컴퓨터를 개발하기 위해 적극적인 투자에 나서고 있습니다. 참고로 서밋은 이론적으로 200페타플롭스급의 성능을 지니고 있는데, 엑사스케일 슈퍼컴퓨터는 이론적으로 이보다 5배는 빨라야 합니다. 서밋 개발 후 3년 안에 한 차원 빠른 엑사스케일 슈퍼컴퓨터를 만들기 위해 미국 정부는 인텔, AMD, 엔비디아, IBM 같은 주요 IT 기업에 슈퍼컴퓨터 개발 및 구매 사업을 발주했습니다. 이 가운데 인텔은 2021년까지 오로라(Aurora)라는 명칭의 엑사스케일 슈퍼컴퓨터를 개발할 예정입니다. AMD에서 오랜 세월 라데온 GPU를 개발하다 인텔로 이적한 라자 코두리와 인텔 핵심 관계자들은 인텔 엑사스케일 컴퓨터에 들어갈 사파이어 라피즈(Sapphire Rapids) CPU와 폰테 베키오(Ponte Vecchio) GPU를 공개했습니다. 사파이어 라피즈는 2020년 출시 예정인 아이스 레이크 및 코퍼 레이크 기반 제온 CPU의 후계자로 2세대 10nm 공정과 새로운 아키텍처를 사용합니다. 구체적인 스펙에 대해서는 공개하지 않았지만, 오로라 슈퍼컴퓨터 노드(node)는 2개의 사피이어 라피즈 CPU와 6개의 폰테 베키오 GPU로 구성된다는 점은 분명히 밝혔습니다. (사진) 폰테 베키오는 베키오 다리라는 뜻으로 이탈리아 피렌체에 있는 아르노 강에 있는 중세 다리입니다. 참고로 푸치니의 오페라 잔니 스키키 중 ‘오 사랑하는 나의 아버지 (O mio babbino caro)’에서 언급한 다리이기도 합니다. 아마도 우연의 일치는 아닐 것 같고 여기서 이름을 따온 것으로 보입니다. 인텔의 차세대 GPU인 Xe는 모바일 기기, PC, 게이밍, 워크스테이션, 서버, 고성능 컴퓨팅과 인공지능 (AI) 등 모든 요구를 충족시키기 위해서 다양한 형태의 제품으로 개발되고 있습니다. 폰테 베키오는 이 가운데 강력한 연산 능력에 초점을 맞춘 것으로 7nm 미세 공정과 3차원 적층 반도체 기술인 포베로스(Foveros)를 적용했습니다. 포베로스는 프로세서, 메모리, 스토리지 등 서로 다른 반도체를 주상복합 아파트처럼 수직으로 연결해 크기는 줄이고 데이터 전송 속도는 높인 것으로 인텔이 적극 밀고 있는 차세대 패키징 기술입니다. 아마도 폰테 베키오 GPU와 HBM 같은 고성능 메모리를 하나의 패키지에 넣어 성능을 높였을 가능성이 큽니다. 사파이어 라피즈 CPU와 폰테 베키오 GPU가 아무리 강력한 성능을 지녔더라도 이들이 힘을 합쳐 제 성능을 내기 위해서는 서로 데이터를 원활하게 주고받아야 합니다. 인텔은 오로라 슈퍼컴퓨터에서 현재 개발 중인 차세대 고속 인터페이스인 컴퓨터 익스프레스 링크 Compute eXpress Link (CXL)를 적용할 계획입니다. CXL은 PCIe 5.0 기반으로 현재 사용되는 PCIe 3.0/4.0 인터페이스에 비해 대역폭을 획기적으로 높일 수 있습니다. 이번 발표는 인텔의 차세대 고성능 CPU와 GPU에 대한 정보를 좀 더 보여주긴 했지만, 개발 중인 프로토타입을 시연하거나 구체적인 성능을 공개한 건 아니라서 아쉬움이 남습니다. 아직은 개발 중인 제품이기 때문일 것입니다. 하지만 기본의 컴퓨터를 뛰어넘는 엑사스케일 슈퍼컴퓨터 개발은 착실히 진행 중이며 몇 년 안에 그 성과가 나올 것은 분명합니다. 몇 년에 걸쳐 힘들게 개발한 기술을 슈퍼컴퓨터에 한 번 쓰고 버릴 기업은 없기 때문에 사파이어 라피즈나 폰테 베키오에 사용된 기술은 결국 CPU 및 GPU의 전반적인 성능을 높일 밑거름이 될 것입니다. 슈퍼컴퓨터 자체는 평범한 소비자와 거리가 멀지만, 여기에 사용된 기술은 우리 생활 전반을 편리하게 만드는 기술 혁신의 기초가 되고 경제를 발전시키는 원동력이 될 것입니다. 미국 정부가 당장에 큰 이익이 될 수 없는 슈퍼컴퓨터 개발에 막대한 예산을 투입하는 것이 단지 중국의 추격을 따돌리기 위한 것만이 아닌 이유가 여기 있습니다. 고든 정 칼럼니스트 jjy0501@naver.com
  • [고든 정의 TECH+] 차세대 GPU 메모리의 미래…한국이 주도하는 HBM 메모리

    [고든 정의 TECH+] 차세대 GPU 메모리의 미래…한국이 주도하는 HBM 메모리

    현재 그래픽 카드 메모리의 주류는 GDDR (Graphics DDR) SDRAM 메모리입니다. 초창기 그래픽 카드는 PC용 시스템 메모리와 동일한 메모리를 사용했지만, 그래픽 처리 프로세서인 GPU의 급격한 성능 발달로 이미 2000년대 초반 속도 한계에 직면했습니다. CPU용으로 개발된 시스템 메모리로는 GPU가 처리하는 방대한 데이터를 감당하기 어려워진 것입니다. 기본적으로 GPU는 큰 크기의 고해상도 그래픽 데이터를 빠르게 (가능한 초당 60 프레임 이상으로) 처리해야 합니다. 그래야 화려한 게임 그래픽을 끊김 없이 처리할 수 있습니다. 이런 이유로 2003년부터 일반 DDR 메모리보다 더 큰 대역폭을 지닌 GDDR 메모리가 그래픽 카드에 도입되기 시작합니다. GDDR2 메모리는 2003년 출시한 엔비디아의 지포스 FX 5700/5800 울트라 시리즈에 처음 사용됩니다. (1세대 GDDR 메모리는 90년대 후반 등장했는데 당시 그래픽 카드에는 사용되지 않았습니다) 하지만 GDDR 메모리의 본격적인 보급은 2004년 등장한 GDDR3부터입니다. GDDR3는 나중에 AMD에 합병된 ATI와 엘피다, 하이닉스, 인피니온 등 메모리 제조사들이 협력해 만든 그래픽 메모리 규격입니다. 이름과는 달리 DDR2 기반으로 덕분에 DDR3 메모리 규격이 확립되기 전인 2004년부터 본격적으로 보급될 수 있었습니다. GDDR 메모리는 DDR 메모리보다 데이터가 지날 수 있는 통로가 더 많고 데이터 전송 속도가 빨라 3D 그래픽처럼 대용량 데이터를 빠르게 처리할 때 유리합니다. 사실 GPU가 빠른 속도로 발전할 수 있었던 것은 이를 뒷받침할 GDDR 메모리의 발전이 있었기 때문입니다. 따라서 DDR 메모리보다 버전 업데이트가 훨씬 빨리 이뤄져 DDR4 메모리가 도입되는 동안 GDDR5, GDDR5x, GDDDR6 같은 새로운 규격이 등장했습니다. GDDR6 메모리를 사용한 지포스 RTX 2080의 경우 14Gbps GDDR5 (256bit) 메모리에서 448GB/s의 넓은 대역폭을 지원받고 있습니다. 이는 DVD 영화 100편 정도를 1초에 전송하는 속도입니다. 하지만 GDDR 메모리 규격 역시 점점 한계에 도달하고 있습니다. GDDR3에서 메모리 칩 하나 당 19.9 GB/s의 속도를 확보했고, GDDR5에서 40–64 GB/s, GDDR6에서 112–128 GB/s으로 늘어나기는 했지만, GPU의 연산 능력이 급격히 향상되면서 한계에 봉착한 것입니다. 이는 GPU가 게임에서만 쓰이는 것이 아니라 인공지능이나 슈퍼컴퓨터 같은 더 중요한 분야에 사용되면서 연산 능력이 급격히 높아진 것도 원인입니다. HBM (High Bandwidth Memory) 메모리는 이 문제에 대한 가장 합리적인 해결책입니다. HBM 메모리는 삼성전자, SK 하이닉스, AMD의 협력으로 개발되었으며 2013년 SK 하이닉스에서 첫 제품을 내놓았습니다. HBM은 여러 개의 D램 다이(die)를 아파트처럼 수직으로 쌓고 여기에 데이터 통로인 TSV (through-silicon via)를 뚫어 고속으로 데이터를 주고받는 메모리라고 할 수 있습니다. 아예 통로를 여러 개 뚫어 대량으로 데이터를 전송하기 때문에 대역폭에서 GDDR6 메모리를 크게 앞설 수 있습니다. 따라서 슈퍼컴퓨터나 인공지능 연산용 고성능 GPU에 사용됩니다. 하지만 비싼 가격으로 인해 일반 그래픽 카드에는 제한적으로 보급되고 있습니다.올해 출시된 AMD의 라데온 VII 그래픽 카드는 HBM2 메모리를 사용하는데, 4개만 있어도 1TB/s의 대역폭과 16GB의 메모리 용량을 확보할 수 있습니다. 하지만 이미 국내 메모리 제조사들은 이를 뛰어넘는 제품을 개발했습니다. 올해 3월 삼성전자가 공개한 플래시볼트 (Flashbolt) HBM2E 메모리는 칩 하나 당 410GB/s의 대역폭과 16GB의 용량을 제공합니다. 8개의 다이를 수직으로 올린 후 5000개 이상의 TSV로 연결해 속도와 용량을 획기적으로 끌어 올렸습니다. 그리고 이번 달 SK 하이닉스는 이보다 더 빠른 460GB/s 속도의 HBM2E 메모리를 개발했다고 발표했습니다. 이 제품을 4개 사용한 GPU는 1.84TB/s의 대역폭과 64GB의 용량을 확보할 수 있습니다. 이렇게 빠르고 용량이 큰 메모리가 필요한지 의문을 지닐 수도 있지만, 단순히 게임용이 아니라 인공지능 및 슈퍼컴퓨터를 위해서는 이것도 부족할 수 있습니다. 현재 국내 제조사들은 HBM2E보다 더 빠른 HBM3 및 HBM4 메모리 개발을 위한 연구를 진행하고 있습니다. 이 메모리는 현재 미국이 개발하는 엑사스케일 슈퍼컴퓨터에 사용될 것입니다. 국내 기업이 주도하는 HBM 메모리는 인공지능 및 슈퍼컴퓨터 개발에 없어서는 안 될 핵심 부품이라고 할 수 있습니다. 다른 한편으로 일반 소비자용 그래픽 카드에서 HBM 메모리를 사용할 수 있게 하려는 시도도 진행 중입니다. GDDR 규격도 좀 더 빨라질 수 있지만, 대역폭 문제의 근본적인 해결책은 메모리 구조 자체를 혁신한 HBM 메모리의 염가형 버전을 보급하는 것입니다. HBM 메모리를 사용한 그래픽 카드 중 그나마 저렴한 라데온 VII이 699달러로 아직 꽤 비싼 편이기 때문에 500달러 이하 그래픽 카드에서 사용할 수 있는 HBM 메모리가 필요할 것입니다. 결국 이 문제 역시 국내 제조사들의 노력에 달려 있습니다. GDDR 메모리가 결국 DDR 메모리를 대체하고 그래픽 카드 메모리의 대세가 된 것처럼 언젠가는 HBM 메모리가 새로운 대세가 될 날이 올 것으로 기대합니다. 고든 정 칼럼니스트 jjy0501@naver.com 
  • SK하이닉스, 최고 속도 HBM2E D램 개발

    SK하이닉스, 최고 속도 HBM2E D램 개발

    SK하이닉스가 업계 최고 속도를 지원하는 고대역폭 메모리(HBM)인 ‘HBM2E D램’ 개발에 성공했다고 12일 밝혔다. 대용량 데이터 처리에 특화된 HBM2E는 HBM2의 차세대 규격 제품이다. 2013년에 HBM D램이 처음 나왔고, HBM2는 지난해 개발됐다. 1년 만에 한 단계 발전한 HBM2E가 출시된 것이다. 본격적인 양산은 2020년부터 시작된다. SK하이닉스가 개발한 HBM2E는 업계 최고 속도를 구현했다. 핀당 3.6기가비트(Gbit/s) 속도를 지원할 수 있다. 총 1024개 정보출입구(IO)를 통한 전체 데이터 처리 속도는 초당 460기가바이트(GByte)다. 풀HD 영화(3.7GB 용량) 124편 분량을 단 1초에 처리할 수 있는 수준이다. HBM2보다 속도를 50% 높였다. 용량은 단일 제품 기준으로 16Gb 칩 8개를 TSV 기술로 수직 연결해 16GB를 구현했다. TSV를 활용하면 기존 패키징 방식보다 크기는 30% 이상, 전력 소모는 50% 이상 줄일 수 있다. HBM은 짧은 시간에 대용량 데이터를 처리하는 특성 때문에 그동안 그래픽카드(GPU) 등 고성능 그래픽 처리 분야에 활용됐다. 향후 자율주행차뿐만 아니라 인공지능(AI), 슈퍼컴퓨터 등에서 대용량 그래픽 데이터 처리가 필수인 만큼 HBM에 대한 수요 확대가 예상된다. 한재희 기자 jh@seoul.co.kr
  • [고든 정의 TECH+] 엑사플롭스 슈퍼컴퓨터 시장에 출사표 던진 AMD

    [고든 정의 TECH+] 엑사플롭스 슈퍼컴퓨터 시장에 출사표 던진 AMD

    현재 슈퍼컴퓨터 분야는 주도권을 놓지 않으려는 미국과 여기에 도전장을 내민 중국이 한 치의 양보도 없이 치열한 경쟁을 벌이고 있습니다. 한때 세계 최고 슈퍼컴퓨터의 타이틀을 중국에 내준 미국은 IBM, 엔비디아, 인텔, 크레이, AMD 등 주요 IT 업체에 막대한 자금과 연구비를 지원하면서 다시 세계 1위의 타이틀을 되찾아왔습니다. 이는 이전 오바마 행정부 시절 구상한 국가 전략 컴퓨터 구상 (National Strategic Computing Initiative, NSCI)의 결과물이었습니다. 하지만 중국 역시 막대한 자금과 인력을 투자해 기존의 슈퍼컴퓨터보다 더 빠른 엑사플롭스(Exaflops) 슈퍼컴퓨터 개발에 나서고 있어 계속해서 우위를 유지하기 위해서는 새로운 슈퍼컴퓨터가 필요합니다. 참고로 엑사는 100경이라는 의미로 엑사플롭스 컴퓨터는 1초에 100경번 이상 연산이 가능한 슈퍼컴퓨터를 의미합니다. 최근 AMD와 슈퍼컴퓨터 전문 제조사인 크레이는 미 에너지부(DOE)의 지원을 받아 2021년까지 1.5 엑사플롭스 연산 능력을 지닌 슈퍼컴퓨터인 프론티어(Frontier)를 제작할 것이라고 발표했습니다. 프론티어는 앞서 발표된 인텔과 크레이의 오로라와 비슷한 시기에 도입될 예정이지만, 연산 능력은 1.5배 정도 더 빠릅니다. 만약 예정대로 된다면 AMD의 슈퍼컴퓨터가 인텔을 누르고 세계 최고 슈퍼컴퓨터가 될 가능성이 있어 결과가 주목됩니다. 프론티어에는 AMD의 서버용 프로세서인 에픽(EPYC)과 고성능 GPU인 라데온 Instinct가 사용됩니다. CPU 한 개에 GPU 4개가 AMD의 고속 인터페이스인 인피니티 패브릭 (Infinity Fabric)으로 연결되어 하나의 노드(Node)를 구성하며 이런 노드가 여러 개 모여 슈퍼컴퓨터를 구성하게 됩니다. 정확한 노드의 숫자는 아직 공개되지 않았지만, 30MW급 슈퍼컴퓨터라는 점을 감안하면 역대 가장 많은 노드를 지닌 슈퍼컴퓨터가 될 것으로 예상됩니다. 다만 그런 만큼 가격도 비싸 프론티어 시스템 도입 비용만 5억 달러이며 추가로 연구 개발비도 1억 달러가 지원됩니다. 이는 회사 규모가 경쟁사에 비해 작은 AMD에 큰 호재로 예상됩니다. 적지 않은 매출과 더불어 연구비 지원도 받을 수 있기 때문입니다. 물론 세계 최고 슈퍼컴퓨터에 사용된 시스템이라는 것만으로도 상당한 홍보 효과가 있어 앞으로 슈퍼컴퓨터 시장에서 AMD의 입지도 강화될 것입니다. 참고로 AMD는 프론티어 시스템의 구체적인 스펙을 공개하지는 않았지만, CPU는 시기적으로 Zen 3 혹은 Zen 4가 될 것으로 예상됩니다. 7nm 공정으로 제조된 Zen 2 기반 에픽 CPU는 최대 64코어를 지니고 있으며 올해 3분기 경 출시 예정입니다. 2020년에는 7nm+ 공정으로 제조된 Zen 3 코어가 나올 예정인데, 루머에 의하면 5nm 공정의 Zen 4 코어가 2021년경 등장할 가능성이 있습니다. 이 경우 트랜지스터 집적 밀도가 크게 높아져 64코어 이상의 고밀도 CPU도 가능할 것입니다.GPU의 경우에는 더 알려진 것이 없지만, 역시 시기적으로 나비 (Navi) 아키텍처 GPU의 다음 세대 GPU가 사용될 것으로 보입니다. 일단 AMD는 이 GPU가 HBM 메모리를 사용하며 고성능 컴퓨팅 및 딥러닝을 포함한 인공지능에 최적화되어 있다고 설명했습니다. 현재 인공지능 분야에서 AMD의 입지는 경쟁자인 엔비디아에 비해 매우 좁은 상태입니다. 하지만 미국 정부에서 막대한 자금을 지원받아 차세대 GPU를 개발하면 열세를 만회하고 고성능 컴퓨팅 시장 및 인공지능 시장을 노릴 수 있게 될 것입니다. 물론 미국 정부의 의도는 AMD 한 업체를 키우려는 게 아니라 여러 업체가 서로 경쟁하는 구도를 만들어 서로 더 좋은 CPU와 GPU를 만들게 유도하는 것입니다. 이를 위해 중복 투자처럼 보이지만, 정부 연구 기관에서 여러 대의 슈퍼컴퓨터를 도입하는 것입니다. 물론 하나가 실패할 경우 다른 대안이 있어야 하기 때문이기도 합니다. 막대한 돈을 투입해서라도 슈퍼컴퓨터 시장에서 우위를 지키기 위한 미국 정부의 의지가 엿보이는 대목입니다. 프론티어는 AMD가 고성능 컴퓨팅 및 인공지능 시장에서 우위를 점한 엔비디아나 인텔과 맞서 어떤 해답을 내놓을지 보여줄 무대가 될 것입니다. 그리고 이렇게 개발한 기술은 결국 서버와 워크스테이션, 일반 컴퓨터까지 모두 적용될 것입니다. 따라서 슈퍼컴퓨터가 전체 컴퓨터 산업의 발전을 촉진하는 것이죠. 이것이 미국과 중국이 매년 슈퍼컴퓨터에 막대한 돈을 투자하는 이유 중 하나일 것입니다. 고든 정 칼럼니스트 jjy0501@naver.com
  • SK 주력 3사 ‘美 CES 2019’ 동반 참가

    이노베이션, 국내 에너지·화학업계 처음 SKT, 국내 통신사 중 CES에 부스 유일 SK그룹 “미래 모빌리티 시장 선점 전략” SK그룹의 주력 3사인 SK이노베이션과 SK텔레콤, SK하이닉스가 내년 1월 8일부터 11일까지 미국 라스베이거스에서 열리는 세계 최대 정보기술(IT)가전 전시회 ‘CES 2019’에 동반 참가한다. ‘SK의 혁신적인 모빌리티’라는 테마로 전기차 배터리와 커넥티드카, 자율주행 등 미래 모빌리티 기술을 선보이며 글로벌 모빌리티 시장에 본격적으로 출사표를 던진다. 국내 에너지 및 화학업계 최초로 CES에 참가하는 SK이노베이션은 전기차 배터리와 에너지저장장치(ESS) 배터리를 비롯해 배터리의 핵심 구성 요소인 리튬이온배터리분리막(LiBS) 기술을 소개한다. 특히 글로벌 시장점유율 2위인 LiBS를 선보여 글로벌 경쟁력을 부각할 예정이다. SK텔레콤은 국내 통신사 중 유일하게 CES에 부스를 마련해 ‘단일광자 라이다(LiDAR)’와 ‘HD맵 업데이트’ 등 자율주행 기술을 소개한다. 단일광자 라이다는 지난 2월 인수한 스위스 기업 IDQ의 양자센싱 기술을 적용한 것으로, 단일광자 수준의 미약한 빛을 감지하는 센서를 라이다에 적용해 300m 이상의 장거리 목표물을 탐지할 수 있다. HD맵 업데이트는 차량이 수집한 최신 도로 정보를 기존 고화질(HD)맵에 업데이트하는 기술이다. 또 SM엔터테인먼트와 손잡고 공동 전시 부스를 꾸려 홀로박스와 옥수수 소셜 VR 등 5세대(5G) 이동통신 기반의 실감형 미디어 서비스를 선보인다. SK하이닉스는 자율주행과 첨단운전자보조시스템(ADAS), 인포테인먼트, 텔레매틱스에 적용된 차량용 D램과 낸드플래시를 전시하고 차량과 데이터센터 간 통신과 데이터 분석에 활용되는 D램, 고대역폭메모리(HBM), 엔터프라이즈 SSD도 소개한다. SK그룹은 “계열사들의 최첨단 기술을 결집해 미래 모빌리티 시장을 선점한다는 전략”이라고 밝혔다. 김소라 기자 sora@seoul.co.kr
  • [이종락의 재계인맥 대해부](29) SK그룹 최고의사결정기구인 SK수펙스추구협의회

    [이종락의 재계인맥 대해부](29) SK그룹 최고의사결정기구인 SK수펙스추구협의회

    조대식 의장, 학교 동문인 최태원 회장 지근거리에서 보좌 박정호 사장, ICT그룹으로 탈바꿈시켜 최 회장 신임 두터운 측근박성욱 부회장, 34년간 하이닉스에 근무한 반도체전문가  SK그룹은 ‘수펙스(SUPEX)추구협의회’라는 고유의 경영시스템을 갖고 있다. 2013년 공식 출범한 수펙스추구협의회는 산하에 총 7개 위원회를 두고 있다. 7개 위원회는 주요 CEO들이 위원장을 맡는다. 이 체제에서 각 관계사는 자율적으로 경영행위를 판단하고 책임을 진다. 경영행위에 대한 판단을 도울 수 있도록 그룹 차원에서 별도의 전문위원회를 구성해 지원한다. 이런 시스템은 최종현 선대회장이 손길승 회장과 주종관계가 아닌 파트너십을 이어간 전통을 이어 받았다. 최 선대회장은 1995년 노태우 전 대통령의 비자금 문제로 검찰에서 조사받을 때 당시 손 기획실장이 거액의 정치헌금을 다룰 수 있느냐는 검사의 추궁을 받자 “손길승 실장은 단순히 내가 부려먹는 사원이 아니라 나의 비즈니스 파트너, 동업자입니다”라고 대답했다. 최 선대회장의 발언은 당시 정태수 한보 회장의 ‘머슴론’과 비교되면서 화제가 됐다.  조대식(58) 의장 겸 전략위원장은 최태원 회장과 함께 이대부속초등학교와 고려대를 나온 ‘동문’이다. 대성고-고려대 사회학과-미국 클락대 경영대학원을 마쳤다. 지난 2007년 삼성물산 상사부문에서 미주총괄 관리담당 임원을 지내다 SK에 재무담당으로 입사했다. 이후 줄곧 최 회장의 지근거리에서 일해 회장의 의중을 누구보다 잘 파악하고 실행에 옮기는 최고경영진이다. 최 회장이 수펙스추구협의회 의장뿐만 아니라 전략위원장을 맡긴 것도 이 때문이다.  조 의장은 지난 2013년부터 2017년까지 SK㈜ 대표이사 사장으로 재직하는 동안 SK머티리얼즈과 SK실트론 인수, 공유차량 서비스 ‘쏘카’ 지분 투자, SK트리켐과 SK쇼와덴코 설립 등을 진행했다. 이를 통해 SK㈜를 종전 관리형 지주회사에서 투자전문사로 기반을 닦았다. 지난 2015년에는 SK㈜와 SK C&C를 합병, 통합 지주회사를 출범시키는 등 SK그룹 지배구조를 완성했다.  올해부터 에너지·화학위원장을 맡고 있는 유정준(56) SK E&S 사장은 그룹 내 대표적인 글로벌 통이자 에너지 전문가로 손꼽힌다. 2015년부터 지난해까지 3년간 글로벌성장위원장을 역임했다. 인도네시아, 중국, 쿠웨이트 등 주요 국영기업과의 사업협력은 물론, 미국의 셰일에너지 선두주자인 콘티넨탈리소시스, 스페인 석유기업 렙솔, 일본 JX 니폰 오일&에너지와의 글로벌 파트너십 등을 주도했다.  또한 유 위원장은 에너지 분야의 오랜 경험을 바탕으로 국내기반의 도시가스 지주회사였던 SK E&S를 글로벌 LNG 유통회사로 성장시켰다. 현재 SK E&S는 도시가스뿐만 아니라 전력, 집단에너지, 신재생에너지, 해외 에너지 사업을 펼치고 있다. 경기고, 고려대 경영학과를 거쳐 미 일리노이주립대에서 회계학 석사학위를 받았다.  ICT위원회를 이끌고 있는 박정호(55) SK텔레콤 사장은 그룹의 ICT 사업 확장과 성장동력 발굴을 주도하는 등 인수·합병(M&A) 전문가로 꼽힌다. 박 위원장은 신입사원 시절 최종현 선대회장에게 “그룹의 미래 성장을 위한 사업 포트폴리오가 약한 것 같아 걱정이 된다”고 질문해 주위를 놀라게 했을 정도로 당차다. 지난 2001년부터 4녀간 최 회장 비서실장을 맡은 박 위원장은 신세기통신, 하이닉스, 도시바 등의 굵직한 M&A를 주도적으로 이끌며 ICT를 SK그룹 성장의 한 축으로 키운 최 회장의 최측근이다. 특히 2012년 하이닉스를 인수할 당시 그룹 내부에서도 반대 의견이 지배적이었지만 SK텔레콤 사업개발부문장이었던 박 위원장은 반대 세력을 추스리고 돌파해 최 회장의 신임을 얻었다.  2014년 SK C&C 사장에 올랐고, 2015년 SK C&C와 ㈜SK가 합병되면서 SK㈜ C&C 대표이사가 됐다. 지난해 1월 SK텔레콤 대표이사에 취임한 박 위원장은 최근 ADT캡스를 인수하는 등 AI, IoT, 자율주행, 보안 등 New ICT 기반 미래사업 발굴에 나서고 있다. 마산고-고려대 경영학과-미 조지워싱턴대 경영학 석사 출신이다.  글로벌성장위원회는 박성욱(60) SK하이닉스 부회장이 위원장을 맡고 있다. 박 위원장은 동지고와 울산대 재료공학과를 거쳐 KAIST 석·박사학위를 취득한 ‘엔지니어 출신 CEO’다. 지난 1984년 옛 현대전자에 연구소 엔지니어로 입사한 후 34년간 SK하이닉스에만 근무해 왔다. 2013년 대표이사로 취임해 ‘기술 리더십’을 바탕으로 SK하이닉스를 세계 2위의 메모리 반도체 회사로 이끌었고 2017년 부회장으로 승진했다. 최근에는 10나노급 후반의 D램 및 업계 최초 72단 3D낸드를 성공적으로 개발·양산했으며 고대역폭 메모리(HBM)와 차세대 메모리 제품 개발에 진력하는 등 메모리반도체인 D램 분야에서 업계 최고의 전문가다.  김준(57) SK이노베이션 사장이 위원장을 맡고 있는 커뮤니케이션위원회는 그룹의 대외 업무를 담당한다. 유공에 입사해 여러 관계사에서 굵직한 신사업을 담당했던 김 위원장은 2015년부터 SK에너지 사장을 맡아 수익구조 혁신 등을 통해 약 1조원 대의 적자를 기록 중이던 석유사업의 흑자 전환을 이끌었다. 지난해부터 SK이노베이션 총괄사장을 맡고 있는 김 위원장은 비정유부문 강화를 통한 사업구조 혁신에 나섰다.  신성장동력인 전기차 배터리 사업도 글로벌 시장으로 반경을 넓히고 있다. SK이노베이션은 지난해 비정유부문 영업이익이 2조원을 넘는 등 사상 최대 실적을 기록했다. 경동고와 서울대 경영학과와 대학원을 졸업했다.  서진우(57) 위원장은 SK그룹에서 주로 마케팅 분야와 성장동력 발굴 업무를 담당해왔다. 우신고-서울대 전기공학-미 아이오와대 경영학 석사 출신인 서 위원장은 대한텔레콤을 거쳐 SK텔레콤으로 옮겨 젊은 고객층에게 센세이션을 불러 일으켰던 ‘TTL’ 브랜드를 성공시켰다. 이후 와이더댄닷컴 대표, 넷츠고 대표, SK커뮤니케이션즈 대표를 역임하며 그룹의 인터넷 사업을 성장시켰다. 2011년부터 2016년까지는 SK플래닛 사장으로 재임하며 플랫폼 비즈니스의 기반을 닦았다.  최광철(63) 위원장은 글로벌 건설업체인 벡텔(Bechtel)에 입사해 부사장 겸 최고정보책임자(CIO)까지 지낸 뒤 KAIST 교수로 강단에 서다, 2008년 SK건설 부사장직인 최고기술책임자(CTO)로 SK그룹에 합류해 플랜트 담당 사장과 인더스트리 담당 사장을 거쳤다. 2012년부터 2016년까지 SK건설 대표이사를 역임했다. 경복고와 서울대 토목공학과를 거친 뒤 미 UC버클리대에서 토목공학 석사, 공사경영 박사학위를 받았다. 이종락 논설위원 jrlee@seoul.co.kr
위로