찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • CPU
    2026-04-15
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
1,037
  • IBM, 서버용 AI 칩 공개…삼성 파운드리서 생산

    IBM, 서버용 AI 칩 공개…삼성 파운드리서 생산

    미국 IBM이 자체 설계한 서버용 인공지능(AI) 칩을 공개했다. 이 반도체는 삼성전자 파운드리(위탁생산) 사업부가 생산한다. IBM은 26일(현지시간) 미국 스탠퍼드대에서 열린 반도체 학회 ‘핫칩스 2024’에서 AI 프로세서(CPU) ‘텔럼2’와 AI 가속기 ‘스파이어’를 선보였다. ‘텔럼2’는 자체 개발한 AI 칩 2세대 제품으로 금융 분야 사기 방지를 위한 IBM의 차세대 서버 시스템인 Z메인프레임을 구동하는 데 사용된다. 스파이어는 텔럼2 프로세서를 보완하기 위해 추가적인 AI 연산 능력을 제공한다. 보험금 청구 사기 등과 같은 금융 범죄 리스크를 줄일 수 있을 것으로 IBM은 기대하고 있다. 이 두 칩은 2021년 처음 공개된 1세대 제품 텔럼에 이어 이번에도 삼성의 5나노 공정을 통해 생산된다. IBM 측은 “새로운 기술은 차세대 IBM Z메인프레임 시스템의 처리 용량을 크게 확장해 속도를 높일 수 있도록 지원한다”며 “이들 AI 칩은 고성능, 보안, 전력 효율성이 뛰어난 기업용 컴퓨팅 솔루션을 제공하도록 설계됐다”고 설명했다.
  • [딥앤이지테크]고부가 반도체 기판의 세계…“머리카락 굵기의 1/20 마이크로 기술 결정체 FCBGA”

    [딥앤이지테크]고부가 반도체 기판의 세계…“머리카락 굵기의 1/20 마이크로 기술 결정체 FCBGA”

    기업들은 급변하는 시장 상황과 기술에 맞춰 국경 없는 경쟁을 펼치고 있습니다. 이미 우리의 일상에도 깊숙이 들어온 첨단 기술과 이를 이끄는 빅테크의 소식을 흥미롭고, 이해하기 쉽게 풀어드립니다. 최근 인공지능(AI) 반도체 시장이 뜨거워지면서 고집적 반도체 칩을 메인보드와 연결하는 고부가 반도체 패키지 기판에 관한 관심도 높아지고 있습니다. 시장조사업체인 프리스마크에 따르면 반도체 기판 시장 규모는 2024년 4조 8000억원에서 2028년 8조원으로 연평균 약 14%로 지속 성장할 것으로 예상합니다. 반도체 기판은 반도체와 메인 기판 간 전기적 신호를 전달하고 반도체를 외부 충격 등으로부터 보호해주는 역할을 합니다. 흔히 반도체 칩을 우리 몸의 두뇌에 비유한다면 반도체 기판은 뇌를 보호해주는 뼈와 뇌에서 몸으로 전달하는 정보를 각 기관에 연결해 전달하는 신경과 혈관에 비유할 수 있습니다. 반도체 칩은 메인 기판과 서로 연결되어야 하는데 메인 기판의 회로는 반도체보다 미세하게 만드는 게 불가능합니다. 반도체 칩의 단자 사이 간격은 100㎛(마이크로미터, 0.001㎜)로 A4용지 두께 수준이지만 메인 기판의 단자 사이 간격은 약 350㎛로 4배 정도 차이가 나기 때문입니다. 이 때문에 반도체 칩과 메인 기판 사이를 연결해 주는 것이 바로 반도체 기판의 역할입니다. 반도체 기판 중 하나인 ‘플립칩 볼 그리드 어레이’(FCBGA)는 고집적 반도체 칩과 기판을 ‘플립칩 범프’로 연결해 전기 및 열적 특성을 높이는 패키지 기판입니다. 주로 PC와 서버, 네트워크, 자동차용 중앙처리장치(CPU), 그래픽처리장치(GPU)에 사용되고 있습니다. 반도체 업계에서는 AI뿐 아니라 로봇, 메타버스, 자율주행 등 반도체 성능 향상에 대응할 수 있는 기판 기술에 주목하고 있습니다. 특히 빅데이터와 AI에 적용되는 FCBGA는 대형화, 층수 확대, 미세 회로 구현, 소재 융·복합화 등 높은 기술력이 요구되는 제품입니다. 국내 부품기업인 삼성전기도 지난달 글로벌 반도체 기업인 AMD와 고성능 컴퓨팅(HPC) 서버용 FCBGA 공급 계약을 맺고 제품 양산을 시작했다고 밝힌 바 있습니다. 서버용 FCBGA는 반도체 기판 중에서도 기술적으로 어려운 제품입니다. 전 세계에서 하이엔드급 서버용 기판을 양산하는 글로벌 업체도 일부에 불과하다고 합니다. 서버용 CPU와 GPU는 연산 처리능력과 연결 신호 속도 향상 등 고성능화에 대응하기 위해 하나의 기판 위에 여러 반도체 칩을 한꺼번에 담아야 합니다. 그 때문에 서버용 FCBGA는 일반 PC용 FCBGA보다 기판 면적은 4배 이상 크고, 층수도 20층 이상으로 2배 이상 많습니다. 과거 반도체가 기판 위에 반도체 칩이 하나 올라가는 단순한 구조였다면 최신 반도체는 성능을 높이기 위해 회로의 미세화가 진행되고 트랜지스터 개수도 기하급수적으로 늘어나고 있습니다. 극자외선(EUV) 공법 등 미세화 기술이 개발되고 있지만 미세화 기술 성장 한계와 고가 설비 도입 등으로 인한 공정비용 상승으로 반도체 원가가 높아지면서 패키지 기술과 같은 후공정에서 반도체 성능 향상과 원가를 낮추려는 노력이 이어지고 있습니다. 최근에는 반도체 칩 자체를 잘 만드는 것만큼이나 잘 만들어진 제품을 조합해서 어떻게 구성하느냐 하는 멀티 패키지 기술 영역이 중요해졌습니다. 즉, 패키지 전체의 성능을 끌어올리기 위해 여러 가지 반도체 칩을 반도체 기판에 올려 기능을 향상한 멀티 패키지 형태의 제품들이 나오고 있습니다. 많은 칩이 제대로 작동하기 위해선 기판의 회로 패턴은 더 미세화되고 기판 면적도 커지고 층수도 늘어나는 등 반도체 기판의 기술 고도화가 요구되고 있습니다. 삼성전기는 반도체 기판 분야에서 기술력을 유지하기 위해 1조 9000억원에 달하는 대규모 투자를 통해 부산과 베트남 신공장을 첨단 하이엔드 제품 양산기지로 운영하고 있습니다. 삼성전기는 2022년 10월 국내 최초로 서버용 FCBGA 양산에 성공한 이후 2026년까지 서버, AI, 전장, 네트워크 등 고부가 FCBGA 제품 비중을 50% 이상 확대한다는 계획입니다. 반도체 기판을 만들기 위한 핵심 기술은 미세 가공 기술과 미세 회로 구현에 있습니다. 전자기기의 기능이 많아질수록 필요한 부품이 많아지듯이 반도체 칩의 신호 전달에 필요한 회로도 많아지고 더 복잡해집니다. 한정된 기판 면적 안에 많은 회로를 만들어야 하므로 한 면으로도 부족해 4층, 6층, 8층, 10층 등 여러 층으로 만들게 됩니다. 이때 층간에도 회로가 연결되어야 하므로 구멍을 뚫어 전기적으로 연결하기 위한 도금 과정을 거치게 됩니다. 각 층을 연결해주는 구멍을 ‘비아’(Via)라고 하는데 일반적으로 80㎛ 크기의 면적 안에 50㎛의 구멍을 오차 없이 정확히 뚫어야 하는 만큼 정교한 가공 기술력이 필요합니다. 삼성전기는 A4용지 두께의 10분의 1 수준인 10㎛ 수준의 비아를 구현할 수 있는 미세 비아 형성 기술을 가지고 있습니다. 전기신호가 지나가는 길인 회로는 단자가 많아지고 연결해야 할 신호가 많아지면서 회로 선폭과 간격도 미세화되고 있습니다. 회로 제작 과정은 원하는 회로 두께만큼을 도금한 후 남는 부분을 코팅한 다음 화학 작용인 ‘에칭’을 통해 필요한 회로를 형성하게 됩니다. 일반적으로 회로 폭과 회로 간 간격은 8~10㎛ 수준의 얇은 선폭을 구현해야 합니다. 삼성전기는 머리카락 두께의 20분의 1인 5㎛ 이하 수준의 회로 선폭을 구현할 수 있는 미세회로 형성 기술을 보유하고 있습니다. 삼성전기는 110㎜ 이상의 초대면적화 기술과 26층 이상의 초고층화 기술, 수동소자 부품을 패키지 기판 내에 내장하는 기술을 확장해 반도체의 성능을 배가시키는 EPS 기술 등 차세대 반도체 기판 시장에서 요구하는 기술을 확보해 고객과의 협력을 강화하고 있습니다. 삼성전기 관계자는 “최근 AI 기술 등에 의한 고성능 반도체 수요가 늘어나면서 FCBGA 수요도 증가할 전망”이라며 “국내 최초 서버용 FCBGA 양산 업체로써 차세대 기판 개발과 반도체 기판 사업 강화에 집중하고 있다”고 강조했습니다.
  • 서버 시장에도 오픈소스 CPU 바람불까?…로드맵에 256 코어 프로세서를 올린 SiFive [고든 정의 TECH+]

    서버 시장에도 오픈소스 CPU 바람불까?…로드맵에 256 코어 프로세서를 올린 SiFive [고든 정의 TECH+]

    현재 CPU 아키텍처의 대세는 서버, 데스크톱 PC, 노트북 등에 주로 사용되는 x86 아키텍처와 스마트폰, 태블릿, 임베디드 기기, 사물 인터넷 (IoT) 등에 주로 사용되는 Arm 아키텍처로 나눌 수 있습니다. 과거 이외에도 MIPS 같은 RISC 계열 아키텍처가 상당한 비중을 차지한 적도 있으나 x86과 Arm의 급격한 확산으로 이제는 비중이 크지 않습니다. 그런데 이런 프로세서 시장에 도전장을 내민 오픈 소스 아키텍처가 존재합니다. 2010년 미국의 UC 버클리에서 개발한 무료 오픈 소스 RISC 아키텍처인 RISC-V가 바로 그 주인공입니다. 인텔과 AMD 외에는 사용할 수 없는 x86 아키텍처나 라이선스 비용을 지불해야 하는 Arm 아키텍처와 비교할 때 RISC-V는 비용 없이 원하는 프로세서를 개발할 수 있어 점점 사용 범위가 넓어지고 있습니다. 현재 RISC-V의 가장 흔한 응용 사례는 컨트롤러나 임베디드 프로세서입니다. 예를 들어 하드디스크나 SSD의 컨트롤러나 Wi-Fi나 블루투스 같이 특수 목적으로 사용되는 저전력칩 등이 있습니다. RISC-V는 비슷한 성능의 Arm 칩보다 면적이 최대 50%나 작고 전력 소모도 비슷한 정도로 줄일 수 있습니다. 따라서 높은 성능은 필요하지 않은데, 가격과 전력 소모를 낮춰야 하는 분야에서 호응을 얻고 있습니다. 하지만 성능을 높여 모바일 기기나 PC, 서버에도 RISC-V를 사용하려는 시도가 이어지고 있습니다. RISC-V 진영의 대표주자라고 할 수 있는 SiFive는 최근 새로운 로드맵을 통해 256코어 RISC-V 프로세서인 P870-D의 존재를 공개했습니다. P870-D는 32코어 P870 프로세서 기반으로 32코어 클러스터 8개를 RAS 시스템과 AMBA CHI 브릿지로 연결해 256코어를 구현한 고성능 프로세서입니다. 물론 프로세서 하나의 성능은 높지 않을 것으로 생각되나 면적이 작아 비용을 크게 절감할 수 있고 전력 소모도 매우 적을 것으로 생각됩니다. 참고로 또 다른 RISC-V 기반 고성능 프로세서 개발사인 SiPearl이 개발하는 오카미 프로세서의 경우 이보다 더 많은 432개의 코어를 집적하는 것을 목표로 하고 있습니다. SiPearl은 프랑스 스타트업으로 취리히의 스위스 연방 공과대학과 이탈리아 볼로냐 대학의 연구팀이 협력하고 유럽 우주국의 지원을 받아 개발이 진행되고 있습니다. 오카미 프로세서는 216코어 칩렛을 두 개 연결하는 구조로 개발되는데, 글로벌 파운드리의 12LPP 같은 구형 공정을 이용해도 칩 면적이 73㎟ 정도에 불과한 것으로 알려져 있습니다. P870-D의 세부 스펙이나 제조 공정은 공개되지 않았지만, 오카미의 사례를 생각하면 저렴한 구형 공정을 이용해도 칩 크기가 크지 않을 것으로 생각되며 전력 소모도 적을 것으로 생각됩니다. 다만 그만큼 성능은 높지 않기 때문에 현재 인텔과 AMD 양대 x86 제조사가 혈투를 볼이고 있는 서버 시장에 정면 도전하지는 않을 것으로 보입니다. P870-D나 다른 고성능 RISC-V 제조사가 노리는 시장은 저전력 저비용 서버 시장입니다. 특히 SiFive는 저전력 데이터센터, 클라우드, 엣지 서버, 네트워크 프로세서가 목표라고 공개했습니다. P870-D는 내년 출시를 목표로 하고 있습니다. 과거 Arm도 1980년대에 아주 작고 저렴하면서 전력 소모도 적은 RISC 프로세서로 시작했습니다. 성능으로 정면 승부하면 x86 프로세와 경쟁이 되지 않는다고 보고 다른 쪽으로 시장을 파고든 것입니다. 그리고 이 승부는 결국 성공했습니다. 그리고 이제 Arm의 위치가 견고해진 상황에서 RISC-V가 다시 과거 Arm처럼 프로세서 시장에 도전장을 내밀고 있습니다. 아직은 주로 임베디드 시장에서 경쟁하고 있지만, 성능이 향상되면 과거 Arm처럼 더 많은 분야로 영역을 높일 가능성이 있습니다. 수백 개 이상의 코어를 집적한 고성능 RISC-V 프로세서가 그 물꼬를 틀 수 있을지 주목됩니다.
  • ‘흔들리는 공룡’ 인텔…역대급 어닝 쇼크에 대규모 구조조정까지 [고든 정의 TECH+]

    ‘흔들리는 공룡’ 인텔…역대급 어닝 쇼크에 대규모 구조조정까지 [고든 정의 TECH+]

    인텔은 반도체 분야에서 오랜 세월 1등 기업이었습니다. 특히 CPU 분야에서는 사실상의 독점 기업으로 누구도 넘볼 수 없는 지위를 누려왔습니다. 하지만 그 지위는 최근 크게 흔들리고 있습니다. 거의 망할 뻔했던 경쟁 기업 AMD가 부활해 시장 점유율을 늘리고 있고 인텔의 큰 강점이었던 최신 미세 공정은 이제 TSMC에 완전히 주도권이 넘어간 상황입니다. 이런 상황에서 CEO가 된 팻 겔싱어는 파운드리에 승부수를 던지고 4년간 5개의 새로운 미세 공정을 도입하는 공격적인 행보에 나섰습니다. 뒤처진 미세 공정을 따라잡는 것만으로는 주도권을 되찾기 어려운 만큼 아예 상대를 추월하겠다는 각오를 다진 것입니다. 하지만 현재까지는 새로운 반도체 팹을 건설하는데 들어가는 비용이 수익을 훨씬 앞지르면서 적자 폭이 커지고 있습니다. 2024년 2분기 인텔의 매출은 128억 달러로 전년 같은 기간과 비교해서 1% 정도 줄었습니다. 여기까지는 다소 실망스러워도 쇼크라고 보긴 어렵지만, 순이익을 보면 이야기가 달라집니다. 작년에 15억 달러 흑자였던 인텔은 이번 2분기에는 16억 달러라는 큰 적자를 기록했습니다. 매출은 비슷한데, 흑자에서 큰 폭의 적자로 전환한 이유는 아무래도 지출이 크기 때문일 것입니다. 인텔 파운드리 실적을 보면 여기서만 28억 달러의 적자가 발생해 적자의 대부분을 설명하고 있습니다.인텔은 현재 20A, 18A 같은 최신 미세 공정의 양산과 팹 건설을 동시다발적으로 진행하고 있습니다. 물론 이 공장들이 본격적으로 가동되기 전까지 매출은 없는 반면 들어가는 돈은 엄청나게 많을 수밖에 없습니다. 그러나 이 최신 미세 공정 팹 없이는 TSMC를 따라잡을 수 없고 앞으로 계획한 인텔의 최신 CPU 양산도 제때 이뤄질 수 없어 여기서 비용을 절감할 순 없습니다. 대신 인텔 경영진은 전체 인력의 15%가 넘는 대규모 인력 구조 조정을 통해 2025년까지 100억 달러에 달하는 천문학적 비용을 절감한다는 계획을 세웠습니다. 이에 따라 인텔 직원 12만 4800명 가운데 상당수가 직장을 옮겨야 할 것으로 보입니다. 그래도 인텔의 최신 미세 공정 팹이 계획대로 건설되고 양산까지 순조롭게 이어지면 미래에 대한 희망은 있습니다. 문제는 그렇게 되지 않을 경우입니다. 과거 10nm 공정 진입 때처럼 수율이나 성능에서 문제가 발생할 경우 이번에는 회사의 재정 상태가 나빠졌기 때문에 회복하기 힘든 치명타가 될 가능성이 있습니다. 또 다른 중요한 고비는 올해 하반기 출시 예정인 루나 레이크와 애로우 레이크 CPU입니다. AMD는 신제품인 라이젠 AI 300 시리즈와 라이젠 9000 시리즈를 먼저 출시하면서 시장 점유율 확대를 노리고 있습니다. 서버 시장에서도 최대 192코어의 5세대 에픽 프로세서를 투입해 점유율을 더 높이기 위해 노력하고 있습니다. 사실 인텔이 파운드리 건설에 들어가는 엄청난 비용을 감당하기 어려워진 것은 AMD에 시장 점유율을 꾸준히 내줬기 때문이기도 합니다. CPU 팔아서 번 돈으로 공장을 세워야 하는데, 경쟁사 때문에 이전처럼 마진을 많이 남기기도 힘들고 판매량도 늘리기 어려워진 것입니다. 이런 와중에 신제품이 경쟁사를 확실하게 이기지 못하면 한층 더 힘들어질 수밖에 없습니다. 물론 인텔은 창사 초기부터 지금까지 여러 차례 위기를 극복하고 이겨낸 저력이 있습니다. 이번에도 다시 한번 위기를 극복하고 업계 1위의 명성을 되찾을 수 있을지 앞으로 1-2년이 큰 고비가 될 것으로 보입니다.
  • MRDIMM 그리고 LPCAMM2…새로운 메모리 규격이 몰려온다 [고든 정의 TECH+]

    MRDIMM 그리고 LPCAMM2…새로운 메모리 규격이 몰려온다 [고든 정의 TECH+]

    최근 메모리 업계의 가장 큰 이슈는 단연 HBM일 것입니다. HBM은 주로 그래픽 카드에 사용되는 GDDR 메모리보다 더 빠르고 더 용량이 큰 메모리를 목표로 개발됐습니다. HBM은 여러 개의 D램을 쌓아 올리고 TSV라는 고속 통로로 연결해 대역폭과 용량 두 마리 토끼를 잡은 차세대 메모리입니다. 사실 10년 전 HBM 개발 초기만 해도 GDDR과 비교해 속도가 그렇게 빠른 것도 아니고 가격도 비싸 수요가 많은 건 아니었습니다. 하지만 GPU로 AI 연산을 하게 되면서 대용량의 고속 메모리인 HBM이 다시 주목을 받았습니다. 그리고 올해 AI 붐으로 인해 HBM 수요가 급격히 증가하면서 주요 메모리 제조사들도 사활을 걸고 개발과 양산에 뛰어들고 있습니다. 하지만 현재 주목받는 새로운 메모리 규격이 HBM 하나만 있는 것은 아닙니다. 더 빠르고 에너지 효율이 높은 메모리를 개발하기 위해 D램 자체는 물론 메모리 모듈의 규격과 인터페이스를 바꾸려는 시도가 꾸준히 이뤄지고 있습니다. 최근 메모리 관련 규격을 정하는 국제기구인 JEDEC은 차세대 서버 메모리인 MRDIMM과 차세대 노트북 메모리인 LPCAMM2 규격 표준을 곧 마련할 것이라고 발표했습니다. MRDIMM(Multiplexed Rank DIMMs)는 2022년 SK 하이닉스가 발표한 MCR-DIMM 메모리가 그 원형으로 D램의 속도를 빠르게 하는 대신 메모리 모듈에 하나씩 들어가던 메모리 랭크(rank)가 두 개 들어가 한 번에 128bit로 데이터를 전송해 속도를 두 배 높였습니다. 아직 JEDEC 표준이 완성되기 전이지만, 마이크론은 인텔과 손잡고 최신형 제온 CPU에 사용할 수 있는 MRDIMM을 개발했습니다. 마이크론이 공개한 128/256GB MRDIMM 메모리 모듈은 8800MT/s의 속도로 DDR5 메모리 초기 제품에 두 배에 달합니다. 마이크론은 12800MT/s까지 속도를 높여 나갈 계획입니다. 물론 애당초 SK 하이닉스가 먼저 개발했고 삼성전자 역시 관련 모듈을 개발한 것으로 알려진 만큼 메모리 메이저 3사가 MRDIMM에서 치열한 경쟁을 보일 것으로 예상됩니다. MRDIMM 규격에서 또 다른 흥미로운 대목은 톨(tall) 규격도 있다는 것입니다. 톨 폼펙터의 MRDIMM은 높이가 56.9mm으로 더 많은 메모리 칩을 넣을 수도 있고 같은 용량의 메모리 칩이라도 더 많은 면적이 공기와 접촉해 냉각 효율을 높일 수 있습니다. 마이크론에 의하면 톨 규격의 MRDIMM은 24% 정도 냉각 효율이 높습니다. 메모리가 빨라지고 용량이 많아지면 발열도 무시할 수 없을 정도로 커지므로 이것 역시 필요한 기능입니다. 최근 서버 CPU의 코어 숫자가 100개를 훌쩍 넘어 점점 더 많아지는 데 반해 메모리 대역폭은 그 속도를 따라가지 못하고 있기 때문에 MRDIMM이 적당한 가격으로 제때 공급될 수 있다면, 서버 메모리 시장에서 빠르게 영역을 확대해 나갈 것으로 보입니다. 또 가격이 낮아진다면 데스크톱 PC 시장에도 진출할 가능성이 있습니다. JEDEC은 MRDIMM 표준화에 이어 아직 널리 보급이 되지 않은 노트북 메모리 규격인 LPCAMM(Low Power Compression Attached Memory Module) 혹은 CAMM의 2세대 규격 표준안 마련에도 나서고 있습니다. CAMM 규격은 주로 스마트폰이나 태블릿에 사용되는 LPDDR 메모리를 일반 노트북에서도 사용할 수 있게 만든 것으로 기존의 SO-DIMM 메모리보다 크기는 40% 작고 효율은 70%나 높였습니다.CAMM2 규격은 특이하게도 이미 출시한 LPDDR5 메모리만이 아니라 아직 나오지 않은 LPDDR6 메모리도 지원합니다. LPDDR6 CAMM2 메모리 모듈은 현재의 128bit 메모리 인터페이스 대신 50% 더 넓은 192bit 메모리 인터페이스를 사용할 수 있습니다. 따라서 현재 노트북에 사용하는 LPDDR5 CAMM 메모리나 일반 DDR5 메모리보다 50% 더 높은 14.4GT/s 대역폭을 확보할 수 있습니다. 물론 이를 위해서는 CPU가 192bit 메모리 인터페이스를 사용할 수 있어야 합니다. 따라서 LPDDR6 CAMM2 메모리 모듈은 당장에는 도입이 어렵습니다. 하지만 삼성과 SK 하이닉스 모두 LPDDR6 상용화를 준비 중이고 CPU 제조사들도 이에 맞춰 신형 CPU를 설계할 것이기 때문에 생각보다 가까운 미래에 LPDDR6 CAMM2 메모리를 볼 수 있게 될지도 모릅니다. 낮은 전력 소모와 기존의 DDR5가 넘보기 힘든 속도를 생각하면 2세대부터 CAMM 메모리 보급에 탄력이 붙을 가능성도 있습니다. 만약 LPDDR6 CAMM2 메모리가 보급된다면 가장 큰 이득을 볼 수 있는 부분은 내장 그래픽입니다. CPU에 내장된 iGPU는 CPU와 메모리를 공유하기 때문에 낮은 메모리 대역폭에 발목이 잡혀 제 속도를 내기 힘들었습니다. LPDDR6 CAMM2 메모리는 이런 성능 제약을 크게 줄여 노트북 그래픽 성능을 한 단계 높일 수 있습니다. 데스크톱 PC와 서버에 사용되는 DIMM 규격과 노트북에 사용하는 변형 규격인 SO-DIMM은 지난 수십 년간 외형에 큰 변화 없이 사용되었습니다. 하지만 이제 시대의 변화에 맞춰 오래된 규격을 바꾸고 성능을 한 단계 더 업그레이드할 때가 됐습니다. 워낙 많이 보급된 표준 규격인 DIMM이 바로 사라지진 않겠지만, 미래에는 더 다양한 메모리 규격과 제품을 볼 수 있게 될 것입니다.
  • HBM 이어 떠오르는 ‘CXL’…불붙은 차세대 D램 개발 경쟁[딥앤이지테크]

    HBM 이어 떠오르는 ‘CXL’…불붙은 차세대 D램 개발 경쟁[딥앤이지테크]

    기업들은 급변하는 시장 상황과 기술에 맞춰 국경 없는 경쟁을 펼치고 있습니다. 이미 우리의 일상에도 깊숙이 들어온 첨단 기술과 이를 이끄는 빅테크의 소식을 흥미롭고, 이해하기 쉽게 풀어드립니다.고대역폭메모리(HBM)를 놓고 국내 삼성전자와 SK하이닉스 간 경쟁이 한창인 상황에서 새로운 반도체 기술이 최근 눈에 띄고 있습니다. 다름 아닌 ‘컴퓨트 익스프레스 링크’(CXL)인데, 이름 그대로 ‘빠르게 연결해서 연산한다’를 의미를 갖고 있는 기술입니다. 아직 초기 단계지만 시장에선 2028년까지 CXL 시장 규모가 158억 달러(약 22조원)까지 성장할 것으로 보고 있습니다. 우선 CXL는 중앙처리장치(CPU)와 그래픽처리장치(GPU), 저장장치(스토리지) 등 다양한 장치를 연결하는 차세대 인터페이스라 할 수 있습니다. 여러 장치를 하나의 인터페이스로 통합해 한 번에 연결하기 때문에 데이터 처리 속도가 빠르고 시스템 용량과 대역폭까지 확장할 수 있다는 장점이 있습니다. CXL를 활용하면 메모리 용량을 무한대로 확장할 수 있습니다. 기존엔 데이터센터나 서버 용량을 늘리려면 추가 서버 증설이 필요했지만 CXL를 사용하면 기본 서버 내 저장장치인 SSD(솔리드스테이트드라이브)를 꽂던 자리에 CXL 기반의 D램을 꽂아 메모리 용량을 늘릴 수 있습니다. CXL 기술을 사용하면 특정 규격에 맞는 반도체만 사용할 수 있었던 한계를 넘어 종류나 용량, 성능과 관계없이 어떤 메모리든 탑재가 가능합니다. 업계에선 고용량 CXL D램을 적용하면 메인 D램과 함께 서버 1대당 메모리 용량을 8~10배가량 늘릴 수 있을 것으로 보고 있습니다. HBM이 대역폭을 늘려 속도에서 혁신을 이뤘다면, CXL는 서버의 제한된 용량을 늘릴 수 있는 기술인 셈입니다.앞서 최장석 삼성전자 메모리사업부 신사업기획팀장(상무)은 지난 18일 서울 중구 태평로빌딩에서 진행된 ‘삼성전자 CXL 솔루션’ 설명회에서 CXL에 대해 이렇게 설명했습니다. “HBM은 데이터들이 빠르게 왔다 갔다 할 수 있는 고속도로에 비유한다면, CXL는 여러 개의 도로를 (추가로) 만들어서 (차가 다닐 수 있는 전체) 도로를 확장한다는 개념에 비유할 수 있습니다”라고 말이죠. 그러면서 “물론 CXL도 성능이 올라갈 수 있지만 용량 확장에 있어 독보적”이라고 덧붙였습니다. “2028년 되면 시장 ‘개화’할 것” 최 상무는 이날 “CCM-D 관련 시장이 준비되는 2028년이 되면 시장이 개화할 것”이라는 전망도 내놓았습니다. 그때부턴 이른바 ‘하키스틱 커브’를 그릴 것이라고 했는데, 이는 특정 시점 이후 위로 가파르게 치솟는 모양이 하키스틱을 닮은 데서 따온 말입니다. 시장조사업체 욜 인텔리전스에 따르면 CXL 시장은 2022년 170만 달러(약 24억원)에서 2026년 21억 달러로 성장한 뒤 2028년엔 150억 달러에 이를 것으로 예상됩니다. 이러한 전망에 기반해 삼성전자는 HBM 시장에서 놓친 AI 메모리 시장 주도권을 선점하기 위해 애쓰고 있습니다. 2021년 5월 세계 최초로 CXL 기반 D램 기술을 개발했고, 2022년엔 업계 최초로 고용량 512GB(기가바이트) CXL D램을 선보였습니다. 지난해 5월에는 CXL 2.0을 지원하는 128GB CXL D램 개발을 완료한 데 이어 올해 6월엔 업계 최초로 미국 오픈소스 소프트웨어 기업 ‘레드햇’이 인증한 CXL 인프라를 경기 화성캠퍼스 연구시설에 구축하기도 했습니다.SK하이닉스 역시 CXL를 기반으로 한 96GB, 128GB 용량의 D램을 연내 상용화해 출시할 예정입니다. 지난달에는 미국 캘리포니아주에서 열린 CXL 컨소시엄 주최의 콘퍼런스에 참석해 각 장치끼리 메모리를 나눠 쓰도록 해 유휴 메모리를 없애고 전력 소모를 줄여주는 기술 ‘나이아가라 2.0’을 선보이기도 했습니다. 이처럼 대부분의 메모리 반도체 업체들이 CXL 2.0 D램 개발의 완료한 상태지만, CXL 2.0을 지원하는 CPU가 아직 출시되지 않았다는 점이 CXL 시장 개화의 제한 요인으로 작용하고 있는 상황입니다. AI 시대 차세대 기술로 꼽히며 반도체 업체뿐 아니라 빅테크들도 CXL 컨소시엄에 참여해 생태계 구축에 나선 상황입니다. 2019년 출범한 CXL 컨소시엄에는 240여개 기업이 참여하고 있는데, 여기엔 삼성전자, SK하이닉스, 인텔, 엔비디아 등 칩 업체뿐만 아니라 구글, 마이크로소프트(MS) 등이 포함돼 있습니다. “D램 요구량 축소되는 것 아니냐” CXL이 채택될 경우 D램에 대한 요구량이 감소할 가능성이 있습니다. 실제 MS는 현재 시스템에서 약 25%나 되는 유휴 D램이 발생하고 있는데, 초기 CXL를 사용할 경우 전체 D램의 요구량을 10% 줄일 수 있을 것으로 봤으며, 향후엔 더 빠른 속도로 D램 요구량이 줄어들 거라고 전망한 바 있습니다. 그러나 메모리 반도체 업체들은 CXL 도입에 따라 향후 D램 요구량을 줄어들 위험성보다, 현재 DDR 구조상 메모리 확장에 한계가 있어 고객들의 빠른 서버 증설이 제한될 수 있다는 점을 더 큰 리스크로 보고 있습니다.
  • AMD가 달라졌다?…라이젠 9000 시리즈서 내비친 남다른 자신감 [고든 정의 TECH+]

    AMD가 달라졌다?…라이젠 9000 시리즈서 내비친 남다른 자신감 [고든 정의 TECH+]

    AMD는 최근 열린 2024 테크데이 이벤트에서 신형 데스크탑 CPU인 라이젠 9000과 노트북 CPU인 라이젠 AI 300, 그리고 여기에 사용된 Zen 5 아키텍처에 대해 자세한 내용을 공개했습니다. 7월 31일 출시를 앞둔 상황에서 여러 가지 정보를 공개하는 건 당연하지만, 그 내용을 뜯어보면 과거와는 다른 자신감이 느껴집니다. 물론 기업에서 배포하는 자료는 보통 유리한 내용 위주로 편집하게 마련이지만, 그걸 감안해도 자신감이 느껴진다는 이야기입니다. 라이젠 9000 시리즈는 2017년에 등장한 젠 마이크로아키텍처의 Zen 5 기반으로 Zen+와 Zen 3+ 같은 개량형을 포함하지 않은 경우 5세대 해당합니다. 젠은 이전에 사용하던 불도저와 비교해서 같은 클럭에서 성능을 의미하는 IPC 기준으로 한 번에 40%나 되는 성능 향상을 이뤄냈습니다. 그리고 Zen 2에서 15%, Zen 3에서 19%, Zen 4에서 13% 정도 성능을 꾸준히 높였습니다. Zen 5에서는 IPC 기준 16%의 성능 향상을 달성했다고 발표했습니다. 이와 같은 성능 향상이 누적된 결과 AMD 라이젠 CPU는 출시 초기와 달리 이제 싱글 스레드 성능에서 충분히 경쟁력을 확보하고 있습니다. 1세대 라이젠의 경우 4코어 인텔 프로세서보다 게임 성능은 느렸지만, 8코어 CPU라는 점 덕분에 멀티 스레드 성능에서 우위를 점했습니다. 따라서 출시 초기에는 주로 코어 숫자가 많다는 점에 초점을 맞춰 홍보했습니다. 하지만 이번에 공개된 슬라이드에서는 오히려 코어 숫자가 더 많은 인텔 CPU와 비교가 눈길을 끌고 있습니다. AMD에 따르면 12코어 24스레드인 라이젠 9 9900X는 24코어 32스레드인 인텔 코어 i9 14900K와 비교해서 사이버 펑크 2077에서 최대 13%, 호라이즌 던 제로에서 최대 22%의 성능 향상이 있습니다. 보더랜드 3처럼 4%밖에 차이 나지 않는 경우도 있지만, 인텔 13/14세대 프로세서의 게임 성능을 거의 따라잡은 라이젠 7000 시리즈의 성능을 감안하면 IPC가 16% 정도 높아진 라이젠 9000 시리즈의 게임 성능은 충분히 기대할 수 있습니다.아무튼 AMD가 16코어 32스레드 최상위 프로세서인 라이젠 9 9950X와의 비교는 아예 보여주지 않고 그 아래 등급의 프로세서와의 결과만 보여준 것은 자신감의 표출이라고 해도 상당히 이례적인 경우입니다. 심지어 8코어 라이젠 7 9700X는 20코어 인텔 코어 i7 – 14700K와 비교하고 6코어 라이젠 5 9600X는 14코어인 인텔 코어 i5 – 14600K와 비교했습니다. 라이젠 출시 초기와는 정반대의 상황입니다. 물론 게임에서 그렇게 많은 코어를 사용하지 않는다는 점을 감안하면 고성능 Zen 5 코어를 사용한 라이젠 9000 시리즈의 강세는 어느 정도 예상할 수 있습니다. 하지만 이렇게 등급 파괴 수준의 성능을 보여줄지 확인하기 위해서는 정식 출시 이후 상세한 벤치마크를 통한 검증이 필요합니다. 하나 더 주목할 점은 전력 소모와 발열 감소입니다. 지난 몇 년간 인텔과 AMD는 경쟁을 통해 CPU의 코어 숫자와 클럭을 크게 늘렸습니다. 하지만 그 결과 고성능 CPU는 일반 소비자가 감당하기 다소 버거운 수준까지 전력 소모와 발열이 증가했습니다. 이제 16코어, 24코어 CPU를 사용하기 위해서는 공랭 쿨러 대신 거대한 방열판을 지닌 수랭식 쿨러와 대용량 파워 서플라이가 필요한 상황입니다. 당연히 소비자들 사이에서는 ‘불판’이나 ‘전력 차력 쇼’라는 비판이 이어졌습니다. 이를 의식했는지 AMD는 라이젠 9000 시리즈에서 발열량의 기준인 TDP를 낮췄습니다. 16코어인 라이젠 9 9950X는 170W로 이전과 동일하지만 12코어인 라이젠 9 9900X는 170W에서 120W로 낮추고 8코어 6코어 프로세서들도 105W에서 65W로 낮췄습니다. 이는 새로운 Zen 5 아키텍처와 TSMC 4nm 공정 덕분으로 보입니다.물론 TDP는 실제 전력 소모와 완전히 일치하지는 않지만, 보통 비례하기 때문에 전력 소모와 발열이 그만큼 감소했다는 뜻으로 볼 수 있습니다. 따라서 소비자들이 추가 비용을 지불하며 고용량 파워 서플라이와 수랭식 쿨러를 갖춰야 할 필요성이 줄어들 것으로 보입니다. 발열 및 소음 감소, 전기료 절감 효과 역시 기대할 수 있습니다. 본래 10년 전만 해도 AMD CPU가 코어 숫자가 많고 가격이 저렴한 대신 전력 소모와 발열이 많은 단점이 있었던 것과 비교하면 격세지감이 느껴지는 대목입니다. 여기에 더해 AMD는 CPU에서 방출되는 열의 저항을 15%나 줄여 같은 TDP라도 온도를 최대 7도 정도 낮출 수 있다고 발표했습니다. CPU 반도체 자체는 부서지기 쉽기 때문에 이를 보호하기 위해 히트 스프레더라는 금속판을 위에 덮습니다. 그리고 그 안에 열전도율이 높은 물질을 채워 넣는데, 아마도 이 부분을 개선해서 열 저항을 줄인 것으로 추정됩니다. CPU의 열을 쉽게 통제할 수 있다면 비싼 쿨러의 필요성이 줄어들 뿐 아니라 같은 쿨러라도 더 조용하고 쾌적한 사용이 가능합니다.AMD가 발표한 내용대로라면 올해 하반기 CPU 시장에서 라이젠 9000 시리즈의 우세를 예상해 볼 수 있습니다. 다만 인텔도 구경만 하고 있지는 않을 예정입니다. 몇 년간 아키텍처를 유지한 인텔 데스크톱 CPU는 올해 말 대대적인 변화를 예고하고 있습니다. 코드네임 애로우 레이크로 알려진 새 CPU는 라이젠 9000 시리즈처럼 아키텍처와 미세 공정을 전면 개선해 새로 도전장을 내밀 계획입니다. 지난 몇 년간 AMD는 데스크톱 시장에서 꾸준히 점유율을 올려 인텔의 독점적 지위를 흔들고 있습니다. 그리고 덕분에 소비자들은 경쟁을 통한 이득을 누리는 중입니다. 하지만 반대로 AMD의 일방적 우세는 새로운 독점 기업의 탄생을 예고할 수 있기 때문에 바람직하다고 보기 어렵습니다. 라이젠 9000 시리즈의 선전과 함께 인텔 애로우 레이크의 선전도 기대합니다.
  • [차상균의 혁신의 세계] 삼성 ‘초격차’로 넘지 못할 격차

    [차상균의 혁신의 세계] 삼성 ‘초격차’로 넘지 못할 격차

    미국 스탠퍼드대 연구공원의 힐뷰애비뉴 인근은 한적하지만 내가 자주 가는 길이다. 반세기 전인 1970년대에 비트맵 디스플레이와 마우스, 레이저 프린터, 이서넷 통신, 초고집적회로 설계, 인공지능(AI) 머신 등 현대 컴퓨팅의 혁신을 이끈 제록스 팰로앨토 연구소가 있는 곳이다. 스티브 잡스도 이 연구소를 방문한 뒤 애플 매킨토시를 개발했다. 제록스가 재정적으로 어려워지자 스탠퍼드에서 분리된 비영리 연구기관 SRI 인터내셔널에 통합됐다. 이 힐뷰애비뉴는 독일의 ERP 소프트웨어 회사 SAP가 1990년대에 글로벌화를 위해 연구소의 둥지를 튼 곳이다. 실리콘밸리의 혁신을 상징하는 자리에서 독일 특유의 딱딱한 문화를 바꾸고 새로운 인재를 수혈하기 위해서였다. 이 연구소 한쪽에는 언덕을 조망하는 기다란 회의실이 있다. SAP 공동창업자 하소 플래터너 회장은 이곳에 오면 이 회의실을 집무실로 쓴다. 2000년대 중반은 세계 소프트웨어 시장이 변곡점을 맞은 때였다. SAP 협력자였던 오라클이 인수합병(M&A)과 자체 ERP 소프트웨어 개발 등을 통해 SAP의 ERP 시장을 잠식했다. 세계 3위 소프트웨어 기업 SAP는 다양한 혁신 프로젝트를 추진했다. 하지만 전략적 변곡점에서 새로운 길을 모색해 본 경험이 없는 SAP의 내부 프로젝트들은 모두 실패의 길로 가고 있었다. 기존 시장을 수성하려는 거대 기업, 소위 ‘인컴번트 기업’들은 실패를 뻔히 보면서도 누구도 실패를 시인하지 않는 도덕적 해이에 빠지기 마련이다. 내부 혁신이 불가능했던 상황에서 내가 실리콘밸리에 세운 새로운 개념의 초고성능 인메모리 데이터베이스 기술 스타트업 ‘트랜잭트 인 메모리’가 SAP 혁신담당 사장 샤이 아가시의 전략적 인수 대상이 됐다. 그 또한 SAP가 혁신을 위해 수혈한 이스라엘 스타트업 아이콘이다. SAP M&A 책임자는 매일 아침저녁으로 나에게 전화를 했다. SAP와 인수에 대해 어느 정도 합의를 본 뒤 나는 힐뷰애비뉴의 회의실에서 플래터너 회장과 두 시간 동안 단독으로 세계 엔터프라이즈 시장의 패러다임 변화와 SAP의 미래에 대해 논의했다. 이후 나의 주도하에 비밀리에 SAP 한국 연구소가 세워지고 SAP의 기업 경영 데이터와 소프트웨어 자산을 활용해 새로운 플랫폼을 만드는 실험을 추진했다. 누구도 가보지 않은 길은 성공이 담보되지 않았다. 인컴번트 기업 주류 세력의 견제도 계속 뚫어내야 했다. 그런 역경 끝에 한국에서 배양된 SAP HANA 기술은 SAP를 현재의 시장가치 330조원이 넘는 기업으로 끌어올렸다. 약 15년에 걸친 SAP의 여정에서 힐뷰애비뉴 주변도 변화했다. 2009년 출시 제품이 없었던 테슬라가 SAP 인근으로 들어왔다. 2017년 한국전력의 디지털전환위원장을 맡아 한전 임직원과 함께 방문했을 때 이 회사는 또 다른 모습이었다. 7년이 지난 지금 테슬라의 급격한 성장 때문에 스탠퍼드대 연구공원의 많은 건물이 빨간 테슬라 로고를 달게 됐다. 젠AI 시대에 CEO 일론 머스크는 이제 전기차를 넘어 휴머노이드 로봇 회사의 비전을 보여 주고 있다. 몇 달 전 힐뷰애비뉴를 사이에 두고 SAP 연구소 건너편에 있는 건물들의 사인들이 다른 모양의 붉은색 로고로 바뀌었다. 반도체 회사 브로드컴 본사가 들어왔기 때문이다. 브로드컴은 약 50년 동안 반도체 분야의 여러 회사를 통합해 새로운 모습으로 끊임없이 발전해 왔다. 작년 말에 비해 주가가 두 배 이상 뛰어 삼성전자 시가총액의 두 배가 넘는 회사가 됐다. 반도체 기업 중에서는 엔비디아, TSMC 다음이다. 기업은 생물이다. 새로운 비전을 만들어 끊임없이 변해야 한다. 특히 지금 같은 AI 대전환의 시기에는 파격적 사고가 일상이 돼야 한다. 과거의 삼성전자 성공 매뉴얼인 ‘초격차’는 이제 시야를 가리는 매뉴얼일 뿐이다. HBM 메모리를 하나의 패키지로 통합한 엔비디아 슈퍼칩 GPU 시대에 과거의 CPU 시대 전략이 먹힐 수 없다. 엔비디아와 TSMC가 오랫동안 협력해 구현해 놓은 슈퍼칩 플랫폼에서 TSMC 경쟁사인 삼성전자가 얼마나 혁신성을 발휘할 수 있을지 걱정이 된다. 기업과 국가 모두 몸에 익숙한 초격차의 옷을 벗고 새로운 전략을 구사해야 할 때다. 차상균 서울대 데이터사이언스대학원 초대원장
  • SK하이닉스, AI PC용 고성능 SSD 연내 양산…“LLM 1초내 구동수준”

    SK하이닉스, AI PC용 고성능 SSD 연내 양산…“LLM 1초내 구동수준”

    SK하이닉스가 온디바이스(기기 탑재형) 인공지능(AI) PC(개인용컴퓨터)에 탑재되는 SSD(솔리드 스테이트 드라이브) 제품인 ‘PCB01’의 개발을 완료하고 연내에 양산할 계획이라고 28일 밝혔다. SK하이닉스는 “PCB01에 최초로 ‘8채널 PCle 5세대’ 규격을 적용해 데이터 처리 속도 등 성능을 획기적으로 높였다”며 “고대역폭메모리(HBM)를 대표로 하는 초고성능 D램에 이어 낸드 솔루션에서도 최고 수준의 제품 개발에 성공했다”고 강조했다. SK하이닉스는 글로벌 PC 고객사와 함께 신제품에 대한 인증 작업을 진행 중이라고 설명했다. 인증이 마무리되는 대로 연내 양산에 들어가 대형 고객사와 일반 소비자용 제품을 함께 출시할 계획이다. PCB01의 연속 읽기와 쓰기 속도는 각각 초당 14GB(기가바이트), 12GB로 PC용 SSD 제품 중 업계 최고의 성능이 구현됐다고 SK하이닉스는 설명했다. SK하이닉스 관계자는 “이는 AI 학습과 추론에 필요한 거대언어모델(LLM)을 1초 이내에 구동하는 수준의 속도”라고 부연했다.전력 효율도 이전 세대 대비 30% 이상 개선돼 대규모 AI 연산작업의 안정성을 크게 높여줄 것으로 SK하이닉스는 기대하고 있다. SK하이닉스는 이 제품에 ‘SLC(싱글 레벨 셀) 캐싱’ 기술도 적용했다. 이는 한 개의 셀에 1개의 셀에 1비트(bit)의 데이터를 저장하는 규격이다. SLC는 필요한 데이터의 처리 속도를 높여줄 수 있는 방식이다. PCB01에는 개인정보를 보호하기 위한 보안 기능도 탑재됐다. 데이터 위변조를 방지하고 보안상 신뢰할 수 있는 하드웨어 영역인 ‘신뢰점’ 보안 솔루션을 제품에 내장해 외부 보안 공격과 정보 위변조를 방지하는 한편 사용자 암호도 보호될 수 있도록 했다. PCB01은 512GB, 1TB(테라바이트), 2TB 등 3가지 용량으로 출시될 예정이다. 안현 SK하이닉스 부사장은 “이번 신제품은 기존 세대 대비 성능이 대폭 개선되면서 온디바이스 AI PC용 CPU(중앙처리장치)를 생산하는 여러 빅테크 기업들로부터 호환성 검증 협업 요청이 들어오고 있다”며 “고객 인증과 양산을 순조롭게 진행해 낸드 솔루션에서도 세계 1위 메모리 리더십을 공고히 하도록 힘쓸 것”이라고 말했다.
  • HBM 추격자서 CXL 선도자로… 삼성, 반도체 전쟁 판도 흔들까

    HBM 추격자서 CXL 선도자로… 삼성, 반도체 전쟁 판도 흔들까

    최근 업계에서 ‘위기론’이 번지고 있는 삼성전자가 하반기 반도체 시장 돌파구 마련을 위한 전략회의에 들어갔다. 깊은 불황의 늪을 빠져나온 메모리 반도체와 경쟁사 SK하이닉스에 주도권을 빼앗긴 고대역폭 메모리(HBM)의 동반 성장을 비롯해 인공지능(AI) 시대 메모리 솔루션으로 떠오르고 있는 ‘컴퓨트 익스프레스 링크’(CXL)를 아우르는 개발 전략을 수립해 글로벌 반도체 1위 기업 입지를 공고히 한다는 게 삼성전자 측 복안이다. 26일 업계에 따르면 삼성전자 반도체 사업을 담당하는 디바이스솔루션(DS)부문은 이날 경기 화성사업장에서 상반기 글로벌 전략회의를 진행했다. 지난달 삼성전자의 원포인트 인사로 DS부문장에 오른 전영현 부회장이 처음 주재한 사장단 회의로 이정배 메모리사업부 사장, 최시영 파운드리사업부 사장, 박용인 시스템LSI 사장 등 주요 임원들이 참석했다.올해 회의는 예년과 달리 더욱 강화된 보안 속에 필수 인원만 참석해 진행된 것으로 알려졌다. 이는 업무 속도를 강조해 온 전 부회장의 경영 스타일이 반영된 것으로, 해외 빅테크들의 생성형 AI 개발 경쟁이 촉발한 반도체 시장 급변에 빠르게 대응하면서 반도체 사업 전략 기밀을 유지하기 위한 결정으로 풀이된다. 전 부회장과 주요 사업부 사장들은 미국 엔비디아의 HBM 품질검증(테스트) 현황 및 신속 통과 방안을 우선 논의한 것으로 전해졌다. 엔비디아는 현재 전 세계 AI 칩 시장의 80%를 차지하고 있는데 SK하이닉스가 엔비디아에 4세대 HBM 제품인 HBM3를 사실상 독점 공급하고 있다.반면 SK하이닉스보다 늦게 HBM 개발에 뛰어든 삼성전자는 아직 엔비디아에 HBM을 납품하지 못하고 품질검증 통과만을 기다리고 있다. 기존 D램 메모리 칩을 복층 구조로 쌓아 올린 형태의 HBM은 방대한 분량의 데이터를 빠른 시간에 처리할 수 있어 AI 칩 개발에 필수로 꼽힌다. 시장조사업체 트렌드포스에 따르면 2023년 말 기준 SK하이닉스가 시장의 53%를 점유하고 있으며 삼성전자는 38%, 미국 마이크론이 9%대 점유율을 보이고 있다. 이날 회의에서는 HBM과 더불어 시장 수요 급증이 전망되는 CXL 개발 전략도 논의된 것으로 알려졌다. CXL은 중앙처리장치(CPU)와 그래픽처리장치(GPU), 저장장치 등 각 장치(컴퓨트)를 빠르게(익스프레스) 연결(링크)하는 기술이다. CXL 시스템으로 구축한 서버는 1대당 메모리 용량을 8~10배가량 늘릴 수 있다. 서버당 처리해야 할 데이터가 급증하는 AI 시대에 적합한 기술로 주목받고 있다. 삼성전자는 최근 글로벌 오픈소스 솔루션 기업 레드햇이 인증한 CXL 인프라를 업계 최초로 자체 연구 시설에 구축했다. CXL 시장 규모는 2022년 170만 달러(약 23억 6000만원)에서 2026년 21억 달러(2조 9200억원)로 연평균 6배 성장할 것으로 전망된다.
  • LG 그램 프로(Pro), AI 기능·휴대성·대화면으로 판매 날개 달았다

    LG 그램 프로(Pro), AI 기능·휴대성·대화면으로 판매 날개 달았다

    시중에서 인공지능(AI) 프로세서를 탑재한 ‘AI PC’ 신제품들이 인기를 끌고 있는 가운데 올 1분기 국내 컨슈머(B2C) PC 시장에서 LG전자 노트북의 판매량이 호조세다. 최근 발표한 시장조사기관 IDC 보고서(IDC Personal Computing Device Tracker, 2024Q1) 에 따르면 올 1분기 LG전자 노트북의 판매량은 약 26만 8000대(출하량 기준)를 기록하며 전년 동기 대비 약 20% 신장, 국내 노트북 제조사 중 가장 큰 신장률을 보였다. 국내 PC 시장에서 1분에 1대씩 팔린 셈이다. 이는 1분기 국내 컨슈머 PC 시장 규모가 전년 동기와 거의 유사한 수준임을 감안할 때 눈에 띄는 성장세다. 업계에서는 올해 최신 AI 프로세서를 기반으로 역대 LG 그램 시리즈 중 가장 뛰어난 성능을 갖춘 ‘LG 그램 프로’가 시장에서 좋은 반응을 얻고 있는 것으로 해석하고 있다. LG 그램 프로는 그램 본연의 초경량 정체성을 유지하면서도 LG 그램 시리즈 가운데 역대 가장 뛰어난 성능을 갖춘 최상위 라인업이다. 그램 시리즈 최초로 AI 부스트가 내장된 인텔® 코어™ Ultra CPU를 탑재하여, 고성능 작업과 AI 기능을 거뜬히 가능하게 되었다. 일례로 PC 내 인터넷 연결이 없이 AI로 사진을 분석해 인물/장소/날짜 등 39개 카테고리에 따라 자동으로 분류하는 ‘AI 그램 링크’를 탑재하여 고객의 AI 경험을 확대했다. 그램 프로는 총 178개 날개를 품은 메가 듀얼 쿨링팬, 최대 144㎐ 고주사율디스플레이등 강력한 성능을 탑재함에도 불구하고, 그램 본연의 초경량 정체성도 잃지 않았다. 두께는 16형 모델 기준 12.4㎜로 2023년형 LG 그램(15.7㎜)보다 약 21% 줄었고, 무게는 1,199g에 불과하다. 특히 제품에 탑재된 ‘AI 그램 링크’ 기능은 안드로이드/iOS 등 OS의 제약없이 최대 10대의 기기와 PC 간 사진 등 파일을 편리하게 주고받거나 화면을 공유할 수 있다. 또 AI가 사진을 분석해 인물, 장소, 날짜 등 39개 카테고리에 따라 자동 분류해 주는 등 편의성도 뛰어나다. 출시 이후 구매 고객은 “프로그램 설치나 구동이 빨라서 작업 시간이 매우 단축됐다”, “iOS와 연결 가능한 AI 그램 링크가 있어 구매했고, 너무 편리하다” 등 긍정적 평가가 지속되고 있다. 국내뿐 아니라, LG 그램은 미국 소비자 매체 컨슈머리포트로부터 최고 노트북에 연이어 선정되는 등 글로벌 시장에서도 좋은 반응을 얻고 있다. 17형 대화면 노트북 ‘LG 그램 17’은 매체가 선정한 ‘올해 최고의 노트북(Best Laptops of 2024)’ 가운데 ‘최고의 윈도우 노트북(Best Windows Laptops)’에 이름을 올렸다. 매체는 “LG 그램은 출시 이후 지속해서 매체가 선정한 최고의 노트북 중 하나로 꼽히고 있으며, 특히 긴 배터리 수명과 가벼운 무게로 어디를 가든 휴대하기를 원하는 고객에게 탁월한 선택”이라고 호평했다.
  • ‘넥스트라이즈 서울’ 찾은 이스라엘 혁신 스타트업 4社

    ‘넥스트라이즈 서울’ 찾은 이스라엘 혁신 스타트업 4社

    인공지능(AI)·반도체·빅데이터·바이오헬스테크 분야에서 주목받고 있는 이스라엘 혁신기술 스타트업 기업 4사가 14일 아시아 최대 규모 스타트업 박람회 ‘넥스트라이즈’ 부대행사를 찾아 각사가 보유한 핵심 기술 서비스를 소개했다. KDB산업은행과 한국무역협회와 이 주관하는 ‘넥스트라이즈 2024 서울’의 부대행사인 ‘이스라엘 이노베이션 테크 데이’가 이날 서울 강남구 삼성동 코엑스에서 열렸다. 주한이스라엘대사관 경제무역대표부가 주최한 이 행사에는 신한투자증권, 현대모비스 등 국내 주요 기업 벤처투자 관련 관계자들이 참석해 이스라엘 혁신 스타트업 스피데이터(Speedata), 스크림(Sqream), 네티라(Nateera), 팁랭크스(TipRanks) 등 4곳 관계자들에게 추가 질문을 던지는 등 열기가 뜨거웠다. 아키바 토르 주한이스라엘대사는 이날 행사 축사에서 “넥스트라이즈 2024에서 데이터 분석, 원격 건강 및 데이터 기반 투자 분야에서 독점적인 혁신 기술을 보유한 이스라엘 기업을 선보일 수 있어 기쁘다”면서 “세계 초일류 수준의 엔지니어링 제조 역량을 보유한 한국과 이스라엘 혁신기술 기업의 경제 협력은 어쩌면 두 나라가 현재 마주한, 그리고 다가올 지정학적 위기를 초월할 결정적 순간이자 근본적 실마리가 될 것”이라고 말했다. 타마르 코셔 마론 이스라엘 경제무역대표부 대표도 이날 “한국과 이스라엘은 천연자원이 거의 전무하고 전쟁으로 기반시설이 파괴됐고 잿더미만 남은 척박한 땅에서 우수 인재들의 창조적 혁신에 기대 다시 일어섰다는 공통점이 있다”면서 “삼성, LG, 현대, SK와 같은 글로벌 초일류 엔지니어링, 제조업 역량과 창조적인 아이디어로 무장한 이스라엘 스타트업이 만나 협력한다면 시너지를 낼 수 있을 것”이라고 말했다.이스라엘 텔아비브에 본사를 둔 스피데이터는 미국 실리콘밸리 유명 빅테크 마이크로소프트(MS), 아마존, 구글이 투자한 스피데이터는 집적회로반도체(FPGA)인 가속처리기(APU)를 설계하는 유망 팹리스 반도체 제조사다. 지금까지 최소 7000만 달러 상당의 투자를 유치했다. 스피데이터의 APU는 벤치마크 테스트를 통해 기존 CPU에 비해 최소 20~45배 빠른 것으로 알려졌다. 이는 엔비디아의 GPU가 CPU에 비해 1.3배 빠르다는 점을 고려하면 혁신적인 속도다. 생성형 AI 붐으로 처리해야 할 데이터가 매년 급증하고 있다는 점에서 공간과 비용을 획기적으로 절감할 수 있는 빅데이터 솔루션 기술을 보유한 회사 가치는 시간이 갈수록 높아질 것이라는 전망에서다. 게다가, 스피데이터의 APU를 이용하면 AI 데이터센터를 건립·운용에 드는 막대한 비용을 획기적으로 절감할 수 있다. AI 데이터센터에는 GPU 구매비, 공간비용, 건설비, 전기비, 인건비 등이 들어간다. 스피데이터는 데이터센터 공간을 기존에 비해 94% 줄일 수 있고, 데이터센터 유지운영비용으로 무려 86% 절감할 수 있다고 설명했다. 스피데이터가 하드웨어적 솔루션에 치중한 기업이라면 스크림(Sqream)은 소프트웨어 빅데이터 솔루션을 제공하는 기업이다. 스크림은 페타바이트 규모로 크고 복잡한 대규모 빅데이터를 GPU에 기반한 슈퍼컴퓨팅 기술을 통해 효율적으로 분석하고 빠른 속도로 처리하고 이를 통해 새롭게 알 수 있는 인사이트를 제공해 기업의 의사결정을 돕는 기업이다. 삼성, LG전자, 알리바바 등 국내외 유수 기업들이 이미 스크림의 기술 솔루션을 도입했다. 바이오헬스케어 솔루션 기업 ‘네티라’는 비접촉 방식의 헬스케어 기기 제조사다. 환자의 머리 맡에 설치된 기기가 고주파 레이더를 쏴 환자의 심장박동수, 호흡율, ‘바이털사인’(생체신호)을 실시간으로 계속 측정하고, 자체 클라우드 서버에서 이를 분석해 임계치를 넘는 등 건강에 이상반응을 보이면 즉시 의료진에 알림을 울리는 장치다. 박성욱 나티라 아시아지사장은 이날 “애플과 삼성이 스마트워치를 출시한 뒤 이들이 수집하는 생체정보 빅데이터의 질과 양을 앞설 수 없어 경쟁력이 떨어질 것이라는 비관적 전망도 있었지만, 결과는 달랐다”면서 “실제로 부동산회사 오메가 스템사가 미국과 영국 요양병원 300곳에서 이 기기를 3개월 동안 사용한 결과 환자들의 건강 상태가 나빠져서 병원에 입원하는 환자 비율을 60~70% 가까이 낮추는 결과가 나왔다”고 설명했다. 이어 박 대표는 “본격적인 치료가 필요한 질병단계 전에 조기 개입해서 적극적으로 예방 의료를 했더니, 입원 비율은 물론 사망률도 현저히 줄었다”고 말했다. 이 기업은 바이오헬스케어 분야뿐만 아니라 추후 자율주행 등 다양한 분야에 솔루션을 제공하는 등 확장성이 있는 기업으로도 평가된다. 2012년 창립된 팁랭크스는 금융·학술·미디어·유통 등 다양한 분야에서 빅데이터를 처리하는 핀테크 기업이다. 이들은 주식 투자자들에게 미국 월스트리트에 있는 8000명의 금융 애널리스트가 컨센서스를 가진 상장기업 관련 정보를 제공해 투자 판단을 돕는다. 듀크대와 제네바대 2021년 1월 5일 발표한 공동연구 논문에 따르면 금융 블로거가 추천한 주식 종목의 90%가 향후 6~12개월의 투자 기간 동안 손실을 발생한다는 결과가 나왔는데, “팁랭크스는 어떤 금융투자 인플루언서가 지속적으로 좋은 성과를 내는지 투자자가 식별할 수 있는 유일한 회사”라고 판단했다.미국보다 453배 좁은(2만㎢) 땅덩이에 중동에서 지정학적으로 고립된 인구 900만의 소규모 국가가 성공적인 혁신 스타트업 생태계를 꾸린 건 놀라운 성취다. 이스라엘의 스타트업 생태계 규모는 세계에서 7번째로 크고, 인구당 스타트업 창업 비율은 세계에서 가장 높다. 기업 가치가 1조원이 넘는 유니콘 기업을 131개 보유하고 있고, 이스라엘 텔아비브에 본사를 둔 유니콘 기업은 2024년 기준 26개다. 이는 전세계 전체 유니콘 기업의 10%에 달하는 수치다 세계 인공지능(AI) 스타트업 중 이스라엘의 점유율은 10.5%가 넘는다. ‘USB 플래시 드라이브의 창시자’인 도브 모란 그로브 벤처스 매니징 파트너가 14일 이스라엘 이노베이션 테크 데이 화상축사에서 이스라엘이 스타트업 생태계 조성에 성공한 비결을 묻자 “농담으로 답하자면 ‘Nothing’이라고 답하겠다”면서 “이스라엘이 전쟁으로 폐허가 된 땅에서 다시 일어날 수 있었던 전세계를 이방인으로 떠돌며 익힌 생존을 위한 혁신본능이 DNA에 내재돼 있기 때문”이라고 설명했다. 로마에 패퇴해 팔레스타인 가나안땅에서 쫓겨난 이스라엘 민족은 유럽 등 전세계를 2000여년간 이방인으로 떠도는 ‘디아스포라’를 거친 뒤 1948년 이스라엘 건국으로 지금의 영토를 되찾았다. 모란은 “농경중심사회에서 농사를 지을 땅이 떠돌던 유대인들은 잠깐 머물던 마을의 우유를 이웃마을 계란과 맞바꿔 도을 버는 기지를 발휘해 생존했다”고 말했다. 이어 “최악의 조건이 주어지더라도 최상의 결과를 냈던 사람들이 유대인”이라며 “아무 것도 가진 게 없어 배고파도, 자기자신을 끊임없이 갈고 닦아 업계 최고가 되려 애쓰는 것이 이스라엘의 기업가정신”이라고 설명했다. 최근 수년간 이스라엘 스타트업 기업에 투자해 온 임상민 에이티넘인베스트먼트 이사는 “이스라엘은 자국 정체성을 ‘스타트업 네이션’으로 정의할 만큼, 스타트업에 참으로 진심인 국가”라면서 “기술력은 미국 실리콘밸리 테크 기업들만큼 우수한데 밸류에이션(시가총액 등 시장이 평가한 기업 가치)은 미국에 비해 저렴하기에 매력적인 투자처가 될 수 있다”고 말했다. 이어 “한국의 이스라엘 벤처투자는 과거부터 활발했고, 저희와 대기업 벤체투자사를 미롯해 많은 벤처캐피털이 오랫동안 주시해 온 시장”이라며 “이스라엘의 혁신 스타트업들은 기업공개(IPO), 인수합병(M&A) 등 유니콘기업으로 거듭나기 전 투자하거나 교류할 기회가 있다면 매우 좋은 투자 기회가 될 수 있다”고 강조했다. 이에 대해 임 이사는 “국내에서는 보통 이삼십대 젊은 스타트업 대표를 만게 되는데, 이스라엘에 가보면 60~70대 대표도 상당히 많다”면서 “세대와 연령에 관계없이 남녀노소 스타트업 창업에 뛰어든다는 건 그만큼 이스라엘의 스타트업 생태계 저변이 넓다는 것을 의미한다”고 설명했다. 이어 “국내 스타트업은 벤처 투자를 받기 위해 특정 최상위권 대학에서 공학을 전공한 뒤 특정 국내외 대기업 출신이라는 점을 강조하는 방식으로 자신을 소개하지만, 이스라엘의 자기소개는 완전히 다르다”면서 “이스라엘은 자기소개를 할 때 예를 들어, 이스라엘군 정예사이버부대 8200부대 출신이라는 점을 강조하는 등 표면적으로 드러나는 스펙을 강조하기보다는 지금까지 쌓아 온 경력과 실무에서 활용 가능한 능력을 더 우선시해 평가하는 문화가 형성돼 있다”고 덧붙였다.
  • 서버 늘리고 데스크톱은 유지하고…AMD의 시장 맞춤형 CPU 공략법 [고든 정의 TECH+]

    서버 늘리고 데스크톱은 유지하고…AMD의 시장 맞춤형 CPU 공략법 [고든 정의 TECH+]

    AMD는 컴퓨텍스 2024에서 Zen 5 아키텍처를 적용한 전 제품군을 동시에 공개했습니다. 서버 부분에서는 5세대 에픽 프로세서(코드네임 Turin), 데스크톱 부분에서는 라이젠 9000 시리즈(코드네임 Granite Ridge), 노트북 부분에는 라이젠 AI 300 시리즈(코드네임 Strix Point)를 한 번에 공개한 것입니다. 출시 시점은 올해 7월(라이젠 9000, 라이젠 AI 300)과 하반기(5세대 에픽)로 곧 시장에서 볼 수 있을 것입니다. 이번 발표에서 흥미로운 부분은 데스크톱, 노트북, 서버 제품군이 각기 시장 상황에 맞춰 다른 전략을 지니고 있다는 것입니다. 노트북 프로세서인 라이젠 AI 300의 경우 NPU를 추가해 마이크로소프트의 코파일럿 + PC 기준을 충족함과 동시에 Zen 5 코어 4개 + Zen 5c 코어 8개로 스레드 숫자를 24개로 늘려 경쟁사인 인텔과 멀티스레드 경쟁에서도 밀리지 않겠다는 점을 분명히 했습니다. 반면 데스크톱 제품인 라이젠 9000 시리즈는 전 세대와 코어 구성이 달라진 게 없습니다. 다른 제품들은 코어를 늘리는 가운데 라이젠 9000만 유지한 부분이 오히려 더 주목됩니다. 일각에서는 인텔처럼 AMD도 고성능 코어와 고효율 코어의 하이브리드 구조로 가면서 코어 숫자를 늘릴 것이라는 예측도 있었으나, 모바일 코어 숫자만 최대 12개로 늘어나고 데스크톱 프로세서는 16코어를 유지했습니다. 하지만 여기에는 나름 그럴 만한 이유가 있습니다. 과거 AMD의 견제가 미약하던 시절 인텔은 4코어 제품을 오랜 시간 주력 제품으로 내세웠습니다. 그런 상황에서 도전자였던 AMD의 라이젠 프로세서는 8코어 제품을 주력으로 내세워 시장을 잠식해 들어갔습니다. 급기야 과거 자신만만하던 인텔마저 6, 8코어 제품을 급하게 내놓았을 정도입니다. 그러나 AMD는 여유 있게 16코어 제품을 내놓으면서 인텔의 추격을 따돌렸습니다. 결국, 인텔도 16코어, 24코어 제품을 내놓으면서 맞불을 놓았습니다. 하지만 코어 숫자가 경쟁적으로 늘면서 전력 소모 역시 크게 늘어난 것이 문제가 됐습니다. 여기에 경쟁자를 의식해 클럭까지 6GHz까지 높였으니 전력 소모량과 발열은 더 감당하기 힘든 수준이 됐습니다. 일부에서는 두 회사가 CPU를 두고 ‘전력 차력 쇼’를 벌이고 있다는 비판까지 나왔습니다. 당분간 코어 수 경쟁을 더 벌이기 힘든 상황이 된 것입니다. 물론 그럼에도 데스크탑 부분에서 AMD는 최대 16코어, 인텔은 최대 24코어를 유지하고 있기 때문에 이번에는 AMD가 코어 숫자를 좀 더 늘릴지도 모른다는 관측도 있었습니다. 스레드 숫자는 32개로 똑같지만, 코어 숫자가 적다는 것은 마케팅 측면에서는 불리하기 때문입니다. 하지만 AMD가 그렇게 하지 않은 것은 크게 두 가지 이유로 해석해 볼 수 있습니다. 첫 번째로 Zen 5 코어의 IPC가 16% 늘어나서 코어 숫자를 늘리지 않고도 성능을 높일 수 있다는 것입니다. 코어 숫자나 클럭은 똑같아도 한 번에 할 수 있는 일의 양을 의미하는 IPC가 늘어나면 성능을 높일 수 있습니다.두 번째로 아키텍처를 개선하고 4nm 공정을 미세 공정을 도입하면 같은 코어 수를 기준으로 전력 소모량을 줄일 수도 있습니다. 실제 공개한 내용을 보면 16코어인 라이젠 9 9950X만 TDP가 170W로 전 세대와 동일하고 12코어인 라이젠 9 9900X는 전 세대보다 50W가 줄어든 120W입니다. 8코어, 6코어 제품 역시 TDP가 105W에서 65W로 40W가 줄었습니다. 물론 TDP는 실제 전력 소모량과는 다를 수 있지만, 그래도 수치가 줄어들면 실제 전력 소모량도 줄어드는 게 일반적입니다. 따라서 이번에는 코어 수를 유지하고 비판의 대상이 된 과도한 전력 소모량을 줄이기 위해 노력했다는 해석이 가능합니다. 한 가지 변수는 경쟁자인 인텔 애로우 레이크입니다. 애로우 레이크가 예상보다 코어 숫자가 많을 경우 라이젠 9000 시리즈가 멀티스레드 성능에서 밀릴 수 있습니다. 그래도 AMD에게는 남은 카드가 하나 더 있습니다. 바로 3D V 캐시 메모리를 추가해 성능을 높이는 것입니다. 이 방법으로 AMD는 게임 부분에서 경쟁자를 확실히 따돌려왔습니다. 이번에도 같은 방식으로 고성능 제품군인 9000X3D 시리즈를 추후에 공개할 것으로 보입니다. 지난 몇 년 간 코어 수를 유지한 데스크톱과는 대조적으로 AMD는 서버 제품인 에픽 프로세서에는 아낌없이 코어 숫자를 늘렸습니다. 따라서 5세대 에픽 프로세서는 4세대와 비교해서 Zen 5 코어는 33% 늘어난 최대 128코어까지 Zen 5c 코어는 50%나 늘어난 192코어까지 지원합니다. 대신 TSMC의 3nm 공정을 사용해 전력 소모 증가는 최대한 억제한 것으로 보입니다. 그리고 코어 수를 늘리는 것 자체로 데이터 센터에서는 상당한 전력 절감 효과가 있습니다.최신 데이터 센터에는 수천 개에서 수만 개의 서버가 존재합니다. 그런데 서버 사이의 데이터를 주고받는 과정에서도 막대한 양의 에너지가 소비됩니다. 같은 서버 안에 있는 CPU 사이에도 같은 상황이 발생합니다. 따라서 64코어 CPU 두 개보다 128코어 CPU 한 개가 더 효율이 높고 128코어 서버 두 대보다 256코어 서버 한 대가 전력 소모가 적습니다. 5세대 에픽 프로세서의 경우 가장 흔히 쓰이는 2소켓 서버 기준으로 최대 384코어 768스레드가 가능해 앞으로 상당한 수요가 예상됩니다. 참고로 AMD는 3세대까지 최대 64코어 에픽 프로세서를 지원하다 4세대에서 128코어, 5세대에서 192코어까지 순차적으로 늘려가고 있는데, 서버 시장 점유율 역시 덩달아 늘어나고 있습니다. 리사 수 AMD CEO에 의하면 AMD의 서버 시장 점유율은 이제 33%에 도달했습니다. 몇 년 전만 해도 상상하기 어려웠던 수치입니다. 도전자 AMD의 거센 공세에 직면한 인텔 역시 여러 비장의 카드를 준비해 둔 상태입니다. 노트북 부분의 루나 레이크와 데스크톱 부분의 애로우 레이크 역시 올해 하반기에 출격을 대기하고 있습니다. 올해도 과거에는 상상하기 힘든 수준으로 강해진 AMD와 여전히 만만치 않은 능력을 지닌 채 반격을 준비하는 인텔의 대결이 주목됩니다.
  • AI 노트북 최강자는 바로 나…AMD 라이젠 AI 300 시리즈 공개 [고든 정의 TECH+]

    AI 노트북 최강자는 바로 나…AMD 라이젠 AI 300 시리즈 공개 [고든 정의 TECH+]

    2024년 PC 시장의 최대 화두는 AI PC가 될 것으로 보입니다. 당장에는 AI 서비스의 사용 비중이 높지 않지만, 마이크로소프트가 코파일럿 + PC라는 새로운 카테고리를 선보이면서 자사의 AI 기능을 차세대 PC의 표준으로 만들기 위해 노력하고 있고 제조사들도 여기에 호응해 새로운 프로세서와 노트북을 선보이고 있기 때문입니다. 우선 포문을 연 것은 퀄컴의 스냅드래곤 X 엘리트입니다. 마이크로소프트가 코파일럿+ PC의 기준으로 삼은 40TOPS의 연산 능력을 처음으로 만족시킨 프로세서로 서피스 프로와 랩톱에 x86 CPU보다 먼저 탑재되어 눈길을 끌었습니다. 본래 마이크로소프트와 끈끈한 관계를 유지해 왔지만, 당장에 AI PC의 기준에 맞는 제품을 내놓을 수 없는 인텔은 올해 3분기 출시 예정인 루나 레이크의 AI 연산 능력이 스냅드래곤 X 엘리트보다 더 우수하다면서 이에 응수했습니다. 한편 이제까지 말을 아끼던 AMD는 대만 컴퓨텍스 2024 행사에서 코드네임 스트릭스 포인트(Strix Point)로 알려진 차세대 모바일 CPU를 발표했습니다. 본래대로면 라이젠 모바일 9000 시리즈로 나와야 하지만, AMD는 라이젠 AI 300이라는 새로운 브랜드를 선보였습니다. 라이젠 AI 300은 새로운 Zen 5 및 Zen 5c 코어를 탑재했습니다. 각각 인텔의 P 코어와 E코어에 해당하는 CPU 코어이지만, Zen 5c는 E 코어와 달리 2개의 스레드를 제공합니다. 덕분에 플래그쉽 프로세서인 AMD 라이젠 AI 9 HX 370는 12 코어(4x Zen5 + 8x Zen5c)임에도 24 스레드를 지원합니다. 전 세대인 라이젠 8040보다 1.5배 늘어난 만큼 멀티스레드 성능이 상당히 높아질 것으로 예상됩니다. 싱글스레드 성능 역시 Zen 5 코어 도입으로 높아졌을 것입니다. 같은 날 AMD는 데스크톱 버전 Zen 5의 성능이 전 세대 대비 16% 정도 높아졌다고 언급했는데, 라이젠 AI 300 시리즈의 대략적인 성능 향상 폭도 이와 비슷할 것으로 추정됩니다.이보다 더 중요한 세일즈 포인트는 XDNA 아키텍처를 적용한 NPU의 성능이 50TOPS로 경쟁자인 스냅드래곤 X 엘리트나 루나 레이크보다 약간 높다는 것입니다. 물론 현재 소비자들이 체감할 수 있는 차이로 보이지는 않지만, 제조사 입장에서는 어쨌든 조금이라도 앞서니 크게 홍보할 수 있는 대목입니다. 이에 대해 루나 레이크는 GPU AI 연산 능력까지 보태면 100TOPS이 넘는다고 응수할 것으로 보이는데, 라이젠 AI의 GPU AI 연산 능력 역시 주목됩니다. 라이젠 AI 300 시리즈의 내장 GPU는 RDNA 3.5 아키텍처를 적용한 라데온 890/880M으로 인텔 메테오 레이크 대비 평균 36% 높은 성능을 지녔다는 게 AMD의 주장입니다. 다만 이 정도는 올해 하반기에 등장할 인텔 루나 레이크도 충분히 기대할 수 있는 수준이어서 지금은 누가 이길지 장담하기 어려운 상황입니다. 최근에 대폭 성능을 올린 인텔 내장 그래픽의 승리일지 오랜 세월 이 분야에서 기술을 갈고 닦은 AMD의 승리일지는 출시가 멀지 않은 만큼 곧 알게 될 것입니다. AMD 라이젠 AI는 올해 7월부터 시장에 출시됩니다. 스냅드래곤 X 엘리트보다 늦었지만, 루나 레이크보다는 빠른 셈입니다. 시간차는 약간 있지만, 세 회사에서 나온 프로세서를 탑재한 노트북은 올해 대거 쏟아져 나올 것입니다. 이들이 AI PC라는 소비자용 컴퓨터의 새로운 시대를 열게 될지 시간이 말해줄 것입니다.
  • GPU 한우물만 판 AI의 제왕… ‘엔비디아 생태계’를 창조하다[경제의 창]

    GPU 한우물만 판 AI의 제왕… ‘엔비디아 생태계’를 창조하다[경제의 창]

    올해 초 투자했다면 120%, 지난해 초 투자했다면 1년간 210%의 수익을 거둘 수 있었던 종목이 있다. 국내 온라인 커뮤니티에는 5년 이상 투자했다며 2000%에 가까운 수익률을 자랑하는 인증 사진이 등장한다. 심지어 지난 주말 온라인 주식 커뮤니티에선 10년간 한 종목에 투자해 1만 7000%의 수익률을 거둔 한 일본인 개미 투자자 이야기가 화제가 됐다. 그는 결과적으로 27억원이 넘는 이익을 거뒀다. 비트코인 이야기가 아니다. 인공지능(AI) 열풍의 중심에서 어느덧 공룡기업이 돼 버린 ‘엔비디아’ 이야기다. 요즘 엔비디아는 존재 자체가 뉴스다. 주가가 떨어져도 올라도 기사가 된다. 2022년 10월 기준 100달러 초반이었던 엔비디아의 주가는 최근 1100달러 선까지 올라왔다. 시가총액은 2조 달러(약 2656조원)를 훌쩍 넘어서며 글로벌 시가총액 2위인 애플 자리를 넘보고 있다. 괴물 같은 성장은 그래픽처리장치(GPU·Graphics Processing Unit)가 이끌었다고 해도 과언이 아니다. 엔비디아는 전 세계 GPU 시장에서 점유율 90% 이상을 차지하며 독주 체제를 굳건히 하고 있다최소 6개월 줄 서야 구매 “지금 (엔비디아의) GPU는 마약보다 구하기 어렵다.” 다소 과격한 듯한 일론 머스크 테슬라 최고경영자(CEO)의 말은 팩트다. 엔비디아가 만드는 GPU는 AI 연구개발의 필수재다. 말 그대로 없어서 못 산다. 주력 AI 칩인 H100은 개당 가격이 3만 달러(약 4000만원)에 달하지만 굴지의 테크 기업들도 이 칩을 받으려면 최소 6개월은 기다려야 한다. AI 모델 개발의 3대 요소는 ▲컴퓨팅 파워 ▲빅데이터 ▲모델링(알고리즘)이다. 엔비디아의 역량이 빛을 발하는 지점은 컴퓨팅 파워다. 컴퓨터 성능이라고 할 수 있는 컴퓨팅 파워는 컴퓨터의 연산 처리 능력을 뜻한다. 오픈AI의 ‘챗GPT’ 공개 이후 AI 기술에 대한 업계의 관심이 폭발했고 자연스레 컴퓨팅 기술에 대한 수요가 크게 늘었다. 이들의 수요는 고스란히 해당 분야에 강점을 지닌 엔비디아의 매출로 이어졌다. 엔비디아가 강력한 연산 능력을 갖춘 GPU를 생산할 수 있었던 건 애초에 게임용으로 설계됐기 때문이다. 속도보다는 정확성을 중시하는 중앙처리장치(CPU)와 달리 그래픽 처리를 목적으로 만들어진 GPU는 연산을 동시다발적(병렬식)으로 처리할 수 있다. CPU가 복잡한 연산을 빠르게 처리한다면 GPU는 단순한 여러 데이터를 빠르게 처리한다고 볼 수 있다. AI 개발에는 많은 양의 연산 작업이 필요하기 때문에 단순 연산을 다중 처리하는 GPU가 효과적이다. 엔비디아는 게이밍 그래픽카드 지포스(GeForce) 시리즈로 오랜 기간 게임업계의 최강자로 군림했다. 왕좌를 지키기 위해 실감 나는 3D 그래픽 전달의 필수 능력 중 하나인 연산 처리 능력을 키우는 데 주력한 덕분에 지금과 같이 최고 수준의 GPU 개발 능력을 보유하게 됐다는 것이 업계 중론이다. 엔비디아의 이 같은 전략은 AI 부흥과 함께 맞아 들어가기 시작했다. 박영준 서울대 전기정보공학부 명예교수는 “인공지능을 활용하려면 수많은 연산을 동시에 실시해야 하는데, 이런 방식으로 결과값을 얻으려면 최소 수개월에서 길게는 1년 이상 시간이 필요하다”며 “엔비디아는 AI 계산 방식에 GPU를 적용해 연산 소요 시간을 2~3일로 줄여 냈다”고 설명했다.AI칩 넘어선 비장의 무기 이후 엔비디아는 AI 맞춤형 반도체 제작에 주력하기 시작한다. 실제로 지난해까지 최근 10년 동안 엔비디아 칩의 데이터 처리 속도는 1000배 가까이 향상됐다. 엔비디아는 AI 딥러닝을 위해 CPU의 ‘다재다능함’에 GPU의 연산 처리 능력을 덧붙인 ‘GPU의 범용 연산’(GPGPU)을 개발했다. 김명주 서울여대 정보보호학과 교수는 “CPU의 기능도 일부 병행할 수 있는 GPGPU가 개발되면서 인텔을 제치고 엔비디아의 본격적인 독주 체제가 만들어졌다”고 전했다. 엔비디아는 한 손에 ‘하드웨어 무기’ GPGPU를, 다른 한 손에 ‘소프트웨어 무기’에 해당하는 ‘CUDA’(쿠다)를 들고 본격적인 점유율 확대에 나섰다. AI와 관련한 여러 애플리케이션에서 GPU가 더 효율적으로 활용될 수 있는 소프트웨어 생태계를 만들겠다는 생각이다. 쿠다는 개발자들이 일반적으로 사용하는 프로그래밍 언어 C·C++·파이선 등을 GPU코드로 변환해 준다. GPU를 활용하기 위해 개발자들이 GPU 코드를 따로 배워야 하는 수고를 덜어 준 것이다. 이 같은 소프트웨어 생태계 조성에 힘입어 지금도 대부분의 AI 모델은 쿠다를 기반으로 개발되고 있다. 쿠다를 이용하는 개발자 수는 2020년 180만명에서 2023년 450만명으로 2배 넘게 늘었다. 사실상 엔비디아가 AI 생태계를 장악할 수 있는 원동력이 된 셈이다. 김 교수는 “다른 반도체 기업들도 노력 중이지만 새로운 헤게모니(주도권)을 구축하거나 극적으로 상황이 반전되지 않는 이상 독과점 체제는 이어질 것”이라고 밝혔다.엔비디아 질주 언제까지 최근 투자자들 사이에선 “엔비디아에 조금이라도 더 일찍 투자한 이들이 곧 승자”라는 말이 나온다. 부러움을 뜻하는 라틴어 ‘인비디아’(Invidia)에서 유래한 엔비디아라는 이름이 딱 들어맞는 대목이다. 엔비디아의 성장세는 여전히 가파르다. 2019년 최저 31달러를 찍었던 엔비디아는 1분기 실적 발표가 있었던 지난달 23일 사상 처음으로 1000달러를 돌파했다. 5년 만에 주가가 30배 이상 뛰어올랐다. 지난달 30일엔 장중 한때 1158달러까지 치솟기도 했다. 자연스레 국내 시장에 미치는 영향도 커지고 있다. 삼성전자를 중심으로 한 반도체 업계에 대한 의존도가 높았던 한국 경제가 또 한번 ‘반도체 공화국’의 면모를 확인하는 듯한 모습이다. 지난달 28일엔 최근 4년간 ‘서학개미’(해외 증시에 투자하는 개인투자자)의 주식 보유액 1위 자리를 굳건히 지켜 왔던 테슬라를 제치고 서학개미 최고 관심 종목으로 등극하기도 했다. 국내 증시 시총 1, 2위인 삼성전자와 SK하이닉스는 엔비디아 관련 소식에 웃었다 울었다를 반복 중이다. 국내 증시 엔비디아 최고 수혜주 중 하나로 꼽히는 SK하이닉스는 지난달 29일 장중 한때 20만 9000원을 터치하며 52주 만에 신고가를 경신했다. GPU에 방대한 데이터를 전달하는 데 필요한 고대역폭메모리(HBM3E) 독점적 공급이 주가 상승을 이끌었다. 반면 삼성전자는 지난달 24일 HBM이 엔비디아의 납품 테스트를 아직 통과하지 못했다는 소식이 전해지면서 전 거래일보다 3.07% 급락한 바 있다. 증권가는 엔비디아의 잠재력과 성장 가능성을 인정하면서도 조건 없는 맹신은 지양해야 한다고 입을 모은다. 가파른 상승을 이어 온 엔비디아의 단기 고점이 어느 수준에서 형성될 것인지 가늠하기 쉽지 않다는 이유에서다. 강대석 유안타증권 연구원은 “하반기에도 AI에 대한 관심은 강할 것으로 예상되지만 엔비디아의 실적이 점점 높아지는 눈높이에 언제까지 부응할 수 있을지는 지켜봐야 할 것”이라고 말했다. 미국 증시에서 엔비디아를 향한 쏠림 현상은 심화돼 있다. 올해 S&P500 시가총액은 총 4조 5000억 달러가 늘었는데 이 중 35%인 1조 6000억 달러를 엔비디아가 차지했다. 지난주 국내에서도 엔비디아는 테슬라를 제치고 국내 투자자들이 가장 많이 보유한 해외 주식 1위로 등극했다. 김석환 미래에셋증권 연구원은 “AI 열풍이 끊이지 않았는데도 지난해 8월과 10월 사이, 올해 4월 등 미국의 장기금리가 높아질 때마다 가격 조정을 받아 왔다. 최근 미국의 10년물 국채 등 금리 상승이 지속되면서 지나치게 쏠려 있는 엔비디아가 파급을 받을 우려가 커졌다”고 밝혔다.
  • 서방 제재 이겨낼까?…러시아, 자체 리소그래피 장비 개발·반도체 자력갱생 나서[고든 정의 TECH+]

    서방 제재 이겨낼까?…러시아, 자체 리소그래피 장비 개발·반도체 자력갱생 나서[고든 정의 TECH+]

    우크라이나 전쟁의 향방과는 관련 없이 서방의 강력한 제재로 인해 러시아 IT 산업의 미래는 극히 어두워졌다는 것이 일반적인 평가입니다. 구소련 시절부터 IT 분야에서 서방에 크게 뒤처진 데다, 구소련 붕괴 이후 러시아 경제가 회복될 때도 석유와 천연가스처럼 풍부한 자원을 통해 경제를 성장시켜 반도체 같은 IT 산업은 크게 낙후되었기 때문입니다. 따라서 우크라이나 침공 후 서방의 강력한 제재로 반도체 수입이 중단되자 러시아 정부는 부랴부랴 자체 반도체 산업을 키우기 위해 노력하고 있습니다. 러시아에는 앙스트렘(Angstrem)이나 미크론(Mikron) 같은 자체 반도체 생산 기업이 있기는 하지만, 이들은 서방에서 들여온 장비를 이용해 90nm에서 250nm 같은 오래된 공정 제품밖에 생산할 수 없어 이제까지 수입해 온 반도체를 대체 생산하기에는 턱없이 부족합니다. 그러나 2년 전 러시아 정부는 2030년까지 4200억 루블(6조 4000억원)을 투자해 28nm 공정 팹을 확보한다는 야심 찬 계획을 발표했습니다. 삼성전자, TSMC, 인텔이 2-3nm 팹을 건설하거나 양산하는 점을 생각하면 계획대로 된다고 해도 서방보다 크게 뒤처진 셈이지만, 강력한 제재에도 굴하지 않고 자체 IT 인프라를 갖추겠다고 선언한 것입니다. 다만 러시아는 광학리소그래피 장치처럼 반도체를 만드는 데 필요한 핵심 장비 제조 기술이 없어 실현 가능성에 대해서는 많은 의구심이 있었습니다. 최근 러시아 산업 통상부의 바실리 쉬파크 차관은 타스 통신과의 인터뷰에서 러시아의 첫 리소그래피 장치가 모스크바 북서쪽에 있는 젤레노그라드에서 테스트 중이라고 언급했습니다. 참고로 젤레노그라드는 러시아 반도체 생산기업 미크론의 주요 생산 시설이 있는 곳으로 러시아의 실리콘 밸리로 불리는 도시입니다. 다만 이 리소그래피 장치는 최신 반도체 공정과는 거리가 먼 350nm 공정 장비입니다. 350nm 공정은 인텔이 1995-1997년 사이 펜티엄 MMX, 펜티엄 프로, 펜티엄 II 프로세서를 제조하는 데 사용했으며 비슷한 시기에 AMD K6 프로세서도 350nm 공정에서 양산됐습니다. 따라서 테스트를 통과해 실제 팹을 건설할 수 있다고 해도 거의 30년이나 오래된 기술인 셈입니다. 누가 이 장치를 만들었고 어떻게 연구를 진행하고 있는지에 대해서는 아무 언급이 없었지만, 과거 방식을 생각하면 기존에 수입한 리소그래피 장비 중 현재는 사용하지 않는 구형 장비를 분해한 후 이를 카피해서 복제품을 만들었을 가능성이 있습니다. 사실 과거 구소련의 CPU들이 대개 이런 역설계 방식으로 만들어졌고 현재 러시아가 생산하는 엘브루스 같은 토종 x86 CPU 역시 미국 기업의 기술에 기반해 만들어졌습니다. 아무튼 현재 러시아 미크론도 90nm에서 250nm 팹을 지니고 있는 만큼 당장 350nm 리소그래피 장치가 큰 이득을 제공할 것 같지는 않습니다. 다만 더 미세한 공정에 도전하기 위한 기초 기술을 제공할 수 있습니다. 이번에 350nm 리소그래피 장비 테스트에 성공한다면 다음엔 250nm 같은 더 현실적인 미세 공정에 도전할 것으로 보입니다. 러시아의 반도체 자력갱생 노력은 역설적으로 글로벌 경제 시대에 혼자서 독자 생존이 어렵다는 점을 보여주고 있습니다. IT 산업 역시 글로벌 경제의 분업에 따라 여러 나라의 협력으로 발전하고 있기 때문입니다. 예를 들어 우리나라는 네덜란드의 ASML이 만든 리소그래피 장치를 수입해 반도체 팹을 건설하고 여기서 만들어진 메모리 반도체는 전 세계 컴퓨터와 스마트폰에 장착됩니다. 또 AMD와 인텔 CPU는 미국과 전 세계에 있는 팹에서 생산된 후 중국과 다른 나라에 있는 생산 공장에서 노트북 및 데스크톱 컴퓨터에 장착됩니다. 엔비디아의 GPU 역시 대만 TSMC에 의해 제조된 후 중국의 공장에서 그래픽 카드에 장착되어 전 세계로 팔려 나갑니다. 이런 글로벌 공급망에서 배제된 국가가 독립적으로 비슷한 수준의 생산 능력과 기술을 갖추는 일은 매우 어렵습니다. 이는 단지 IT 산업만의 이야기가 아니기 때문에 전쟁 이후 러시아 산업의 미래는 밝지 않아 보입니다.
  • 국내 연구진, 저비용·고효율 인공지능 개발

    국내 연구진, 저비용·고효율 인공지능 개발

    국내 기업과 연구진이 저비용, 고효율 인공지능(AI) 시스템을 만드는 데 성공했다. 로봇 개발 스타트업 코가로보틱스와 대구과학기술원(DGIST), 미국 캘리포니아 어바인대(UC 어바인) 공동 연구팀이 인간 뇌를 흉내 낸 초차원 연산(HDC) AI 시스템을 실용화했다고 14일 밝혔다. 인공지능은 거대언어모델과 딥러닝(심화학습)을 활용하는데, 이 과정에서 막대한 비용과 전력이 소모된다. 그래서, 전 세계적으로 경량 AI, 맞춤형 온-디바이스 AI에 관한 관심과 연구가 활발하다. 온-디바이스 AI는 클라우드 서버를 거치지 않고 스마트 기기 자체적으로 정보를 수집하고 연산할 수 있는 장치다. 이번에 개발된 HDC AI는 인간 뇌가 효율적으로 데이터를 정의하고 연산하는 방식을 응용하기 때문에 저비용·고효율 특성이 있다. 경량 AI, 맞춤형 온-디바이스 AI에 손쉽게 적용할 수 있다. HDC를 활용한 실내 자율주행 인공지능 로봇은 비싼 GPU 대신 일반 컴퓨터에 쓰는 저렴한 범용 CPU를 장착하고도 15배 빠른 자율주행 기능을 선보였다. 이를 통해 자율주행 AI 로봇의 제조원가 절감과 학습효과 증대가 가능해지는 것이다. 실제로 딥러닝 대비 30분의1 가격의 컴퓨터를 써서 속도는 15배 높이고, 전력은 20분의1로 줄이고 똑같은 학습 및 추론 결과를 얻을 수 있다. 이 성과는 14일 일본 요코하마에서 열린 세계 최대 로봇학회인 ICRA 연례 콘퍼런스에서 발표됐다. 또 HDC 기법으로 스마트폰 앱에 동작이나 음성 명령을 학습시켜 공동현관이나 개별 현관문을 손쉽게 열 수 있는 기술도 개발됐다. 이 기술은 국내 대형 건설사에서 짓는 아파트 도어 개폐 시스템에 적용될 예정이다. 연구팀은 “HDC는 딥러닝이 가진 한계를 극복할 수 있으며, 다양한 로봇과 자동차 자율주행 등 적용 사례는 계속 늘어날 것”이라고 설명했다.
  • 60배나 더 빨라진 괴물칩 ‘M4’… 애플, AI 탑재 아이패드로 반격

    60배나 더 빨라진 괴물칩 ‘M4’… 애플, AI 탑재 아이패드로 반격

    인공지능(AI) 시장에서 뒤처지고 있다는 평가를 받는 애플이 신형 아이패드 프로에 AI 전용의 고성능 M4칩을 탑재하면서 AI 기술 경쟁에 본격적으로 뛰어들었다. 최근엔 데이터센터용 반도체 자체 개발에도 착수한 것으로 알려지면서 AI 시장 전반에 파장이 일 것으로 보인다. 애플은 7일(현지시간) 온라인으로 ‘렛 루즈’ 행사를 열어 신형 아이패드 프로(11·13인치)와 에어를 공개했다. 새로운 아이패드가 출시된 건 2022년 10월 이후 약 18개월 만으로 아이패드 프로는 아이패드 시리즈 중 최고급형에, 에어는 고급형에 해당한다. 아이패드 프로와 에어는 이날부터 미국 등 29개 국가에서 주문할 수 있고 오는 15일부터 매장에 전시된다. 우리나라 출시 일정은 아직 알려지지 않았다. 시장에서 주목하는 건 아이패드 프로 모델에 탑재된 M4로 애플은 해당 칩에 대해 “강력한 인공지능을 위한 칩”이라고 소개했다. 2세대 3나노미터(㎚·10억분의1m) 공정으로 제작한 시스템온칩(SoC)인 M4는 기존 프로에 적용되던 M2는 물론 애플의 최근 노트북에 사용되는 M3보다 앞선 칩으로 AI 성능 향상에 방점이 찍혔다. 차세대 기계학습 가속기를 갖추고 있는 10코어 중앙처리장치(CPU) 성능은 기존 M2보다 1.5배 향상된 속도를 갖췄으며, 그래픽처리장치(GPU)의 성능도 최대 4배 빠르다는 게 애플 측의 설명이다. 전력 효율성을 높이는 데도 성공해 전력을 절반만 써도 M2와 동일한 성능을 제공할 수 있다.특히 애플의 가장 빠른 ‘뉴럴 엔진’을 탑재해 초당 38조 회에 달하는 연산 처리 기능을 갖췄는데, 이는 AI 기계 학습을 가속화한다. 뉴럴 엔진은 애플이 AI 소프트웨어를 위한 신경망을 최적으로 실행하기 위해 만든 특수 하드웨어로, 애플의 최초 뉴럴 엔진(A11 바이오닉 칩)에 비해 속도가 60배나 빠르다. 팀 밀레 애플 플랫폼 아키텍처 담당 부사장은 “뉴럴 엔진과 M4칩은 오늘날 어떤 AI PC의 신경망처리장치(NPU)보다 강력하다”고 말했으며, 조니 스루지 애플 하드웨어 기술담당 수석부사장도 “M4가 AI를 활용하는 최신 앱에 최적화된 칩으로 자리잡았다”고 설명했다. 부진했던 아이패드 판매를 늘리기 위해 AI 기능 최적화에 초점을 맞춘 제품을 내놓은 애플은 이를 통해 실현될 수 있는 AI 서비스에 대해서는 따로 언급하지 않았다. 오는 6월 10일부터 닷새 동안 열리는 세계개발자회의(WWDC)에서 차세대 아이폰 운영체제(iOS18) 등 소프트웨어에 탑재될 생성형 AI 기능 일부를 선보일 것으로 예상된다. AI 기반의 시리(Siri)를 공개하거나, 구글 혹은 오픈AI와 파트너십을 맺고 이를 공개할 가능성이 높다. 팀 쿡 CEO는 이날 영상 막바지에서 “다음달 WWDC에서 다시 만나길 기대하겠다”며 “우리 플랫폼의 미래를 논하고 앞으로 다가올 흥미진진한 일을 공유하도록 할 것”이라고 예고했다. 한편 애플은 최근 초거대 AI 서비스를 위한 데이터센터용 반도체 자체 개발에도 착수했다. 지난 6일 월스트리트저널(WSJ)에 따르면 애플은 최근 ‘ACDC’라는 이름의 프로젝트를 통해 AI 데이터센터 서버용 자체 칩을 개발 중이다. 애플이 설계하고 파운드리(반도체 위탁생산) 파트너인 대만 TSMC가 생산을 맡을 것으로 알려졌다. 애플은 이번 AI칩을 AI 학습용이 아닌 추론에 특화된 칩으로 개발할 것으로 보인다. AI칩은 학습용과 추론용으로 나뉘는데, 최근 학습에서 추론으로 무게중심이 옮겨 가고 있다. 삼성전자 역시 최근 추론용 칩 ‘마하-1’을 공개하며 추론 시장에서 빅테크 고객사를 확보하기 위해 속도를 내고 있다.
  • 내년 HBM 매출, D램의 30%로… 반도체 맑음

    내년 HBM 매출, D램의 30%로… 반도체 맑음

    인공지능(AI) 반도체에 필수적으로 탑재되는 고대역폭 메모리(HBM)가 내년 전 세계 D램 매출의 30% 이상을 차지할 것이란 전망이 나왔다. HBM 시장을 주도하고 있는 국내 반도체 기업 실적도 고가의 HBM 덕분에 빠르게 개선될 것으로 보인다. 7일 대만 시장조사업체 트렌드포스에 따르면 HBM 판매 단가는 내년 5~10% 오를 것으로 예측됐다. 글로벌 D램 시장에서 HBM이 차지하는 비중(매출 기준)은 지난해 8%에서 올해 21%, 내년 30% 이상으로 크게 늘어날 전망이다. 트렌드포스는 “HBM의 판매 단가는 기존 D램의 몇 배, DDR(더블데이터레이트)5의 약 5배에 달한다”면서 “D램 전체 생산 능력이 제한돼 있어 공급업체들이 가격을 5~10% 인상했다”고 설명했다. 다만 현재 시장은 HBM 구매 업체들이 안정적이고 우수한 품질의 제품을 확보하기 위한 차원에서 가격 인상을 수용한 측면이 강하다. 앞으로는 공급 업체의 신뢰성, 공급 능력에 따라 HBM의 가격이 달라질 수 있다는 게 트렌스포스의 설명이다. 3분기 본격적으로 열리는 5세대 HBM(HBM3E) 시장에서 국내 업체들이 주도권을 잃지 않으면서도 수익성을 최대한 높이려면 수율(합격품 비율) 개선은 피할 수 없을 것으로 보인다. 지난해 4세대 HBM(HBM3) 시장에서 점유율 90% 이상을 차지한 SK하이닉스도 HBM3E 12단 제품을 놓고는 경쟁사인 삼성전자와 치열한 싸움이 불가피할 전망이다. HBM3E 12단 제품을 업계 최초로 개발해 기술력을 과시한 삼성전자는 AI 반도체 시장의 ‘큰손’인 엔비디아의 문을 두드리고 있다. 다음달 안에 HBM3E 12단 제품을 양산한다는 목표를 세우고 수율 향상을 위해 인력도 대거 투입했다. 엔비디아의 까다로운 품질 테스트를 통과한다면 고용량 HBM 시장에서 판을 뒤집을 수도 있다. 삼성전자가 올해 HBM 판매 수량의 3분의2 이상을 HBM3E로 채우겠다고 한 것도 이런 기대가 담긴 것으로 풀이된다. 이에 SK하이닉스는 이달 HBM3E 12단 샘플을 제공하고 양산 시점도 3분기로 앞당기면서 삼성에 주도권을 내주지 않겠다는 뜻을 분명히 했다. 내년부터는 6세대 HBM으로 불리는 HBM4를 둘러싼 경쟁도 치열할 것으로 보인다. SK하이닉스는 파운드리 1위 업체인 대만 TSMC와 손잡고 맞춤형 개발에 나서겠다는 전략이다. 이에 맞서 삼성전자는 차세대 HBM 개발을 위해 메모리, 파운드리, 시스템LSI, 어드밴스트 패키징 사업 역량을 총동원하기로 했다. HBM을 이을 제품으로 떠오른 컴퓨트 익스프레스 링크(CXL) 개발을 놓고도 두 업체 간 경쟁이 본격화됐다. CXL은 중앙처리장치(CPU)·그래픽처리장치(GPU)·메모리 등을 효율적으로 사용하기 위해 만들어진 인터페이스다. 신도시에 만들어진 8차선 도로처럼 깔끔하게 정비돼 ‘병목 현상’ 없이 대량의 데이터를 빠르게 처리할 수 있어 AI 시장의 핵심 기술로 주목받고 있다. 한편 이날 삼성전자 주가는 직전 거래일보다 4.77% 오른 8만 1300원, SK하이닉스는 3.70% 오른 17만 9600원에 마감했다.
  • AI 성능 3배 이상 업그레이드…인텔 ‘루나 레이크’ [고든 정의 TECH+]

    AI 성능 3배 이상 업그레이드…인텔 ‘루나 레이크’ [고든 정의 TECH+]

    지난 인텔 비전 2024 행사에서 인텔이 내세운 표어는 어디서든 AI(AI Everywhere)이었습니다. 팻 겔싱어 인텔 CEO는 기조연설 초반에 올해 하반기에 출시할 노트북 및 태블릿 PC CPU인 루나 레이크 실물과 함께 AI 연산 능력을 세 배나 높였다고 공개했습니다. (사진) 루나 레이크의 AI 연산 능력은 100TOPS 이상입니다. 앞서 마이크로소프트는 코파일럿 같은 AI 서비스를 클라우드 기반이 아니라 기기에서 바로 사용하기 위해서 적어도 40TOPS 이상의 AI 연산 능력이 필요하다고 언급했습니다. 이는 현재 인텔의 최신 CPU인 메테오 레이크(코어 울트라)는 물론 경쟁자인 AMD의 라이젠 모바일 호크 포인트 CPU 단독으로는 충족시키기 어려운 기준입니다. 작년 말 출시된 메테오 레이크는 소비자용 인텔 CPU로는 처음으로 인공지능 연산을 위한 NPU를 탑재했지만, NPU 자체의 연산 능력은 11TOPS로 그렇게 높지 않습니다. 18TOPS의 연산 능력을 지닌 GPU와 5TOPS의 연산 능력을 지닌 CPU를 모두 사용하면 34TOPS의 AI 연산 능력을 확보할 수 있습니다. 하지만 CPU와 GPU를 AI 연산 전용으로 자원을 할당하기 어렵기 때문에 마이크로소프트의 AI 컴퓨터 기준과 턱없이 모자라는 수준입니다. 이날 발표에서 인텔이 다른 성능과 재원은 언급하지 않으면서도, 루나 레이크의 AI 연산 능력만큼은 강조한 데는 이런 배경이 있습니다. 최근 AI에 대한 관심이 집중되면서 프로세서 업계도 결국 AI에 사활을 걸어야 한다는 위기의식이 커지고 있습니다. 특히 인텔은 AI에 남들보다 늦게 뛰어든 만큼 빠른 속도로 경쟁자를 추격하기 위해 집중적인 연구와 투자를 한 것으로 보입니다.한 가지 더 흥미로운 정보는 루나 레이크의 AI 연산 능력에서 NPU가 담당하는 부분은 45TOPS 정도라는 것입니다. 따라서 나머지 55TOPS 이상이 CPU와 GPU에서 나와야 합니다. CPU의 AI 연산 능력이 획기적으로 커지기는 어렵다는 점을 생각할 때 루나 레이크의 GPU의 AI 연산 능력도 대폭 향상되는 것으로 추정할 수 있습니다. 루나 레이크의 CPU 구조에 대해서는 알려진 바가 적지만, GPU는 2세대 Xe 아키텍처인 아크 배틀메이지(Arc battlemage)를 사용한다고 알려져 있습니다. 1세대 Xe GPU도 AI 기반 업스케일링 기술인 XeSS를 지원하기 위한 AI 연산 능력을 지니고 있기 때문에 2세대 아키텍처와 더 앞선 미세 공정을 적용했을 경우 18TOPS보다 몇 배 높은 AI 성능을 확보할 수 있을 것으로 예상할 수 있습니다. 루나 레이크의 구체적인 모습은 실물이 공개되어야 알 수 있겠지만, 인텔이 새 모바일 CPU를 공개하면서 AI 성능을 가장 먼저 부각시킨 점이 의미심장합니다. 이것 하나만으로도 현재 IT 업계의 대세가 AI라는 점을 다시 한번 느낄 수 있습니다. 세계 최대의 CPU 제조사도 AI 없이는 도태된다는 위기의식이 반영된 결과로 보입니다. 아마도 이런 위기의식은 경쟁자인 AMD도 똑같이 느끼고 있을 것입니다. 따라서 올해 새로 공개할 제품군에 더 강력한 AI 연산 유닛을 넣으려고 할 가능성이 높습니다. 애플도 새로 공개할 M4 시리즈 프로세서의 AI 성능을 대폭 높인다는 소문도 들립니다. 앞으로 수년간 프로세서의 AI 성능은 비약적으로 발전할 가능성이 높아 보입니다.
위로