찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • HBM
    2026-02-14
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
575
  • 박정호 SK하이닉스 부회장 “우리 기술이 세계 IT 발전 큰 기여 자부심”

    박정호 SK하이닉스 부회장 “우리 기술이 세계 IT 발전 큰 기여 자부심”

    SK하이닉스는 최근 이천캠퍼스 R&D센터에서 ‘SK하이닉스 대상’ 시상식을 개최해 지난해 회사 발전에 기여한 우수 성과들을 포상했다고 17일 밝혔다. 박정호 SK하이닉스 부회장은 이 자리에서 “우리 기술이 세계 IT(정보기술) 발전에 큰 기여를 하고 있다는 것에 자부심을 가져도 된다”며 임직원들을 격려했다. SK하이닉스 대상은 전년도 사업 목표에 크게 기여한 조직에 포상하는 연례행사로 사내 최고 권위의 시상식이다. 구성원의 동기부여와 SK그룹의 경영 철학인 VWBE(자발적·의욕적·두뇌활용)를 고취하기 위해 만들었다. 초격차 기술력을 달성한 조직에 수여하는 ‘빅테크’ 분야에서는 D램 개발, 미래기술연구원, NAND개발 조직이 수상의 영예를 안았다. 각각 HKMG 적용 1a나노 공정 LPDDR5 개발, D램 셀 구조 혁신 및 넷다이(웨이퍼당 생산 칩 수) 경쟁력 극대화, 176단 낸드 고객 인증 및 원가 경쟁력 향상 공로를 인정받았다.퓨처 패스 파인딩 분야에선 ‘M16 및 용인 반도체 클러스터 구축 지원’ 성과를 거둔 대외협력 조직이 수상했다. 커스터머 퍼스트 분야 수상은 D램 개발 조직이 차지했다. 수상 조직은 HBM3의 빠른 시장 출시 및 공급을 통해 경쟁력을 확보하고, 고객사 단독 공급에 성공했다. 소셜 밸류 분야에서는 P&T(패키지와 테스트)와 사업전략 조직이 수상했다. ‘해외 P&T(Package & Test) 사이트 조기 구축을 통해 글로벌 공급망 변화에 대응하고 원가 경쟁력을 높인 점’이 높은 평가를 받았다. SK하이닉스는 올해부터 구성원이 직접 수상 사례를 뽑는 심사 방식을 택했다. 이를 통해 구성원의 관심과 참여도를 높이고, 동료들에게 인정 받은 수상자들의 자부심도 더욱 높였다는 평가를 받았다. 박 부회장은 “SK하이닉스 기술 혁신의 중심에는 항상 구성원이 있다”라면서 “세상에 없던 도전과 혁신으로 우리 SK하이닉스의 가치를 구성원 모두가 함께 증명해 글로벌 일류 기술 기업으로 나아가자”고 말했다. 곽노정 사장은 “SK하이닉스 대상은 우리 회사를 발전시키는 가장 큰 원동력이자 지난 한 해 동안의 가장 훌륭한 성과를 모아서 축하하고 격려하는 의미 있는 자리”라고 말했다.
  • GPU 1만개로 만든 그 답변… 수천 가구가 쓸 전력 삼켰다

    GPU 1만개로 만든 그 답변… 수천 가구가 쓸 전력 삼켰다

    챗GPT의 등장으로 인공지능(AI)은 디지털 시대에 거스를 수 없는 대세가 됐다. AI는 스스로 판단해 작업을 최적화, 효율화하고 많은 분야에서 에너지를 절감할 것으로 예상된다. 하지만 AI 스스로는 개발, 구축, 운영에 천문학적인 비용이 들어가며, 전력 소모가 극심하다. 모든 업계가 환경·사회·지배구조(ESG) 경영을 부르짖는 시대를 이끄는 AI가, 정작 엄청난 에너지를 소비하는 역설적인 상황이다. ●SKT ‘에이닷’ GPU 1040개 사용 초거대 AI는 복잡한 연산을 동시다발로 하기에 고성능 처리장치를 필요로 한다. 그런데 고성능 처리장치는 전기를 많이 쓴다. 초거대 AI 운용엔 대체로 중앙처리장치(CPU)가 아닌 그래픽처리장치(GPU)가 쓰인다. AI반도체 시장점유율 90% 이상을 차지하는 엔비디아의 최신 GPU ‘A100’의 소비전력은 모델에 따라 300~400W(와트)이며 시간당 전력 소비량은 300~400Wh(와트시)이다. 초거대 AI 운용엔 GPU가 수백~수천개 사용된다. SK텔레콤의 초거대 AI 서비스 ‘에이닷’의 기반인 슈퍼컴퓨터 ‘타이탄’엔 A100이 1040개 들어간다. 챗GPT 구동엔 A100 1만개가 사용되는 것으로 알려졌다. 초거대 AI 운용에 필수인 인터넷데이터센터(IDC)도 대표적인 고전력 시설이다. 산업통상자원부의 지난달 자료에 따르면 IDC 한 개당 평균 연간 전력 사용량은 25GWh(기가와트시)로, 4인가구 기준 6000가구가 사용하는 전력량과 같은 수준이다. 애초에 AI 연산용이 아니라 그래픽 처리 속도를 높이기 위해 만들어진 GPU는 데이터를 한 번에 대량으로 처리할 수 있지만, 값이 비싸고 전력도 많이 소비한다. 이에 신경망처리장치(NPU)라는 AI 전용 반도체 개발이 GPU의 문제를 해결할 대안으로 주목받았다. SK텔레콤이 지분 50%를 보유한 사피온이 2020년 발표한 NPU ‘X220’은 지난해 AI 구동 성능 테스트에서 엔비디아의 ‘A2’를 뛰어넘은 바 있다. 그러면서도 65W에 불과한 소비전력은 고성능 CPU들과 비교해도 적은 축에 들어간다. 사피온은 올해 전작 대비 성능을 약 4배 향상시킨 신제품 ‘X330’을 출시할 예정이다. KT와 ‘AI 드림팀’을 이룬 반도체 회사 리벨리온도 ‘아톰’이라는 NPU를 개발했다. 아톰 역시 소비전력이 60~150W에 불과하며 챗GPT의 원천 기술인 ‘트랜스포머’ 계열 자연어 처리 기술을 지원한다. 개발 환경 등 현재 AI 생태계 자체가 GPU 체제에서 세워진 만큼 NPU 시장이 짧은 시일 내에 활성화되긴 어려울 것으로 보인다. 이에 GPU와 함께 칩셋을 이루며 방대한 데이터를 빠르게 처리하는 고성능 D램인 고대역폭메모리(HBM)가 AI 반도체의 효율을 극대화할 수 있는 방책으로 떠올랐다. ●침체된 반도체 시장 훈풍 기대감 SK하이닉스의 3세대 ‘HBM3’ 제품은 A100에 탑재되고 있으며, 엔비디아의 차기 GPU 신제품에 4세대 ‘HBM4’가 적용될 전망이다. 삼성전자는 HBM에 AI 프로세서를 결합한 지능형메모리(HBM-PIM) 제품을 AMD의 최신 GPU 제품에 공급하고 있다. 삼성전자에 따르면 HBM-PIM을 활용하면 기존 GPU 가속기 대비 평균 성능이 2배 증가하고 에너지 소모는 50% 감소한다. 업계에선 이런 고성능 D램이 얼어붙은 메모리반도체 시장의 ‘구원투수’ 역할을 할 수 있다고 보고 있다.
  • 이재용 “어려운 상황에도 인재 양성·미래 기술 투자, 조금도 흔들려선 안 돼”

    이재용 “어려운 상황에도 인재 양성·미래 기술 투자, 조금도 흔들려선 안 돼”

    이재용 삼성전자 회장이 17일 삼성전자 천안캠퍼스와 온양캠퍼스를 찾아 반도체 패키징 기술 개발과 사업 현황 등을 점검했다. 업황 부진 지속에 글로벌 반도체 기업들이 감산·투자 축소·구조조정 등에 돌입한 가운데 삼성전자 홀로 투자 강화 기조를 이어가기 위한 현장 경영으로 풀이된다. 삼성전자 천안캠퍼스와 온양캠퍼스는 메모리 반도체와 시스템 반도체, 파운드리(위탁생산) 등 반도체 전 제품의 테스트와 패키징, 출하를 담당하는 사업장이다. 반도체 패키징은 반도체를 전자기기에 맞는 형태로 제작하는 공정으로, 전기 신호가 흐르는 통로를 만들고 외형을 가공해 제품화하는 필수 단계를 의미한다. 최근 산업계에서는 인공지능(AI)과 5세대(G) 통신, 전장(자동차 전기장치) 등 다양한 분야에서 고성능·저전력 특성을 갖춘 반도체 패키지 기술이 요구되고 있다. 특히 10나노미터(㎚·10억분의 1m) 미만 반도체 회로의 미세화 한계를 극복하기 위한 대안으로 첨단 패키지 기술의 중요성이 더욱 커지고 있다. 시장조사기관 가트너는 전 세계 반도체 후공정 시장 규모가 2020년 488억 달러(약 63조 4351억원) 규모에서 2025년 649억 달러까지 매년 가파르게 성장할 것으로 전망했다. 이 회장은 이날 천안과 온양캠퍼스에서 ▲차세대 패키지 경쟁력 및 연구개발(R&D) 역량 ▲중장기 사업 전략 등을 중점적으로 확인했다. 천안캠퍼스에서 진행된 경영진 간담회에는 삼성의 반도체 사업을 총괄하는 경계현 DS부문장을 비롯해 이정배 메모리사업부장, 최시영 파운드리사업부장, 박용인 시스템LSI사업부장 등 반도체 사업부 사장단이 총출동했다. 이 회장은 간담회에서 “어려운 상황이지만 인재 양성과 미래 기술 투자에 조금도 흔들림이 있어서는 안 된다”고 당부한 것으로 전해졌다.앞서 삼성전자는 올 상반기(1~6월)에도 반도체 시장이 부진할 것으로 전망되는 상황에도 예년과 비슷한 규모의 투자를 유지하기 위해 자회사인 삼성디스플레이로부터 20조원을 빌리기로 한 바 있다. 삼성전자가 자회사로부터 대규모 금액을 단기 차입하는 것은 이례적으로, 반도체 투자 강화로 위기를 극복하고 초격차 기술력 확보로 시장 영향력을 공고히 하겠다는 의지로 보인다. 이 회장은 간담회에 이어 고대역폭 메모리(HBM)와 WLP(웨이퍼 레벨 패키지) 등 첨단 패기지 기술이 적용된 천안캠퍼스 반도체 생산라인을 직접 살펴봤다. 이 회장은 온양캠퍼스에서는 현장 직원들과 간담회를 갖고 기술 개발 부서 직원들을 격려했다. 간담회에 참석한 직원들은 이 회장에게 신기술 개발 목표와 현장에서 느끼는 애로사항 등을 설명한 것으로 전해졌다. 이 회장이 반도체 패키지 사업장을 방문한 것은 이번이 세번째로, 그는 앞선 2020년 7월 사업장 점검 당시에는 “포스트 코로나 시대를 선점하려면 머뭇거릴 시간이 없다”라면서 “도전해야 도약할 수 있다. 끊임없이 혁신하자”고 주문하기도 했다. 재계에서는 지난해 10월 회장직 취임 이후 연이은 이 회장의 현장 행보를 두고 ‘회장으로서 기업에 대한 책임 경영을 강화하는 것’이라는 평가가 나온다. 이 회장은 취임 후 광주 지역의 삼성전자 협력사 방문을 시작으로 지난해 11월 삼성전기 부산사업장과 삼성으로부터 스마트공장 지원을 받은 부산 지역 중소기업 방문, 지난 1일과 7일 삼성화재 유성연수원과 삼성디스플레이 아산캠퍼스 등을 차례로 방문하며 현장과의 소통을 이어오고 있다.
  • 삼성전자 김기남·SK하이닉스 박정호 “첨단기술 경쟁력은 인력에서 나와…양성 시급”

    삼성전자 김기남·SK하이닉스 박정호 “첨단기술 경쟁력은 인력에서 나와…양성 시급”

    김기남 삼성전자 종합기술원 회장과 박정호 SK하이닉스 부회장이 반도체 인력 양성의 중요성을 강조했다. 두 기업은 반도체 인재 육성을 위해 주요 대학에 반도체 계약학과를 개설했지만 글로벌 기업들과 경쟁하기에는 턱없이 부족한 상황이다.김 회장과 박 부회장은 15일 서울 광화문 프레스센터에서 열린 한림대 도헌학술원 개원 기념 학술 심포지엄에서 ‘한국 반도체 산업의 현황과 미래’를 주제로 각각 기조연설을 했다. 김 회장은 “(반도체) 첨단 기술 경쟁력을 만들어내려면 가장 중요한 것은 결국 인력”이라면서 “아무리 지금 인공지능(AI)과 챗GPT가 잘한다고 해도 반도체 공정 데이터를 학습하지 않으면 전혀 쓸모가 없다”고 말했다. 그는 또 “우수한 인력을 통해 만들어진 최첨단 기술로 규모의 경제를 이뤄야 한다”며 “우수한 인력이 있으면 기술 혁신은 지속될 것으로 확신한다”고 강조했다. 김 회장은 반도체 인재 확보를 위한 기업의 노력에는 한계가 있다고 토로했다. 그는 “인력 문제는 한국 반도체의 가장 큰 리스크”라며 “삼성이 반도체 계약학과를 만들어봐도 잘 안 된다”고 말했다. 이어 “인력 육성은 기업 혼자할 수 있는 일이 아니라 국가와 학계, 산업계가 협력해 선순환 사이클을 만들어야 한다”고 제안했다. 정부도 반도체 인재 육성 정책을 마련하고 나섰지만 정작 대학에서는 반도체 학과의 인기가 시들한 것으로 전해졌다. 최근 연세대에서는 시스템반도체공학과 정시 모집 1차 합격자 전원이 등록을 포기한 것으로 파악됐다. 박 부회장은 반도체 강국 위상을 유지하기 위한 필수 조건으로 ▲우수 인재 육성 ▲정부의 반도체 생태계 강화 노력 ▲미래 기술 준비를 꼽았다. 박 부회장은 “현재 예상으로는 2031년 학·석·박사 기준으로 5만 4000명 수준의 인력이 부족할 것”이라며 “전국 지역 거점 대학에 반도체 특성화 성격을 부여하는 것도 필요하다”고 강조했다.박 부회장은 챗GPT를 비롯한 AI 산업과 관련해서는 “앞으로 AI 챗봇 서비스 분야가 반도체 수요의 새로운 ‘킬러 애플리케이션’이 될 것”이라며 “AI 시대에 일어날 기술 혁신의 중심에 항상 메모리 반도체가 있을 것”이라고 말했다. 그는 이어 “챗GPT 등 AI 시대가 펼쳐지고 관련 기술이 진화하면서 글로벌 데이터 생성, 저장, 처리량은 기하급수적으로 늘어날 전망”이라며 “이러한 흐름 속에 SK하이닉스가 세계 최초로 개발한 최고속 D램인 HBM(고대역폭 메모리)은 AI 시대 기술 진화에 큰 역할을 하고 있다”고 덧붙였다.
  • ‘챗GPT’가 불 지핀 
AI반도체 개발 경쟁

    ‘챗GPT’가 불 지핀 AI반도체 개발 경쟁

    오픈AI의 인공지능(AI) 챗봇 ‘챗GPT’로 불붙은 생성 AI 서비스 시장이 반도체 업계에 드리운 불황을 걷어낼 차세대 먹거리가 될 수 있을지 기대를 모으고 있다. 짧은 시간에 무수히 많은 연산을 해야 하는 초거대 모델 기반 생성 AI 운영엔 엄청난 수량의 고효율 반도체 칩셋이 필요하기 때문이다. 14일 업계에 따르면 챗GPT 운영엔 엔비디아의 그래픽처리장치(GPU) ‘A100’ 1만여개가 사용된다. AI 운용에 쓰이는 슈퍼컴퓨터엔 보통 GPU가 몇만 개 단위로 들어간다. GPU 수만 개가 방대한 양의 연산을 빠르게 처리하기 위해서는 고전력, 고비용이 들어갈 수밖에 없다. 샘 올트먼 오픈AI 최고경영자(CEO)는 최근 트위터에 “챗GPT 1회 사용에 몇 센트가 든다”고 적기도 했다. 챗GPT 가입자가 최근 1억명에 도달한 만큼 운영 비용은 하루 수백억원에 달할 것으로 추산된다. 국내 관련 업체들과 정부까지 나서서 AI 전용 반도체 개발을 추진하는 이유가 이런 고전력·고비용 문제에 있다. 앞으로 생성 AI 서비스가 더 많아질 것으로 예상되며, 업계가 저전력·고효율 반도체를 필요로 하기 때문이다. 우선 삼성전자와 SK하이닉스는 GPU에 붙는 메모리반도체 쪽에서 앞서 나가고 있다. 삼성전자는 자체 연산 기능이 탑재된 지능형반도체(PIM) 제품을 GPU 업계 2위인 AMD에 공급하고 있다. PIM은 프로세서와 메모리 사이에 오가는 데이터의 양을 자체 연산 기능으로 조절, 데이터 병목 현상을 해결하고 전력 효율을 크게 높일 수 있다. 삼성전자는 PIM 기술 고도화를 위해 네이버와 협력하고 있다. SK하이닉스는 업계 1위 엔비디아의 A100과 더 발전한 모델인 ‘H100’ 칩셋에 자사 고대역폭메모리(HBM) 반도체를 공급한다. HBM은 대량의 데이터를 한 번에 보낼 수 있는 메모리로, 지난해부터 AI 서버용으로 적용되기 시작했다. 챗GPT 등장 이후 수요가 예상보다 빠르게 증가하고 있다는 게 업계의 설명이다. 애초 AI 전용으로 만들어진 게 아닌 GPU 이후의 반도체로 신경망처리장치(NPU)가 주목을 받고 있다. 한국전자통신연구원(ETRI)이 2021년 말 자체 개발한 NPU를 서버에 도입해 본 결과 GPU 기반 서버보다 연산 성능은 4배, 전력 효율은 7배 늘었다. 다만 아직까지 AI 개발 환경이 GPU 기반으로 형성돼 NPU 시장은 초기 단계다. 정부는 AI 반도체 부문에 4년간 총 1조 200억원을 투자하겠다고 밝혔다. 과학기술정보통신부는 국산 AI 반도체를 단계별로 데이터센터에 적용해 국내 클라우드에 기반한 AI 서비스를 실증한다는 계획을 세웠다. 여기에만 올해 428억원, 2025년까지 1000억원을 지원한다. ‘AI 컴퍼니’를 비전으로 삼은 SK텔레콤은 자체 개발한 AI 반도체 ‘사피온’ 고도화에 집중하고 있다. KT는 반도체 제조사 리벨리온과 ‘AI 반도체 드림팀’을 구성해 AI 반도체 개발에 나섰다. 리벨리온은 최근 국내 최초로 챗GPT의 원천 기술인 ‘트랜스포머’ 계열 자연어 처리 기술을 지원하는 AI 반도체 ‘아톰’(ATOM)을 출시한다고 밝혔다.
  • 슈퍼컴 성능 2배 뛴 SKT ‘에이닷’… 대화형AI 고도화 전쟁 뛰어든다

    미국 인공지능(AI) 연구소 오픈AI의 채팅봇 ‘챗GPT’의 세계적인 흥행을 계기로 글로벌 빅테크들이 대화형 AI 개발에 나선 가운데 국내 기업들도 AI 고도화에 대한 투자를 강화하고 있다. AI 산업 확장은 메모리 업황 하락으로 실적 부진에 빠진 국내 반도체 기업에도 새로운 돌파구로 주목받고 있다. 챗GPT로 고도화한 초거대 대화형 AI ‘에이닷’의 연내 출시를 추진하고 있는 SK텔레콤은 에이닷의 두뇌 역할을 하는 슈퍼컴퓨터 ‘타이탄’을 기존 대비 2배로 확대 구축했다고 12일 밝혔다. SK텔레콤은 2021년부터 슈퍼컴퓨터를 구축해 자체 운영하고 있으며, 이번에 타이탄의 그래픽처리장치(GPU)를 기존의 2배인 1040개로 증설했다. 수십억개의 매개변수를 다루는 초거대 AI를 구동하기 위해서는 방대한 양의 데이터를 빠르고 정확하게 처리할 수 있는 슈퍼컴퓨터 인프라가 필수적이다. SK텔레콤의 슈퍼컴퓨터는 17.1페타플롭(Petaflop) 연산 성능을 지원한다. 1페타플롭은 1초에 수학 연산 처리를 1000조 번 수행한다는 의미로, SK텔레콤의 슈퍼컴퓨터는 1초당 1경 7100조 번 연산할 수 있다. 글로벌 시장조사기관 마켓앤마켓은 전 세계 대화형 AI 서비스 시장 규모가 연평균 23.5%의 성장률을 보이며 2026년에는 105억 달러(약 13조 1880억원)에 이를 것으로 내다봤다. 이는 삼성전자와 SK하이닉스 등 국내 반도체 기업에도 호재로 작용할 전망이다. 초거대 AI 구현을 위해서는 고대역폭 메모리(HBM)를 비롯한 고성능 D램 장착이 필수이기 때문이다. 두 기업은 AI에 특화한 AI 반도체 개발에도 속도를 내고 있다. 앞서 삼성전자는 지난 1일 실적 발표 콘퍼런스콜에서 챗GPT와 관련한 질문에 “웹 검색엔진과 AI가 결합하고 기술적 진화에 따라 메모리뿐만 아니라 업계 전반의 활용·확장 가능성이 매우 크다”며 AI 반도체 인프라 투자 확대 가능성을 시사한 바 있다.
  • 챗GPT가 불지핀 AI 고도화 경쟁…“초당 1경 7100조번 연산” 슈퍼컴 구축한 SKT

    챗GPT가 불지핀 AI 고도화 경쟁…“초당 1경 7100조번 연산” 슈퍼컴 구축한 SKT

    미국 인공지능(AI) 연구소 오픈AI의 채팅봇 ‘챗GPT’의 세계적 흥행을 계기로 글로벌 빅테크들이 대화형 AI 개발에 나선 가운데 국내 기업들도 AI 고도화에 투자를 강화하고 있다. AI 산업 확장은 메모리 업황 하락으로 실적 부진에 빠진 국내 반도체 기업들에게도 새로운 돌파구로 주목받고 있다.챗GPT로 고도화한 초거대 대화형 AI ‘에이닷’의 연내 출시를 추진하고 있는 SK텔레콤은 에이닷의 두뇌 역할을 하는 슈퍼컴퓨터 ‘타이탄’을 기존 대비 2배로 확대 구축했다고 12일 밝혔다. SK텔레콤은 2021년부터 슈퍼컴퓨터를 구축해 자체 운영하고 있으며, 이번에 타이탄의 그래픽처리장치(GPU)를 기존의 2배인 1040개로 증설했다. 수십억개 이상의 매개변수를 다루는 초거대 AI를 구동하기 위해서는 방대한 양의 데이터를 빠르고 정확하게 처리할 수 있는 슈퍼컴퓨터 인프라가 필수적이다. SK텔레콤의 슈퍼컴퓨터는 17.1 페타플롭(Petaflop) 연산 성능을 지원한다. 1 페타플롭은 1초에 수학 연산 처리를 1000조번 수행한다는 의미로, SK텔레콤의 슈퍼컴퓨터는 1초당 1경 7100조번 연산할 수 있다. 김영준 에이닷 추진단 담당은 “슈퍼컴퓨터 확대 구축을 통해 에이닷이 기존보다 더 정교한 학습이 가능해져 사람과 대화 흐름과 답변 완성도가 사람 수준에 가깝도록 개선하는 데 큰 역할을 할 것으로 기대된다”라면서 “앞으로도 공격적인 R&D(연구개발) 투자, 인프라 확대, 인재 영입 등을 통해 AI 기술 리더십을 선도하기 위해 지속적으로 노력할 것”이라고 말했다. 글로벌 시장조사기관 마켓앤마켓은 전 세계 대화형 AI 서비스 시장 규모가 연평균 23.5%의 성장률을 보이며 2026년에는 105억 달러(약 13조 1880억원)에 이를 것으로 내다봤다. 이는 삼성전자와 SK하이닉스 등 국내 반도체 기업에도 호재로 작용할 전망이다. 초고대 AI 구현을 위해서는 고대역폭 메모리(HBM)를 비롯한 고성능 D램 장착이 필수이기 때문이다. 두 기업은 AI에 특화한 AI 반도체 개발에도 속도를 내고 있다. 앞서 삼성전자는 지난 1일 실적 발표 컨퍼런스콜에서 챗GPT와 관련한 질문에 “웹 검색엔진과 AI가 결합하고 기술적 진화에 따라 메모리뿐만 아니라 업계 전반의 활용, 확장 가능성이 매우 크다”며 AI 반도체 인프라 투자 확대 가능성을 시사한 바 있다.
  • ‘AI’ 한 방 있지만 한 발 딛기 힘든 참 골 아픈 문제들

    ‘AI’ 한 방 있지만 한 발 딛기 힘든 참 골 아픈 문제들

    오픈AI의 인공지능(AI) 챗봇 ‘챗GPT’가 글로벌 정보기술(IT) 공룡들의 초거대 AI 전쟁을 촉발했다. 세계적으로 AI 서비스 경쟁이 격화되는 가운데 국내 기업들의 AI 기술 수준은 세계 2~3위권으로 미국을 발 빠르게 쫓고 있다. 하지만 기술·자본·인재풀을 모두 가진 미국 기업, 정부의 전폭적인 지원을 받는 중국 기업들과 경쟁하기엔 국내 기업의 상황이 녹록지 않다. 네이버의 초거대 AI 모델인 ‘하이퍼클로바’를 개발해 운영하는 네이버클라우드 AI랩 하정우 소장은 7일 “초거대 AI 기술과 생태계 분야에서 미국이 글로벌 리더십을 가지고 있으며 한국도 여러 기업이 ‘패스트 팔로잉’ 중”이라면서 “한국은 중국과 함께 세계 2~3위권 수준”이라고 답했다. AI솔루션 기업 업스테이지의 배재경 AI 프로덕트 리더는 “중국은 데이터 확보에 매우 유리한 조건을 갖추고 있어 성능 좋은 AI 응용 모델이 빠르게 나올 수 있고, 한국도 원천 기술과 응용 분야에서 비교적 많은 인재가 활약하고 있어 미국과 중국을 제외한 다른 선진국들에 비해 떨어지지 않는다”고 말했다. 네이버가 2021년 5월 국내 최초로 선보인 초거대 AI 언어 모델인 하이퍼클로바는 AI 모델의 크기를 나타내는 매개변수(파라미터)가 2040억개로, GPT-3(오픈AI)의 1750억개를 능가한다. 네이버가 상반기 출시하겠다고 공언한 생성 AI 서비스 ‘서치GPT’도 하이퍼클로바를 기반으로 한다. 카카오의 AI 전문 계열사 카카오브레인도 GPT-3 기반 한국어 특화 AI 언어 모델인 ‘KoGPT’를 2021년 11월 공개했다. 3000억개의 파라미터를 자랑하는 LG AI 연구원의 ‘엑사원’은 언어뿐 아니라 이미지, 영상 등 다양한 정보를 습득하고 다루는 ‘멀티 모달리티’ 능력도 갖췄다. 특히 초거대 AI는 데이터 확보와 개발, 운용에 막대한 비용이 소요되는데 그만큼 수익을 뽑아내기가 어렵다. 그래서 효율을 높이고 비용을 낮추는 데 큰 효과를 낼 수 있는 AI 반도체 개발은 업계에 매우 중요하다. 현재 널리 사용되는 그래픽처리장치(GPU)를 대체할 신경망처리장치(NPU)가 업계의 기대를 받고 있는데, 아직 초기 단계인 시장을 키우기 위해 정부와 국내 기업이 기민하게 움직이고 있다. 정부는 AI 반도체 부문에 4년간 1조 200억원을 투자하겠다고 밝혔다. KT는 반도체 제조사 리벨리온과 ‘AI 반도체 드림팀’을 구성해 AI 반도체 개발에 나섰고, ‘AI 컴퍼니’를 비전으로 삼은 SK텔레콤도 자체 개발한 NPU ‘사피온’의 고도화에 집중하고 있다. 삼성전자는 자체 연산 기능을 탑재해, 코어로 보내는 데이터를 가공하는 메모리인 PIM(Processing In Memory)를, SK하이닉스는 초고속 메모리 HBM(High Bandwidth Memory)만들고 있다. 이들 업체는 세계 시장을 장악하고 있는 엔비디아(SK하이닉스)와 AMD(삼성전자)의 GPU 제품에 각각 PIM을 공급하고 있다. 하지만 ‘공룡’이라고 표현되는 미국 기술 기업들에 비해 국내 기업의 자본력과 인력풀은 턱없이 부족한 상황이다. 마이크로소프트는 오픈AI에 100억 달러(약 12조 5800억원)의 통 큰 투자를 감행했으며, 구글은 2014년 인수한 AI 스타트업 딥마인드가 6년간 적자만 내는 동안에도 막대한 투자를 멈추지 않았다. 중국은 ‘AI 굴기’로 자국 기업에 지원을 쏟아붓고 있다. 네이버가 지난해 연구개발에 투자한 금액은 8370억원이다. 영국 데이터 분석 미디어인 토터스인텔리전스의 지난해 ‘글로벌AI지수’ 조사에서 한국은 개발 능력이 3위였지만 인재 분야에선 28위에 그쳤다. 국내에서 본격적으로 AI 전문 인재를 양성한 시간이 길지 않아서다. 데이터 확보와 결과물에 대한 국내 규제나 사회의 보수성도 초거대 AI 서비스가 더 활발히 출시되는 데 제약이 된다. 하 소장은 “학습 데이터의 지식재산권, 생성된 결과물에 대한 저작권 등 문제에 좀더 개방적으로 접근해야 쉽게 기술을 운용할 수 있다”며 “초거대 AI를 더 많은 사람이 사용하게 하면서 문제를 함께 논의하고 수정해 나가는 사회적 공감대를 만드는 것이 중요하다”고 말했다. 검색 광고, 클라우드, 반도체처럼 소수의 승자가 모든 걸 가져가기 쉬운 IT 업계에서 국내 기업이 글로벌 기업에 의한 기술 종속을 면하기 위해서는 정부의 지원이 필요하다. 하 소장은 “기업들이 연구 투자와 산학 협력을 원활하게 할 수 있도록 다양한 지원이 필요하다”면서 “특히 초거대 AI를 활용하는 능력이 중요해질 전망인데, 중등·대학 교육 과정에서 AI 문해력(리터러시)을 강화할 수 있도록 지원해야 한다”고 말했다.
  • 치열해지는 IT공룡들 AI 전쟁… 국내기업 ‘실탄’이 부족하다

    치열해지는 IT공룡들 AI 전쟁… 국내기업 ‘실탄’이 부족하다

    오픈AI의 인공지능(AI) 챗봇 ‘챗GPT’가 글로벌 정보기술(IT) 공룡들의 초거대 AI 전쟁을 촉발했다. 세계적으로 AI 서비스 경쟁이 격화되는 가운데, 국내 기업들의 AI 기술 수준은 세계 2~3위권으로 미국을 발빠르게 쫓고 있다. 하지만, 개별 기업들의 자본력과 인재풀로는 미국 기업에 기술 종속을 면하기 어려운 상황이다. 네이버의 초거대 AI 모델인 ‘하이퍼클로바’를 개발, 운영하는 네이버클라우드 AI랩 하정우 소장은 7일 서울신문이 이메일로 보낸 질문에 “초거대 AI 기술과 생태계 분야에서 미국의 오픈AI, 마이크로소프트(MS), 구글 중심으로 글로벌 리더십을 가지고 있으며 한국도 여러 기업이 경쟁력 있게 ‘패스트 팔로잉’ 중”이라면서 “한국이 중국과 함께 전세계 2~3위권 수준”이라고 답했다. 네이버가 2021년 5월 국내 최초로 선보인 초거대 AI 언어 모델인 하이퍼클로바는 AI 모델의 크기를 나타내는 매개변수(파라미터)가 2040억개로, 오픈AI의 GPT-3의 1750억개를 능가한다. 하이퍼클로바는 클로바 케어콜, 네이버 쇼핑, 네이버 검색 등을 통해 상당히 상용화돼 있으며, 국내 500개 이상 스타트업이 ‘클로바 스튜디오’를 통해 하이퍼클로바를 활용, 새로운 서비스와 앱을 만들어 사업 기회를 만들고 있다. 네이버가 상반기 출시하겠다고 공언한 생성 AI 서비스 ‘서치GPT’도 하이퍼클로바를 기반으로 한다. 카카오의 AI 전문 계열사 카카오브레인도 GPT-3 기반 한국어 특화 AI 언어 모델 ‘KoGPT’를 2021년 11월 공개했으며, 초거대 AI가 만들어 낸 AI 화가 ‘칼로’와 AI 시인 ‘시아’를 활용, 다양한 서비스로 확장을 계획하고 있다. 3000억개의 파라미터를 자랑하는 LG AI 연구원의 ‘엑사원’은 언어 뿐 아니라 이미지, 영상 등 다양한 정보를 습득하고 다루는 ‘멀티 모달리티’ 능력도 갖췄다. KT는 상반기 2000억개 파라미터를 가진 초거대 AI ‘믿음’을 출시, 다양한 서비스에 적용할 예정이다.최근 한화생명과 삼성SDS에 자사 솔루션 AI팩을 공급한 AI솔루션 기업 업스테이지의 배재경 AI 프로덕트 리더는 “원천 기술에 있어, 미국이 계속 우위를 가져왔고 새로운 시도가 가장 빈번하게 이뤄져 왔으며, 미국 기업이 시장을 잡고 있는 상황”이라면서 “중국은 데이터 확보에 매우 유리한 조건이라 성능 좋은 AI 응용 모델이 빠르게 나올 수 있고, 한국도 원천 기술, 응용 분야에서 많은 인재들이 활약하고 있어, 미국과 중국을 제외한 다른 선진국들에 비해 떨어지지 않는다”고 말했다. 하지만 ‘공룡’이라고 표현되는 미국 기술 기업들에 비해 국내 기업의 자본력과 인력풀은 턱없이 부족한 상황이다. 마이크로소프트는 오픈AI에 100억 달러(약 12조 5800억원)의 통 큰 투자를 감행했으며, 구글은 2014년 인수한 딥마인드가 6년간 적자만 내는 동안에도 막대한 투자를 멈추지 않았다. 중국은 ‘AI 굴기’로 자국 기업에 국가 단위의 전폭적인 지원을 쏟아붓고 있다. 네이버가 지난해 연구개발에 투자한 금액은 8370억원이다. 영국 데이터 분석 미디어인 토터스인텔리전스의 지난해 ‘글로벌AI지수’ 조사에 한국은 개발 능력이 3위였지만 인재 분야에선 28위에 그쳤다. AI 전문 인재를 양성한 시간이 길지 않아서다. 데이터 확보와 결과물에 대한 국내 규제나 사회의 보수성도 초거대 AI 서비스가 더 활발히 출시되는 데에 제약이 된다. 하 소장은 “학습 데이터의 지식재산권, 생성된 결과물에 대한 저작권 등 문제에 좀 더 개방적으로 접근해야 쉽게 기술을 운용할 수 있다”며 “초거대 AI를 더 많은 사람이 사용하게 하면서, 문제를 함께 논의하고 수정해 나가는 사회적 공감대를 만드는 것이 중요하다”고 말했다. 특히 초거대 AI는 데이터 확보와 개발, 운용에 막대한 비용이 소요되는데, 그만큼의 수익을 서비스로 뽑아내기가 어렵다. 그래서 효율을 높이고 비용을 낮추는 데에 큰 효과를 낼 수 있는 AI 반도체 개발은 업계에 매우 중요하며, 시장 규모도 계속해서 커질 전망이다.현재 널리 사용되는 그래픽처리장치(GPU)는 애초에 AI를 위해 만들어진 프로세서가 아니라, AI가 거대해질수록 가격이 비싸지고 전력 소모가 커진다. 그래서 대용량의 데이터를 처리하면서 비용을 낮출 수 있는 프로세서로 신경망처리장치(NPU)가 업계의 기대를 받고 있다. 한국전자통신연구원이(ETRI) 2021년말 자체 개발한 NPU를 서버에 도입해 본 결과 GPU 기반 서버보다 연산 성능은 4배, 전력 효율은 7배 늘었다. 아직 초기 단계인 NPU 시장에 정부와 국내 기업은 발빠르게 진출했다. 정부는 AI 반도체 부문에 4년 간 1조 200억원을 투자하겠다고 밝혔다. KT는 반도체 제조사 리벨레온과 ‘AI 반도체 드림팀’을 구성해 AI 반도체 개발에 나섰고, ‘AI 컴퍼니’를 비전으로 삼은 SK텔레콤도 자체 개발한 AI반도체 ‘사피온’ 고도화에 집중하고 있다. 프로세서만큼 중요한 요소는 메모리다. 프로세서의 두뇌에 해당하는 코어와 D램 사이에 오가는 데이터 양이 많아지면 데이터 병목현상이 생기는데, 고성능 메모리가 이를 해결할 수 있다. 삼성전자는 자체 연산 기능을 탑재해, 코어로 보내는 데이터를 가공하는 메모리인 PIM(Processing In Memory)를, SK하이닉스는 초고속 메모리 HBM(High Bandwidth Memory)만들고 있다. 이들 업체는 세계 시장을 장악하고 있는 엔비디아(SK하이닉스)와 AMD(삼성전자)의 GPU 제품에 각각 PIM을 공급하고 있다. 글로벌 기술기업들에 맞서는 국내 AI 업계에 정부 지원은 필수다. 특히 투자 규모와 인재 확보 측면에서 격차가 크다. 하 소장은 “기업들이 연구 투자와 산학 협력을 원활하게 할 수 있도록 다양한 지원이 필요하다”면서 “특히 초거대 AI를 활용할 수 있는 능력이 중요해질 전망인데, 중등·대학 교육 과정에서 AI 문해력(리터러시)을 강화할 수 있도록 지원해야 한다”고 말했다.
  • 챗GPT가 바꾼 ‘판’… AI 헤게모니 전쟁, 네이버·삼성도 참전

    챗GPT가 바꾼 ‘판’… AI 헤게모니 전쟁, 네이버·삼성도 참전

    오픈AI의 인공지능(AI) 챗봇 ‘챗GPT’가 AI 산업의 헤게모니(패권)를 거머쥐었다. ‘한 방 먹은’ 구글이 패권을 되찾아오려는 움직임이 자못 조급하다. 챗GPT가 만들어 낸 흐름을 국내 업계도 쫓는다. 네이버는 상반기 ‘서치GPT’를 출시해 새로운 검색 경험을 제공한다는 계획이다. 메모리 반도체 불황의 늪에 빠진 삼성전자와 SK하이닉스도 위기의 돌파구를 찾는다.4일(현지시간) 블룸버그에 따르면 구글은 오픈AI의 경쟁자인 앤스로픽에 4억 달러(약 5000억원)를 투자했다. 앤스로픽은 오픈AI 창립 멤버인 다니엘라, 다리오 애머데이 남매가 세웠으며, 지난 1월 챗GPT에 대항할 AI 챗봇 ‘클로드’의 테스트 버전을 공개했다. 특히 이번 제휴를 통해 앤스로픽은 별도 비용 없이 구글의 클라우드 컴퓨팅 인프라를 사용할 수 있게 됐다. 이는 초거대 언어모델 기반 AI 챗봇에 필수적이면서 막대한 비용이 들어, 스타트업 스스로는 해결하기 어려운 부분이다. 오픈AI도 MS의 클라우드를 이용하고 있다. 앞서 지난 2일 실적발표 뒤 콘퍼런스콜에서 구글은 20개에 달하는 AI 서비스를 올해 안으로 선보인다고도 밝혔다. AI 자회사 딥마인드의 초거대 언어모델 ‘람다’를 기반으로 AI 챗봇 ‘견습 시인’도 테스트에 들어갔다. 보다 앞서서는 텍스트 설명에 맞춰 음악을 만들어 주는 생성형 AI ‘뮤직LM’을 논문을 통해 공개하기도 했다. 모두 챗GPT가 등장하고 순다르 파차이 구글 최고경영자(CEO)가 비상선언(코드 레드)을 발령하고 나서 일어난 일들이다. 구글, 오픈AI 대항마 앤스로픽에 5000억 투자올해 안에 AI 서비스 20여개 줄줄이 공개 계획수익모델, 윤리문제, 신뢰도 고려하다 선수 놓쳐총수익 절반 이상 내는 검색광고 시장 위협느껴 구글이 오픈AI보다 기술에서 뒤처졌다고 보긴 어렵다. 다만 상대적으로 ‘몸이 가벼운’ 오픈AI보다 수익모델이나 윤리적 문제, 신뢰도 등 고민할 거리가 많아, 있는 기술도 공개를 고심했을 거라는 게 업계의 분석이다. 하지만 이렇게 한꺼번에 수십개의 AI 프로젝트를 꺼낸 것은 오픈AI에 ‘선수’를 빼앗겨 주도권을 놓쳤다는 걸 인정한 셈이다. 구글은 AI 신제품이 윤리적으로 타당한지를 검토하는 절차를 기존보다 빠르게 진행하는 ‘그린 레인’ 제도도 도입을 검토하게 됐다. 구글이 이처럼 조급해진 것은 엄청나게 넓어진 자사 사업 분야 중에서도 아직까지 수익의 절반 이상을 책임지는 검색광고 시장을 챗GPT가 위협하기 때문이다. 자연어 질문에 완결된 문장으로 결과를 내 놓는 챗GPT는 검색어를 입력하고 수많은 인터넷 사이트 링크들 중에 적합한 것을 사용자가 고르는 검색 모델을 뿌리째 흔들 수 있다. MS는 이미 자사 검색엔진인 빙에 챗GPT를 적용하고 있다. 국내에서 네이버가 서치GPT를 서둘러 출시하는 것도 이와 무관치 않다. 한국어 검색 데이터를 가장 많이 보유하고 있는 네이버는 GPT를 이용해, 영어 기반 개발 모델을 한국어로 번역하면서 발생하는 약점을 해결할 계획이다. 구글이 가진 기술·자본력과 앤스로픽의 가능성, 오픈AI가 올해 안에 출시할 예정인 새 초거대 언어모델 ‘GPT-4’의 파괴력이 아직 예측 불가능한 상황이라 AI 서비스 패권이 앞으로 어디로 향할지는 알 수 없다. 하지만, 2016년 구글 딥마인드의 알파고가 이세돌 9단을 이기며 전세계 기술 경쟁의 무대를 만든 것처럼 챗GPT가 ‘게임의 규칙’을 정한 것은 분명하다. 네이버 영어모델->한국어 단점 없는 검색GPT 상반기에삼성전자·SK하이닉스, AI 반도체에 고성능 메모리 탑재 삼성전자와 SK하이닉스는 이런 흐름 속에서 위기 탈출 가능성을 발견했다. 한번에 대량의 데이터를 처리해야 하는 AI 반도체는 고성능 그래픽처리장치(GPU)와 고성능 메모리반도체와 세트로 판매되는데, 이런 패키지 수요가 폭발적으로 늘어날 것으로 예상되기 때문이다. 삼성전자는 제휴를 맺은 AMD의 ‘MI-100’에 자사 HBM-PIM(Processing-in-Memory) 메모리를 납품한다. PIM은 메모리반도체에 연산 기능을 추가해 중앙처리장치(CPU)와 메모리 간 데이터 이동을 줄여 성능과 효율을 높일 수 있다. SK하이닉스는 GPU 시장 1위 엔비디아의 최신 GPU인 ‘H100’ 패키지에 차세대 D램 ‘HBM3’를 결합한다. HBM은 고대역폭 메모리(High Bandwidth Memory)의 약자로 여러 개의 D램을 수직으로 연결해 데이터 처리 속도를 높인 제품이다. 김재준 삼성전자 메모리사업부 부사장은 지난달 31일 실적 콘퍼런스콜에서 “자연어 기반 대화형 AI 서비스가 미래 메모리 수요에 긍정적인 영향이 있을 것으로 기대한다”며 “AI 기술에 기반한 모델의 학습과 추론을 위해서는 대량 연산이 가능한 고성능 프로세스와 이를 지원하는 고성능 고용량 메모리 조합이 필수적”이라고 말했다.
  • 삼성의 메모리, 네이버의 초거대AI 손잡고 ‘AI반도체’ 솔루션 개발한다

    삼성의 메모리, 네이버의 초거대AI 손잡고 ‘AI반도체’ 솔루션 개발한다

    세계 메모리반도체 선두 주자인 삼성전자와 국내 인공지능(AI) 기술을 선도하고 있는 네이버가 AI반도체 전용 솔루션 개발에 협력하기로 6일 업무협약(MOU)을 체결했다. 초대규모 AI는 성능이 향상될수록 처리할 데이터와 연산량이 기하급수적으로 늘어나, 기존 시스템으론 성능과 효율 향상에 한계가 있다. 특히 시스템반도체와 메모리반도체 사이에 데이터가 오갈 때 병목현상이 발생하곤 한다. 이에 두 회사는 AI시스템의 데이터 병목을 해결하고 전력 효율을 극대화할 수 있는 새로운 솔루션을 함께 개발하기로 했다. 삼성전자는 데이터 저장 공간인 솔리드스테이트드라이브(SSD)에 연산 기능을 탑재한 스마트SSD, 고성능 메모리에 연산 기능을 내장한 고대역폭초고속메모리-지능형반도체(HBM-PIM)와 프로세싱니어메모리(PNM), 대용량 데이터를 효율적으로 처리하는 컴퓨트익스프레스링크(CXL) 등을 최초 개발하는 등의 기술로 초대규모AI에 최적화된 반도체 솔루션을 제공할 예정이다. 네이버는 국내 최초 초대규모 AI인 ‘하이퍼클로바’를 운용한 기술과 노하우로 불필요한 데이터를 제거하거나 변수를 단순하게 조정하는 경량화 알고리즘을 이용, 솔루션을 최적화해 초대규모AI 성능을 극대화한다는 계획이다. 한진만 삼성전자 메모리사업부 부사장은 “AI서비스 기업과 사용자의 수요를 반영한 반도체 솔루션으로 PIM 등 시장을 선도하는 차세대 메모리 라인업을 확대할 것”이라고 말했다. 정석근 네이버 클로바 사내독립기업(CIC) 대표는 “하이퍼클로바를 서비스하며 확보한 지식과 노하우를 삼성전자의 첨단 반도체 기술과 결합하면 최신 AI가 당면한 문제를 해결할 수 있는, 기존에 없던 새로운 솔루션을 만들어낼 수 있을 것”이라고 말했다.
  • [고든 정의 TECH+] 저렴한 가격에 HBM2E 메모리 넘보는 성능…GDDR6W, 게임 체인저 되나?

    [고든 정의 TECH+] 저렴한 가격에 HBM2E 메모리 넘보는 성능…GDDR6W, 게임 체인저 되나?

    삼성전자는 기존의 GDDR6 메모리를 한 단계 업그레이드한 GDDR6W 메모리를 공개했습니다. GDDR6W는 지난 7월 삼성이 공개한 24Gbps GDDR6와 동일한 크기의 패키지로 새로운 반도체 다이 (die)를 사용하는 대신 새로운 적층 조립 기술인 FOWLP (Fan-Out Wafer level Package)을 이용해 대역폭과 용량을 두 배로 늘렸습니다.  반도체 업계를 선도하는 혁신 기술은 하나둘이 아니었기 때문에 오히려 보도 자료만 봤을 때는 별 감흥이 없을 수도 있습니다. 항상 더 빠르고 용량이 큰 반도체를 만들어왔기 때문에 역설적으로 더 이상 새롭게 느껴지지 않는 것입니다. 하지만 내용을 뜯어보면 재미있는 이야기가 숨어 있습니다.  삼성전자 뉴스룸을 통해 발표된 내용을 보면 GDDR6W의 중요한 비교 대상이 GDDR6와 HBM2E 메모리라는 점을 알 수 있습니다. GDDR6 메모리의 후공정 부분을 개선해 성능을 높인 제품인 만큼 GDDR6 메모리와 비교는 당연한 일이지만, HBM2E 메모리는 상당히 성격이 다른 메모리입니다. 직접 비교 대상인 HBM2E 메모리는 4096개의 시스템 레벨 I/O를 갖고 있으며 핀 (pin) 당 대역폭은 3.2Gbps입니다. GDDR6W는 시스템 레벨 I/O 숫자는 512개 정도이지만, 대신 핀 당 전송 속도가 22Gbps로 빠릅니다.  일반적인 그래픽 카드에 탑재되는 HBM2E 메모리는 총 1.6TB/s의 대역폭을 지닌 GDDR6W 메모리는 1.4TB의 대역폭을 지녀 둘이 거의 비슷합니다. 이 비교가 중요한 이유는 그래픽 카드 제조사들이 값비싼 HBM2E 메모리 대신 상대적으로 저렴한 GDDR6W 메모리로 비슷한 성능을 낼 수 있기 때문입니다. HBM 메모리는 기존의 GDDR 메모리가 따라올 수 없는 높은 대역폭과 용량을 지녔기 때문에 처음 등장했을 때 그래픽 카드 메모리의 미래로 여겨졌습니다. 하지만 비싼 가격으로 서버용 제품이나 일부 고성능 그래픽 카드에 탑재되는 것이 전부였고 일반 사용자는 거의 사용하기 힘든 제품이었습니다.  최근 등장한 지포스 RTX 4090도 HBM2E 메모리 대신 21Gbps 속도의 GDDR6X 메모리를 384bit로 연결해 1TB/s의 대역폭을 확보했습니다. 사실 이렇게 연결하는 것이 256bit 메모리보다 훨씬 비싸지만, 그래도 HBM2E보단 저렴합니다.  그런데 GDDR6W를 대신 사용하면 어떨까요? 이론적으로 256bit 메모리 인터페이스로 더 높은 대역폭 확보가 가능해집니다. 그러면 전체적인 비용을 낮추면서도 더 높은 그래픽 성능을 구현할 수 있습니다.  GDDR6W 메모리는 HBM2E 메모리와 비교해서 시스템 레벨 I/O가 1/8에 불과합니다. 따라서 가격을 높이는 주범인 마이크로 범프나 실리콘 인터포저 층 추가가 필요 없습니다. 더구나 새로운 반도체 다이를 만든 게 아니라 웨이퍼에서 반도체 패키지를 만드는 후공정만 달리 한 것이기 때문에 비용적 측면에서 HBM2E보단 GDDR6와 비슷할 가능성이 높습니다.  삼성 측은 이 GDDR6W 메모리의 고객을 밝히지 않았지만, 현재 GDDR6 메모리의 주요 사용처가 그래픽 카드와 엑스 박스나 플레이스테이션 같은 게임 콘솔이라는 점을 생각하면 엔비디아와 AMD가 최대 고객일 것입니다.  이들이 개발하는 차세대 제품부터 GDDR6W 메모리가 도입된다면 전반적인 성능 향상을 기대할 수 있습니다. 관건은 GDDR6W 메모리와 GDDR6 메모리의 가격 차이입니다. 성능상 이점이 분명한 만큼 가격 차이가 적다면 GDDR6W 메모리가 새로운 대세가 될 것입니다. 반대로 생각보다 가격 차이가 크다면 HBM처럼 대중화는 어려울 것입니다. 어느 쪽인지는 시간이 알려줄 것입니다. 
  • [고든 정의 TECH+] 96코어 서버 CPU 등장…AMD 4세대 에픽 프로세서 공개

    [고든 정의 TECH+] 96코어 서버 CPU 등장…AMD 4세대 에픽 프로세서 공개

    오늘날 우리는 갖가지 인터넷 및 온라인 서비스에 의존하는 삶을 살고 있습니다. 동영상에서 메신저, 인터넷 쇼핑까지 한순간이라도 먹통이 되면 사회가 마비되는 초연결 시대에 살고 있는 것입니다. 이런 온라인 서비스의 중심에 서버가 있습니다. 그리고 이 서버가 쉬지 않고 돌아가기 위해서는 엄청난 연산 능력을 지닌 CPU가 필요합니다. 최근까지 서버 CPU 시장은 인텔의 독무대나 다를 바 없었습니다. 서버 CPU의 80% 이상이 x86 계열인데, 사실상 인텔 제온 프로세서가 이 시장을 독식했기 때문입니다. 하지만 몇 년 전부터 서버 시장에 다시 진입한 AMD가 이 독점 구도를 깨고 시장에 지각 변동을 일으키고 있습니다. AMD는 서버 프로세서인 에픽(EPYC) 제품군에 작은 CPU 묶음인 칩렛 디자인을 도입해 코어 숫자를 쉽게 늘리는 구조를 선택했습니다. 그 결과 하나의 큰 칩만 사용하는 인텔 제온보다 코어 숫자에서 유리한 위치에 올라설 수 있었습니다. 그 결과 올해 1분기 AMD는 거의 0%에 가까운 서버 시장 점유율을 11.6%까지 끌어올렸습니다. 안전성을 중시하는 보수적인 서버 시장에서 상당히 빠른 성장세입니다. 최근 발표한 올해 3분기 실적을 보더라도 AMD의 약진과 인텔의 시장 점유율 축소가 확연한 상태입니다. 1년 사이 AMD의 데이터 센터 매출은 45% 증가했지만, 인텔은 데이터 센터 및 AI 그룹 매출이 27%나 감소했습니다. 여기에 인텔은 차세대 제온 프로세서인 사파이어 래피즈의 출시를 내년으로 연기하면서 AMD 입지는 한층 더 커지고 있습니다. 이 여세를 몰아 AMD는 연기 없이 4세대 에픽 프로세서인 9004 시리즈를 출시했습니다. 코드네임 제노아(Genoa, 이탈리아 제노바로 코드 네임은 지명을 따라 붙임)인 4세대 에픽 프로세서는 x86 최초로 5nm 공정을 채택한 서버 프로세서로 역대 가장 많은 코어인 96코어 192 스레드를 지원합니다. 5nm 최신 미세 공정, 384MB 대용량 L3 캐시, 12채널 DDR5 메모리, Zen 4 마이크로 아키텍처, AVX 512 지원 같은 여러 가지 최신 기술을 적용하고 코어 숫자도 최대 1.5배나 늘어났기 때문에 전 세대인 64코어 에픽 7763보다 고성능 컴퓨팅(HPC) 성능이 두 배 뛰어나고 경쟁자인 인텔 제온 플래티넘 8380(40코어)가 비교하면 2.5배나 더 뛰어나다는 것이 AMD의 주장입니다. 반대로 말하면 경쟁자보다 훨씬 적은 서버를 사용해 같은 성능을 확보할 수 있기 때문에 소비되는 에너지와 유지비를 크게 절감할 수 있습니다.다만 이렇게 성능을 높인 만큼 가격도 올라가 가장 고성능 모델인 96코어 에픽 9654의 가격은 1만1805달러에 달합니다. 초기엔 높은 성능보다 가성비를 무기로 내세웠다면 이제는 x86 서버 CPU 가운데 가장 강력한 성능을 바탕으로 가격을 올리는 자신감을 보여주고 있습니다. 그런데 4세대 에픽 프로세서는 2023년에 세 가지 제품군이 더 출시될 예정입니다. 크기를 줄여 코어 밀도를 높인 128코어 베르가모 (Bergamo)와 L3 캐시를 추가로 장착해 최초로 1GB급 L3 캐시를 탑재할 96코어 제노아-X(Genoa-X), 그리고 저전력 제품인 64코어 시에나(Siena)가 그것입니다. 이에 대응하는 인텔의 사파이어 래피즈는 강력한 성능을 지닌 P 코어로만 구성된 서버 CPU이지만, 코어 숫자가 최대 56개로 다수의 코어를 사용하는 서버 환경에서 과연 4세대 에픽 프로세서를 제대로 견제할 수 있을지 의구심이 드는 게 사실입니다.물론 사파이어 래피즈에도 비장의 무기가 있습니다. 그중 하나는 서버 CPU 최초로 HBM2e 64GB를 내장한 제온 맥스 프로세서입니다. HBM2e 메모리는 한 개가 1TB/s의 대역폭을 지녀 DDR5와 비교가 불가한 수준의 속도를 보장합니다. 빠른 데이터 입출력이 필요한 작업에서 상당한 이점이 있을 것으로 기대되는 대목입니다. 다만 서버는 성능과 가격, 전력 소모량 등 여러 가지 요소가 중요한 제품이기 때문에 당장에 어느 쪽이 우세할지는 판단하기는 어렵습니다. 하지만 일단 연기 없이 역대 최대 코어와 캐시를 지닌 신형 서버 CPU를 출시한 AMD가 당장에는 웃는 모습입니다. 2023년에도 서버 시장에서 AMD의 약진이 가능할지 아니면 인텔의 카운터 펀치가 먹힐지 궁금합니다.
  • [고든 정의 TECH+] 중국의 미스터리 그래픽 카드 어라이즈 공개…GPU 굴기 성공할까?

    [고든 정의 TECH+] 중국의 미스터리 그래픽 카드 어라이즈 공개…GPU 굴기 성공할까?

    반도체에 이미 천문학적 비용을 투자했지만, 중국의 반도체 굴기는 아직 미국, 한국, 대만을 따라잡기는 어려운 상황입니다. 메모리나 파운드리 부분에서는 막대한 투자를 진행한 덕분에 그래도 조금씩 결과물을 내놓고 있으나 경쟁자들은 더 앞서 가고 있으며 중국 내수 시장은 물론 세계 반도체 시장에서도 비중은 미미한 편입니다. 반도체 굴기의 배경 중 하나는 껄끄러운 관계인 미국에 핵심 IT 자원을 의존하고 있다는 것입니다. 예를 들어 중국 역시 다른 나라와 마찬가지로 CPU와 GPU는 인텔, 엔비디아, AMD 같은 미국 기업에 의존하고 있습니다. 이 한계를 극복하기 위해 중국 정부는 당장 결과물이 미미한 수준이라도 지속적인 투자를 통해 자체 반도체 생태계를 구축하기 위해 노력하고 있습니다. 상하이 자오신 반도체 역시 이런 프로세서 제조사 가운데 하나로 x86 CPU 라이선스를 지닌 대만 비아와 협업해 카이샨 (KaiXian) 시리즈 CPU를 제작하고 있습니다. 물론 그 성능은 최신 x86 CPU과 비교해 매우 낮은 편입니다. 별도 판매량이나 점유율은 공개된 적이 없지만, 중국 내수 시장에서조차 비중이 미미한 수준으로 보입니다. 하지만 CPU는 x86 호환 프로세서도 개발했고 ARM, RISC-V 같은 다른 대안도 있습니다. 중국의 반도체 굴기에 더 큰 걸림돌은 바로 GPU입니다. 인공지능 및 고성능 컴퓨팅 분야에서 갈수록 GPU의 중요성이 커지고 있지만, 아직 중국의 자체 GPU 관련 기술은 걸음마 단계를 벗어나지 못하고 있기 때문입니다. 물론 걸음마 단계라도 시도는 이어지고 있습니다. 자오신의 자회사 중 하나인 글렌플라이 (Glenfly)는 최근 어라이즈 (Arise) GT-10C0 그래픽 카드를 공개했습니다. (사진) 이 그래픽 카드는 28nm 공정으로 제조되었으며 500MHz의 속도로 작동합니다. FP32 기준 1.5TFLOPS급 연산 능력을 지녀 성능이나 공정 모두 2014년 출시된 지포스 GTX 750 Ti와 유사해 보이지만, 실제 성능은 베일에 가려 있습니다.이 그래픽 카드의 성능을 짐작할 수 있는 단서는 같은 계열의 제품으로 보이는 어라이즈 1020 GPU의 벤치마크 결과입니다. 최근 등록된 긱벤치 5 점수는 579점으로 10년 전 내장 그래픽과 견줄 수 있는 수준입니다. 상세한 벤치마크 결과가 공개되지 않아 섣불리 판단하기는 어렵지만, 독립 그래픽 카드는 고사하고 최신 내장 그래픽과도 경쟁이 되기 힘든 수준입니다. 출처가 확실치 않은 벤치마크 결과와 별개로 실제 성능이 매우 낮을 것이라는 추측에는 나름의 이유가 있습니다. 어라이즈 GT 10C0은 메모리로 DDR4 1200 2GB/4GB (64/128bit)를 사용하고 있는데, 이는 최근 등장하는 시스템 메모리보다 느립니다. 이렇게 느린 메모리를 사용하는 경우 GPU의 성능이 아무리 빨라도 제 성능을 내기 어렵습니다. 마치 고성능 스포츠카가 제한 속도 30km인 도로를 달리는 것과 같은 상황이 되기 때문입니다. 따라서 고성능 GPU 메모리는 시스템 메모리보다 훨씬 빠른 GDDR 메모리나 HBM 메모리를 사용하는데, 어라이즈 GT 10C0은 반대로 더 느린 메모리를 사용하고 있습니다. 게임 성능에 대한 의구심에는 호환성 문제도 있습니다. 오랜 세월 그래픽 감속기라는 이야기를 들었던 인텔 내장 그래픽도 오랜 세월 사용되면서 게임과 여러 가지 프로그램에 대한 호환성과 성능을 개선했습니다. 더 오래 사용된 엔비디아의 지포스와 AMD의 라데온은 말할 것도 없습니다. 그런데 새로 들어온 신생 GPU의 경우 호환성에 상당한 문제가 생길 가능성이 높습니다. 성능을 둘째 치고 제대로 실행되지 않거나 다양한 충돌을 일으킬 가능성이 있다는 이야기입니다. 따라서 자오신의 x86 호환 CPU와 마찬가지로 GPU 역시 시장에서 초기 반응은 매우 나쁠 것으로 예상됩니다. 자오신이 만든 중국 자체 CPU와 GPU로 윈도우나 리눅스 PC를 만들 순 있겠지만, 성능과 호환성 모두 시장에서 받아들이기 힘든 수준일 것입니다. 물론 그럼에도 이런 과정을 거쳐 기술력을 축적하면 10년, 20년 후에는 어떤 결과가 나올지 누구도 장담할 순 없습니다. 하지만 당장에는 중국의 GPU 굴기 역시 상당한 험로가 예상됩니다.
  • [고든 정의 TECH+] CPU와 GPU 붙이기 누가 제일 잘할까?

    [고든 정의 TECH+] CPU와 GPU 붙이기 누가 제일 잘할까?

    GPU는 본래 그래픽 연산, 특히 3D 관련 연산에 초점을 맞춘 특수 목적 프로세서였으나 최근에는 인공지능 연산 및 병렬 컴퓨팅 목적으로 수요가 크게 늘어나면서 인텔 같은 전통적인 CPU 제조사까지 GPU 개발에 뛰어들고 있습니다.  하지만 그렇다고 해서 GPU가 CPU가 하던 일을 모두 대신할 수 있는 것은 아닙니다. GPU는 특정 연산 속도는 매우 빠르지만, 컴퓨터가 제대로 작동하기 위해서는 여전히 CPU의 역할이 중요합니다. 그리고 최근에는 빠른 연산을 위해 CPU와 GPU의 연계가 중요해지고 있습니다.  따라서 인텔, 엔비디아, AMD는 모두 자체 CPU와 GPU를 넣은 고성능 통합 프로세서를 개발하고 있습니다. 2023-2024년 사이 등장할 차세대 하이브리드 프로세서들은 제각기 다른 방식으로 CPU와 GPU를 하나로 묶을 예정입니다.   자체 ARM 프로세서와 GPU의 결합을 꿈꾸는 엔비디아 엔비디아는 ARM 인수에 실패했지만, 여전히 ARM 기반 고성능 프로세서 개발을 진행하고 있습니다. 엔비디아가 최근 공개한 그레이스 슈퍼칩은 고성능 서버용 ARM 아키텍처 기반의 72코어 CPU를 CPU + CPU 방식으로 조합하거나 혹은 CPU + GPU 방식으로 조합할 수 있습니다.  두 개의 칩을 물리적으로 결합하는 일은 엔비디아의 독자 고속 인터페이스인 NV Link Chip to Chip (C2C)가 담당합니다. NVLink는 업계 표준 규격이지만, 대역폭이 좁은 PCI express를 대신하는 엔비디아의 독자 규격으로 PCIe 5.0과 비교할 때 25배 정도 에너지 효율이 우수하고 90배 정도 밀도가 높습니다. 데이터 전송 속도는 900GB/s 이상입니다. 엔비디아는 그레이스 슈퍼칩 CPU와 최신 호퍼 GPU, HBM3 메모리를 붙여 매우 강력한 슈퍼컴퓨터를 만들 계획입니다. 미국 에너지부 산하의 로스 알라모스 국립 연구소에 설치될 버나도 슈퍼컴퓨터가 그 주인공으로 10엑사플롭스급의 인공지능 연산 능력을 지녀 가장 빠른 인공지능 컴퓨터가 될 예정입니다. 엔비디아는 그레이스 슈퍼칩이 출시 시점에서 가장 뛰어난 고성능 프로세서가 될 것으로 자신하고 있습니다.  앤비디아는 GPU 전문 제조사로 CPU 분야에서 영향력은 미미했습니다. 그래서 첫 서버 CPU인 그레이스 슈퍼칩이 의미 있는 성과를 거둘 수 있을지 시선이 쏠리고 있습니다.  전통의 APU 제조사 AMD AMD는 이미 2006년에 ATI를 인수하면서 그래픽 카드 시장에 진입했고 CPU + GPU 형태의 프로세서인 APU를 출시해 시장에서 좋은 반응을 얻었습니다. 콘솔 게임기 시장에도 AMD의 특화된 APU들이 탑재됩니다.  하지만 최근 GPU가 인공지능 연산 및 데이터 분석에서 역할이 커지면서 AMD 역시 에픽 CPU와 고성능 GPU를 결합한 제품을 준비하고 있습니다. AMD는 내년 선보일 인스팅트 MI 300에서 Zen 4 아키텍처 기반의 서버 CPU와 CDNA3 GPU를 결합할 예정입니다. 이 CPU와 GPU는 칩렛 형태로 고성능 메모리와 함께 3D 패키징 방식으로 묶어서 제조됩니다. AMD는 CPU와 GPU를 통합하는 데 오랜 노하우를 지니고 있기 때문에 결과에 대해 자신하고 있습니다. AMD에 따르면 인공지능 연산 능력은 전 세대와 비교해서 5배나 높아질 수 있습니다.  다만 GPU 자체의 연산 능력과 인공지능 생태계는 엔비디아 쪽이 더 앞서 있다는 것이 일반적인 평가입니다. 과연 엔비디아의 첫 서버 CPU가 GPU와 잘 결합해 AMD를 누를지 아니면 통합 프로세서 제조에 경험이 많은 AMD가 판정승을 거둘지 주목됩니다.  GPU 시장에 도전자 인텔 인텔은 GPU 시장의 신참이지만, AMD의 라데온 개발을 담당한 라자 코두리를 영입해 공격적인 GPU 개발 로드맵을 공개했습니다. 그리고 현재 인텔이 밀고 있는 타일 기반의 프로세서 제조 방식을 통해 서버 CPU와 GPU를 결합하려고 준비 중입니다. 2024년 출시를 목표로 하고 있는 팔콘 쇼어스 XPU는 x86 CPU와 Xe GPU, 그리고 HBM 메모리를 결합한 것으로 기존 프로세서와 비교해서 5배의 와트당 성능을 목표로 하고 있습니다. 인텔의 프로세서 제조 방식은 전통적으로 하나의 다이에 모든 것을 집중시키는 방식이었으나 최근 프로세서 크기가 커지고 비용이 증가하면서 작은 타일 여러 개를 묶어 하나의 큰 프로세서를 만드는 방식으로 전환하고 있습니다. 어차피 붙여서 만든다면 CPU에 GPU를 못 붙일 이유가 없습니다. 다만 인텔 GPU의 성능은 아직 베일에 가려 있어 실제 결과물이 어떻게 나올지는 두고 봐야 알 수 있습니다.  현재 인텔, AMD, 엔비디아는 방식은 달라도 결국 비슷한 목적의 제품을 2023-2024년 사이 시장에 내놓고 경쟁할 예정입니다. 이들이 CPU, GPU 통합 프로세서를 내놓은 데는 그럴 만한 이유가 있습니다. CPU와 메모리가 탑재된 메인보드에 독립 그래픽 카드를 여러 개 설치하는 방식은 부피도 크고 에너지 효율이 낮습니다. 이들을 모두 통합해 하나로 묶으면 빠른 데이터 전송이 가능한 것은 물론 전력 소모도 줄어들게 됩니다. 부피가 큰 폭으로 감소하는 것은 말할 필요도 없습니다. 인텔은 최대 5배 정도 시스템 밀도를 높일 수 있을 것으로 보고 있습니다.  따라서 인공지능 연산 등 특정 목적의 고성능 서버와 슈퍼컴퓨터에서 CPU + GPU + 고속 메모리의 조합은 앞으로 특수한 경우가 아니라 일반적인 상황이 될 것입니다. 전통적인 GPU 제조사인 엔비디아가 서버 CPU를 만들고 업계 1위의 CPU 제조사인 인텔이 갑자기 서버 GPU 개발에 나선 건 그럴 만한 이유가 있는 셈입니다. 모두 만만치 않은 회사들인 만큼 앞으로 누가 이 시장에서 주도권을 가져갈지 쉽게 예측할 수 없지만, 결과에 따라 GPU는 물론 CPU 업계 판도까지 달라질 수 있을 것으로 예상됩니다.
  • SK하이닉스, 엔비디아에 D램 공급

    SK하이닉스, 엔비디아에 D램 공급

    SK하이닉스는 현존 세계 최고 성능 D램인 ‘HBM3’의 양산을 시작해 미국 반도체 기업 엔비디아에 공급한다고 9일 밝혔다. HBM(고대역폭 메모리)은 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고성능 제품이다. 이번 HBM3는 4세대 제품으로 초당 819GB의 데이터를 처리할 수 있다. 이는 풀HD급 영화 163편을 1초에 전송하는 수준이다. SK하이닉스 관계자는 “제품을 개발한 지 7개월 만에 고객사에 공급하며 초고속 인공지능(AI) 반도체 시장의 새 장을 열게 됐다”고 말했다. AI 반도체 시장의 강자인 엔비디아는 최근 SK하이닉스의 HBM3 샘플에 대한 성능 평가를 마쳤으며, 오는 3분기 출시 예정인 자사 신제품 ‘H100’에 HBM3를 결합해 가속컴퓨팅 등 AI 기반 첨단기술 분야에 공급할 계획이다. 노종원 SK하이닉스 사장(사업총괄)은 “엔비디아와의 긴밀한 협력을 통해 프리미엄 D램 시장에서 톱클래스 경쟁력을 확보했다”고 말했다.
  • “1초에 영화 163편 전송”…SK하이닉스, 현존 최고 D램 美엔비디아 공급

    “1초에 영화 163편 전송”…SK하이닉스, 현존 최고 D램 美엔비디아 공급

    SK하이닉스는 현존 세계 최고 성능 D램인 ‘HBM3’의 양산을 시작해 미국 반도체 기업 엔비디아에 공급한다고 9일 밝혔다. HBM(고대역폭 메모리)은 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고성능 제품이다. 이번 4세대 제품은 초당 819GB(기가바이트)의 데이터를 처리할 수 있다. 이는 풀HD 영화 163편을 1초에 전송하는 수준이다.SK하이닉스 관계자는 “제품을 개발한 지 7개월 만에 고객사에 공급하며 초고속 인공지능(AI) 반도체 시장의 새 장을 열게 됐다”고 말했다. AI 반도체 시장의 강자인 엔비디아는 최근 SK하이닉스의 HBM3 샘플에 대한 성능평가를 마쳤으며, 오는 3분기 출시 예정인 자사 신제품 ‘H100’에 HBM3를 결합해 가속컴퓨팅 등 AI 기반 첨단기술 분야에 공급할 계획이다. 최근 글로벌 빅테크 기업들은 AI, 빅데이터 등 첨단기술의 발전 속도가 빨라지면서 급격하게 늘어나는 데이터를 빠르게 처리하는 데 주력하고 있다. SK하이닉스 측은 데이터 처리 속도와 성능을 기존 D램 대비 현격히 높인 차세대 D램 HBM이 대안이 될 것으로 기대하고 있다. 노종원 SK하이닉스 사장(사업총괄)은 “엔비디아와의 긴밀한 협력을 통해 프리미엄 D램 시장에서 톱클래스 경쟁력을 확보했다”며 “앞으로도 개방형 협업을 지속해 고객의 필요를 선제적으로 파악해 해결해주는 솔루션 프로바이더가 되겠다”고 말했다.
  • [고든 정의 TECH+] 1초에 150경번 연산처리... 최신 슈퍼컴퓨터의 숨은 비결

    [고든 정의 TECH+] 1초에 150경번 연산처리... 최신 슈퍼컴퓨터의 숨은 비결

    2010년대 초 중국은 미국산 CPU와 GPU를 이용해 세계 최고 성능의 슈퍼컴퓨터를 선보였습니다. 이에 자극받은 미국 정부는 2015년 오바마 행정부 시절 국가 전략 컴퓨팅 구상(National Strategic Computing Initiative, NSCI)을 발표했습니다. 미국 에너지부, 국방부, 국립 과학 재단(NSF)가 주도해 인텔, 엔비디아, AMD, IBM 등 주요 IT 제조사들과 함께 슈퍼컴퓨터 분야에서 미국의 우위를 지킬 차세대 슈퍼컴퓨터를 만들기로 합의한 것입니다.  2016년 국가 전략 컴퓨팅 구상에 참여한 기관 및 기업들은 2022년에 첫 엑사플롭스(ExaFlops)급 슈퍼컴퓨터를 만들 수 있을 것으로 예측했습니다. 그리고 우선 오크리지 국립 연구소와 로렌스 리버모어 국립 연구소에 서밋 (Summit)과 시에라 (Sierra)라는 100-300 페타플롭스급 슈퍼컴퓨터를 만들기로 계획했습니다. 이 슈퍼컴퓨터는 IBM의 파워 CPU와 엔비디아의 볼타 GPU를 사용한 것이었습니다.  하지만 두 회사에만 의존하는 경우 슈퍼컴퓨터 시장 독점 우려와 함께 실패할 경우 목표 달성이 힘들어지는 문제가 있습니다. 따라서 미국 정부는 인텔과 AMD에도 비슷한 조건으로 슈퍼컴퓨터를 개발하게 했습니다. 이들은 각각 독자 CPU + GPU 플랫폼을 이용해 슈퍼컴퓨터를 개발하기로 했습니다. 2016년 독자 CPU를 기반으로 세계 최고 성능 슈퍼컴퓨터를 개발한 중국에 대응하기 위해서는 미국이 가진 모든 자원과 최고의 회사들을 다 동원해야 한다는 절박함도 있었습니다.  그리고 행정부가 두 번 바뀐 2022년에 미국은 세계 최초의 엑사플롭스급 슈퍼컴퓨터를 선보였습니다. 정확히 예상한 시점에 목표에 도달한 것입니다. 첫 번째 타자는 AMD가 개발한 프런티어 (Frontier) 슈퍼컴퓨터입니다. AMD의 트렌토 (Trento) 64 코어 CPU와 라데온 인스팅트 MI250X GPU를 이용한 슈퍼컴퓨터로 최근 1.102 ExaFlop/s의 연산 속도를 기록해 세계에서 가장 빠른 컴퓨터이자 사상 최초로 엑사플롭스급 연산 능력을 지닌 슈퍼컴퓨터로 기록됐습니다.  프런티어는 한 개의 CPU와 네 개의 GPU가 기본 구조로 각 CPU마다 512GB DDR4 메모리를 탑재하고 GPU마다 128GB의 HBM2e 메모리를 탑재해 하나의 노드 (node)를 구성합니다. 그리고 128개의 노드가 하나의 올림푸스 랙 (Olympus Rack)이라는 거대한 냉장고 같은 구조를 만듭니다. 최종적으로 74개의 랙이 모여 프런티어 슈퍼컴퓨터를 구성하는 것입니다. 노드의 숫자만 9,408개로 같은 수의 CPU와 네 배나 되는 GPU가 탑재되어 있습니다. 메모리 용량만 HBM2e 메모리 4.6PB, DDR4 메모리 4.6PB이며 700PB가 넘는 거대한 저장 장치를 갖고 있습니다. 소비하는 전력은 웬만한 발전소 한 개에 해당하는 29MW입니다. 프런티어의 성과는 오바마 시절부터 시작된 슈퍼컴퓨터 투자가 정권이 바뀌어도 지속적으로 이뤄진 덕분입니다. 슈퍼컴퓨터는 미국처럼 관련 기술이 많이 축적된 국가에서도 개발부터 실제 가동까지 오랜 시간이 걸리는 분야입니다. 당연히 그사이 행정부가 바뀌는 경우가 비일비재합니다. 하지만 정치적 상황과 관계없이 슈퍼컴퓨터처럼 미국의 국력과 직접 연관되는 분야에는 아낌없는 투자가 이뤄졌기 때문에 지금의 성과가 나왔다고 할 수 있습니다.  하지만 1등은 하는 것보다 지키는 것이 더 어렵습니다. 중국은 말할 것도 없고 슈퍼컴퓨터 분야에서 상당한 독자 기술력을 지닌 일본도 다시 1위 타이틀을 차지하기 위해 연구를 계속하고 있습니다. 따라서 이미 미국은 2엑사플롭스 이상의 연산이 가능한 차세대 슈퍼컴퓨터 개발과 투자를 동시에 진행하고 있습니다. AMD는 프런티어 이외에도 Zen 4 기반의 최신 CPU와 최신 GPU를 사용한 엘 카피탄 (El Capitan)을 2023년 선보일 예정으로 목표 성능은 2엑사플롭스입니다. 인텔 역시 오로라(Aurora)라는 엑사플롭스급 슈퍼컴퓨터를 개발 중인데, 인텔의 사파이어 래피즈 제온 CPU와 폰테 베키오 GPU를 이용해 곧 모습을 드러낼 예정입니다.  엔비디아는 역시 최근 로스 알라모스 국립 연구소에 공급할 AI 슈퍼컴퓨터인 버나도 (Venado)를 추가로 공개했습니다. 엔비디아가 자체 개발한 Arm 기반 서버 프로세서인 그레이스 슈퍼칩과 호퍼 GPU를 이용한 슈퍼컴퓨터로 특히 AI 관련 연산에 특화되어 10 엑사플롭스 AI 연산이 가능합니다. 엔비디아는 그레이스 슈퍼칩을 이용한 차세대 슈퍼컴퓨터 프로젝트를 몇 개 공개했으며 첫 제품은 2023년에 볼 수 있을 것이라고 언급했습니다. 과거 인텔, AMD, IBM 같은 다른 회사 CPU를 이용해 자사 GPU와 같이 사용했던 데서 벗어나 CPU 독립을 이룰 수 있을지 결과가 주목되는 상황입니다.  미국의 엑사스케일 슈퍼컴퓨터 개발 성공은 정파를 떠나 장기적이고 일관성 있는 정책이 과학기술 발전에 중요하다는 것을 보여주는 또 다른 사례입니다. 다음 미국 대선에 누가 당선될지는 알 수 없지만, 현재 진행 중인 미국의 슈퍼컴퓨터 육성 정책은 크게 달라지지 않을 것으로 예상됩니다.
  • [고든 정의 TECH+] 슈퍼 컴퓨터 시장을 향한 인텔의 복안…CPU와 GPU를 하나로!

    [고든 정의 TECH+] 슈퍼 컴퓨터 시장을 향한 인텔의 복안…CPU와 GPU를 하나로!

    지난 몇 년간 인텔은 AMD의 거센 추격과 ARM 기반 서버 칩의 등장, 인공지능 시장에서 엔비디아의 독주로 인해 업계 1위의 위상이 흔들렸습니다. 이 위기를 극복하기 위해 1년 전 취임한 팻 겔싱어 인텔 CEO는 여러 가지 미래 전략과 로드맵을 발표했습니다. 그중 하나는 거대한 반도체 칩을 한 번에 제조하는 대신 여러 개의 칩을 고속 인터페이스로 연결해 하나의 큰 반도체 칩처럼 만드는 기술입니다.  작년에 세부 내용을 공개한 인텔의 사파이어 래피즈(Sapphire Rapids) 제온 스케일러블 CPU는 최대 400㎟ 크기의 다이 4개를 인텔의 고속 인터페이스인 EBIM로 연결하고 여기에 추가로 초고속 메모리인 HBM2E 메모리까지 하나의 패키지에 넣을 수 있습니다. 차세대 GPU인 폰테 베키오 (Xe HPC)는 무려 47개의 타일을 하나로 묶어 트랜지스터 집적도를 1000억개까지 끌어올렸습니다.  한 번에 너무 큰 칩을 제조할 경우 수율이 급격히 낮아지는데다 첨단 미세 공정으로 갈수록 가격이 매우 높아지기 때문에 이렇게 여러 개의 칩을 하나로 묶는 기술이 업계의 새로운 트랜드가 되고 있습니다. 또 반드시 최신 미세 공정을 사용하지 않아도 되는 부분은 구형 공정을 이용해 가격도 절감할 수 있다는 점이 큰 장점입니다.  그런데 CPU나 GPU 모두 여러 개의 타일을 묶어서 만든다면 CPU + GPU 프로세서 역시 제조가 쉬워집니다. 인텔이 새로 공개한 팔콘 쇼어스 (Falcon Shores) XPU는 이런 맥락에서 당연히 등장할 수밖에 없는 제품이라고 할 수 있습니다.  팔콘 쇼어스는 인텔의 x86 CPU와 Xe GPU를 하나로 합친 고성능 및 슈퍼컴퓨팅 프로세서입니다. 물론 현재 판매 중인 인텔 12세대 코어 프로세서 (앨더 레이크) 역시 대부분 내장 GPU를 지니고 있기 때문에 x86 CPU와 Xe GPU의 통합 구조라고 할 수 있으나 팔콘 쇼어스는 서버 및 슈퍼 컴퓨팅 부분에서 처음 도입하는 CPU/GPU 통합 프로세서라는 차이점이 있습니다.  그래 봐야 제온 스케일러블 CPU와 Xe HPC GPU를 하나로 통합한 것에 지나지 않느냐고 반문할 수 있지만, 사실 이 통합이 핵심입니다. 고성능 서버 CPU와 고성능 연산용 GPU는 막대한 양의 데이터를 서로 주고받기 때문에 데이터 및 메모리 병목 현상이 발생하기 쉽습니다.이를 극복할 수 있는 대안 중 하나는 아예 하나의 패키지 안에 CPU, GPU, 메모리를 통합하는 것입니다. 인텔은 팔콘 쇼어스를 통해 전력 대비 성능과 메모리 대역폭을 5배 이상 끌어올릴 수 있다고 보고 있습니다. 물론 이 제품은 목적상 고성능 슈퍼컴퓨팅 및 인공지능 연산용으로 기존의 제온 서버 프로세서를 대체하는 것은 아닙니다.  서버급 CPU와 GPU를 통합하면서 기대할 수 있는 두 번째 이점은 공간 절약입니다. 거대한 서버 CPU와 제법 큰 공간을 차지하는 GPU를 서버용 메인보드에 여러 개 끼워 넣으면 당연히 서버의 부피는 커질 수밖에 없습니다. 아예 메모리까지 하나로 통합한 팔콘 쇼어스 XPU는 기존의 전통적인 CPU + GPU 서버 보다 5배 정도 시스템 밀도를 높일 수 있습니다. 데이터 센터의 크기가 자꾸만 커지는 상황에서 크기가 작은 서버의 등장은 반가운 일입니다. 결국 비용 절감으로 이어지기 때문입니다.  하지만 팔콘 쇼어스는 올해가 아닌 2024년 이후 등장할 예정입니다. 인텔은 최신 20A 이후 공정을 팔콘 쇼어스에 도입할 계획입니다. 인텔은 서버 CPU에서 AMD에 시장을 내주고 있고 엔비디아가 장악한 고성능 GPU 시장에는 진입조차 못하고 있습니다. 다만 전례 없는 수준의 연구와 투자를 병행하고 의욕적인 제품 로드맵을 공개하고 있어 몇 년 후에는 업계 판도가 바뀔 수도 있는 상황입니다. 과연 인텔의 변신이 성공할지 미래가 궁금합니다. 
  • SK하이닉스 ‘슈퍼사이클’ 3년만 최대실적…D램·낸드사업 확장 (종합)

    SK하이닉스 ‘슈퍼사이클’ 3년만 최대실적…D램·낸드사업 확장 (종합)

    SK하이닉스가 반도체 호황을 등에 업고 창사 이래 최대 연간 매출을 달성했다. SK하이닉스는 28일 지난해 연매출 42조 9978억원을 기록했다고 밝혔다. 전년(31조 9004억원) 대비 34.8% 증가한 수치다. 이는 반도체 업황이 최고조에 달했던 2018년 슈퍼사이클(40조 4451억원)보다도 2조원 이상 오른 실적이다. 영업이익도 전년 대비 147.6%나 늘어난 12조 4103억원을 기록했다. 다만 사상 최고치인 2018년 20조 8438억원엔 미치지 못했다. 영업이익률은 29%를 기록했다. 지난해 4분기 기준으로 매출은 55% 증가한 12조 3766억원, 영업이익은 340% 증가한 4조 2195억원을 나타냈다. 분기 매출이 12조원을 넘어선 것은 이번이 처음이다.SK하이닉스 측은 “회사는 공급망 차질 등 불확실한 시장환경 속에서도 비대면 IT 수요가 늘었고, 기술력과 품질 경쟁력을 바탕으로 적극적으로 제품 공급에 나서 사상 최대 매출 기록을 경신했다”고 밝혔다. 특히 지난해 D램 사업에서 PC, 서버향 제품 등 응용분야의 수요에 탄력적으로 대응하며 수익성 확보에 집중했다는 것이 SK하이닉스의 설명이다. 업계 최초로 개발한 DDR5, HBM3 등 차세대 고부가가치 제품에서 최고 수준의 품질 경쟁력을 확보한 것도 주효한 것으로 평가된다. 아울러 낸드(NAND) 사업도 연간 흑자를 기록했다. 128단 제품 경쟁력을 바탕으로 시장 평균을 크게 뛰어넘는 판매량 증가율을 기록하면서 3분기 흑자전환에 성공했다. SK하이닉스는 올해엔 공급망 이슈가 하반기에 점진적으로 해소되며 메모리 제품에 대한 시장 수요가 늘어날 것으로 전망하고 있다. 이에 맞춰 D램 사업에선 재고를 탄력적으로 운영해 시장의 변동성을 줄이면서 수익성에 집중하는 전략을 이어갈 계획이다. 지난해 인텔 낸드사업부 인수 1단계 절차를 마무리한 SK하이닉스는 낸드 사업에서도 규모의 성장을 이어가겠다는 계획이다. 대규모 투자도 이어진다. SK하이닉스는 이날 중국 장쑤성 우시 D램 생산라인을 운영하는 현지 법인에 2조 3940억원을 출자한다고 공시했다. 출자금은 올 연말부터 2025년까지 우시 D램 반도체 공장 보완 투자에 사용된다.
위로