찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • GPU
    2026-01-24
    검색기록 지우기
  • CNN
    2026-01-24
    검색기록 지우기
  • 150조
    2026-01-24
    검색기록 지우기
  • KAMD
    2026-01-24
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
791
  • 종이처럼 돌돌 말아도 작동하는 프로세서 나왔다[고든 정의 TECH+]

    종이처럼 돌돌 말아도 작동하는 프로세서 나왔다[고든 정의 TECH+]

    10년 전만 해도 미래의 일로 여겨지던 플렉서블 디스플레이는 이미 스마트폰에 적용되어 널리 사용되고 있습니다. 피부에 반창고처럼 붙일 수 있는 플렉서블 센서 역시 상용화 단계에 이르렀습니다. 하지만 두루마리처럼 말아서 보관하는 컴퓨터의 시대는 아직 멀었습니다. 고도로 정교한 과학기술의 결정체인 CPU는 아직도 단단한 실리콘 웨이퍼 기반으로 제조되기 때문입니다. 론 과학자들은 CPU나 GPU 같은 프로세서까지 구부릴 수 있는 소재로 만들기 위해 연구를 진행하고 있습니다. 영국 케임브리지에 있는 관련 스타트업인 프라그마틱 반도체 (Pragmatic Semiconductor)는 지금까지 개발된 것 가운데 가장 정교한 플렉서블 프로세서인 Flex-RV를 공개했습니다. Flex-RV는 최초의 32비트 플렉서블 CPU로 오픈 소스 아키텍처인 RISC-V 기반입니다. 구부리는 상태에서도 작동이 가능한데, 프라그마틱 반도체는 돌돌 말고 있는 상태에서도 작동이 가능하다는 것을 영상으로 공개했습니다. 당연히 단단한 실리콘 웨이퍼 기반의 프로세서는 자유롭게 구부릴 수 없기 때문에 연구팀은 TFT 디스플레이에 사용되는 IZGO (인듐(In)·갈륨(Ga)·산화아연(ZnO) 산화물) 기술을 이용해 프로세서를 만들었습니다. 덕분에 Flex-RV는 두께가 동물 세포 8개 수준인 80µm에 불과하며 소비하는 전력도 6mW에 지나지 않습니다. 하지만 그렇다고 해서 이제 몇 년 있으면 돌돌 말아서 휴대할 수 있는 컴퓨터를 만들 수 있는 것은 아닙니다. 이미 나노미터 단위까지 개발된 실리콘 반도체 웨이퍼와 달리 Flex-RV는 그렇게 미세한 회로를 만들 수 없기 때문에 로직 게이트 (트랜지스터) 숫자가 126,000개에 불과합니다. 1982년 나온 인텔 80286 프로세서가 134,000개의 트랜지스터를 지니고 있다는 점을 생각하면 현대적 프로세서와 견주기 힘든 수준입니다. 여기에 클럭은 52-60kHz 수준으로 현저히 낮습니다. 그럼에도 머신 러닝 연산에 필요한 유닛을 지니고 있어 AI 연산도 가능하다는 것이 연구팀의 주장입니다. 다만 작동 속도나 집적도를 보면 현재 수준에서 상용화는 기대하기 힘들고 앞으로 많은 연구가 필요한 분야임을 알 수 있습니다. 물론 스마트폰이나 PC 같은 고성능 제품이 아니더라도 플렉서블 프로세서에는 다양한 응용 분야가 있습니다. 피부에 붙이는 웨어러블 센서가 대표적인 경우입니다. 현재는 개발 단계이지만, 플렉서블 디스플레이처럼 언젠가는 플렉서블 프로세서도 우리 주변에서 보게 날이 올 것으로 기대합니다.
  • ‘AI칩 넘버원’ SK하이닉스… 세계 최초 ‘HBM3E 12단’ 양산

    ‘AI칩 넘버원’ SK하이닉스… 세계 최초 ‘HBM3E 12단’ 양산

    용량 50% 늘고 처리 속도 빨라져연내 ‘큰 손’ 엔비디아에 공급 전망삼성 제품도 엔비디아 테스트 중 고대역폭메모리(HBM) 시장 1위인 SK하이닉스가 5세대 ‘HBM3E 12단’ 제품 양산에 들어갔다. 인공지능(AI) 반도체 시장의 ‘큰손’인 엔비디아에는 연내 공급될 것으로 보인다. 메모리 업체 중 가장 먼저 12단 양산에 돌입하며 삼성전자·미국 마이크론과의 격차를 더 벌렸다. SK하이닉스는 36GB(기가바이트) 용량의 HBM3E 12단 신제품을 세계 최초로 양산하기 시작했다고 26일 밝혔다. HBM은 여러 개의 D램을 수직으로 쌓아 기존 D램보다 데이터 처리 속도를 크게 끌어올린 고성능 메모리다. HBM3E는 4세대 HBM3의 ‘확장 버전’으로 5세대에 속한다. SK하이닉스는 지난 3월 HBM3E 8단 제품을 업계 최초로 엔비디아에 납품한 지 6개월 만에 12단 양산에 나서면서 또 한번 주도권을 쥐게 됐다. 앞서 김주선 SK하이닉스 AI 인프라 담당 사장은 이달 초 대만 반도체 전시회 ‘세미콘 타이완’ 기조연설에서 “이달 말부터 HBM3E 12단 제품 양산에 돌입할 계획”이라고 밝혔다. 고객사의 인증 작업(퀄 테스트)을 거쳐야 공급할 수 있는 구조인데 메모리 업체가 양산 일정을 미리 못박았다는 건 그만큼 자신감이 있다는 뜻이자 고객사와의 신뢰 관계가 두텁다는 의미로 해석됐다. SK하이닉스는 이날 “양산 제품을 연내 고객사에 공급할 예정”이라고 했다. 회사 측은 신제품이 AI 메모리에 필요한 속도, 용량, 안전성 등 모든 부문을 충족시켰다고 밝혔다. 이 제품 4개를 탑재한 그래픽처리장치(GPU)로 메타의 대규모언어모델(LLM) ‘라마3 70B’를 구동할 경우 700억개의 전체 파라미터(매개변수)를 초당 35번 읽어 낼 수 있을 정도로 속도(9.6Gbps)가 빨라졌다고 회사는 밝혔다. 기존 8단 제품(24GB)과 비교하면 두께는 동일한데 용량이 50% 늘어났다. D램 칩을 기존보다 40% 얇게 만들면서다. 얇아진 칩을 더 높이 쌓을 때 생기는 구조적 문제는 공정기술(어드밴스드 MR-MUF)을 통해 해결하면서 방열 성능과 안전성을 높였다. 엔비디아가 후속 제품에 HBM3E 12단 제품을 대거 채택할 것으로 알려지면서 내년부터 12단 비중도 크게 늘어날 전망이다. 삼성전자와 마이크론도 각각 HBM3E 12단 제품에 대한 엔비디아의 퀄 테스트를 진행 중인 것으로 알려졌다. 삼성전자는 지난 2분기 실적 콘퍼런스콜에서 “12단 제품을 하반기에 공급할 예정”이라고 했다.
  • 尹 “AI 3대 강국 도약 위해 국가 총력전”

    尹 “AI 3대 강국 도약 위해 국가 총력전”

    윤석열 대통령은 26일 “대한민국을 2027년까지 인공지능(AI) 분야에서 세계 3대 강국으로 도약시키겠다”며 ‘AI 국가 총력전’을 선포했다. 윤 대통령은 이날 서울 포시즌스 호텔에서 열린 ‘국가인공지능위원회 출범식 및 제1차 회의’를 주재하면서 “AI가 국가 역량과 성장을 좌우하고 경제 안보의 핵심이 되는 시대로 지금 전환되고 있다”며 이렇게 밝혔다. 현재 한국의 AI 국가 경쟁력 순위는 6위다. 윤 대통령은 지난 4월 반도체 현안 점검회의에서 ‘AI-반도체 이니셔티브’를 발표하고 대통령 직속 AI위원회 설치 계획을 밝혔다. 대통령이 위원장을 맡고 염재호 태재대 총장이 부위원장을 맡았다. 이 밖에도 AI 전문가 등 민간위원 30명, 과학기술정보통신부 등 장관급 정부위원 10명 등으로 구성됐다. ‘AI 4대 천왕’ 중 앤드루 응 미국 스탠퍼드대 교수, 얀 르쿤 뉴욕대 교수, 요수아 벤지오 캐나다 몬트리올대 교수가 글로벌 AI 전략 그룹으로 합류한다. 윤 대통령은 “AI의 급속한 발전과 함께 많은 부작용도 발생하고 있다”며 “AI 기술로 생산된 가짜뉴스들이 민주주의를 위협하고 최근에는 딥페이크 기술을 악용해 인권을 침해하는 사례들이 빈번하게 일어나고 있다”고 지적했다. 윤 대통령은 “‘국가 AI 컴퓨팅 센터’를 민관 합작 투자로 구축하겠다”며 “AI 연구개발과 산업 육성의 핵심 인프라로 기능할 것”이라고 말했다. 이어 “산업과 사회 전반의 AI 전환을 촉진하고 민간의 AI 투자를 확대시키겠다”며 “저작권과 개인정보보호 규제가 보호하려는 핵심 가치는 지키되 이것이 AI 혁신의 걸림돌이 되지 않도록 규제를 전향적으로 개선해 나가겠다”고 덧붙였다. 윤 대통령은 “연구개발과 인프라는 물론이거니와 교육, 법제에 이르기까지 모든 분야에서 치밀한 전략을 세우고 이를 철저하게 이행할 것”이라고 했다. 이날 회의에서 과학기술정보통신부는 국가 AI 컴퓨팅 인프라 대폭 확충, 민간 부문 AI 투자 대폭 확대, 국가 AI 전환(AX) 전면화, AI 안전 및 안보 글로벌 리더십 확보 등 ‘4대 플래그십 프로젝트’를 발표했다. AI 컴퓨팅 인프라를 제공하기 위해 2조원 규모의 국가 AI 컴퓨팅 센터를 구축하고 2030년까지 최신 그래픽처리장치(GPU) 규모를 현재의 15배인 2EF(엑사플롭스·1초에 100경 번의 부동소수점 연산처리 능력) 이상으로 확충하기로 했다. 이는 AI 칩 선두주자 ‘엔비디아’의 고가 GPU인 H100 3만개 규모에 해당한다. 민간 부문에서는 4년간 AI 분야에 총 65조원 규모를 투자하기로 했다. 박상욱 대통령실 과학기술수석은 이날 용산 대통령실 브리핑에서 “정부는 민간 투자가 더 활성화될 수 있도록 조세특례 등 적극적으로 지원하기로 했다”며 “11월에 AI안전연구소를 설립하고 연내 AI기본법이 제정되도록 추진하겠다”고 밝혔다.
  • 국가인공지능위원회 출범식서 尹 ‘AI 3대 강국 도약 비전’ 발표…“AI 국가 총력전 선포”

    국가인공지능위원회 출범식서 尹 ‘AI 3대 강국 도약 비전’ 발표…“AI 국가 총력전 선포”

    2조원 규모 국가AI컴퓨팅센터 구축2030년까지 GPU 15배로 확충앤드류 응 ‘AI 4대 천왕’ 전략 그룹으로 윤석열 대통령은 26일 “대한민국을 2027년까지 인공지능(AI) 분야에서 세계 3대 강국으로 도약시키겠다”며 ‘AI 국가 총력전’을 선포했다. 윤 대통령은 이날 서울 포시즌스 호텔에서 열린 ‘국가인공지능위원회 출범식 및 제1차 회의’를 주재하면서 “AI가 국가 역량과 성장을 좌우하고 경제 안보의 핵심이 되는 시대로 지금 전환되고 있다”며 이렇게 밝혔다. 현재 한국의 AI 국가 경쟁력 순위는 6위다. 윤 대통령은 지난 4월 반도체 현안 점검회의에서 ‘AI-반도체 이니셔티브’를 발표하고 대통령 직속 AI위원회 설치 계획을 밝혔다. 대통령이 위원장을 맡고 염재호 태재대 총장이 부위원장을 맡았다. 이 밖에도 AI 전문가 등 민간위원 30명, 과학기술정보통신부 등 장관급 정부위원 10명 등으로 구성됐다. ‘AI 4대 천왕’ 중 앤드류 응 미국 스탠포드 교수, 얀 르쿤 뉴욕대 교수, 요수아 벤지오 캐나다 몬트리올대 교수가 글로벌 AI 전략 그룹으로 합류한다. 윤 대통령은 “AI의 급속한 발전과 함께 많은 부작용도 발생하고 있다”며 “AI 기술로 생산된 가짜뉴스들이 민주주의를 위협하고 최근에는 딥페이크 기술을 악용해 인권을 침해하는 사례들이 빈번하게 일어나고 있다”고 지적했다. 윤 대통령은 “‘국가 AI 컴퓨팅 센터’를 민관 합작 투자로 구축하겠다”며 “AI 연구개발과 산업 육성의 핵심 인프라로 기능할 것”이라고 말했다. 이어 “산업과 사회 전반의 AI 전환을 촉진하고 민간의 AI 투자를 확대시키겠다”며 “저작권과 개인정보보호 규제가 보호하려는 핵심 가치는 지키되 이것이 AI 혁신의 걸림돌이 되지 않도록 규제를 전향적으로 개선해 나가겠다”고 덧붙였다. 윤 대통령은 “연구개발과 인프라는 물론이거니와 교육, 법제에 이르기까지 모든 분야에서 치밀한 전략을 세우고 이를 철저하게 이행할 것”이라고 했다. 이날 회의에서 과학기술정보통신부는 국가 AI 컴퓨팅 인프라 대폭 확충, 민간 부문 AI 투자 대폭 확대, 국가 AI 전환(AX) 전면화, AI 안전 및 안보 글로벌 리더십 확보 등 ‘4대 플래그십 프로젝트’를 발표했다. AI 컴퓨팅 인프라를 제공하기 위해 2조원 규모의 국가 AI 컴퓨팅 센터를 구축하고 2030년까지 최신 그래픽처리장치(GPU) 규모를 현재의 15배인 2EF(엑사플롭스·1초에 100경 번의 부동소수점 연산처리 능력) 이상으로 확충하기로 했다. 이는 AI 칩 선두주자 ‘엔비디아’의 고가 GPU인 H100 3만개 규모에 해당한다. 민간 부문에서는 4년간 AI 분야에 총 65조원 규모를 투자하기로 했다. 박상욱 대통령실 과학기술수석은 이날 용산 대통령실 브리핑에서 “정부는 민간 투자가 더 활성화될 수 있도록 조세특례 등 적극적으로 지원하기로 했다”며 “11월에 AI안전연구소를 설립하고 연내 AI기본법이 제정되도록 추진하겠다”고 밝혔다.
  • HBM 이어 SW도 앞서간다…SK하이닉스 ‘CXL 최적화 솔루션’, 리눅스에 탑재

    HBM 이어 SW도 앞서간다…SK하이닉스 ‘CXL 최적화 솔루션’, 리눅스에 탑재

    SK하이닉스는 차세대 메모리 기술인 ‘컴퓨트 익스프레스 링크’(CXL) 구동을 최적화하는 메모리 제어 솔루션 ‘HMSDK’의 주요 기능을 세계 최대 오픈소스 운영체제 ‘리눅스’에 탑재했다고 23일 밝혔다. CXL은 중앙처리장치(CPU)와 그래픽처리장치(GPU), 메모리 등을 효율적으로 연결해 대용량, 초고속 연산을 지원하는 차세대 인터페이스로 기존 메모리 모듈에 CXL을 적용하면 용량을 10배 이상 확장할 수 있다. 이런 이유로 CXL 메모리는 고대역폭메모리(HBM)를 이을 차세대 인공지능(AI) 메모리로 불린다. SK하이닉스는 “HBM 등 하드웨어 메모리뿐 아니라 소프트웨어 경쟁력도 인정받게 됐다는 의미가 있다”고 했다. HMSDK는 SK하이닉스가 자체 개발한 CXL 최적화 소프트웨어로 기존 메모리와 확장된 CXL 메모리 간의 대역폭에 따라 차등적으로 메모리를 할당해 기존 응용 프로그램을 조정하지 않고도 메모리 패키지의 대역폭을 30% 이상 확장해 준다. 자주 사용하는 데이터를 더 빠른 메모리로 옮겨주는 기능을 통해 기존 시스템 대비 성능을 12% 이상 개선했다고 SK하이닉스는 설명했다. 리눅스를 기반으로 일하는 전 세계 개발자들이 CXL 메모리를 이용할 때 SK하이닉스 기술을 업계 표준으로 삼게 된 건 회사 입장에선 큰 수확이다. 향후 차세대 메모리 관련 글로벌 협력 과정에서도 유리한 입지를 점할 수 있어서다. 업계는 올해 하반기 중 ‘CXL 2.0’ 규격이 적용된 첫 서버용 CPU가 시장에 출시되면 CXL이 상용화 단계에 접어들 것으로 본다. SK하이닉스는 96GB(기가바이트), 128GB 용량의 CXL 2.0 메모리에 대한 고객사 인증을 진행 중이다. 연말 양산이 목표다. 주영표 SK하이닉스 소프트웨어 솔루션 담당 부사장은 “대규모언어모델(LLM)과 같은 AI의 발전과 확산을 위해서는 반도체뿐 아니라 이를 뒷받침하기 위한 시스템 애플리케이션 수준도 크게 향상해야 한다”며 “기술 혁신과 생태계 확장에 힘쓰겠다”고 말했다.
  • “추석 용돈으로 엔비디아 사볼까?”…반도체 종목 투자 열기 지속

    “추석 용돈으로 엔비디아 사볼까?”…반도체 종목 투자 열기 지속

    반도체 사업을 중심으로 한 삼성전자 주식이 ‘국민주’로 떠오른 가운데 20대는 물론 10대 미성년자까지도 주식투자에 눈을 뜨면서 추석 용돈으로 주식에 투자하겠다는 움직임도 이어지고 있다. 15일 금융감독원 전자공시에 등록된 올해 삼성전자 사업보고서에 따르면 지난해 말 기준 삼성전자 소액 주주 수는 467만 2039명으로 전년 대비 19.64%(114만 1938명) 줄었다. 이 가운데 8.38%에 해당하는 39만 1869명이 미성년 주주다. 코로나19 팬데믹 당시 국내 주식 투자열풍이 불었던 2019년 말과 비교하면 미성년 주주 비중은 2.6배 늘었다. 미성년 주식 투자자가 늘고 있는 것은 재테크 수단으로 주식에 투자하는 부모가 자녀의 경제 교육을 위해 소액 투자를 권하는 가정이 늘고 있는 데다, 이런 흐름에 발맞춰 금융위원회도 지난해 4월 부모의 영업점 방문 없이도 비대면으로 미성년자 계좌를 개설할 수 있도록 ‘비대면 실명확인 가이드라인’을 개편했기 때문으로 풀이된다. 최근에는 스마트폰을 통한 해외 주식거래도 간편해지면서 엔비디아, 테슬라와 같은 ‘서학 대장주’를 보유한 미성년 주주도 늘고 있는 추세다. 키움증권의 경우 지난 한 달간 미성년 자녀 계좌 대상으로 엔비디아 주식을 증정하는 이벤트를 진행하며 최근 주식시장 투자 열기에 동참하기도 했다. 미국 반도체 설계기업 엔비디아의 경우 최근 생성형 인공지능(AI) 개발 경쟁의 최대 수혜주로 떠오르며 미국 증시는 물론 한국 증시에도 큰 영향력을 미치고 있다. AI용 반도체는 방대한 분량의 데이터를 빠르게 처리할 수 있는 그래픽처리장치(GPU)가 필수인데 엔비디아는 이 시장의 80%를 점유하고 있다. GPU 수요가 폭발적으로 증가하면서 엔비디아의 시가총액은 지난 6월 18일 3조 3350억 달러(약 4600조원)를 기록하며 사상 애플과 마이크로소프트까지 제치며 사상 처음 글로벌 1위에 오르기도 했다. 이후 엔비디아 주가는 등락을 반복하며 현재 시총 3위(2조 9400억 달러)를 유지하고 있고, 지난 11일 젠슨 황 엔비디아 최고경영자(CEO)가 “(우리 칩에 대한) 수요가 너무 많아서 부품, 기술, 인프라, 소프트웨어를 제공하는 것이 사람들에게 정말 감정적인 일이 되고 있다”고 말하며 엔비디아는 물론 반도체 시장 전체 투자 심리를 자극했다. 황 CEO의 자신감 넘치는 발언이 나오자 미국 시장에서 엔비디아 주가는 8.03% 급등했다. 특히 이날 황 CEO가 자사 칩 위탁생산을 기존 대만 TSMC가 아닌 파운드리에 맡길 수 있음을 시사하면서 삼성전자에도 호재로 작용하는 분위기다. 그는 “TSMC는 동종 업계에서 압도적인 최고로, 민첩성과 대응 능력이 놀랍다”라면서도 “필요하다면 언제든 다른 공급업체를 활용할 수도 있다”고 말했다. 이는 폭증하는 수요에 대응하기 위해 TSMC가 아닌 삼성전자 파운드리나 인텔 파운드리에 일부 물량을 맡길 수 있다는 의미로 풀이된다. 다만 삼성전자 주가는 고대역폭 메모리(HBM) 공급 과잉에 따른 가격 하락 우려가 나오면서 지난 13일 종가 기준 6만 4400원까지 떨어졌다. 삼성전자 임원들은 주가가 연일 하락하자 주가 부양 및 책임경영 강화를 위해 대규모 자사주 매입에 나선 상황이다. 박학규 경영지원실장(사장)이 자사주 6000주를 주당 6만 6850원에 매입했고, 한종희 디바이스경험(DX)부문장(부회장)이 7억 3900억원 규모의 자사주 1만주를 매입했다. 노태문 모바일경험(MX)사장은 3억 4750만원에 달하는 자사주 5000주를 사들였다.
  • 미, ‘HBM·양자컴퓨팅’ 대중 수출통제에 한국 동참 요구

    미, ‘HBM·양자컴퓨팅’ 대중 수출통제에 한국 동참 요구

    미국 정부가 한국 기업들이 만드는 인공지능(AI)용 반도체의 핵심 부품인 고대역폭메모리(HBM)의 대중국 수출 통제 가능성을 언급했다. 또 양자컴퓨터 등의 첨단 기술 수출 통제에 한국이 동참하기를 바란다며, 한국의 적극적인 대중 수출 통제 참여를 요구했다. 앨런 에스테베스 미국 상무부 산업안보차관은 10일(현지시간) 워싱턴에서 무역안보관리원(옛 전략물자관리원)이 연 ‘한미 경제안보 콘퍼런스’에서 “새로운 전장의 승패는 우리가 오늘 개발하는 기술이 좌우할 것”이라며 대중 수출 통제에 동맹국들의 참여가 중요하다고 말했다. 그는 인공지능(AI) 근간인 그래픽처리장치(GPU)에 들어가는 HBM을 언급하며 “세계에 HBM을 만드는 기업이 3개 있는데 2개가 한국 기업”이라며 “우리 자신과 동맹의 필요를 위해 개발하고 사용하는 게 중요하다”고 강조했다. 전 세계 HBM 시장은 SK하이닉스와 삼성전자, 미국 업체인 마이크론테크놀로지가 장악하고 있다. 앞서 HBM의 대중국 수출을 통제하기 위해 미국이 한국 등 동맹과 협의 중이라는 블룸버그 통신 보도가 최근 나왔다. 이에 대해 콘퍼런스에 참석한 정인교 산업통상자원부 통상교섭본부장은 기자들 질문에 “미국이 아직 아무것도 확정이 안 된 상태에서 우리가 뭐라고 얘기할 수가 없다”면서도 “관련 당국 간에는 그런 이슈에 대해 미국은 우리한테 협의를 요청하고 있다”고 했다. 또 “(HBM) 생산 3개 기업 중 2개가 한국 기업이라고 하면 우리에게 영향이 너무나 클 수 있다”면서 “에스테베스 차관도 한국과 협력을 잘하고 기업들 문제에 신경 쓰겠다고 얘기했다”고 덧붙였다. 에스테베스 차관은 또 상무부가 지난 5일 발표한 양자컴퓨팅, 첨단 반도체 제조 장비, 3D 프린팅 관련 수출 통제에 대해서도 “한국도 곧 이런 통제를 시행한다고 발표하기를 바란다”고 말했다. 이와 관련해 미국은 24개 품목 수출 통제를 발표하면서 자국에 준하는 통제를 시행하는 나라로의 수출은 별도 허가가 필요하지 않다고 밝혔다. 한국은 허가 면제 국가에서 제외됐지만, ‘승인 추정 원칙’ 적용 국가에 포함돼 수출을 신청하면 원칙적으로 허가를 받게 됐다. 한편 에스테베스 차관은 상무부가 추진 중인 중국산 부품·소프트웨어 탑재 커넥티드 차량 규제와 관련해 “한국 기업들이 그런 종류의 역량(규제 대상 기술)이 필요하다면 공급망을 조정할 수 있는 준비 시간이 어느 정도 있을 것”이라고 말했다. 한국 자동차 기업이 미국에 수출하는 커넥티드 차량에 규제 대상인 중국산 부품을 이용할 경우 부품을 교체할 시간을 주겠다는 의미로 해석된다.
  • 인텔이 출시한 ‘루나레이크’, 경쟁사 제품과 비교해보니

    인텔이 출시한 ‘루나레이크’, 경쟁사 제품과 비교해보니

    인텔이 코어 울트라 프로세서 2세대(코어 울트라 200V, 코드명 루나 레이크, 이하 루나 레이크)를 정식 출시한다고 발표했습니다. 코어 울트라 200V는 노트북과 태블릿을 위한 모바일 프로세서로 이번 달부터 이를 탑재한 노트북을 각 제조사에서 판매할 예정입니다. 인텔은 루나 레이크에서 전력 효율을 높이는 데 초점을 맞췄습니다. 심지어 코어 숫자도 8개로 이전보다 4개나 줄였습니다. 그동안 CPU 제조사들은 새로운 CPU가 나올 때마다 성능을 높이기 위해 코어 숫자를 늘려 왔습니다. 코어 한 개의 성능을 높이기 어려워지자 더 많은 코어를 탑재하는 방법으로 성능을 높인 것입니다. 하지만 전력 소모가 많아지고 정작 일반적인 작업에서는 거의 사용되지 않는 코어가 늘어나 배터리 지속 시간만 짧아지는 문제가 있었습니다. 따라서 인텔은 8-17W TDP의 저전력 CPU에서 코어 숫자를 전작보다 4개 줄인 8개로 조정했습니다. 다만 고성능 P코어의 숫자를 2개에서 4개로 늘리고 저전력 E코어 숫자를 4개로 줄였기 때문에 사용자가 주로 체감하는 싱글 스레드 성능은 크게 높였습니다. 여기에 루나 레이크에 쓰인 라이언 코브 P코어는 전 세대 대비 14%, 스카이몬트 E코어는 전 세대 대비 68%의 성능 향상(IPC 기준)이 있습니다. 따라서 IPC 성능 향상이 없었던 전작인 메테오 레이크보다 높은 싱글 스레드 성능을 기대할 수 있습니다. 인텔은 루나 레이크가 세상에서 가장 빠른 CPU 코어를 지녔다고 주장했습니다. 물론 경쟁자인 AMD 라이젠 AI 300 역시 성능을 높였기 때문에 막상막하의 대결이 예상됩니다. 인텔 발표에 따르면 루나 레이크가 라이젠 AI 300 시리즈보다 싱글 스레드 기준 3-33% 정도 빠르지만, 정확한 비교는 벤치마크를 통해 가려질 것입니다. 다만 라이젠 AI 300은 12코어 24스레드이기 때문에 8코어 12스레드인 루나 레이크와 비교해 멀티 스레드 성능은 상당히 앞설 것으로 예상됩니다. 그럼에도 인텔이 이렇게 코어 숫자를 줄인 건 역시 전력 소모를 줄이기 위한 복안으로 생각됩니다. CPU가 먹는 전력만 줄인 게 아니라 프로세서 패키징과 다른 부분에서의 전력 소모도 줄여 전체적인 전력 대 성능비가 두 배까지 높아졌습니다. 덕분에 같은 조건에서 경쟁자인 AMD 라이젠 AI 300은 물론 Arm 아키텍처 기반인 퀄컴 스냅드래곤 X 엘리트보다 루나 레이크의 배터리 시간이 훨씬 길다는 게 인텔의 설명입니다. 인텔은 이번 발표에서 Arm 계열 프로세서가 배터리 시간이 길다는 신화를 깨뜨렸다(battery life Myth busted)고 자신 있게 발표했습니다. 전력 사용량이 줄어들면 배터리 시간만 길어지는 게 아니라 발열도 함께 줄어 더 얇고 가벼운 태블릿과 노트북을 만들 수 있습니다. 여기에 16GB 혹은 32GB 메모리까지 CPU와 함께 패키징하고 와이파이 7과 썬더볼트 4, USB 2/3, 블루투스 5.4까지 내장해 더 얇고 가벼운 제품을 만드는 데 유리할 것으로 보입니다. 하지만 전력 소모 감소만이 루나 레이크의 장점은 아닙니다. 루나 레이크의 내장 GPU는 전 세대 대비 30%의 성능 향상을 달성했습니다. 그런데 이는 공교롭게도 라이젠 AI 300이 주장한 것과 거의 비슷한 수준입니다. 다만 인텔은 몇몇 게임의 벤치마크 결과를 토대로 루나 레이크가 16% 정도 빠르다고 주장했습니다. 인공지능 기술인 XeSS를 적용하면 더 빠르다고 설명도 덧붙였습니다. 누가 더 빠른지는 결국 실제 제품 벤치마크를 통해 알아봐야 하겠지만, 루나 레이크는 한 가지 더 비장의 무기를 가지고 있습니다. 바로 메모리 대기 시간인 레이턴시를 40%나 줄인 LPDDR5X-8533 메모리입니다. 내장 GPU는 CPU와 메모리를 공유하는 만큼 빠른 메모리는 성능에 큰 영향을 미칠 수 있습니다. 여담이지만, 노트북 시장에 새로 도전장을 내민 스냅드래곤 X 엘리트의 경우 x86 게임 호환성이 낮은 점을 의식했는지 아예 GPU에는 큰 힘을 쏟지 않았습니다. 그런 만큼 게임도 생각이 있는 소비자의 경우 자연스럽게 인텔과 AMD로 선택이 몰릴 것으로 보입니다. 마지막 무기는 AI입니다. 루나 레이크의 합계 인공지능 연산 능력은 120TOPS인데, 67TOPS는 GPU, 48TOPS는 NPU, 5TOPS는 CPU에서 나옵니다. 주로 사용하는 NPU는 마이크로소프트 코파일럿 +를 구동하는 데 필요한 40TOPS의 성능을 약간 넘는 수준으로, 노트북 시장에서 주요 경쟁 상대인 AMD의 50TOPS와 큰 차이는 없습니다. 그래도 조금이라도 경쟁사가 높은 게 신경 쓰였는지, 공개 행사에서는 스냅드래곤 X 엘리트와 주로 비교한 점이 흥미롭습니다. 저전력, 고성능 GPU, 이전보다 더 강화된 AI 연산 능력으로 무장한 루나 레이크가 올해 하반기 노트북 시장에서 좋은 성과를 거둘 수 있을지 주목됩니다.
  • 엔비디아 급락에 젠슨 황 100억달러 날려 “반독점 소환장 안 받았다”

    엔비디아 급락에 젠슨 황 100억달러 날려 “반독점 소환장 안 받았다”

    미국 법무부의 반독점 조사에 대한 우려 등으로 엔비디아 주가가 급락하면서 젠슨황 최고경영자(CEO)의 자산도 하루 만에 100억달러(13조 3000억원)나 증발했다. 블룸버그 통신은 5일 엔비디아 젠슨 황 CEO의 순자산은 지난 3일 기준 949억달러로 전날보다 약 100억달러 줄었다고 전했다. 미국 경기 둔화 우려에 엔비디아가 반독점 조사로 미국 법무부 소환장을 받았다는 보도가 나오면서 엔비디아 주가가 9.5% 떨어졌다. 하지만 엔비디아 측은 소환장을 받지는 않았다고 밝혔다. 법무부의 엔비디아 반독점 조사대상 가운데 하나는 지난 4월 발표된 런AI 인수 건으로 보인다. 런AI는 인공지능(AI) 컴퓨팅을 관리하는 소프트웨어를 만들고 있으며, 엔비디아의 인수에 따라 엔비디아 그래픽처리장치(GPU)를 쓰다가 다른 회사 제품으로 갈아타기가 더 어려워졌다는 것이 미 법무부의 판단으로 보인다. 이스라엘 소프트웨어 스타트업인 런AI는 고객들이 클라우드 환경 등에서 컴퓨팅 인프라를 최적화할 수 있도록 하는 소프트웨어를 제공한다. 엔비디아는 작년에만 해도 30개가 넘는 스트타업에 투자했다. 엔비디아 측은 반독점 우려에 대해 “AI 컴퓨팅 시장에서의 우위는 자사 제품의 우수성에서 비롯된다”며 “고객은 자신에게 가장 적합한 솔루션을 선택할 수 있다”고 밝혔다. 또 “우리는 미국 법무부에 문의했으며 소환장을 받지 않았다”면서 “규제 기관이 우리 사업에 대해 가질 수 있는 모든 질문에 기꺼이 답변할 것”이라고 덧붙였다. 미 법무부는 엔비디아가 다른 공급업체로 전환하는 것을 어렵게 만들고, 자사의 인공지능 칩을 독점적으로 사용하지 않는 구매자에게 불이익을 준다며 반독점 조사를 진행 중인 것으로 알려졌다. 업계 추산에 따르면 엔비디아는 데이터센터 인공지능(AI) 칩 시장의 80% 이상을 점유하고 있다.
  • 인텔 ‘루나 레이크’ 출시…전력 소모 줄이고 GPU, AI 성능 높여 승부수 [고든 정의 TECH+]

    인텔 ‘루나 레이크’ 출시…전력 소모 줄이고 GPU, AI 성능 높여 승부수 [고든 정의 TECH+]

    인텔이 코어 울트라 프로세서 2세대(코어 울트라 200V, 코드명 루나 레이크, 이하 루나 레이크)를 정식 출시한다고 발표했습니다. 코어 울트라 200V는 노트북과 태블릿을 위한 모바일 프로세서로 이번 달부터 이를 탑재한 노트북을 각 제조사에서 판매할 예정입니다. 인텔은 루나 레이크에서 전력 효율을 높이는 데 초점을 맞췄습니다. 심지어 코어 숫자도 8개로 이전보다 4개나 줄였습니다. 그동안 CPU 제조사들은 새로운 CPU가 나올 때마다 성능을 높이기 위해 코어 숫자를 늘려 왔습니다. 코어 한 개의 성능을 높이기 어려워지자 더 많은 코어를 탑재하는 방법으로 성능을 높인 것입니다. 하지만 전력 소모가 많아지고 정작 일반적인 작업에서는 거의 사용되지 않는 코어가 늘어나 배터리 지속 시간만 짧아지는 문제가 있었습니다. 따라서 인텔은 8-17W TDP의 저전력 CPU에서 코어 숫자를 전작보다 4개 줄인 8개로 조정했습니다. 다만 고성능 P코어의 숫자를 2개에서 4개로 늘리고 저전력 E코어 숫자를 4개로 줄였기 때문에 사용자가 주로 체감하는 싱글 스레드 성능은 크게 높였습니다. 여기에 루나 레이크에 쓰인 라이언 코브 P코어는 전 세대 대비 14%, 스카이몬트 E코어는 전 세대 대비 68%의 성능 향상(IPC 기준)이 있습니다. 따라서 IPC 성능 향상이 없었던 전작인 메테오 레이크보다 높은 싱글 스레드 성능을 기대할 수 있습니다. 인텔은 루나 레이크가 세상에서 가장 빠른 CPU 코어를 지녔다고 주장했습니다. 물론 경쟁자인 AMD 라이젠 AI 300 역시 성능을 높였기 때문에 막상막하의 대결이 예상됩니다. 인텔 발표에 따르면 루나 레이크가 라이젠 AI 300 시리즈보다 싱글 스레드 기준 3-33% 정도 빠르지만, 정확한 비교는 벤치마크를 통해 가려질 것입니다. 다만 라이젠 AI 300은 12코어 24스레드이기 때문에 8코어 12스레드인 루나 레이크와 비교해 멀티 스레드 성능은 상당히 앞설 것으로 예상됩니다. 그럼에도 인텔이 이렇게 코어 숫자를 줄인 건 역시 전력 소모를 줄이기 위한 복안으로 생각됩니다. CPU가 먹는 전력만 줄인 게 아니라 프로세서 패키징과 다른 부분에서의 전력 소모도 줄여 전체적인 전력 대 성능비가 두 배까지 높아졌습니다. 덕분에 같은 조건에서 경쟁자인 AMD 라이젠 AI 300은 물론 Arm 아키텍처 기반인 퀄컴 스냅드래곤 X 엘리트보다 루나 레이크의 배터리 시간이 훨씬 길다는 게 인텔의 설명입니다. 인텔은 이번 발표에서 Arm 계열 프로세서가 배터리 시간이 길다는 신화를 깨뜨렸다(battery life Myth busted)고 자신 있게 발표했습니다. 전력 사용량이 줄어들면 배터리 시간만 길어지는 게 아니라 발열도 함께 줄어 더 얇고 가벼운 태블릿과 노트북을 만들 수 있습니다. 여기에 16GB 혹은 32GB 메모리까지 CPU와 함께 패키징하고 와이파이 7과 썬더볼트 4, USB 2/3, 블루투스 5.4까지 내장해 더 얇고 가벼운 제품을 만드는 데 유리할 것으로 보입니다. 하지만 전력 소모 감소만이 루나 레이크의 장점은 아닙니다. 루나 레이크의 내장 GPU는 전 세대 대비 30%의 성능 향상을 달성했습니다. 그런데 이는 공교롭게도 라이젠 AI 300이 주장한 것과 거의 비슷한 수준입니다. 다만 인텔은 몇몇 게임의 벤치마크 결과를 토대로 루나 레이크가 16% 정도 빠르다고 주장했습니다. 인공지능 기술인 XeSS를 적용하면 더 빠르다고 설명도 덧붙였습니다. 누가 더 빠른지는 결국 실제 제품 벤치마크를 통해 알아봐야 하겠지만, 루나 레이크는 한 가지 더 비장의 무기를 가지고 있습니다. 바로 메모리 대기 시간인 레이턴시를 40%나 줄인 LPDDR5X-8533 메모리입니다. 내장 GPU는 CPU와 메모리를 공유하는 만큼 빠른 메모리는 성능에 큰 영향을 미칠 수 있습니다. 여담이지만, 노트북 시장에 새로 도전장을 내민 스냅드래곤 X 엘리트의 경우 x86 게임 호환성이 낮은 점을 의식했는지 아예 GPU에는 큰 힘을 쏟지 않았습니다. 그런 만큼 게임도 생각이 있는 소비자의 경우 자연스럽게 인텔과 AMD로 선택이 몰릴 것으로 보입니다. 마지막 무기는 AI입니다. 루나 레이크의 합계 인공지능 연산 능력은 120TOPS인데, 67TOPS는 GPU, 48TOPS는 NPU, 5TOPS는 CPU에서 나옵니다. 주로 사용하는 NPU는 마이크로소프트 코파일럿 +를 구동하는 데 필요한 40TOPS의 성능을 약간 넘는 수준으로, 노트북 시장에서 주요 경쟁 상대인 AMD의 50TOPS와 큰 차이는 없습니다. 그래도 조금이라도 경쟁사가 높은 게 신경 쓰였는지, 공개 행사에서는 스냅드래곤 X 엘리트와 주로 비교한 점이 흥미롭습니다. 저전력, 고성능 GPU, 이전보다 더 강화된 AI 연산 능력으로 무장한 루나 레이크가 올해 하반기 노트북 시장에서 좋은 성과를 거둘 수 있을지 주목됩니다.
  • “AI 시대 개별 기업 혼자 힘으로 안 된다”…협업으로 돌파구 찾는 삼성·SK하이닉스

    “AI 시대 개별 기업 혼자 힘으로 안 된다”…협업으로 돌파구 찾는 삼성·SK하이닉스

    국내 대표 반도체 업체들이 인공지능(AI) 메모리 시장에서 주도권을 갖기 위한 전략으로 파트너들과의 협업을 내세웠다. AI 기술이 발전할수록 고객의 요구가 다양해지고 복잡해지면서 개별 기업 혼자 힘으로 해결하는 게 어려워졌기 때문이다. 이정배 삼성전자 메모리사업부 사장은 4일 대만 타이베이에서 열린 글로벌 반도체 산업 전시회 ‘세미콘 타이완 2024’에서 ‘메모리 기술혁신을 통한 미래로의 도약’을 주제로 한 기조연설을 통해 AI 발전에 필요한 비전을 제시했다. 이 사장은 우선 AI 시대 메모리가 직면한 세 가지 과제로 전력 소비 급증, 메모리 월, 부족한 저장 용량을 지목했다. 이 사장은 메모리 월과 관련해 “그래픽처리장치(GPU)의 계산 능력은 크게 증가했으나 메모리 대역폭은 같은 수준으로 증가하지 못했다”며 “그 결과 계산 성능과 이용 가능한 메모리 대역폭 사이에 격차가 발생했다”고 짚었다. 그는 삼성이 이 과제를 해결하기 위해 고성능, 저전력 제품과 온디바이스 AI 전용 솔루션 개발에 주력하고 있다고 했다. “기존 메모리 공정만으로는 고대역폭메모리(HBM)의 성능을 높이는 데 한계가 있다”며 로직 기술이 결합돼야 해결할 수 있다는 게 이 사장의 설명이다. 삼성전자는 파운드리와 시스템LSI를 자체적으로 보유하고 있기 때문에 이 부분에서 경쟁력이 있다는 것이다. AI 발전을 위해서는 온디바이스 AI의 발전이 필수적이라고 본 이 사장은 “HBM을 잘 하는 것만으로는 충분하지 않다. 온디바이스 AI 솔루션, 대용량 스토리지 등 다양한 제품군이 필요하다”고 했다. SK하이닉스 김주선 AI인프라 담당 사장도 기조연설을 통해 “AI가 발전해 인공일반지능(AGI) 수준에 다다르기 위해서는 전력과 방열, 메모리 대역폭과 관련한 난제를 해결해야 한다”고 말했다. 이어 “2028년 데이터센터가 현재 소비하는 전력의 최소 두 배 이상을 사용할 것으로 추정된다”면서 “충분한 전력 공급을 위해 소형모듈원전과 같은 새로운 형태의 에너지가 필요할 수 있다”고 했다. 김 사장은 또 “데이터센터에서 더 많은 전력이 사용되면 발생하는 열도 늘어나는 만큼 AI 기술의 발전을 위해서는 열 문제를 해결하기 위한 효과적 방안을 찾아야 한다”고 말했다 그는 그룹 차원에서 반도체를 중심으로 전력, 소프트웨어(SW), 유리기판, 액침냉각 등 서로 상승 효과를 만들 수 있는 AI 인프라 구축에 나서고 있다는 점을 강조했다. AI 시대의 난제를 극복하기 위해선 “협력이 중요하다”며 원팀의 핵심 플레이어가 되겠다고 했다. 또 이달 말부터 HBM3E 12단 제품 양산에 돌입한다고 밝혔다.
  • 생성형 AI 올라탄 삼성SDS…황성우 대표 “내년 업무 25% 자동화 전망”

    생성형 AI 올라탄 삼성SDS…황성우 대표 “내년 업무 25% 자동화 전망”

    “생성형 인공지능(AI)으로 업무의 약 13%가 자동화된 것 같은데 내년에는 25% 정도로 늘어날 것입니다.” 황성우 삼성SDS 대표는 3일 “생성형 AI를 통해 컴퓨터 인터페이스가 자연어 명령을 듣고 사람의 의도를 이해해 작동하는 방식으로 변하고 있다”고 말했다. 서울 강남구 코엑스에서 열린 삼성SDS의 ‘리얼 서밋 2024’ 행사에서 기조연설자로 나선 황 대표는 “기업 고객이 쉽게 이용할 수 있도록 내년쯤 삼성 클라우드 플랫폼을 그래픽처리장치(GPU) 중심 AI 클라우드로 발전시킬 예정”이라고 밝혔다. 황 대표는 이어 “지난해 말부터 코파일럿과 에이전트를 통해 스스로 업무를 자동해왔다”며 7개 ‘메가 프로세스’(기업의 목표 달성을 위해 관리해야 할 최상단 프로세스)와 4000개 이상 하위 프로세스에 생성형 AI를 적용하고 있다고 소개했다. 델 테크놀로지스 마이클 델 회장, 엔비디아 제리 첸 제조·산업 부문 글로벌 비즈니스 개발 총괄, 마이크로소프트 마크 소우자 아시아 부사장 겸 최고기술책임자(CTO), 워크데이 조 윌슨 글로벌 CTO 등 삼성SDS와 협력하는 글로벌 기업 경영진도 기조연설에 참여했다. 델 회장은 동영상을 통한 연설에서 “삼성SDS와 델 테크놀로지스가 수십 년 동안 파트너로서 함께 해 온 만큼 앞으로도 삼성SDS와 혁신의 여정을 함께 하겠다”고 말했다. 제리 첸 총괄은 GPU 중심의 AI 클라우드를 위해 삼성 클라우드 플랫폼과 협력을 계속 강화하겠다고 밝혔다. 삼성SDS 창성중 IW사업팀장은 생성형 AI 기반 협업솔루션 ‘브리티 코파일럿’의 신기능인 ‘퍼스널 에이전트’를 공개했다. 이 기능은 개인별 업무 데이터를 기반으로 주요 일정과 업무 브리핑, 우선순위에 따른 할 일 추천, 영상회의 시 다국어 실시간 통역, 음성 기반 업무 처리 등 ‘개인 비서’의 역할을 수행하는 서비스다. 신계영 Gen.AI사업팀장은 사용자를 대신해 업무를 수행하는 AI 에이전트를 고객이 직접 생성하고(Agent Studio), 프로세스 별로 생성된 에이전트끼리 스스로 소통하며 해결책을 제시하는 멀티 에이전트(Multi-Agent) 등 생성형 AI 플랫폼 ‘패브릭스’의 새로운 기능을 소개했다.
  • TSMC에 밀리고 엔비디아에 치이고… ‘반도체 공룡’ 인텔의 추락

    TSMC에 밀리고 엔비디아에 치이고… ‘반도체 공룡’ 인텔의 추락

    2위 삼성 넘겠다며 3년 전 재도전2조원 적자에 15% 감원·배당 중단CPU 성공 안주하면서 패권 ‘흔들’日 상폐된 도시바 ‘관료주의’ 재현삼성 수혜 기대감… 美 인수 가능성도 1990년대 개인용 컴퓨터(PC) 시장의 비약적인 성장을 토대로 PC 중앙처리장치(CPU) 등 글로벌 반도체 시장을 호령해 온 미국 종합반도체기업(IDM) 인텔이 ‘최악의 위기’를 맞고 있다. 최근 대규모 감원에 돌입한 데 이어 ‘반도체 왕국’ 재건을 위해 3년 전 재진출한 파운드리(반도체 위탁생산) 사업 부문마저 분할·매각하는 등 종합적인 구조조정안을 검토하고 있다. 회사를 살리기 위해 수십조원을 투입했던 사업을 최우선 구조조정 대상으로 선택하는 처지에 놓인 것이다. 인텔이 두 손을 들면서 삼성전자가 반사이익을 누릴지, TSMC의 독주가 강화될지 귀추가 주목된다. 2일 블룸버그와 로이터 등 주요 외신과 반도체 업계에 따르면 인텔은 파운드리 사업부와 프로그래머블칩 사업부 매각을 검토하고 있는 것으로 전해졌다. 파운드리 시장은 올해 2분기 기준 TSMC가 점유율 62.3%로 2위 삼성전자(11.5%)를 크게 따돌리고 있는 분야로, 팻 겔싱어 인텔 최고경영자(CEO)는 2021년 취임하면서 2018년 철수했던 파운드리 분야 재도전을 선언했다. 프로그래머블칩 사업부는 반도체를 다양한 용도로 맞춤 제작하는 조직으로 2015년 인텔이 칩 제조사 알테라를 167억 달러(당시 환율 기준 약 18조 6000억원)에 인수하며 만든 사업부다. 인텔은 2010년대 초반까지 PC와 서버용 CPU 시장을 독점하며 종합반도체 판매 규모에서 1위 자리를 지켜 왔다. 하지만 2007년 애플의 아이폰 출시를 계기로 PC 시장 성장세가 꺾이기 시작했고 경쟁사 AMD가 TSMC를 파트너로 삼아 급성장하면서 인텔 독점 구조에 균열을 일으켰다. 2017년 1분기 98.6%였던 인텔의 서버용 CPU 점유율은 올해 1분기에 76.4%로 떨어졌다. 이 기간 AMD의 점유율은 1.4%에서 23.6%로 상승했다. 특히 인텔의 최고기술자였다가 떠나 있은 지 12년 만인 2021년 2월 인텔의 구원투수로 등판한 겔싱어 CEO가 ‘파운드리 사업 재건’을 외치며 단행한 투자는 회사 재무를 더 악화시켰다. TSMC와 삼성전자가 초미세 공정 경쟁을 하고 있는 파운드리는 천문학적인 초기 투자 비용에 비해 안정적인 수율(제품 양품 비율) 확보까지 상당한 시간이 걸리는 구조다. 인텔 파운드리 사업부의 시장 점유율은 자사 물량을 제외하면 1% 수준으로 알려졌다. 해당 사업부는 올해 2분기 28억 달러 적자를 기록했다. 여기에다 인공지능(AI) 시대 엔비디아의 그래픽처리장치(GPU)로 패권이 넘어가고 주력인 CPU 시장이 흔들리기 시작하면서 현재의 위기 상황을 가중시켰다는 게 업계 중론이다. 올해 2분기 순손실 16억 1000만 달러(약 2조 2000억원)를 기록한 인텔은 전체 직원의 15% 감원을 결정했으며 1992년부터 시행해 온 배당도 4분기부터 중단하기로 했다. 해고 예정 임직원 규모는 1만 5000명에 달한다. 인텔의 추락은 한때 세계 반도체 시장을 선도했지만 경영난 장기화로 지난해 12월 일본 증권시장에서 상장폐지된 도시바 사례에 비견된다. 대형 투자 실패, 경직된 관료주의 문화, 뒤늦은 시장 변화 인지 등 도시바의 쇠락 과정에서 노출된 문제점이 인텔에서 고스란히 재현되면서다. 2분기 ‘어닝 쇼크’(실적 충격) 발표 이후 사임한 립부 탄 전 인텔 이사는 “인텔이 위험 회피적이고 관료주의적인 문화에 빠져 있다”고 질타한 것으로 전해졌다. 국내 반도체 업계는 인텔이 파운드리 사업 철수를 결정할 경우 미칠 영향에 주목하고 있다. 인텔의 파운드리 물량 일부를 삼성전자가 흡수할 수 있다는 기대감과 미국 기업의 인텔 파운드리 인수 가능성 등이 제기된다. 업계 관계자는 “인텔 파운드리 물량이 크지 않다고 해도 TSMC 추격이 급한 삼성전자에는 도움이 될 수 있다”면서 “다만 미국 정부가 반도체 제조에 한국과 대만 의존 축소를 노리는 상황이어서 글로벌 파운드리와 같은 미국 기업이 인텔 파운드리를 인수할 가능성도 있다”고 말했다.
  • 애플·엔비디아, 오픈 AI에 수 조원 투자 검토 중…“전 세계 2억명이 챗GPT 사용”

    애플·엔비디아, 오픈 AI에 수 조원 투자 검토 중…“전 세계 2억명이 챗GPT 사용”

    생성형 인공지능(AI)인 챗GPT를 만드는 오픈AI가 추가 자금 조달에 나선 가운데 애플과 엔비디아가 투자를 검토하고 있다는 보도가 나왔다. 애플은 아이폰에 챗GPT를 탑재할 예정이며, 엔비디아는 인공지능(AI) 칩 선두 주자로 오픈AI의 주요 기술 파트너다. 월스트리트저널(WSJ)과 블룸버그는 29일(현지시간) 애플과 엔비디아가 오픈AI에 투자하기 위한 협상을 진행중이라고 보도했다. 지난해 1월 마이크로소프트(MS)로부터 약 100억 달러 투자를 받았던 오픈AI는 최근 추가 자금 조달에 나선 상황이다. 미 유명 벤처 투자사인 스라이브캐피털이 이를 주도하고 있으며 MS 또한 투자에 나설 것으로 전망된다. 여기에 엔비디아와 애플이 참여할 경우 지난해 말 860억 달러였던 오픈AI의 기업 가치는 1000억 달러에 이를 것으로 예상된다. 애플과 엔비디아는 오픈AI와 긴밀한 협력관계를 맺고 있긴 하나 직접적인 투자를 한 적은 없었다. 앞서 애플은 챗GPT를 포함한 오픈AI의 기술을 애플 AI 플랫폼인 ‘애플 인텔리전스’ 시스템에 통합하겠단 계획을 발표한 바 있다. 아이폰 등 애플 기기 사용자들이 애플 인텔리전스에서 선택 옵션으로 챗GPT를 사용할 수 있게 되는데 적용 시점은 아직 구체적으로 나오지 않았다. 일부 AI 기능이 먼저 탑재된 후 챗GPT 등 추가 기능이 업데이트되는 형식으로 탑재될 전망이다. 엔비디아는 오픈AI가 AI 모델을 훈련시키고 실행하는 데 있어 필수인 그래픽처리장치(GPU)를 공급하는 주요 기술 파트너다. 문제는 앞서 오픈AI에 투자하며 공고한 파트너십을 유지하고 있는 MS와의 관계다. MS는 2019년과 2021년 각각 10억 달러씩 오픈AI에 투자한 데 이어, 2023년 초 추가적으로 대규모 투자를 진행한 바 있다. 오픈AI의 지분을 직접적으로 갖고 있진 않지만 이익의 49%를 공유하는 형태로 관계를 맺고 있다. 애플과 엔비디아가 오픈AI에 투자할 때 MS의 공식 승인이 필요할지 여부는 알려져 있지 않으나 중요한 투자 결정에 대해선 MS와 오픈AI가 논의할 가능성이 남아있다. 한편 로이터통신에 따르면 오픈AI는 이날 챗GPT의 주간 활성 이용자수(WAU)가 2억명 이상으로 지난해 가을의 2배 가량이라고 밝혔다. 포천지 선정 글로벌 500대 기업 가운데 92%가 자사 제품을 쓰고 있으며, 지난 7월 최신 AI 모델인 GPT-4o(포오)를 출시한 뒤 자동화된 응용프로그램 인터페이스(API) 사용자가 2배로 늘었다고 설명했다. 국내에서도 챗GPT가 생성형 AI 애플리케이션 중 가장 인기가 많다. 앱·리테일 분석 서비스 와이즈앱·리테일·굿즈에 따르면 지난 7월 기준 생성형 AI 서비스 앱 사용자 673만명 가운데 챗GPT 사용자가 월간 396만명으로 가장 많았다.
  • “엔비디아 2분기 실적, 월가 기대 못 미치면 하락할 수도”

    “엔비디아 2분기 실적, 월가 기대 못 미치면 하락할 수도”

    세계 최대 그래픽처리장치(GPU) 제조업체 엔비디아가 28일(현지시간) 어닝콜에서 올해 2분기 매출이 전년 대비 두 배 이상 증가했다고 발표할 가능성이 높다. 하지만 로이터통신은 엔비디아의 2분기 실적이 월가 예상치에 못 미치면 주가가 하락할 가능성도 있다고 경고했다. 올해 엔비디아의 주가는 이미 150% 이상 급등해 시가총액이 1조 8200억 달러 더 늘었고, S&P 500 지수 상승을 견인했다. 엔비디아 주식은 현재 예상 실적의 약 37배로 평가받고 있는데, 이는 엔비디아를 포함한 벤치마크 지수 상위 6대 반도체 기업 평균이 약 29배인 점과 비교하면 시장에서 다소 고평가를 받고 있다. 지난 23일 기준 영국의 런던증권거래소그룹(LSEG) 데이터에 따르면, 엔비디아의 2분기 매출은 전년 동기 대비 약 112% 증가한 286억 8000만 달러를 기록할 것으로 예상된다. 그러나 생성형 AI붐으로 인한 엔비디아 반도체 수요 증가에 따른 생산 비용 부담도 늘면서 조정 매출 총이익률은 1분기보다 3% 포인트 이상 하락한 75.8%를 기록할 것으로 보인다. 일부 투자자들은 엔비디아가 시장의 높은 기대치를 충족할 수 있을지 우려하고 있다. 엔비디아의 최대 고객들의 AI 지출 증가량이 엔비디아의 매출 성장률을 끌어올리기에 충분한지에 대해 의문을 표하고 있다. 이러한 우려로 인해 7월과 8월 초까지 엔비디아의 주가는 20% 폭락했지만, 최근 회복세로 인해 6월의 사상 최고치(135.58달러)보다 낮은 수준인 126달러에 머물러 있다. 엔비디아를 비롯한 미국 대형 기술 기업의 주식을 보유하고 있는 시노버스 트러스트의 수석 포트폴리오 매니저인 다니엘 모건은 “이는 반도체 업계의 벤치마크 수치일 뿐만 아니라 AI 전반의 벤치마크이기도 하다”고 설명했다. AI 인프라를 구축하기 위해 막대한 비용을 지출하고 있는 마이크로소프트(MS)를 비롯한 실리콘밸리 빅테크 기업들은 빅데이터를 빠르게 컴퓨팅하고 처리할 수 있는 강력한 성능을 가진 엔비디아의 그래픽처리장치(GPU)를 구매하고 있다. 독보적 성능을 가진 엔비디아 GPU의 대체재가 사실상 없는 상황이라 엔비디아 수익은 급격히 증가했다. 엔비디아의 차세대 블랙웰 AI 칩의 생산 지연 가능성과 관련하여 더 많은 문제가 발생할 수 있다. 젠슨 황 최고경영자(CEO) 지난 5월에 블랙웰이 2분기에 출시될 것이라고 말했지만, 일각에서는 설계상의 오류가 발견돼 출시가 지연될 것이라는 우려가 나왔다. 이는 내년 상반기 엔비디아 매출 성장률이 타격을 입을 수 있음을 의미한다고 리서치 그룹 세미애널리시스(SemiAnalysis)가 설명했다. 또한 엔비디아의 반도체 위탁생산업체인 대만의 TSMC가 생산대행 수수료를 올려달라고 요구한다면 엔비디아의 순이익률은 더 감소할 수 있다. LSEG는 엔비디아의 올해 3분기 예상 매출이 75% 급증한 316억 9000만 달러를 기록해 최근 5분기 연속 세자릿수 성장세를 마칠 것으로 예측했다. 1년 전 약 206% 급증한 181억 2000만 달러와 비교하면 매출 성장률이 낮아질 것으로 보인다. 지난 3분기 동안 엔비디아의 성장률은 200%를 넘어섰다. 러닝 포인트 캐피탈의 최고 투자 책임자인 마이클 슐먼은 “회사가 일정 규모에 도달하면 물리적으로 동일한 성장을 유지할 수 없다는 ‘대수의 법칙’에 도달하고 있다”고 말했다.
  • 주 7일 근무에도 “퇴사 안해”…회사 ‘황금수갑’에 버티는 직원들

    주 7일 근무에도 “퇴사 안해”…회사 ‘황금수갑’에 버티는 직원들

    미국의 인공지능(AI) 반도체 회사 엔비디아의 직원들이 주 7일 근무를 하는 등 높은 업무 강도에 시달림에도 불구하고 인센티브를 받기 위해 퇴사를 하지 않는 것으로 알려졌다. 26일(현지시간) 블룸버그 통신에 따르면 엔비디아의 전·현직 직원 10명은 긴 근무 시간과 격렬한 말다툼이 뒤따르는 회의 등의 고충에도 거의 모든 직원들이 회사를 그만두지 않는다고 전했다. 마케팅 부서에서 일했다는 엔비디아 전직 직원은 “하루에 7~10회 회의에 참석했고 각 회의에는 30명 이상이 들어왔다. 종종 싸움이 벌어졌고 고성도 오갔다”면서도 “‘황급 수갑’(인센티브) 덕분에 2년 동안 참았다. 더 많은 부를 얻을 기회였기 때문”이라고 했다. 또한 고객을 위한 기술 지원 부서에서 일했다는 엔비디아 전직 직원은 “일주일 내내, 가끔 새벽 1~2시까지 일해야 했지만 급여 인센티브 때문에 버티다 5월에 퇴사했다”고 설명했다. 블룸버그는 “엔비디아에는 다음 스톡그랜트(회사 주식을 무상으로 주는 인센티브 제도의 일환)를 기다리는 직원이 수백만 명이나 있다”고 덧붙였다. 엔비디아는 4년에 걸쳐 사용할 수 있는 스톡그랜트를 정기적으로 지급하고 있다. 의무보유 기간이 있는 스톡옵션과 달리 스톡그랜트는 받으면 바로 현금화가 가능하다. AI 열풍의 최고 수혜주로 꼽히는 엔비디아는 AI 반도체 시장의 ‘큰 손’으로 자리매김하면서 주가가 고공행진했고 지난 6월 18일(현지시간) 시가총액 1위 자리에 오르면서 세계에서 가장 비싼 기업이 됐다. 전 세계적인 AI 열풍에 따라 AI 데이터 추론과 학습에 필수적인 엔비디아의 그래픽처리장치(GPU)가 중요해지면서 주가가 폭등한 것이다. 기업 몸값이 치솟으면서 직원들은 회사를 떠나지 않으려는 분위기다. 엔비디아의 ‘2024년 지속가능성 보고서’에 따르면 지난해 엔비디아 직원 이직률은 5.3%로 반도체 업계 평균 이직률(17.7%)의 3분의1 수준에 불과했다. 지난해 5월 반도체 기업 최초로 시가총액이 1조 달러를 돌파한 이후부터는 이직률이 2.7%로 더 크게 줄었다. 몸값 치솟는 엔비디아…직원들도 ‘벼락부자’이러한 엔비디아 ‘열풍’에 직원들 또한 혜택을 받고 있다. 월스트리트저널(WSJ)에 따르면 지난해 엔비디아 직원 절반은 22만 8000달러(약 3억원) 이상을 받았다. WSJ은 “엔비디아는 신입 직원도 굵직한 프로젝트에 투입해 다소 높은 근무 강도를 견뎌내야 한다”면서도 “직원 간에 협력적인 문화가 있고 무제한 휴가 정책을 통해 분기마다 전 직원이 재충전을 위한 자율 휴가도 사용할 수 있다”고 설명했다. 엔비디아 직원의 부는 AI 칩 후발주자인 AMD, 인텔 직원과 비교할 때 더 두드러진다. 11년 전 엔비디아에 입사한 콜렛 크레스 최고재무책임자(CFO)는 주식을 약 7억 5870만 달러(약 1조 87억원)어치 갖고 있다. 반면 AMD의 진 후 CFO와 인텔의 데이비드 진스너 CFO는 각각 643만 달러(약 85억원), 313만 달러(약 41억원) 주식을 보유 중이다. 엔비디아에서 엔지니어링 업무를 담당했던 전직 직원은 블룸버그에 “지난해와 올해 내내 엔비디아의 거의 모든 직원이 부를 표현하는 것을 자주 접했다”며 “미국 부동산 플랫폼 업체 ‘질로우’에서 주택 매물을 검색하고, 일상대화에서 새로운 별장에 관해 말하더라. 티켓값이 비싼 슈퍼볼 콘서트, NBA 결승전을 관람하는 것은 예삿일”이라고 전했다.
  • [딥앤이지테크]고부가 반도체 기판의 세계…“머리카락 굵기의 1/20 마이크로 기술 결정체 FCBGA”

    [딥앤이지테크]고부가 반도체 기판의 세계…“머리카락 굵기의 1/20 마이크로 기술 결정체 FCBGA”

    기업들은 급변하는 시장 상황과 기술에 맞춰 국경 없는 경쟁을 펼치고 있습니다. 이미 우리의 일상에도 깊숙이 들어온 첨단 기술과 이를 이끄는 빅테크의 소식을 흥미롭고, 이해하기 쉽게 풀어드립니다. 최근 인공지능(AI) 반도체 시장이 뜨거워지면서 고집적 반도체 칩을 메인보드와 연결하는 고부가 반도체 패키지 기판에 관한 관심도 높아지고 있습니다. 시장조사업체인 프리스마크에 따르면 반도체 기판 시장 규모는 2024년 4조 8000억원에서 2028년 8조원으로 연평균 약 14%로 지속 성장할 것으로 예상합니다. 반도체 기판은 반도체와 메인 기판 간 전기적 신호를 전달하고 반도체를 외부 충격 등으로부터 보호해주는 역할을 합니다. 흔히 반도체 칩을 우리 몸의 두뇌에 비유한다면 반도체 기판은 뇌를 보호해주는 뼈와 뇌에서 몸으로 전달하는 정보를 각 기관에 연결해 전달하는 신경과 혈관에 비유할 수 있습니다. 반도체 칩은 메인 기판과 서로 연결되어야 하는데 메인 기판의 회로는 반도체보다 미세하게 만드는 게 불가능합니다. 반도체 칩의 단자 사이 간격은 100㎛(마이크로미터, 0.001㎜)로 A4용지 두께 수준이지만 메인 기판의 단자 사이 간격은 약 350㎛로 4배 정도 차이가 나기 때문입니다. 이 때문에 반도체 칩과 메인 기판 사이를 연결해 주는 것이 바로 반도체 기판의 역할입니다. 반도체 기판 중 하나인 ‘플립칩 볼 그리드 어레이’(FCBGA)는 고집적 반도체 칩과 기판을 ‘플립칩 범프’로 연결해 전기 및 열적 특성을 높이는 패키지 기판입니다. 주로 PC와 서버, 네트워크, 자동차용 중앙처리장치(CPU), 그래픽처리장치(GPU)에 사용되고 있습니다. 반도체 업계에서는 AI뿐 아니라 로봇, 메타버스, 자율주행 등 반도체 성능 향상에 대응할 수 있는 기판 기술에 주목하고 있습니다. 특히 빅데이터와 AI에 적용되는 FCBGA는 대형화, 층수 확대, 미세 회로 구현, 소재 융·복합화 등 높은 기술력이 요구되는 제품입니다. 국내 부품기업인 삼성전기도 지난달 글로벌 반도체 기업인 AMD와 고성능 컴퓨팅(HPC) 서버용 FCBGA 공급 계약을 맺고 제품 양산을 시작했다고 밝힌 바 있습니다. 서버용 FCBGA는 반도체 기판 중에서도 기술적으로 어려운 제품입니다. 전 세계에서 하이엔드급 서버용 기판을 양산하는 글로벌 업체도 일부에 불과하다고 합니다. 서버용 CPU와 GPU는 연산 처리능력과 연결 신호 속도 향상 등 고성능화에 대응하기 위해 하나의 기판 위에 여러 반도체 칩을 한꺼번에 담아야 합니다. 그 때문에 서버용 FCBGA는 일반 PC용 FCBGA보다 기판 면적은 4배 이상 크고, 층수도 20층 이상으로 2배 이상 많습니다. 과거 반도체가 기판 위에 반도체 칩이 하나 올라가는 단순한 구조였다면 최신 반도체는 성능을 높이기 위해 회로의 미세화가 진행되고 트랜지스터 개수도 기하급수적으로 늘어나고 있습니다. 극자외선(EUV) 공법 등 미세화 기술이 개발되고 있지만 미세화 기술 성장 한계와 고가 설비 도입 등으로 인한 공정비용 상승으로 반도체 원가가 높아지면서 패키지 기술과 같은 후공정에서 반도체 성능 향상과 원가를 낮추려는 노력이 이어지고 있습니다. 최근에는 반도체 칩 자체를 잘 만드는 것만큼이나 잘 만들어진 제품을 조합해서 어떻게 구성하느냐 하는 멀티 패키지 기술 영역이 중요해졌습니다. 즉, 패키지 전체의 성능을 끌어올리기 위해 여러 가지 반도체 칩을 반도체 기판에 올려 기능을 향상한 멀티 패키지 형태의 제품들이 나오고 있습니다. 많은 칩이 제대로 작동하기 위해선 기판의 회로 패턴은 더 미세화되고 기판 면적도 커지고 층수도 늘어나는 등 반도체 기판의 기술 고도화가 요구되고 있습니다. 삼성전기는 반도체 기판 분야에서 기술력을 유지하기 위해 1조 9000억원에 달하는 대규모 투자를 통해 부산과 베트남 신공장을 첨단 하이엔드 제품 양산기지로 운영하고 있습니다. 삼성전기는 2022년 10월 국내 최초로 서버용 FCBGA 양산에 성공한 이후 2026년까지 서버, AI, 전장, 네트워크 등 고부가 FCBGA 제품 비중을 50% 이상 확대한다는 계획입니다. 반도체 기판을 만들기 위한 핵심 기술은 미세 가공 기술과 미세 회로 구현에 있습니다. 전자기기의 기능이 많아질수록 필요한 부품이 많아지듯이 반도체 칩의 신호 전달에 필요한 회로도 많아지고 더 복잡해집니다. 한정된 기판 면적 안에 많은 회로를 만들어야 하므로 한 면으로도 부족해 4층, 6층, 8층, 10층 등 여러 층으로 만들게 됩니다. 이때 층간에도 회로가 연결되어야 하므로 구멍을 뚫어 전기적으로 연결하기 위한 도금 과정을 거치게 됩니다. 각 층을 연결해주는 구멍을 ‘비아’(Via)라고 하는데 일반적으로 80㎛ 크기의 면적 안에 50㎛의 구멍을 오차 없이 정확히 뚫어야 하는 만큼 정교한 가공 기술력이 필요합니다. 삼성전기는 A4용지 두께의 10분의 1 수준인 10㎛ 수준의 비아를 구현할 수 있는 미세 비아 형성 기술을 가지고 있습니다. 전기신호가 지나가는 길인 회로는 단자가 많아지고 연결해야 할 신호가 많아지면서 회로 선폭과 간격도 미세화되고 있습니다. 회로 제작 과정은 원하는 회로 두께만큼을 도금한 후 남는 부분을 코팅한 다음 화학 작용인 ‘에칭’을 통해 필요한 회로를 형성하게 됩니다. 일반적으로 회로 폭과 회로 간 간격은 8~10㎛ 수준의 얇은 선폭을 구현해야 합니다. 삼성전기는 머리카락 두께의 20분의 1인 5㎛ 이하 수준의 회로 선폭을 구현할 수 있는 미세회로 형성 기술을 보유하고 있습니다. 삼성전기는 110㎜ 이상의 초대면적화 기술과 26층 이상의 초고층화 기술, 수동소자 부품을 패키지 기판 내에 내장하는 기술을 확장해 반도체의 성능을 배가시키는 EPS 기술 등 차세대 반도체 기판 시장에서 요구하는 기술을 확보해 고객과의 협력을 강화하고 있습니다. 삼성전기 관계자는 “최근 AI 기술 등에 의한 고성능 반도체 수요가 늘어나면서 FCBGA 수요도 증가할 전망”이라며 “국내 최초 서버용 FCBGA 양산 업체로써 차세대 기판 개발과 반도체 기판 사업 강화에 집중하고 있다”고 강조했습니다.
  • [차상균의 혁신의 세계] 미중 사이 표류하는 한국 AI 산업

    [차상균의 혁신의 세계] 미중 사이 표류하는 한국 AI 산업

    지난주 미국 실리콘밸리의 중심 팰로앨토에서 30대 중반의 미국 시카고대 인공지능(AI) 교수 부부와 저녁을 같이 했다. 두 사람은 중국인으로 AI 분야에서 떠오르는 스타 교수이자 유망한 스타트업 창업자다. 남편 세 장 교수는 AI와 데이터시스템 분야의 전문가로 그의 지도교수였던 연쇄 창업가 크리스 레 스탠퍼드대 교수 등과 투게더AI를 공동창업해 최고기술책임자(CTO)를 맡고 있다. 투게더AI는 회사 가치가 12억 5000만 달러인 유니콘기업답게 AI와 데이터시스템 최적화 기술에서 독보적 깊이가 있는 스타트업이다. 그의 아내 보 리 교수는 AI 보안의 떠오르는 전문가다. 32세이던 2020년 MIT 테크놀로지 리뷰가 미국 내 35세 미만의 이노베이터로 그녀를 선정했다. 시카고대는 특별기금을 조성해 키우는 데이터사이언스 분야 교수로 부부를 초빙했다. 두 사람은 시카고대의 교수가 되고도 창업한 회사에서의 역할을 줄일 생각이 없다. 창업 활동은 교수 활동의 20%를 넘을 수 없다는 규제에 묶인 서울대 등 국내 대학에서는 상상할 수 없는 파격이다. 두 사람이 교수와 창업을 병행할 수 있는 이유는 시카고대가 2016년 데이터사이언스 프로그램을 전략적으로 키우기 위해 책임자로 초빙한 마이클 프랭클린 교수 덕분이다. 버클리의 컴퓨터사이언스 디비전 학부장이기도 했던 그는 대학의 연구로 창업해 회사의 CTO를 맡은 적이 있다. 혁신 연구와 창업의 시너지를 누구보다 잘 이해하는 그가 시카고대의 새로운 데이터사이언스 프로그램을 맡아 창업 현장에서 축적한 경험을 바탕으로 새로운 차원의 연구 결과를 만들어 낼 젊은 교수들을 데려온 것이다. 이 젊은 교수 부부가 공동창업한 회사에는 공통된 투자자와 자문역이 많다. 실리콘밸리 안에서는 누가 어떤 연구를 했고, 누가 그 연구를 창업으로 성공시켰는지, 어떤 벤처캐피털이 자본과 노하우로 도와줬는지 안다. 보이지 않는 실리콘밸리 명예의 전당인 셈이다. 파괴적 혁신을 이끄는 스타트업이 실리콘밸리에서 많이 나오는 이유는 혁신의 본질을 이해하는 벤처캐피털과 최고의 인재들이 몰리기 때문이다. 한편 AI와 반도체, 첨단기술 경쟁에서 미국의 견제를 받고 있는 중국은 명문 칭화대를 중심으로 AI 분야의 창업 열기가 뜨겁다. 중국 정부 정책의 최우선 순위가 미국과의 기술패권 경쟁에서 중국의 우위를 확보하는 것인 만큼 AI, 반도체 등 첨단기술 분야에 대한 정부 차원의 전략적 지원이 늘었을 뿐만 아니라 창업을 지원하는 벤처캐피털도 몰리고 있다. 미국과 기술패권 경쟁을 하는 시진핑 체제에서 가장 큰 수혜자는 칭화대다. 중국 내 약 300개의 거대언어모델(LLM) 스타트업 중 10개가 칭화대 출신들이 만들었다. 대표적 기업이 오픈AI 챗GPT의 중국 버전인 키미 서비스를 제공하는 문샷AI이다. 이 회사의 창업자는 1992년생 양즈린이다. 2015년 칭화대를 나와 2019년 미국 CMU에서 LLM 연구로 박사를 마쳤다. 2023년 3월 문샷을 창업하자 그의 실력과 뚜렷한 비전에 공감한 중국 벤처 자본들이 그를 지원했다. 설립 1년여 만에 알리바바, 텐센트 등의 투자를 받아 회사 가치가 30억 달러가 됐다. 한자 200만자의 텍스트를 처리할 수 있다고 발표했다. 키미의 방문자 수는 4월 처음으로 바이두의 어니봇을 추월했다. 중국 본토에서 학부를 나와 미국의 주류에 들었던 30대의 젊은 중국 엘리트들이지만 앞의 두 사람과 양즈린의 행보는 완전히 다르다. 누가 옳다고 할 수는 없지만 세 사람 모두 인류 발전을 위해 기여하고 있는 것은 사실이다. 문샷AI 외에도 칭화대에서 창업한 주푸AI가 오픈AI의 소라 같은 서비스를 만드는 등 많은 중국의 스타트업들이 엔비디아 GPU 수출 제한과 같은 미국의 견제를 뚫고 중국 자체의 AI 기술을 만들어 가고 있다. 미국과 중국의 AI를 둘러싼 기술패권 전쟁의 와중에 한국의 AI 활동은 너무나 조용하다. 최근 앤드루 응 교수를 불러 한국이 3대 AI 강국이라는 말을 했다. 하지만 세계무대에서 바라보는 한국 AI 산업의 위상은 이와는 너무나 큰 괴리가 있다. 문과가 지배하는 대한민국의 미래가 걱정된다. 차상균 서울대 데이터사이언스대학원 초대원장
  • SKT, 엔비디아 GPU 기반 ‘AI 데이터센터’ 연다…“3년 내 수천 대 이상 확대 계획”

    SKT, 엔비디아 GPU 기반 ‘AI 데이터센터’ 연다…“3년 내 수천 대 이상 확대 계획”

    SK텔레콤이 올 초 투자한 그래픽처리장치(GPU) 클라우드 회사인 ‘람다’(Lambda)와 협력해 서울 금천구 가산 데이터센터(IDC)를 GPU 전용 인공지능(AI) 데이터센터로 바꾼다. SK텔레콤은 21일 람다가 보유한 엔비디아(NVIDIA) GPU 자원을 SK브로드밴드 가산 데이터센터에 전진 배치하는 내용의 ‘AI 클라우드 공동 사업을 위한 파트너십’을 람다와 체결했다고 밝혔다. 양사는 안정적인 GPU 공급을 바탕으로 한 ‘GPUaaS’(서비스형 GPU) 사업 확대, 람다의 한국 리전(Region) 설립 등 다양한 영역에서 전략적 협업을 강화하기로 했다. 2012년 AI 엔지니어들이 설립한 람다는 엔비디아로부터 최신 GPU를 공급받아 AI 클라우드 서비스를 제공하는 GPUaaS 기업이다. 인텔, 마이크로소프트 등 글로벌 빅테크 기업들이 주요 고객사다. SK텔레콤은 최근 미국 AI 데이터센터 통합 솔루션 기업인 스마트 글로벌 홀딩스에 2억 달러 규모의 투자를 한 데 이어 람다와의 글로벌 협력으로 AI 인프라 사업에 속도를 낼 방침이다. 양사는 오는 12월 가산 데이터센터에 엔비디아 GPU ‘H100’을 배치한다. SK텔레콤 관계자는 “AI 시장 성장에 따라 국내 GPU 수요가 급등하는 것을 고려해 3년 안으로 GPU를 수천 대 이상까지 늘리고, 최신 GPU 모델인 ‘H200’도 조기 도입을 추진 중”이라고 설명했다. SK텔레콤은 가산 데이터센터를 시작으로 엔비디아 단일 GPU로 구성된 국내 최대 규모의 ‘GPU 팜’을 확충한다는 계획이다. SK브로드밴드는 GPU 서버가 안정적으로 작동할 수 있도록 가산 데이터센터의 랙 당 전력 밀도를 국내 최고 수준인 44㎾로 구현할 예정이다. 이는 국내 데이터센터 랙 당 평균 전력 밀도인 4.8㎾의 약 9배에 달한다. 오는 12월 AI 데이터센터가 구축되면 람다의 아시아태평양 지역 최초의 한국 리전으로도 기능한다. 람다 GPU 기반 AI 클라우드 서비스를 이용하는 국내 기업의 데이터는 한국 리전에 저장되게 된다. SK텔레콤은 람다 GPU 자원을 기반으로 구독형 AI 클라우스 서비스인 GPUaaS도 오는 12월 출시할 계획이다. GPUaaS는 기업 고객이 AI 서비스 개발이나 활용에 필요한 GPU를 직접 구매하지 않고 클라우드를 통해 가상 환경에서 빌려 쓰는 개념의 서비스다. SK텔레콤 관계자는 “공급이 부족하고 가격이 높은 GPU를 직접 구매하기 부담스러운 대기업이나 중소기업, 스타트업이 상대적으로 저렴한 비용에 사용할 수 있다”고 강조했다. 시장조사기관 ‘포천 비즈니스 인사이트’에 따르면 글로벌 GPUaaS 시장은 2024년 43억 1000만 달러에서 2032년 498억 4000만 달러로 성장하며, 연평균 성장률은 35.8%에 달할 것으로 예상된다. SK텔레콤은 오는 12월 GPUaaS 출시와 함께 GPU 교체 보상 프로그램, 클라우드 비용 최적화 컨설팅, AI 스타트업 지원 프로그램 등 다양한 프로모션도 선보일 계획이다. 김경덕 SK텔레콤 엔터프라이즈 사업부장은 “람다와의 전략적 협력으로 GPU를 안정적으로 확보한 것은 국내 GPU 공급 확대 측면에서 의미가 크다”며 “향후 국내 최대 규모의 GPU 팜을 구축해 국가 AI 경쟁력을 높이고 글로벌 시장 진출의 교두보로 자리매김하도록 노력할 것”이라고 했다.
  • 경과원, ‘인공지능(AI) 창업가 양성’ 교육생 510명 모집···‘엔비디아’ 교육과정 이수

    경과원, ‘인공지능(AI) 창업가 양성’ 교육생 510명 모집···‘엔비디아’ 교육과정 이수

    경기도와 경기도경제과학진흥원(이하 경과원)은 세계적인 기업 엔비디아와 협력해 혁신 창업가 양성을 위한 ‘AI 스타트업 과정’ 교육생을 모집한다고 21일 밝혔다. ‘AI 스타트업 과정’은 경기창업허브 운영 사업 중 하나로 도내 예비·초기 창업자들에게 인공지능(AI) 분야의 전문 지식과 기술을 습득할 기회를 제공하는 교육이다. 엔비디아 DLI(Deep Learning Institute) 과정과 전문교육 과정으로 진행되는 이번 교육은 오는 9월부터 11월까지 총 17회에 걸쳐 진행되며, 회차별로 30명씩, 총 510명의 교육생을 모집한다. DLI 프로그램은 전 세계 40만 명 이상의 개발자를 배출한 엔비디아의 공식 프로그램으로, AI와 딥러닝 기술의 심도 있는 이해와 함께 다양한 산업 분야에서의 실제 프로젝트 구축 능력 향상에 중점을 둔 교육 과정이다. DLI 과정은 ▲GPU 기반 딥러닝 ▲가속화 컴퓨팅 ▲데이터 사이언스 실습 ▲딥러닝 응용 등 AI 분야에서 필수적인 기술을 다루며, 수료할 경우 엔비디아 공식 인증서를 받게 된다. 전문교육 과정은 AI 기초 지식 습득을 위한 프로그램으로, DLI 과정에 선행학습 역할을 한다. 주요 내용으로는 ▲딥러닝의 이해 ▲생성형 AI의 이해와 활용 등이 포함된다. 교육은 판교 스타트업캠퍼스에서 진행되는 오프라인 수업과 온라인(Zoom 앱 활용)을 통한 실시간 수업으로 진행된다. 교육생들은 엔비디아 그래픽처리장치(GPU) 클라우드 서버 등 최신 실습 환경에서 학습하며, 교육비는 전액 무료다. 교육 참가 대상은 경기도 내 예비ㆍ초기 창업자, 재직자, 및 대학(원)생으로, 경기스타트업플랫폼(gsp.or.kr)을 통해 신청할 수 있다. 강성천 경과원장은 “이번 교육은 엔비디아와 같은 글로벌 빅테크 기업과 협력하여, AI 분야의 인재 양성에 중요한 계기가 될 것”이라며 “앞으로도 AI 분야를 선도할 혁신 창업가 양성을 위해 최선을 다해 지원하겠다”라고 말했다.
위로