찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • 구글 TPU
    2026-03-14
    검색기록 지우기
  • 매매가
    2026-03-14
    검색기록 지우기
  • 서어나무
    2026-03-14
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
34
  • [한영민의 우주路] 우주 활용은 수송 능력에 달렸다

    [한영민의 우주路] 우주 활용은 수송 능력에 달렸다

    “인공지능(AI)의 미래는 우주에 있다. 관건은 수송 능력이다.” 스페이스X의 일론 머스크는 최근 한 인터뷰에서 우주야말로 AI 데이터센터를 구축하는 데 가장 경제적인 장소가 될 것이라고 밝힌 바 있다. 이미 지상 데이터센터는 전력과 부지 확보, 냉각과 송전망 등에서 한계에 다다르고 있기 때문이다. 초인공지능(AGI) 단계로 갈수록 더욱 폭증하게 될 추론 연산을 감당하기 위해서는 태양 에너지를 효율적으로 이용할 수 있고 공간적 제약이 상대적으로 적은 지구 궤도 인프라가 대안으로 거론될 수밖에 없다. 실제로 스페이스X는 수십만기에서 100만기 규모에 이르는 위성 인프라를 상정하며 태양광을 활용한 궤도 데이터센터 구상을 시사해 왔다. 구글 역시 자체 AI 칩 TPU(텐서 처리장치)를 탑재한 위성 구상인 ‘프로젝트 선캐처’(Project Suncatcher)의 가능성을 타진하고 있으며, 미국의 우주 기업인 액시엄 스페이스는 우주정거장을 기반으로 하는 궤도 데이터센터 구축을 모색 중이다. 유럽과 중국의 기업들 역시 유사한 개념을 검토하며 우주 연산의 주도권에 동참하기 위해 열을 올리고 있다. 국내에서도 지난 2월 13일 국회에서 우주 AI 데이터센터에 관한 토론회가 열린 바 있다. 다만 아직 현실에서의 평가는 회의적이다. 가장 큰 이유는 다수의 위성 발사에 예상되는 천문학적인 비용 때문이다. 따라서 초기 모델은 지상에서와 같은 대규모 중앙집중형 데이터센터보다는 위성에서 데이터를 일차적으로 처리해 유효 정보만을 선별한 뒤 지상으로 전송하는 위성 데이터 궤도상 전처리와 에지 컴퓨팅을 통해 단계적으로 접근하는 흐름이 유력시되고 있다. 결국 문제의 핵심은 경제성이다. 현재 ㎏당 2만 달러에 달하는 발사 단가를 수백 달러 수준으로 낮출 수 있다면 대형 모듈의 궤도 배치는 현실성을 얻게 될 것이다. 우주 데이터센터는 구축 이후에도 유지·보수, 세대교체가 필수적이므로 반복적 발사 능력이 확보돼야 한다. 바로 이 부분에서 전략적인 사고가 필요하다. 향후 국가의 가장 주요한 자산에 속하게 될 우주 데이터센터를 타 국가나 경쟁 기업이 대신 발사해 줄 가능성은 작아 보인다. 우주 연산, 우주 데이터센터 경쟁이 우주 수송 경쟁으로 이어지고 있다. 우리에게 주는 메시지는 분명하다. 우리가 당장 대형 우주 데이터센터를 구축하기에는 국내 발사체 역량에 한계가 있지만, 그냥 구경만 하고 있을 수는 없다. 가시적 목표인 발사체 반복 발사, 재사용 기술, 저비용화 등의 기술 고도화를 통해 경제성을 확보해 나간다면 반드시 길은 열릴 것이다. 이를 위해선 중장기적인 전략과 발사체 부품의 다중 모델 병렬 개발 로직, 메커니컬 AI 설계 및 제작 도입 등과 같은 파괴적인 혁신이 필요하다. 자립적인 대형화, 고도화된 우주 수송 역량 없이는 우리의 우주 데이터센터도 없다. 우주 활용의 시대는 우주 수송 능력의 시대라고 할 수 있을 것이다. 한영민 한국항공우주연구원 발사체연구소장
  • 오픈 AI와 손잡은 세레브라스…AI 프로세서 시장 새 판 짤 수 있을까? [고든 정의 TECH+]

    오픈 AI와 손잡은 세레브라스…AI 프로세서 시장 새 판 짤 수 있을까? [고든 정의 TECH+]

    오픈 AI는 최근 웨이퍼 스케일 엔진(Wafer Scale Engine, 이하 WSE)을 개발하는 미국의 스타트업인 세레브라스(Cerebras)와 인프라 도입 계약을 체결했습니다. 세레브라스의 WSE 기반의 750MW 데이터 센터를 구축하는 계획으로 2028년 가동을 목표로 하고 있습니다. 투자 규모는 공개하지 않았지만, 일부 언론 보도에서는 100억 달러에 달하는 것으로 추정되고 있습니다. 오픈 AI는 세레브라스의 최신 WSE3-3 기반의 GPT-5.3-Codex-Spark를 공개해 이 프로세서에서 가능성을 보여주고 있습니다. 물론 현재는 엔비디아 의존도가 여전히 높고 두 회사가 기존에 맺은 상호 투자 계획들은 여전히 유효하지만, 이런 행보는 오픈 AI가 새로운 대안을 찾고 있다는 인상을 주기에는 충분합니다. 이를 통해 엔비디아와의 협상에서 우위를 점하는 것은 물론 더 비용 합리적인 대안을 찾을 수도 있는 것입니다. 다만 웨이퍼 스케일 엔진이라는 새로운 기술을 들고나온 세레브라스가 실제 그만큼의 성과를 보여줄 수 있을지는 아직 미지수입니다. 세레브라스는 2015년 설립된 스타트업으로 2019년 첫 번째 WSE 제품을 내놓았습니다. 이 기술에 웨이퍼 스케일이라는 명칭이 붙은 이유는 간단합니다. 프로세서를 만들 때 사용되는 둥근 원판인 웨이퍼를 잘라서 칩을 만드는 게 아니라 웨이퍼 전체를 통째로 하나의 프로세서로 사용하기 때문입니다. 현대적인 프로세서와 메모리 모두 웨이퍼를 잘라서 제품을 만들고 있지만, 웨이퍼를 여러 개로 잘라서 프로세서를 만든 후 이들을 별도의 시스템에서 병렬로 연결한다는 것은 사실 제조 비용 상승은 물론 프로세서 간 데이터 전송 시 발생하는 병목현상으로 인해 성능이 떨어질 우려가 있습니다. 따라서 발상을 바꿔 아예 웨이퍼 하나를 통째로 멀티코어 프로세서로 활용하자는 아이디어는 이전부터 있어 왔으나 몇 가지 큰 걸림돌이 있어 실현되지는 못했습니다. 첫 번째는 프로세서 제조 과정에서 사소한 오류 하나만 생겨도 웨이퍼 전체를 못 쓰게 되는 위험성이 있다는 것입니다. 예를 들어 기존의 프로세서는 웨이퍼 하나에서 150개 정도의 제품이 나왔을 때 100개 정도만 양품이면 나머지 50개를 버려도 충분히 수익을 낼 수 있습니다. 하지만 웨이퍼 전체에서 치명적인 오류가 한 번만 발생하면 웨이퍼 전체를 못 쓰게 되어 손해가 클 수밖에 없습니다. 웨이퍼 안에 수많은 코어를 탑재할 경우 코어 간 병목 현상과 메모리 병목 현상 역시 우려될 수 있는 문제입니다. 마지막으로 이렇게 거대한 프로세서는 전력 소모량과 발열량 역시 엄청나게 클 수밖에 없어 실용적인 시스템을 구축하기 힘들었습니다. 세레브라스는 새로운 방법으로 이 한계를 극복했습니다. 우선 하나의 큰 코어 대신 작은 코어 여러 개를 연결해 반복되는 구조를 만든 후 각 코어가 모두 연결되어 있어 일부 코어와 연결 회로에 오류가 생기더라도 나머지 부분이 정상 작동하도록 만들었습니다. 그리고 대용량의 SRAM을 프로세서에 통합해 메모리 병목 현상을 최소화했습니다. 2024년 공개한 세레브라스의 최신 프로세서인 WSE-3의 경우 TSMC의 5nm 공정을 이용해 4조 개의 트랜지스터를 집적한 역대 가장 거대한 프로세서로 90만 개의 코어를 집적했습니다. 실제로는 90만 개보다 더 많은 코어를 넣어서 오류가 나더라도 90만 개 정도의 코어 숫자를 보장한 것입니다. 하지만 코어가 많다고 해서 성능이 바로 그만큼 높아지는 것은 아닙니다. 구슬이 서말이라도 꿰어야 보배라는 속담처럼, 수많은 코어가 유기적으로 연결되어야 합니다. WSE-3는 코어들은 거대한 메쉬(Mesh) 구조로 연결되어 있습니다. 하나의 실리콘 안에서 모든 코어가 연결된 덕분에 수천 개의 GPU를 묶을 때 발생하는 병목 현상을 피하고 데이터 전송 속도가 매우 빠른 것이 특징입니다. WSE-3는 90만 개의 코어를 뒷받침하기 위해 44GB SRAM 메모리를 칩에 통합하고 있습니다. 다만 이것만으로는 대규모 AI 연산에 필요한 대규모 데이터를 모두 담을 수 없기 때문에 가중치(Weights)를 칩 외부의 전용 스토리지에 보관하고, 연산 시 필요한 부분만 초고속 스트리밍으로 칩에 공급하는 방식을 사용합니다. 이런 독특한 구조를 통해 웨이퍼 스케일 엔진 기술은 기본 AI 프로세서가 지닌 한계를 극복할 차세대 AI 솔루션으로 주목받고 있습니다. 하지만 장밋빛 미래만 보이는 것은 아닙니다. 현재 AI 생태계 자체가 엔비디아의 CUDA에 기반해 있고 AI 서비스 솔루션 자체도 GPU에 최적화되어 있다는 점은 무시하기 어려운 장벽입니다. 더구나 현재도 적자인 오픈 AI는 여기저기 투자 계획과 협업 프로젝트를 발표하고 있지만, 이 막대한 자금들을 어디서 조달할 수 있을지 의구심이 제기되고 있습니다. 지금 흑자를 내고 있다고 해도 앞으로 계획된 투자를 진행하기 위해서 필요한 천문학적인 자금을 조달하기는 쉽지 않을 것입니다. 그런데 또 대규모 투자 계획을 발표하니 의문이 제기되는 것도 당연합니다. 마지막으로 실제 WSE-3나 혹은 그 후속 프로세서들이 이론이 아니라 실제로 엔비디아의 GPU보다 더 앞선 성능을 보여줄 수 있는지 역시 충분히 검증되지 않은 상태입니다. 현재 여러 AI 제조사가 자사의 기술이 엔비디아보다 우월하다고 주장하고 있지만, 현재까지 의미 있는 대항마로 성장한 곳은 구글의 TPU 정도이며 오랜 라이벌인 AMD 조차도 아직 엔비디아의 아성에 도전할 수준은 되지 않고 있습니다. 오랜 세월 축적된 엔비디아의 기술을 신생 스타트업이 쉽게 뛰어넘을 수 있을지 아무래도 의문인데, 확실하지 않은 곳에 많은 자금을 투자할 정도로 재무 사정이 넉넉하지 않아 보인다는 것이 솔직한 평가일 것입니다. 물론 엔비디아의 현재 모습을 10년 전 대부분 예상 못한 것처럼 앞으로 10년 후 역시 예상하기 어려운 게 사실입니다. 과연 10년 후 엔비디아의 독점이 계속 유지될 수 있을지, 아니면 예상치 못한 다크호스가 시장을 뒤흔들게 될지 궁금합니다.
  • 세계 최초·최고 성능… 삼성전자 HBM4 출하

    세계 최초·최고 성능… 삼성전자 HBM4 출하

    삼성전자가 세계 최초로 인공지능(AI) 산업의 핵심 부품인 6세대 고대역폭메모리 HBM4를 양산 및 출하했다고 12일 밝혔다. 최대 데이터 전송 속도는 13Gbps로 기존의 HBM3E와 비교해 22% 빨라졌고, 데이터 출입구를 1024개에서 2048개로 늘리면서 전송 데이터의 양도 급격히 늘었다. 반도체업계에서는 AI 그래픽저장장치(GPU)의 메모리 병목을 획기적으로 줄일 ‘게임체인저’로 평가했다. 삼성전자는 올해 하반기와 내년에 연이어 차기 HBM도 내놓으며 관련 기술을 선도하겠다는 구상이다. 황상준 삼성전자 메모리개발담당 부사장은 이날 “기존에 검증된 공정을 적용하던 전례를 깨고 1c D램(10나노급 6세대) 및 파운드리 4나노와 같은 최선단 공정을 적용했다”며 “공정 경쟁력과 설계 개선을 통해 성능 확장을 위한 여력을 충분히 확보함으로써 고객의 성능 상향 요구를 적기에 충족할 수 있었다”고 밝혔다. 삼성전자는 이번 설 연휴 직후 양산 출하를 계획했으나 고객사와 협의를 거쳐 일정을 일주일가량 앞당긴 것으로 알려졌다. HBM4는 엔비디아가 다음달 공개할 차세대 AI 가속기 ‘베라 루빈’에 탑재돼 GPU의 고등 연산을 지원할 전망이다. HBM은 D램 메모리를 여러 층으로 쌓아 연산에 필요한 메모리 자원을 크게 늘린 반도체 소자다. 적층된 메모리를 밑에서 받치고 있는 하단의 베이스다이에는 성능과 전력 효율 측면에서 유리한 4나노 공정을 적용했다. 그 결과 JEDEC(국제 산업 표준 기구)의 업계 표준인 8Gbps를 약 46% 상회하는 11.7Gbps의 동작 속도를 안정적으로 확보했다. 이는 전작 HBM3E의 최대 핀 속도인 9.6Gbps 대비 약 1.22배 향상된 수치다. 삼성전자 관계자는 “최대 13Gbps까지 구현이 가능해 AI 모델 규모가 커질수록 심화되는 데이터 병목을 효과적으로 해소할 것”이라고 말했다. 또 삼성전자의 HBM4는 단일 스택 기준 총 메모리 대역폭을 전작 HBM3E 대비 약 2.7배 향상된 최대 3.3TB/s 수준으로 끌어올렸다. 이는 고객사 요구 수준인 3.0TB/s를 상회한다. 또 삼성전자의 HBM4는 12단 적층 기술을 통해 24~36GB의 용량을 제공하며, 고객사의 제품 일정에 맞춰 16단 적층 기술을 적용해 최대 48GB까지 용량을 확장할 계획이다. 전력 소모와 열 집중 문제 해결에도 총력을 쏟았다. HBM은 컨트롤러 역할을 하는 베이스 다이와 D램을 수직으로 적층한 코어 다이로 구성된다. HBM4는 메모리와 GPU 사이에서 데이터를 주고받는 출입구인 데이터 전송 I/O 핀 수를 1024개에서 2048개로 확대했고 이에 따라 발생하는 전력 소모와 열 집중 문제를 해결하기 위해 코어 다이에 저전력 설계 기술을 적용했다. 또 하나의 차별화된 지점은 ‘원스톱 솔루션’ 제공이다. 삼성전자는 세계에서 유일하게 로직, 메모리, 파운드리, 패키징까지 아우르는 반도체 회사다. 회사는 선단 패키징 역량을 자체적으로 보유하고 있어 공급망 리스크를 최소화하는 한편 생산 리드타임을 단축할 수 있는 경쟁력을 갖추고 있다. 삼성전자는 올해 HBM 매출이 지난해 대비 3배 이상 증가할 것으로 내다봤다. 또 HBM4에 이어 HBM4E도 준비해 올해 하반기에 샘플을 출하할 계획이다. HBM4E는 HBM4의 기본 구조를 기반으로, 동작 속도·대역폭·전력 효율을 한층 끌어올린 차세대 고대역폭 메모리다. 삼성전자는 또 AI 반도체 종류에 따라 메모리도 맞춤 설계해 성능을 극대화하는 커스텀(맞춤형) HBM도 내년부터 샘플을 출하한다. 엔비디아 GPU에 이어 구글 ‘텐서처리장치’(TPU), 마이크로소프트(MS) ‘마이아’ 등 빅테크들의 AI 반도체 자체 개발 경쟁이 격화하는 가운데 각각에 최적화한 HBM 설계 수요를 충족하겠다는 구상이다. 삼성전자가 세계 최초 HBM4 양산 및 출하로 포문을 연 데 대해 경쟁자인 SK하이닉스와 미국 마이크론은 자신만의 전략에 집중하는 분위기다. SK하이닉스 관계자는 “고객이 요청한 (HBM4) 물량을 차질 없이 양산 중이며, 현재 최적화를 진행하고 있다”고 밝혔다. 최대 고객사인 엔비디아의 차세대 AI 가속기 출시 일정에 맞춰 제품 완성도를 극대화하겠다는 ‘실리 전략’으로 읽힌다. 업계에 따르면 SK하이닉스는 엔비디아 HBM4 물량의 3분의2 이상을 확보한 것으로 알려졌다. 미국 마이크론 역시 HBM4 경쟁에서 밀려났다는 루머를 정면으로 반박하고 나섰다. 마크 머피 마이크론 최고재무책임자(CFO)는 11일(현지시간) 콘퍼런스에서 ‘엔비디아 공급망 탈락설’을 일축하며 “올해 HBM 공급 물량은 이미 완판됐으며 수율 또한 계획대로”라고 말했다. 이에 따라 메모리 공급 부족 국면에서 한국·미국 반도체 기업들의 수주 경쟁은 한층 격화될 전망이다.
  • 엔비디아 천하 끝낸다… MS도 AI칩 독립선언

    엔비디아 천하 끝낸다… MS도 AI칩 독립선언

    구글·아마존도 자체 칩 본격화삼성·SK, HBM 다변화 기회로 글로벌 인공지능(AI) 반도체 시장이 범용 성능을 앞세운 ‘엔비디아 표준’과 비용·전력 효율을 극대화한 ‘빅테크 전용 칩’ 간에 2차 경쟁 국면으로 진입했다. 구글과 아마존에 이어 마이크로소프트(MS)까지 독자 AI 가속기를 공개하며 자체 칩 생태계를 확대한 가운데, SK하이닉스가 MS의 신규 가속기에 고대역폭메모리(HBM)를 단독 공급하는 등 우리나라 반도체 산업의 선전은 계속될 전망된다. MS는 26일(현지시간) 자체 개발한 AI 가속기 ‘마이아 200’을 공개하고 “MS가 지금까지 배포한 추론 시스템 가운데 가장 효율적이며, 현재 운영 중인 최신 시스템 대비 달러당 성능이 30% 더 좋다”고 밝혔다. 마이아200은 대만 TSMC의 3나노 공정을 적용한 주문형 반도체(ASIC) 기반 칩으로, 대규모 AI 추론 작업의 효율을 극대화한다. 마이아 200에는 총 216GB의 5세대 고대역폭 메모리(HBM3E)가 탑재됐고, SK하이닉스가 12단 HBM3E를 단독 공급하는 것으로 알려졌다. 구글과 아마존웹서비스(AWS) 역시 엔비디아 의존도를 낮추기 위한 행보를 이어가고 있다. 구글은 브로드컴과 공동 설계한 텐서처리장치(TPU) ‘트릴리움’을 고도화해 자사 AI 서비스 전반에 적용 중이며, AWS는 AI 학습에 특화된 전용 칩 ‘트레이니엄’을 중심으로 자체 칩 전략을 확대하고 있다. 이들 전용 칩은 범용 연산에 강점을 지닌 GPU와 달리, AI 연산의 핵심인 행렬 계산에 자원을 집중하는 구조로 설계돼 비용과 전력 효율을 크게 끌어올린 것이 특징이다. 엔비디아는 이에 맞서 차세대 플랫폼 ‘루빈(Rubin)’을 통해 기술 격차를 다시 벌리겠다는 전략을 내세우고 있다. 루빈은 차세대 고대역폭 메모리인 HBM4를 기반으로 성능과 확장성을 동시에 강화하는 것이 핵심으로, 자체 AI 칩 확산에 ‘절대 성능’으로 대응하겠다는 구상으로 해석된다. 이 같은 ‘탈 엔비디아’ 흐름은 국내 메모리 반도체 업계에는 오히려 기회로 작용하고 있다. SK하이닉스는 MS의 마이아 200을 비롯해 구글, AWS 등 글로벌 빅테크의 자체 AI 전용 칩으로 HBM 공급처를 빠르게 넓히며 시장 1위의 입지를 공고히 하고 있다. AI 학습에서 추론으로 무게중심이 이동하는 2차 경쟁 국면 역시 고성능 메모리 수요를 확대하는 요인으로 작용하고 있다. 삼성전자는 최근 엔비디아와 AMD가 진행한 HBM4 관련 품질 테스트에서 긍정적인 평가를 받은 것으로 전해졌고, 차세대 제품 양산을 목표로 준비에 속도를 내고 있다.
  • 애플, 구글과 ‘AI 동맹’… 아이폰에 제미나이 탑재한다

    애플, 구글과 ‘AI 동맹’… 아이폰에 제미나이 탑재한다

    애플이 자사 인공지능(AI) 시스템 ‘애플 인텔리전스’의 기반 모델로 구글의 ‘제미나이’를 채택했다. 폐쇄적인 생태계를 고집하다 AI 부문에서 고전하던 애플이 아이폰의 지배력을 지키려 구글의 손을 잡은 셈이다. 빅테크들이 핵심 역량을 서로 주고받으며 실리를 챙기는 ‘전략적 초협력’은 글로벌 AI 패권 경쟁을 쥐기 위한 생존 공식으로 자리 잡은 모습이다. 12일(현지시간) CNBC 등에 따르면 애플과 구글은 다년 계약을 체결하고 차세대 ‘애플 파운데이션 모델’에 구글의 제미나이와 클라우드 기술을 적용하기로 했다. 애플은 성명을 통해 “신중한 평가 끝에 구글의 기술이 애플 AI 모델을 위한 가장 역량 있는 기반을 제공한다고 판단했다”고 밝혔다. 업계는 애플이 제미나이를 활용하는 대가로 구글에 연간 약 10억 달러(약 1조 4000억원)를 지급할 것으로 봤다. 이에 구글 모회사 알파벳의 시가총액은 12일 장중 4조 달러를 돌파하며 엔비디아, 마이크로소프트(MS), 애플에 이어 역사상 네 번째로 ‘4조 달러 클럽’에 이름을 올렸다. 이번 결정은 MS와 아마존 등이 AI 인프라에 천문학적인 자금을 쏟아붓는 사이, AI 열풍에서 한발 물러났던 애플의 승부수다. 애플은 2024년 ‘애플 인텔리전스’를 공개하며 사진 검색, 알림 요약 등 운영체제 전반에 AI 기능을 도입했지만, 혁신 체감도가 낮다는 평가를 받았다. 애플은 음성비서 시리의 대규모 업그레이드마저 올해로 연기했었다. 자칫 AI 주도권 경쟁에서 영구 도태될 수 있다는 위기감 속에 애플이 ‘순혈주의’를 내려놓은 셈이다. 이에 시리는 제미나이를 기반으로 복잡한 질문이나 맥락 이해 면에서 대폭 강화될 전망이다. 업계는 애플이 오는 3월 중 선보일 것으로 보이는 iOS26.4를 통해 더 개인화된 시리 기능을 출시할 것으로 관측하고 있다. 또 구글의 입장에서 삼성전자 휴대전화 등에 이어 애플에도 제미나이를 공급하면서 오픈AI의 일강구도를 흔들게 됐다. 이런 합종연횡은 AI 산업 전반에서 나타나고 있다. MS와 견고한 혈맹을 유지해온 오픈AI는 최근 아마존웹서비스(AWS)와 7년간 380억 달러(약 54조원) 규모의 인프라 계약을 맺었다. 오픈AI의 라이벌인 앤스로픽은 지난해 말 아마존의 AI 전용 칩 ‘트레이니움’은 물론, 구글로부터 최대 100만개의 자체 칩(TPU)을 공급받는 수십조 원 규모의 신규 계약을 체결했다. 특정 클라우드사에 묶이지 않고 각 진영의 고성능 칩 자원을 동시에 활용해 연산 비용을 절감하는 전략이다. 거대 동맹의 확산은 한국 반도체 산업에도 새로운 기회가 될 수 있다. 빅테크들이 자체 AI 칩 개발과 데이터센터 확충에 사활을 걸수록, 그 핵심 부품인 고대역폭메모리(HBM)를 공급하는 삼성전자와 SK하이닉스의 전략적 가치는 더욱 높아질 수밖에 없다.
  • AI 버블 논란에 구글, 아마존 도전장까지…엔비디아는 왕좌를 지킬 수 있을까?

    AI 버블 논란에 구글, 아마존 도전장까지…엔비디아는 왕좌를 지킬 수 있을까?

    지난 3분기, 엔비디아는 570억 달러의 매출과 함께 무려 73.4%에 달하는 매출 총이익률(gross margin)을 발표했습니다. 그만큼 GPU 하나 팔아서 남기는 게 많다는 이야기로 영업 이익은 매출의 절반이 넘는 360억 달러에 달했습니다. 사실상 원가에 몇 배에 달하는 폭리를 취하면서 매출보다 이익이 더 가파르게 증가한 것입니다. 하지만 이렇게 파는데도 데이터 센터 GPU는 다 팔려 나가 물량 구하기가 쉽지 않다는 게 젠슨 황 CEO의 설명입니다. 그런데도 AI 버블 논란은 여전히 가라앉지 않고 있습니다. AI를 통해 인력을 감축하고 비용을 절감하는 기업들은 늘고 있지만, 정작 막대한 비용이 들어가는 AI 서비스 자체는 그에 걸맞은 수익을 창출하지 못하고 있기 때문입니다. 예를 들어, ChatGPT를 서비스하는 오픈 AI는 재무제표를 공개하지는 않지만, 창립 이래 계속해서 적자를 기록하고 있는 것으로 알려져 있습니다. 따라서 최근에는 막대한 투자 비용을 감당하기 위해 대규모 자금 조달에 나서는 한편 광고와 같은 다른 수익 창출 방법도 모색하고 있습니다. 물론 오픈 AI와 경쟁하는 다른 AI 서비스들 역시 상황은 크게 다르지 않습니다. AI가 미래의 성장 동력이라는 점을 의심하는 이는 없지만, 갈수록 치솟는 GPU, 메모리, 스토리지, 그리고 막대한 전기 사용료 등을 고려하면 기업들이 적자를 감수하고 무작정 투자를 계속할 수는 없습니다. 결국, 어느 시점에는 자금력과 기술력이 뒤처지는 회사는 시장에서 도태되고, 비용 절감과 수익 모델 창출에 성공한 기업만이 살아남게 될 것입니다. 이에 따라 구글이나 아마존 같은 빅테크들은 자체 AI 칩(ASIC)에 막대한 투자를 단행하며 엔비디아 GPU보다 저렴한 대안을 모색하고 있습니다. 그런 의미에서 최근 구글이 공개한 7세대 TPU인 아이언우드(Ironwood)는 시장에 큰 충격을 던져주었습니다. TPU(Tensor Processing Unit)는 애플리케이션 특정 통합 회로(ASIC)의 일종으로, 신경망의 행렬 곱셈과 같은 연산을 효율적으로 처리하기 위한 특수 목적 프로세서입니다. CPU가 가장 일반적인 용도의 프로세서라고 한다면 GPU는 그래픽 연산에 필요한 병렬 연산에 최적화된 프로세서라고 할 수 있습니다. 엔비디아는 GPU에 고성능 컴퓨팅에 필요한 좀 더 범용 연산 능력을 부여해 일반 목적 GPU(GPGPU)라고 명명했습니다. 그리고 여기에 사용되는 언어인 쿠다(CUDA)를 개발했습니다. GPU의 GPGPU 성능이 가장 큰 힘을 발휘한 분야가 바로 AI였습니다. 딥러닝 모델 학습과 같이 대규모 데이터를 병렬로 처리해야 하는 작업이 GPGPU에 적합했기 때문입니다. 결국 최근에 나오는 GPU는 AI 성능을 담당하는 부분이 더 커지면서 핵심 기능으로 자리 잡고 있습니다. 구글의 TPU는 GPU보다 더 좁은 범위의 연산만 수행하는 특수 프로세서로 CPU – GPU – TPU의 순으로 점점 더 할 수 있는 기능은 좁아진다고 할 수 있습니다. 다만 반대로 에너지 효율은 더 높아질 수 있습니다. 사실 3D 그래픽도 CPU만 가지고 처리할 수 있습니다. 하지만 처리 속도가 너무 느리고 기능이 제한적이라 3D 가속기라는 별도의 보조 프로세서가 나오게 되었고 그것이 나중에 GPU로 발전한 것입니다. TPU도 그런 연장선상에서 보면 엔비디아의 GPU에 상당히 위협적인 존재가 될 수 있습니다. 아이언우드 자체의 성능은 4,614 FP8 TFLOPS 정도로 B200 블랙웰 GPU의 4.5 PFLOPS와 비슷하지만, GPU보다 구조가 단순할 가능성이 높아 생산비나 제작 단가가 저렴할 수 있습니다. 최근 제미나이 3의 놀라운 성능을 보면 그렇다고 기능이 부족한 것도 아닌 것으로 보여 적지 않은 충격을 주고 있습니다. 여기에 아마존의 AWS 역시 3세대 AI ASIC 칩인 트레이니움3(Trainium3)을 공개하면서 도전장을 내밀고 있습니다. 트레이니움3 칩 하나는 PF8 기준 2.52 PFLOPs의 연산 능력을 지니고 있으며 144GB의 HBM3e 메모리와 4.9TB/s의 대역폭을 지니고 있습니다. 그리고 144개의 칩이 모인 Trn3 UltraServers는 총 362 FP8 PFLOPs의 연산 능력을 확보해 100만 토큰 이상의 AI 서비스를 감당할 수 있습니다. 칩 하나의 성능만 보면 엔비디아의 B200 GPU보다 낮지만, 역시 GPU보다 단순한 구조로 전체 비용은 더 낮을 가능성이 있습니다. 다만 아직은 AI 생태계에서 엔비디아의 입지가 지배적인 만큼 아마존은 트레이니움4에서는 엔비디아의 고속 인터페이스인 NVLink를 지원해 트레이니움4와 엔비디아 GPU를 같이 쓸 수 있게 한다는 계획입니다. 만약 이런 빅테크들의 맞춤형 ASIC 칩들이 비용 효과적인 대안을 제시할 경우 엔비디아에 대한 의존도는 낮아질 수 있습니다. 그러면 지금처럼 높은 가격에도 없어서 못 파는 상황은 지속되지 않을 가능성이 있습니다. 물론 엔비디아를 왕좌에서 그렇게 쉽게 끌어내리진 못할 것이라는 의견도 있습니다. 엔비디아가 AI 왕좌를 지킬 수 있는 가장 강력한 무기는 단순한 하드웨어 성능이 아닌, CUDA(쿠다)라는 소프트웨어 생태계에 있습니다. 2006년부터 구축된 CUDA 플랫폼은 수많은 AI 개발자들에게 압도적인 편의성과 최적화된 도구를 제공해 왔습니다. 이처럼 개발자들이 이미 CUDA 환경에 깊이 익숙해져 있다는 점은 다른 칩으로 전환하는 데 막대한 전환 비용을 발생시킵니다. 따라서 구글, 아마존 같은 빅테크들의 자체 ASIC이 고성능과 저비용을 달성하더라도, 이 CUDA 생태계의 장벽을 어떻게 뛰어넘을 것인가는 여전히 가장 큰 숙제로 남아 있습니다. 여기에 엔비디아 역시 경쟁자들처럼 차세대 칩을 준비하고 있습니다. 차세대 루빈 GPU는 FP4 기준 50 PFLOPS의 연산 능력을 지니고 있으며 이를 이용한 렉 시스템인 베라 루빈 NVL 144는 3.6EFLOPS라는 슈퍼컴퓨터급 연산 능력을 지니고 있습니다. 엔비디아는 루빈 GPU의 양산을 서두르는 한편 다음 세대 제품에서 성능을 더 높여 경쟁자들의 추격을 따돌리기 위해 고군분투할 것으로 보입니다. 과연 빅테크들의 거센 도전에서 엔비디아가 왕좌를 지킬 수 있을지 주목됩니다.
  • AI 버블 논란에 구글, 아마존 도전장까지…엔비디아는 왕좌를 지킬 수 있을까? [고든 정의 TECH+]

    AI 버블 논란에 구글, 아마존 도전장까지…엔비디아는 왕좌를 지킬 수 있을까? [고든 정의 TECH+]

    지난 3분기, 엔비디아는 570억 달러의 매출과 함께 무려 73.4%에 달하는 매출 총이익률(gross margin)을 발표했습니다. 그만큼 GPU 하나 팔아서 남기는 게 많다는 이야기로 영업 이익은 매출의 절반이 넘는 360억 달러에 달했습니다. 사실상 원가에 몇 배에 달하는 폭리를 취하면서 매출보다 이익이 더 가파르게 증가한 것입니다. 하지만 이렇게 파는데도 데이터 센터 GPU는 다 팔려 나가 물량 구하기가 쉽지 않다는 게 젠슨 황 CEO의 설명입니다. 그런데도 AI 버블 논란은 여전히 가라앉지 않고 있습니다. AI를 통해 인력을 감축하고 비용을 절감하는 기업들은 늘고 있지만, 정작 막대한 비용이 들어가는 AI 서비스 자체는 그에 걸맞은 수익을 창출하지 못하고 있기 때문입니다. 예를 들어, ChatGPT를 서비스하는 오픈 AI는 재무제표를 공개하지는 않지만, 창립 이래 계속해서 적자를 기록하고 있는 것으로 알려져 있습니다. 따라서 최근에는 막대한 투자 비용을 감당하기 위해 대규모 자금 조달에 나서는 한편 광고와 같은 다른 수익 창출 방법도 모색하고 있습니다. 물론 오픈 AI와 경쟁하는 다른 AI 서비스들 역시 상황은 크게 다르지 않습니다. AI가 미래의 성장 동력이라는 점을 의심하는 이는 없지만, 갈수록 치솟는 GPU, 메모리, 스토리지, 그리고 막대한 전기 사용료 등을 고려하면 기업들이 적자를 감수하고 무작정 투자를 계속할 수는 없습니다. 결국, 어느 시점에는 자금력과 기술력이 뒤처지는 회사는 시장에서 도태되고, 비용 절감과 수익 모델 창출에 성공한 기업만이 살아남게 될 것입니다. 이에 따라 구글이나 아마존 같은 빅테크들은 자체 AI 칩(ASIC)에 막대한 투자를 단행하며 엔비디아 GPU보다 저렴한 대안을 모색하고 있습니다. 그런 의미에서 최근 구글이 공개한 7세대 TPU인 아이언우드(Ironwood)는 시장에 큰 충격을 던져주었습니다. TPU(Tensor Processing Unit)는 애플리케이션 특정 통합 회로(ASIC)의 일종으로, 신경망의 행렬 곱셈과 같은 연산을 효율적으로 처리하기 위한 특수 목적 프로세서입니다. CPU가 가장 일반적인 용도의 프로세서라고 한다면 GPU는 그래픽 연산에 필요한 병렬 연산에 최적화된 프로세서라고 할 수 있습니다. 엔비디아는 GPU에 고성능 컴퓨팅에 필요한 좀 더 범용 연산 능력을 부여해 일반 목적 GPU(GPGPU)라고 명명했습니다. 그리고 여기에 사용되는 언어인 쿠다(CUDA)를 개발했습니다. GPU의 GPGPU 성능이 가장 큰 힘을 발휘한 분야가 바로 AI였습니다. 딥러닝 모델 학습과 같이 대규모 데이터를 병렬로 처리해야 하는 작업이 GPGPU에 적합했기 때문입니다. 결국 최근에 나오는 GPU는 AI 성능을 담당하는 부분이 더 커지면서 핵심 기능으로 자리 잡고 있습니다. 구글의 TPU는 GPU보다 더 좁은 범위의 연산만 수행하는 특수 프로세서로 CPU – GPU – TPU의 순으로 점점 더 할 수 있는 기능은 좁아진다고 할 수 있습니다. 다만 반대로 에너지 효율은 더 높아질 수 있습니다. 사실 3D 그래픽도 CPU만 가지고 처리할 수 있습니다. 하지만 처리 속도가 너무 느리고 기능이 제한적이라 3D 가속기라는 별도의 보조 프로세서가 나오게 되었고 그것이 나중에 GPU로 발전한 것입니다. TPU도 그런 연장선상에서 보면 엔비디아의 GPU에 상당히 위협적인 존재가 될 수 있습니다. 아이언우드 자체의 성능은 4,614 FP8 TFLOPS 정도로 B200 블랙웰 GPU의 4.5 PFLOPS와 비슷하지만, GPU보다 구조가 단순할 가능성이 높아 생산비나 제작 단가가 저렴할 수 있습니다. 최근 제미나이 3의 놀라운 성능을 보면 그렇다고 기능이 부족한 것도 아닌 것으로 보여 적지 않은 충격을 주고 있습니다. 여기에 아마존의 AWS 역시 3세대 AI ASIC 칩인 트레이니움3(Trainium3)을 공개하면서 도전장을 내밀고 있습니다. 트레이니움3 칩 하나는 PF8 기준 2.52 PFLOPs의 연산 능력을 지니고 있으며 144GB의 HBM3e 메모리와 4.9TB/s의 대역폭을 지니고 있습니다. 그리고 144개의 칩이 모인 Trn3 UltraServers는 총 362 FP8 PFLOPs의 연산 능력을 확보해 100만 토큰 이상의 AI 서비스를 감당할 수 있습니다. 칩 하나의 성능만 보면 엔비디아의 B200 GPU보다 낮지만, 역시 GPU보다 단순한 구조로 전체 비용은 더 낮을 가능성이 있습니다. 다만 아직은 AI 생태계에서 엔비디아의 입지가 지배적인 만큼 아마존은 트레이니움4에서는 엔비디아의 고속 인터페이스인 NVLink를 지원해 트레이니움4와 엔비디아 GPU를 같이 쓸 수 있게 한다는 계획입니다. 만약 이런 빅테크들의 맞춤형 ASIC 칩들이 비용 효과적인 대안을 제시할 경우 엔비디아에 대한 의존도는 낮아질 수 있습니다. 그러면 지금처럼 높은 가격에도 없어서 못 파는 상황은 지속되지 않을 가능성이 있습니다. 물론 엔비디아를 왕좌에서 그렇게 쉽게 끌어내리진 못할 것이라는 의견도 있습니다. 엔비디아가 AI 왕좌를 지킬 수 있는 가장 강력한 무기는 단순한 하드웨어 성능이 아닌, CUDA(쿠다)라는 소프트웨어 생태계에 있습니다. 2006년부터 구축된 CUDA 플랫폼은 수많은 AI 개발자들에게 압도적인 편의성과 최적화된 도구를 제공해 왔습니다. 이처럼 개발자들이 이미 CUDA 환경에 깊이 익숙해져 있다는 점은 다른 칩으로 전환하는 데 막대한 전환 비용을 발생시킵니다. 따라서 구글, 아마존 같은 빅테크들의 자체 ASIC이 고성능과 저비용을 달성하더라도, 이 CUDA 생태계의 장벽을 어떻게 뛰어넘을 것인가는 여전히 가장 큰 숙제로 남아 있습니다. 여기에 엔비디아 역시 경쟁자들처럼 차세대 칩을 준비하고 있습니다. 차세대 루빈 GPU는 FP4 기준 50 PFLOPS의 연산 능력을 지니고 있으며 이를 이용한 렉 시스템인 베라 루빈 NVL 144는 3.6EFLOPS라는 슈퍼컴퓨터급 연산 능력을 지니고 있습니다. 엔비디아는 루빈 GPU의 양산을 서두르는 한편 다음 세대 제품에서 성능을 더 높여 경쟁자들의 추격을 따돌리기 위해 고군분투할 것으로 보입니다. 과연 빅테크들의 거센 도전에서 엔비디아가 왕좌를 지킬 수 있을지 주목됩니다.
  • ‘체감 성능’ 더 좋네… 챗GPT 흔드는 제미나이 3.0

    ‘체감 성능’ 더 좋네… 챗GPT 흔드는 제미나이 3.0

    제미나이, 즉각 화면에 결과물 GPT, 안정적이나 한 박자 느려‘인터랙티브 화면’ vs ‘요약 문서’ 시장에서도 선호도 변화 조짐구글, 월 이용 6.5억명으로 급증 오픈AI는 비공개… 2억명 추정 AI 시장의 양강으로 떠오른 구글 ‘제미나이 3.0’과 오픈AI ‘GPT-5.1’의 차이는 예상보다 확연했다. 이미지 생성, 포스터 제작, 인터랙티브 화면 구성 등 대부분의 작업에서 제미나이는 결과물이 즉각 화면에 잡히는 반면, GPT-5.1은 정확하고 안정적이지만 생성 속도가 한 박자씩 느렸다. 직접 두 모델을 비교해본 뒤 ‘AI 모델 경쟁이 속도에서 즉각적 체감으로 바뀌었다’는 전문가들의 분석에 동의했다. 둘은 가장 기본적인 요청부터 다른 결과를 줬다. “국가와 기업을 중심으로 AI 지형의 변화를 연도별로 보여달라”고 하자 GPT-5.1은 주요 국가와 기업들의 전략 변화를 문단과 표로 정리해 제시했다. 반면 제미나이 3.0은 질문을 인식한 즉시 화면 전체를 하나의 ‘AI 전개도’처럼 만들었다. 국가·기업을 의미하는 동그란 아이콘을 중앙에 배치했고, 하단의 연도 막대를 움직이면 아이콘의 크기와 위치가 바로 바뀌었다. 관계는 선으로 연결해 영향력의 변화를 시각적으로 보여줬고, 특정 아이콘을 누르면 해당 연도의 핵심 사건이 카드 형태로 표시됐다. GPT-5.1가 ‘요약 문서’였다면, 제미나이 3.0은 ‘인터랙티브 화면’이었다. 이미지 생성 요청에서는 속도 차이가 컸다. 구글의 전용 이미지 생성 도구 ‘나노 바나나 프로’를 사용해 “노란 멜빵바지를 입은 아기 강아지가 ‘SEOUL 2025’라고 적힌 서핑 보드를 들고 있는 모습”을 하이퍼리얼리즘으로 묘사해 달라고 요청하자 제미나이 3.0은 수 초 만에 결과물을 완성했다. GPT-5.1은 같은 요청에 비슷한 수준의 이미지를 생성하는 데 1분 가까이 걸렸다. 이어 서핑 대회 홍보 포스터를 요청하자 제미나이는 밝은 색감의 일러스트형 포스터로 즉시 전환됐고, GPT-5.1은 이전 대화의 흐름을 이어받아 사실적 질감이 남아 있는 결과물을 제시했다. 해외 평가도 비슷하다. 영국 파이낸셜타임즈(FT)는 지난달 30일(현지시간) AI 경쟁의 기준이 “모델의 크기나 이론적 지능보다 실제 사용하는 순간의 체감으로 이동하고 있다”고 분석했다. 마크 베니오프 세일즈포스 최고경영자(CEO)는 “제미나이 3.0을 써보니 챗GPT로 돌아가기 어렵겠다는 느낌이 들었다”고 말했다. 전문가들은 그 차이가 애초 설계 방향의 차이라고 지적한다. 제미나이 3.0은 구글의 텐서처리장치(TPU)를 기반으로 이미지·영상·시각 구성 등 멀티모달 작업을 빠르게 처리하도록 설계돼 있다. 복잡한 장면을 분해하고 새 화면을 자동 배치하는 과정이 자연스럽다는 평가다. 반면 GPT-5.1은 텍스트 분석과 고난도 추론 능력을 중심으로 발전해온 구조여서 대형 이미지 생성이나 복잡한 시각 구성 단계에서는 상대적으로 시간이 더 걸릴 수 있다는 분석이다. 시장에서도 변화 조짐이 확인된다. 구글은 제미나이 3.0 공개 이후 자사 앱의 월간 활성 이용자(MAU)가 6억 5000만명까지 증가했다고 밝혔다. 지난 5월 4억 명 수준이던 수치가 반년 사이 크게 늘었다. 오픈AI는 공식 이용자 수를 밝히지 않지만 업계에서는 월간 2억명 안팎으로 추정한다. 성능 지표에서도 제미나이 3.0은 AI 벤치마크 플랫폼 ‘LMArena’에서 공개 직후 종합 1위에 오르며 여러 항목에서 GPT-5 계열을 앞섰다는 결과가 나왔다.
  • 구글 TPU 부상, HBM 판도 바꿨다… 삼성·SK ‘마이크론 뺀 투톱 체제’로

    구글 TPU 부상, HBM 판도 바꿨다… 삼성·SK ‘마이크론 뺀 투톱 체제’로

    SK하이닉스, HBM3E 공급 주도권구글 TPU 내 HBM 절반 이상 맡아삼성전자, HBM 공급량 SK 앞설 듯일반 D램 수요 늘어 성장동력 확보양사 생산능력, 마이크론의 약 3배구글의 자체 AI 가속기 ‘텐서처리장치(TPU)’가 급부상하면서 HBM(고대역폭 메모리) 시장이 대대적인 재편 국면에 들어섰다. 경쟁사 마이크론이 생산 능력에서 뒤처지면서, 삼성전자와 SK하이닉스가 압도적인 제조 역량을 기반으로 ‘2강 체제’를 형성할 것이라는 전망에 힘이 실린다. 30일 업계에 따르면 최근 구글의 새 AI 모델 ‘제미나이3’가 챗GPT를 위협하는 성능을 보이자, 이 모델의 학습과 추론을 담당하는 구글의 자체 칩 TPU도 주목을 받고 있다. TPU는 구글이 미국 팹리스(설계 업체) 브로드컴과 함께 개발한 칩으로, 한 개에 6~8개의 HBM이 탑재된다. 시장에서는 삼성전자와 SK하이닉스가 이미 구글 TPU 공급망의 핵심으로 자리 잡았다는 평가가 나온다. SK하이닉스는 구글 최신 TPU 모델에 HBM3E(5세대) 8단 제품을 먼저 공급하며 초기 시장을 선점했다. 전력 효율을 개선한 차세대 12단 제품도 선도적으로 공급하고 있다. 국내 증권사들은 SK하이닉스가 초기 주도권을 확보하면서, 올해 구글 TPU에 들어가는 HBM의 절반 이상을 맡을 것으로 내다봤다. 한국투자증권은 SK하이닉스의 공급 비중을 56.6%로, 메리츠증권은 60% 수준으로 추정했다. 삼성전자는 구글과의 오랜 협력 관계와 대규모 생산 역량을 바탕으로 공급 물량을 빠르게 확대하고 있다. 올해 하반기부터 구글·브로드컴향 HBM 공급이 증가하면서, 연간 총 공급량 기준에서는 SK하이닉스를 앞설 거란 전망이다. 삼성전자는 HBM 외에도 TPU와 관련한 선단 공정 파운드리 수주 증가와 TPU 구동을 위한 일반 D램 수요 증가가 겹치면서 추가 성장 동력을 확보할 것으로 분석된다. KB증권은 삼성전자를 ‘TPU 수혜 최선호주’로 제시하고, 2026년 영업이익이 100조원에 근접할 가능성을 언급했다. HBM 시장에서 삼성전자와 SK하이닉스의 양강 구도가 부각되는 건 마이크론과의 생산 능력 격차 때문이다. 글로벌투자은행 HSBC에 따르면 올해 말 기준으로 SK하이닉스(월 16만장)와 삼성전자(15만장)의 HBM 생산 능력은 마이크론(5만5000장)의 약 3배에 달한다. 다만, 양강인 삼성과 SK하이닉스 간 경쟁은 더욱 치열할 전망이다. 구글·엔비디아·아마존 등 초대형 고객사들이 차세대 AI 가속기에 필요한 HBM 사양을 잇달아 높이고 있어 양사는 더 높은 적층 기술, 수율, 전력 효율을 앞세워 주도권 확보에 나설 수밖에 없다.
  • 구글, TPU·제미나이3 무장… 엔비디아 흔든다

    구글이 자체 개발한 인공지능(AI) 칩 텐서처리장치(TPU)와 최신 AI 모델 제미나이3를 통해 글로벌 AI 산업 판도를 흔들고 있다. TPU는 AI 연산에 최적화된 맞춤형 반도체로, 엔비디아 그래픽처리장치(GPU) 없이도 대규모 연산을 수행한다. 최근 메타플랫폼 등 글로벌 빅테크 기업이 TPU 도입을 검토하면서, 엔비디아 중심의 AI 하드웨어 시장에 균열이 생길지 주목된다. 25일(현지시간) 블룸버그와 WSJ에 따르면 구글은 TPU 7세대 모델 ‘아이언우드’를 활용해 제미나이3를 학습시켰다. 제미나이3는 추론 성능과 코딩 능력에서 오픈AI의 챗GPT 5.1을 뛰어넘는다는 평가를 받는데, 실제 업무와 데이터 분석까지 수행할 수 있는 ‘에이전틱 AI’로도 주목받고 있다. TPU는 2015년 처음 공개됐지만 엔비디아 GPU 중심의 AI 시장에서 크게 주목받지 못했다. 그러나 제미나이3로 TPU 기술력이 입증되면서, 구글이 엔비디아의 유일한 대항마로 자리 잡을 수 있다는 전망이 나왔다. 여기에 메타 등이 TPU 도입을 검토한다는 소식이 전해지면서 엔비디아 주가는 이날 약 2.6% 하락해 시가총액 1150억 달러(약 169조원)가 증발했다. 반면 구글 모회사 알파벳의 주가는 1.62% 올라 사상 최고치를 기록했다. 주가는 최근 5거래일 동안 14% 뛰었고, 연초 이후 70% 급등했다. 구글 TPU 강점은 단순한 하드웨어 성능에만 국한되지 않는다. 검색 엔진, 유튜브, 안드로이드 OS 등 방대한 자체 데이터와 클라우드를 활용해 매일 AI 학습에 필요한 자료를 확보할 수 있다는 점이 차별점이다. 또 모바일 기기, 자율주행 차량 웨이모 등 현실 세계와 연관된 센서 데이터를 통합해 제미나이3의 학습 효율을 극대화할 수 있다. 결과적으로 구글은 AI 모델부터 칩, 데이터, 클라우드 인프라까지 전 영역에서 통합 역량을 갖춘 몇 안 되는 기업으로 평가된다. TPU가 데이터센터에서 대규모로 활용될 가능성이 떠오르면서 국내 반도체 기업들이 받을 수혜에도 관심이 쏠린다. TPU 7세대 모델 아이언우드에는 SK하이닉스가 공급하는 5세대 고대역폭메모리(HBM3E)가 탑재돼 있으며, 향후 TPU의 데이터센터 활용이 확대되면 삼성전자까지 공급망이 늘어날 수 있다. GPU뿐 아니라 TPU와 CPU를 함께 사용하면서 DDR5·LPDDR5 등 범용 D램 수요도 증가할 전망이다. 삼성전자는 전체 D램 생산능력 중 70%가 범용 D램인 만큼 수혜 폭이 상대적으로 클 거라는 분석이다.
  • “AI 판도 뒤집혔다” 찬사 속 ‘주가 급등’…국내 수혜주 ‘이곳’ 지목

    “AI 판도 뒤집혔다” 찬사 속 ‘주가 급등’…국내 수혜주 ‘이곳’ 지목

    구글이 선보인 생성형 인공지능(AI) ‘제미나이 3.0’이 글로벌 AI 시장의 판도를 뒤흔들고 있는 가운데, 국내에서는 삼성전자가 최대 수혜주가 될 것이라는 분석이 나온다. 제미나이 3.0은 지난 18일 공개된 이후 이미지 생성·편집과 추론 능력에서 경쟁 모델들을 압도하며 폭발적인 관심을 받고 있다. 샘 올트먼 오픈AI 최고경영자(CEO)는 제미나이 3.0 출시 뒤 “이제 우리가 (구글을) 쫓아가는 입장”이라고 평가했고, 일론 머스트 테슬라 CEO도 자신의 엑스(X) 계정에 “축하한다”는 글을 남기며 구글의 기술력을 인정했다. 특히 해당 모델이 구글의 자체 AI 반도체인 ‘텐서처리장치(TPU)’ 기반으로 구현되면서 연산 효율성을 극대화하고 비용을 획기적으로 낮췄다는 점이 성공 요인으로 분석된다. 엔비디아의 그래픽처리장치(GPU)에 의존하지 않고 자체 칩으로 오픈AI를 앞질렀다는 평가 속에 구글이 AI 산업 지형도를 다시 그릴 것이라는 전망도 나왔다. 블룸버그 통신 등 외신에 따르면 구글은 빅테크 기업들에 TPU 공급을 추진하고 있다. 페이스북 모회사 메타는 수십억 달러 규모의 TPU 도입을 논의 중인 것으로 알려졌다. 제미나이 3.0 흥행과 TPU 혁신에 힘입어 구글 모회사 알파벳의 주가도 가파르게 상승하고 있다. 25일(현지시간) 알파벳은 주당 323.64달러(약 47만4600원)로 거래를 마치며 제미나이 3.0 출시일(18일) 대비 13.57% 올랐다. 이 같은 흐름 속에 국내 증시에서는 삼성전자가 가장 큰 수혜를 입을 것이라는 분석이 나왔다. 삼성전자는 구글 TPU 설계 및 생산을 담당하는 브로드컴에 고대역폭메모리(HBM)를 비롯한 메모리 반도체를 공급하고 있다. 26일 KB증권은 TPU 생태계 확장의 최대 수혜주로 삼성전자를 꼽으며 투자 의견 ‘매수’와 목표주가 16만원을 유지했다. 김동원 KB증권 연구원은 “삼성전자는 북미 빅테크 기업들의 높은 메모리 공급 점유율을 기반으로 구글, 브로드컴, 아마존, 메타 등의 메모리 공급망 다변화 전략의 직접적 수혜가 기대된다”라고 밝혔다. 김 연구원은 “결국 엔비디아 GPU 의존도가 점차 축소될 전망”이라며 “엔비디아 집중에 따른 빅테크의 과도한 자본지출과 감가상각에서 불거진 AI 버블 우려는 향후 AI 생태계 다변화로 완화될 것”이라고 덧붙였다. KB증권은 내년 삼성전자의 영업이익이 전년 대비 108% 증가한 97조원에 달할 것으로 전망했다. 특히 올해 4분기 영업이익으로는 전년 대비 192% 증가한 19조원을 제시했다. 김 연구원은 “삼성전자는 브로드컴 메모리 공급 점유율 1위를 기록하고 있어 향후 구글 TPU 생태계 확장의 최대 수혜가 기대된다”라고 강조했다.
  • “AI로 뭐든 만들어봐”… 제주형 AI 교육 현주소 보는 페스티벌

    “AI로 뭐든 만들어봐”… 제주형 AI 교육 현주소 보는 페스티벌

    제주도는 인공지능(AI)과 디지털 대전환의 흐름 속에서 미래 주도형 인재를 발굴하기 위해 ‘AI 유스 페스티벌’을 오는 12월 4일 한라대학교 컨벤션센터에서 연다고 26일 밝혔다. 이번 행사는 내년부터 본격 시행될 2025년 교육발전특구 시범사업의 주요 프로그램을 한자리에서 선보이는 자리로 마련됐다. 행사는 도내외 초·중·고 학생과 학부모가 함께 참여하는 만큼, 단순한 경진대회를 넘어 제주형 AI 교육의 현주소와 향후 방향을 공유하는 플랫폼으로 기능할 전망이다. ‘AI 유스 페스티벌’의 핵심은 학생들이 직접 설계·제작·시연에 참여하는 두 개의 경진대회다. 첫 번째는 AI 로봇 경진대회다. 초·중·고 학생 최대 4인으로 꾸린 팀들이 구글 클라우드 TPU(텐서처리장치) 등 AI 학습·추론에 특화된 기술을 활용해 만든 레고 기반 로봇을 시연한다. 본선에서는 각 팀이 부스를 운영하며 로봇의 기능을 심사위원에게 직접 설명하는 방식으로 진행된다. 최우수팀에게는 도지사 표창이 수여된다. 두 번째는 AI 코딩대회로, 생성형 AI를 활용해 앱이나 서비스를 기획하고 구현하는 코딩 창작 경연이다. 역시 도지사 표창이 주어지며, 참가팀 모두가 전문 강사 1대 1 멘토링을 받을 수 있다는 점이 특징이다. 제주도는 이번 페스티벌을 통해 AI 코딩 교육 전문 강사 양성 AI 로봇 부트캠프 등 교육발전특구 시범사업 프로그램들을 종합적으로 공개한다. 도는 이를 통해 제주의 초·중·고 AI 교육 기반을 체계화하고 강화하는 계기로 삼는다는 계획이다. 대회 참가 신청은 오는 28일까지이며, 자세한 내용은 제주도 미래성장과 또는 제주테크노파크 신산업기획팀을 통해 안내받을 수 있다. 김남진 제주도 혁신산업국장은 “AI·디지털 대전환 시대에 미래 인재 양성은 제주 경쟁력의 핵심 과제”라고 강조하며, “AI 교육 프로그램을 지속적으로 확대해 제주를 글로벌 AI 교육 허브로 육성하겠다”고 밝혔다.
  • ‘AI 거품론’ 깨지나… 앤스로픽도 최상위 모델 공개

    ‘AI 거품론’ 깨지나… 앤스로픽도 최상위 모델 공개

    ‘제미나이 3’ 넘은 ‘클로드 오퍼스 4.5’ 운영 비용도 3분의1로 경제성 높여 인공지능(AI) 모델 ‘클로드’를 운영하는 앤스로픽이 24일(한국시간) 최상위 모델 ‘클로드 오퍼스 4.5’를 전격 출시했다. 이달 구글의 제미나이 3와 오픈AI의 GPT-5.1까지 AI 빅3의 최신 고성능 모델들이 앞다퉈 시장에 나오면서 최근 대두되던 ‘AI 거품론’이 일정 부분 해소되는 분위기다. 앤스로픽은 오퍼스 4.5가 소프트웨어 개발 능력을 평가하는 SWE 벤치마크에서 80.9%의 성능을 기록하며 ‘GPT-5.1 코덱스 맥스’(77.9%)와 ‘제미나이 3프로’(76.2%)를 넘어섰다고 밝혔다. 이는 AI가 복잡한 프로그래밍 코드를 생성하고 오류를 수정하는 전문 작업에서 최고 수준에 도달했음을 의미한다. 앤스로픽은 성능 향상과 더불어 모델 사용료(API)를 기존 대비 3분의 1 수준으로 대폭 낮추면서, 고성능 AI를 더 저렴하게 활용할 수 있는 기반을 마련했다. 이러한 기술적 진보는 앞서 출시된 구글 제미나이 3가 주도한 흐름을 이어간다. 지난 18일 출시된 제미나이 3는 자체 개발한 AI 전용 칩인 텐서처리장치(TPU)를 활용해 AI 구동 비용을 획기적으로 낮추는 데 성공했다. TPU는 AI의 연산 처리에 특화된 칩으로 기존에 주로 쓰이던 그래픽처리장치(GPU)보다 훨씬 적은 전력과 비용으로 대규모 AI 연산을 처리할 수 있다. 이는 막대한 운영 비용 때문에 AI 서비스가 돈을 벌기 어렵다는 시장의 우려를 불식시켰는데, 실제 제미나이 3 출시 이후 구글 모회사인 알파벳의 주가는 사상 최고치를 경신했다. 지난 12일 공개된 오픈AI GPT-5.1은 추론 능력과 응답 정확성 향상에 초점을 맞추며 또 다른 진화 방향을 제시했다. 다만 오픈AI의 샘 올트먼 최고경영자(CEO)는 제미나이 3를 접한 뒤 “이제 우리가 쫓아가는 입장”이라며 당분간 분위기가 좋지 않을 것이라고 토로하기도 했다. 이처럼 AI 빅3가 한 달 새 잇따라 성능·효율·경제성을 대폭 강화한 모델들을 내놓으면서 그동안 시장을 짓눌렀던 AI 거품 논란이 다소 수그러들고 있다.
  • [차상균의 혁신의 세계] ‘탄핵 블랙홀’ 넘어 미래와 세계로

    [차상균의 혁신의 세계] ‘탄핵 블랙홀’ 넘어 미래와 세계로

    비상계엄 사태는 국회의 윤석열 대통령에 대한 탄핵소추안 가결로 대통령 직무가 법적으로 정지되면서 일단락됐다. 헌법재판소의 최종 판단이 남았지만 일단 대통령 권한 행사로 인한 불확실성은 해소할 수 있게 됐다. 비상계엄 2시간 30분 만에 국회가 신속하게 계엄 해제를 결의하고 윤 대통령이 임명한 대다수 국무위원이 계엄 선포 전 짧은 시간이지만 계엄에 반대를 표명했거나 반대하는 생각을 가졌음이 확인됐다. 45년 만의 비상계엄이 실패한 것은 대통령이라 할지라도 대한민국 민주주의를 독단으로 훼손할 수 없다는 사실을 전 세계에 보여 줬다. 1979년 10·26 이후 마지막 비상계엄을 대학 1학년생으로 경험했던 법률가 윤석열이 헌법과 법률을 수호해야 할 대통령으로서 어떤 역사 인식과 상황 인식, 심리 상태에서 비상계엄을 밀어붙였는지는 수사로 밝혀져야 할 것이다. 역사는 시대 흐름과 맞지 않는 이번 계엄 선포를 윤 대통령 개인이 벌인 하나의 해프닝으로 기록할지도 모른다. 하지만 글로벌 외교와 통상에서 자국 우선주의를 표방하는 미국 도널드 트럼프 정부가 곧 들어서고 반도체, 자동차, 배터리 등 한국 주축 산업의 미래가 불확실한 현실에서 실패한 비상계엄과 탄핵의 국가적 피해는 매우 크다. 하루라도 빨리 여야, 정부가 힘을 모아 국가 기능을 정상화해야 한다. 지금부터는 탄핵소추안을 주도한 거대 야당도 국정 운영에 공동 책임을 져야 한다. 우선 국가의 경제산업 경쟁력에 여야가 주목해야 한다. 삼성전자의 시가총액은 탄핵소추안 가결 시점 기준 373조원으로 떨어졌다. 달러 환율도 올라 이 국민주 기업의 달러 기준 가치는 2600억 달러밖에 되지 않는다. 삼성전자 주식을 보유한 많은 국민이 가만히 앉아서 손해를 본 것이다. 시선을 해외 반도체 기업으로 돌려 보자. 10여년 전만 해도 시가총액이 삼성전자와 비교 대상도 아니었던 브로드컴의 지난 13일 시가총액은 1조 600억 달러로 24% 넘게 올랐다. 삼성전자의 4배다. 반도체 업계 2위인 대만의 TSMC도 앞지르게 됐다. 고성장하는 인공지능(AI) 반도체 사업을 적극 개척한 덕분이다. 브로드컴은 구글의 AI 가속칩 TPU(텐서처리장치) 경험을 바탕으로 AI 가속칩이 필요한 메타, 애플 등 다른 기업으로 사업을 확장하고 있다. 브로드컴과 같은 팹리스 반도체 기업인 엔비디아의 시가총액은 3조 3400억 달러로 삼성전자의 13배가 됐다. 엔비디아 역시 한때는 삼성전자와 비교도 할 수 없는 작은 기업이었다. TSMC의 파운드리를 기반으로 성장했다. 반도체 업계 1위였던 인텔은 거듭된 실기로 15위로 떨어져 존망을 걱정해야 할 형편이다. 반면교사로 삼아야 할 기업이다. 인텔 때문에 고전하던 AMD는 반도체 라인을 분사시킨 후 현재의 CEO 리사 수가 AI 데이터센터 반도체 사업을 키워 되살렸다. 시가총액이 삼성전자 다음인 6위다. AI 때문에 경제와 안보에서 반도체 산업의 전략적 중요성이 부각되며 일본도 반도체 소재, 장비 산업의 경쟁력을 바탕으로 반도체 산업 전반에 대한 국가적 투자를 늘리고 있다. 중국도 미국의 반도체 봉쇄를 극복하기 위해 반도체 산업에 엄청난 전략적 투자를 하고 있다. 지난달 뉴델리에서 개최된 ‘한국과 인도의 전략 다이얼로그’에서 인도는 14억 인구에 필요한 반도체의 자체 생산을 위한 반도체 산업 육성 계획을 밝혔다. 해외 기업이 설립하는 반도체 공장에 중앙정부가 비용의 50%, 지방정부가 25%를 지원한다. 한편 중국 전기차와 배터리 산업은 세계 1위에 이르고 있다. 중국 최대 배터리 기업 CATL의 연구원 수는 한국 최대 기업의 3배에 이르렀다. 한국의 AI 분야 글로벌 경쟁력은 반도체나 전기차, 배터리보다 더 심각하다. 잘못된 데이터와 인식 때문에 제대로 된 로드맵조차 없다. 우리보다 못하다고 여기는 일본만 해도 관료화된 정부의 AI 경쟁력이 전부가 아니다. 기업, 특히 비전 펀드로 글로벌 선도 AI 기업에 투자하는 소프트뱅크 그룹의 경쟁력은 국내 어떤 기업보다도 높다. 잘못된 데이터와 인식에 기반한 과학기술, 교육, 산업 정책은 하루라도 빨리 고쳐야 한다. 탄핵의 블랙홀을 벗어나 미래와 세계로 눈을 돌려야 한다. 차상균 서울대 데이터사이언스대학원 초대원장
  • 에릭 슈미트 전 구글 CEO “엔비디아가 AI 최대 승자될 것”

    에릭 슈미트 전 구글 CEO “엔비디아가 AI 최대 승자될 것”

    에릭 슈미트 구글 전 최고경영자(CEO)가 “엔비디아가 인공지능(AI) 최대 수혜자가 될 것”이라고 말했다.15일(현지시간) 미 CNBC 등에 따르면 슈미트 전 회장은 최근 스탠퍼드 대학교에서 열린 강연에서 “거대 기술기업들이 엔비디아 칩 기반 AI 데이터센터에 점점 더 많은 투자를 계획하고 있다”며 이같이 전망했다. 그는 빅테크 기업들이 AI 데이터센터를 건설하는 데 최대 3000억 달러(약 408조원)가 들어갈 것이라고 내다봤다. 그는 “이 같은 지출의 상당수가 AI 전용칩을 만드는 엔비디아로 흘러 들어갈 것”이라며 “만약 3000억 달러가 모두 엔비디아에 투자된다면 주식 시장에서 무엇을 해야 할지 여러분들이 더 잘 알 것”이라고 말했다. 그러면서 “(이런 발언이) 주식 종목을 추천하는 건 아니다”고 말했다. 엔비디아가 AI 시장에서 유일한 승자가 되지는 않겠지만, 다른 선택지는 많지 않다고도 했다. “선도적인 모델과 다른 모델들 간 격차는 점점 더 벌어지고 있다”는 이유에서인데, 특히 AI 개발자들이 사용하는 많은 오픈 소스 도구들이 엔비디아의 쿠다(CUDA) 프로그래밍 언어를 기반으로 하기 때문에 경쟁사들이 엔비디아를 따라잡기 어려울 것이라고 전망했다. 구글의 경우 엔비디아 프로세서와 경쟁할 수 있는 TPU(Tensor Processing Unit)라는 칩을 개발했지만 아직 초기 단계에 불과하다는 설명이다. 슈미트는 2001년부터 2011년까지 구글의 CEO였으며 이후에도 2019년까지 이사회에 있었다. 이날 슈미트 전 회장의 강연 내용은 스탠퍼드대학교가 이번 주에 게시한 동영상에 포함돼 있지만 금방 삭제됐다. 한편 모건스탠리 투자운용의 주식 포트폴리오 수석 매니저인 앤드류 슬림몬은 올해 말 스탠더드앤드푸어스(S&P)500 지수가 6000에 근접할 것으로 내다보면서 아마존, TSMC, 노보노디스크와 함게 엔비디아를 추전 종목으로 선정했다. 엔비디아는 이날 뉴욕 증시에서 4.05% 오른 122.860달러에 마감했으며, 오는 28일 2025 회계연도 2분기 실적을 발표할 예정이다.
  • “폐쇄형 애플, 빌어먹을 것”… 또 저격한 메타·엔비디아

    “폐쇄형 애플, 빌어먹을 것”… 또 저격한 메타·엔비디아

    마크 저커버그 메타 최고경영자(CEO)가 젠슨 황 엔비디아 CEO와의 대담에서 애플의 ‘폐쇄적 생태계’를 저격하는 발언을 쏟아내며 반(反)애플 전선 구축을 공고히 했다. 애플은 자사의 인공지능(AI) 훈련에 엔비디아 칩을 사용하지 않는 것으로 알려지며 엔비디아와 거리두기에 나선 모습이다. 29일(현지시간) 저커버그 CEO는 미국 콜로라도 컨벤션센터에서 열린 컴퓨터 그래픽스 콘퍼런스 ‘시그라프 2024’ 특별대담에서 최근 오픈소스로 공개된 메타의 생성형 AI 모델 ‘라마 3.1’을 설명하던 중 애플과 같은 폐쇄형 플랫폼에 대해 “빌어먹을 것”이라며 강도 높게 비판했다. 저커버그 CEO는 “폐쇄형 플랫폼에 대해 얘기하면 화가 난다”며 “모바일 시대에는 애플이 승리한 것처럼 보이지만, 다음 세대에는 오픈 생태계가 승리할 것이 확실하다”고 말했다. 그러면서 “오픈소스로 AI 생태계를 만들면 예산도 엄청나게 아낄 수 있다”면서 “엔비디아가 많이 도와주고 있다”고 했다. 메타의 라마 3.1은 엔비디아의 H100 그래픽처리장치(GPU) 1만 6000개를 기반으로 훈련됐는데, 해당 칩은 개당 3만~4만 달러에 달하는 것으로 알려졌다. 애플은 구글과의 협력을 강화하며 탈(脫)엔비디아에 속도를 내는 모습이다. 애플은 이날 공개한 자사 AI 시스템 ‘애플 인텔리전스’ 관련 연구 논문에서 애플 인텔리전스의 기반이 되는 AFM 온디바이스와 AFM 서버 모델을 ‘클라우드 TPU 클러스터’에서 학습시켰다고 밝혔다. 구글을 직접 언급하진 않았지만 구글이 설계한 AI 전용 칩인 TPU를 적시함으로써 엔비디아 칩을 사용하지 않은 점을 드러낸 것이다. 주요 빅테크 가운데 엔비디아 칩을 쓰지 않는다고 공개한 곳은 애플이 처음이다. 엔비디아가 AI 전용 칩 시장의 80% 이상을 장악하고 있다는 점을 감안하면 애플의 이번 결정은 빅테크들이 AI를 구축하는 데 엔비디아에 대한 의존도를 최소화하려는 움직임으로 해석할 수 있다. 미 CNBC 역시 “빅테크들이 엔비디아의 대안을 찾고 있다는 신호”라고 평가했다.
  • 페이스북 창시자 저커버그, 윤 대통령 예방 추진

    페이스북 창시자 저커버그, 윤 대통령 예방 추진

    페이스북을 창시한 마크 저커버그 메타 최고경영자(CEO)가 이달 말 한국을 방문해 윤석열 대통령과의 만남을 추진하는 것으로 알려졌다. 대통령실과 정부 관계자들은 21일 저커버그가 이달 말 방한을 추진 중이라고 전했다. 저커버그는 2013년 6월 1박 2일 일정으로 한국을 찾아 박근혜 전 대통령과 이재용 삼성전자 회장 등을 만난 바 있다. 메타 측으로부터 저커버그의 윤 대통령 면담을 요청받은 대통령실은 두 사람의 만남을 긍정적으로 검토하고 있다고 밝혔다. 저커버그의 구체적인 방문 일정은 밝혀지지 않았지만 11년 전처럼 이 회장을 만날 가능성도 제기된다. 최근 전 세계적인 생성형 인공지능(AI) 열풍으로 AI 반도체 확보를 위한 경쟁이 치열한 가운데 이 회장과 만나 협업을 논의할 수 있다는 분석이다. 현재 AI 칩 시장은 엔비디아가 80% 가까이 장악하면서 가격이 비싸고 AI 칩 공급이 부족해 주요 기업들은 자체 칩을 개발하고 있다. 구글은 최신 칩(TPUv5p)을 자사의 최신 AI 모델을 제미나이에 적용하고 있고, 마이크로소프트(MS)도 ‘마이아 100’이라는 칩을 공개하는 등 빅테크 기업들은 엔비디아에 대한 의존도를 낮추려고 하는 상황이다. 챗GPT 개발사 오픈AI의 샘 올트먼 역시 지난달 한국을 방문해 삼성전자와 SK하이닉스 경영진을 면담하는 등 7조 달러(9300조원)를 유치해 ‘AI 반도체 동맹’ 구축에 나서고 있다. 인간 지능에 가깝거나 능가하는 범용인공지능(AGI)을 구축하는 등 AI 기술 경쟁에 적극 뛰어드는 메타 역시 AI 반도체가 필요한 상황이다. 메타는 지난해 5월 자체 AI 칩인 MTIA를 공개한 데 이어 최근 2세대 칩을 개발해 연내 투입할 계획을 가지고 있다. 저커버그가 이 회장을 만나 자체 개발한 AI 칩 생산을 논의할 수 있다는 전망이 나온다. 그는 2022년 10월 미국 실리콘밸리에 있는 삼성리서치아메리카를 직접 찾아 당시 삼성전자 DX 부문장인 한종희 부회장, 노태문 MX 사업부 사장을 만나 이에 대한 협력 방안을 논의한 것으로 알려졌다.
  • 입이 떡…첫 인간 추월 AI, 구글 ‘제미나이’ 공개

    입이 떡…첫 인간 추월 AI, 구글 ‘제미나이’ 공개

    “물보다 밀도가 작은 고무로 만든 오리군요.” “오른쪽 자동차가 공기저항에 유리해 더 빨라요.” 지금까지 나온 인공지능(AI) 모델 가운데 사람에 버금가는 가장 높은 성능의 대규모 언어모델(LLM)이 등장했다. 구글은 6일(현지시간) AI의 기반이 되는 LLM ‘제미나이’(Gemini)를 공개했다. 제미나이는 오픈AI의 챗GPT의 LLM인 ‘GPT’와 같은 AI 모델로, 오픈AI의 최신 모델인 ‘GPT-4’보다 성능이 우수하다고 구글은 밝혔다. 제미나이는 이미지를 인식하고 음성으로 말하거나 들을 수 있으며 코딩 능력까지 갖춘 ‘멀티모달 AI’로 만들어졌다. 멀티모달은 다양한 모드 즉 시각, 청각 등을 활용해 텍스트 뿐만 아니라 이미지, 음성, 영상 등으로 상호작용하는 것을 말한다. 또 제미나이는 수학 문제를 풀거나 데이터를 분석하는 추론 능력도 갖췄다.구글이 공개한 제미나이 테스트 결과들을 보면, 제미나이의 능력은 그야말로 사람 뺨친다. 그저 인형을 보여주기만 했을 뿐인데 고무 소재의 파란색 오리 모양인 걸 맞추거나, 분홍색 실과 녹색 실을 보여줬더니 과일 용과를 만들어 보는 건 어떻겠느냐고 제안했다. 자동차 그림을 보여주며 디자인상 속도의 차이를 물으니 “오른쪽 차량이 공기저항에 더 유리하다”는 식으로 답했다. 두 장의 사진을 보고 유사성을 찾아내기도 했다. 일례로 골프공과 달 사진을 보여줬더니 “달은 인간이 골프를 쳤던 유일한 천체다. 1971년 ‘아폴로 14호’ 승무원이 달 표면에서 골프공 두 개를 쳤다”며 단번에 관련성을 답했다.(엄밀히 말하면 달은 인간이 골프를 쳤던 지구 밖 유일한 천체다.) 햇살이 들이치는 방 사진을 보여주고 집이 어느 방향을 향하고 있는지 묻자, “남향”임도 맞췄다. 일반 사진을 포토샵과 일러스트레이터에 맞는 SVG(벡터 그래픽 형식)로 변환하는 것은 물론 HTML, 자바스크립트로 표현하는 코딩에도 능했다. 텍스트·이미지·음성·영상으로 상호작용 가능한 ‘멀티모달 AI’“대규모 다중작업 언어 이해(MMLU) 점수 90% 얻어”PT-4는 86.4%, 인간 전문가는 89.8%…사람 넘은 첫 모델 ‘알파고’의 아버지 데미스 허사비스가 프로젝트 주도 이 LLM은 머신 러닝(기계학습·인간의 학습능력과 같은 기능을 컴퓨터에서 실현하고자 하는 기술)의 규모에 따라 울트라(Ultra)와 프로(Pro), 나노(Nano) 등 3개 모델로 출시된다. 그 중 가장 크고 고성능인 ‘제미나이 울트라’의 경우 대규모 다중작업 언어 이해(MMLU)에서 90%의 정답률을 기록했다. MMLU는 수학, 물리학, 역사, 법률, 의학, 윤리 등 50여개의 주제를 복합적으로 활용해 지식과 문제 해결 능력을 평가하는 테스트다. 구글은 제미나이가 “인간 전문가 점수인 89.8%를 넘은 최초의 모델”이라고 설명했다. 오픈AI의 GPT-4는 86.4%를 기록했다. 또 현재 가장 우수한 모델과 비교해 “32개 지표 중 30개에서 앞섰다”며 현재까지 성능이 가장 우수하다고 평가되는 GPT-4보다 뛰어나다고 강조했다. 이 제미나이 울트라는 내년 초 ‘바드 어드밴스트’라는 이름으로 바드에 장착된다.아울러 가장 범용으로 쓰이는 ‘제미나이 프로’는 이날부터 구글의 AI 챗봇 서비스인 ‘바드’에 탑재된다. 바드에는 지금까지 팜2(PaLM2)가 탑재돼 왔다. 제미나이 프로가 적용된 바드는 170개 이상 국가 및 지역에서 영어로 제공되며, 향후 서비스 확장 및 새로운 지역과 언어도 지원될 예정이다. ‘제미나이 나노’는 클라우드 연결 없이 디바이스 자체에서 가벼운 AI를 즉각적으로 활용하는 온디바이스 형태로 접목된다. 구글이 지난 10월 공개한 최신 스마트폰인 ‘픽셀8 프로’에 탑재된다. 한편 제미나이는 구글이 자체 개발한 AI 칩(TPU v4·v5e)으로 학습했다. 구글은 최첨단 AI 모델을 학습시키기 위해 설계한 최신 칩(클라우드 TPU v5p)도 공개하며 제미나이의 향후 개발을 가속화할 예정이라고 덧붙였다. 순다르 피차이 구글 CEO는 “첫 번째 버전인 제미나이 1.0은 구글 딥마인드의 비전을 처음으로 실현했다”며 “구글이 개발한 가장 포괄적이고 뛰어난 AI 모델”이라고 설명했다. 구글은 지난 4월 AI 조직인 구글브레인과 딥마인드를 구글 딥마인드로 통합하고, 제미나이를 개발해왔다. 바둑 AI ‘알파고’의 아버지로 유명한 데미스 허사비스가 프로젝트를 주도하고 있다.
  • 세계 첫 개인정보 보호기술 적용된 AI반도체 개발

    세계 첫 개인정보 보호기술 적용된 AI반도체 개발

    국내 연구진이 개인정보 보호 기술이 적용된 반도체 하드웨어를 개발했다. 카이스트 전기및전자공학부 연구팀은 세계 최초로 개인정보 보호 기술이 적용된 인공지능(AI) 반도체를 개발했다고 19일 밝혔다. 이번 연구 결과는 오는 10월에 열리는 컴퓨터 구조 분야 국제학술대회인 ‘MICRO 2022’에서 발표될 예정이다. 구글, 애플, 마이크로소프트 등 클라우드 서비스를 제공하는 기업들은 AI 기술을 기반으로 여러 서비스를 제공한다. 이를 위해서는 사용자 정보를 대량으로 수집해 AI 알고리즘 정확도와 성능을 개선해야 한다. 이 과정에서 많은 양의 사용자 정보가 서비스 제공 기업의 데이터 센터로 전송되고 민감한 개인정보나 파일들이 저장되고 사용되는 과정에서 정보가 유출되기도 한다. 대형 인공지능 모델에서 정보유출은 더 쉽게 발생하는 경향이 있기 때문에 빅테크 기업들은 차등 프라이버시 기술에 주목하고 있다. 차등 프라이버시 기술은 학습에 사용되는 정보에 잡음을 섞음으로써 AI 모델에서 사용자의 개인정보를 유출하는 모든 종류의 공격을 방어할 수 있다. 그럼에도 불구하고 차등 프라이버시 기술을 적용하면 기존 어플리케이션(앱) 속도와 성능이 크게 하락하기 때문에 적용되지 못하고 있다. 이에 연구팀은 차등 프라이버시 기술의 성능 병목 구간을 분석해 앱 성능을 개선시킬 수 있는 인공지능 반도체 칩을 개발했다. 연구팀이 개발한 AI 반도체는 현재 널리 사용되는 AI 반도체 프로세서인 구글 TPUv3와 비교했을 때 차등 프라이버시 인공지능 학습 과정을 3.6배 빠르게 실행시킬 수 있는 것으로 확인됐다. 또 엔디비아의 최신 그래픽처리장치(GPU) A100 대비 10분의 1 수준의 자원으로 대등한 성능을 보인다고 연구팀은 설명했다. 연구를 이끈 유민수 카이스트 교수는 “이번 연구는 지금까지 없었던 차등 프라이버스가 적용된 인공지능 반도체를 처음 개발했다는 점에서 의미가 크다”며 “하드웨어 한계로 쓰이지 못했던 차등 정보보호 기술의 대중화에 도움을 줄 수 있을 것”이라고 말했다.
  • 산업전쟁 핵심 된 반도체… 바이든, 中 견제 위해 파운드리에 사활 [손재권의 실리콘밸리 투데이]

    산업전쟁 핵심 된 반도체… 바이든, 中 견제 위해 파운드리에 사활 [손재권의 실리콘밸리 투데이]

    “이제 미국은 20년 만에 처음으로 중국보다 빠르게 성장할 겁니다. 반도체는 휴대전화, 자동차, 냉장고, 인터넷, 전력망 등 일상생활 거의 모든 분야에 필요합니다. 이제 미국에서 제품을 만들고 자동차, 가전제품 등을 제조하는 데 도움이 될 것입니다. 수천개의 일자리를 창출하고 인플레이션을 완화하는 데 도움이 될 것입니다. 게임체인저가 될 것입니다.” 조 바이든 미국 대통령은 지난달 14일 미국의 반도체 기업 인텔이 오하이오주에 24조원을 투자해 신규 반도체 공장을 짓는다는 발표 자리에 참석했다. 팻 갤싱어 최고경영자(CEO)의 이 투자 발표 자리에는 바이든 대통령과 함께 미 상무장관이 동행했다. 바이든 대통령은 이 자리에서 “반도체는 군사 안보, 경제 안보의 핵심”이라며 “미 의회는 반도체 투자에 사용할 국가 예산법을 승인해야 한다”고 촉구했다. 대통령이 앞장서서 미국 기업의 투자 발표 자리에 등장, 격려하고 민간 기업의 투자에 국민 ‘세금’을 동원하는 것을 독려하는 모습이었다. 그동안 ‘슈퍼301조’를 동원, “보조금 지급을 중단하라”며 통상 압박을 하던 과거 미국 대통령과 정부와는 크게 달라진 모습이다. 마치 한국 대통령이 경기 화성 삼성전자 새 공장 준공식에 참석하던 장면이 연상된다. 일본, 한국, 대만 등 아시아 각 기업에 정부 보조금이 얼마나 쓰여졌는지 조사하고 압박하던 옛날의 미국이 아니다. 미국은 다급하다. 바이든 대통령이 새로운 형태의 ‘두 개의 전쟁’을 벌이고 있기 때문이다. 두 개의 전쟁이란 하나는 지정학적 전쟁(현재는 우크라이나와 러시아의 전쟁 상황에 미국이 깊게 연관돼 있다)이고 또 하나는 산업 및 경제 전쟁이다. 중국과 인공지능, 반도체, 바이오 헬스케어, 차세대 이동통신 등 각 영역에서 산업 패권 경쟁을 벌이고 있어 이 분야에서의 승리가 국가 운명을 좌우하고 있다고 믿고 있다. 지금은 지정학적 전쟁보다 산업 전쟁의 파괴력이 더 커졌다고 해도 과언이 아니다. 글로벌 반도체 부족은 유통망 붕괴와 인플레이션을 유발했고 정권의 운명을 좌우할 정도의 이슈가 됐다. 반도체가 산업 전쟁의 핵심 ‘전장’이 되고 있는 것을 대통령부터 엔지니어까지 인식하고 있는 것이다. 전쟁과 같은 상황이 벌어진 반도체 경쟁은 2022년이 처음이 아니다. 과거에 타국의 D램 기업을 죽이기 위한 치열한 경쟁이 있었고 마이크로칩(CPU) 기술 개발 경쟁이 있었다. 하지만 지금은 특히 ‘파운드리’(Foundry) 분야에서 벌어지고 있으며 지정학적 상황과 긴밀히 연결돼 있다는 것이 다르다.파운드리는 반도체의 설계 디자인을 전문으로 하는 기업(팹리스)으로부터 제조를 위탁받아 반도체를 생산하는 기업을 의미한다. 인텔이 오하이오주에 건설하겠다는 반도체 공장도 ‘파운드리’다. 인텔은 공장 설립뿐 아니라 이스라엘 반도체 회사 ‘타워 세미컨덕터’를 54억 달러(약 6조 4700억원)에 인수한다고 공식 발표했다. 여기에 지난 17일에는 ‘인베스터 데이 2022’를 열어 회사의 중장기적 반도체 전략을 발표하고 인텔 파운드리 서비스(IFS) 내에 ‘자동차 전담 그룹’을 출범해 차량용 반도체 파운드리 시장에 진출하겠다고 밝혔다. 인텔은 향후 10년간 최소한 72조원, 최대 144조원을 미국 반도체 사업에 투자하기로 했다. 한마디로 ‘파운드리 전쟁’에 총진군하겠다는 선언이라고 볼 수 있다. 인텔이 이 전쟁에서 승리할지는 미지수다. 인텔이 파운드리 공장 건설과 타워 세미 인수를 발표한 후 주가가 14% 떨어졌다. 쉽지 않다. 아시아 기업들의 맞대응이 치열하기 때문이다. 파운드리 분야에서 독보적 1위를 차지하고 있는 대만 TSMC는 지난해 최첨단 5나노미터(nm) 공정의 미국 애리조나 공장에 120억 달러(약 14조 3500억원)를 투자하겠다고 발표한 데 이어 일본 구마모토현의 반도체 공장 건설에 9800억엔(약 10조 1800억원)을 투자하기로 했다. 당초 계획보다 1800억엔(약 1조 8700억원) 늘어난 금액이다. 삼성전자도 미 텍사스주 테일러시에 170억 달러를 투자해 신규 공장을 건설한다고 발표하고 이번 분기(2022년 1분기)에 착공, 2024년 하반기 가동할 예정이다. 반도체 산업뿐 아니라 전체 산업을 돌이켜 보더라도 이렇게 짧은 기간에 한국, 미국, 대만의 각 국가를 대표하는 기업들이 동시에 천문학적인 액수를 공격적으로 투자한다고 발표한 적이 없었다. 그렇다면 왜 ‘파운드리’ 공장 건설에 사활을 거는 것일까? 반도체 투자의 종착역은 왜 파운드리일까? 첫째, 산업적으로 주문형 칩의 시대(Custom Chip Era)로 완전히 변했기 때문이다. 2010년부터 기존의 퀄컴 등 팹리스 기업뿐 아니라 애플, 구글, 마이크로소프트, 페이스북 등 빅테크 기업들이 자사 제품에 필요한 칩을 직접 설계해서 파운드리에 위탁 생산하기 시작했다. 실제 애플이 자체 설계하고 제작한 M1 칩은 퍼스널 컴퓨터 분야의 게임체인저가 됐다. 구글도 2016년부터 인공지능 칩(TPU)을 설계, 제조하고 있으며 2018년에는 아마존이 클라우드용 CPU(Graviton)를 제작하고 있다. 초대형 시스템 회사가 직접 설계하고 생산은 파운드리에 맡기는 트렌드는 가속화되고 있는 것이다. 여기에 더해 이제는 GM, 포드, 현대차 등 대형 자동차 회사들도 직접 반도체를 설계해서 위탁 제조하겠다고 나서고 있다. 둘째, 반도체는 국가 간 경쟁에 치명타를 미칠 수 있음이 드러났다. 미국은 중국이 전략적으로 육성한 기업인 화웨이, SMIC에 반도체와 반도체 제조장비, 소프트웨어 공급을 막았다. 외부의 첨단 기술을 통해 미국의 영향력을 넘어서려는 중국에 어려움을 준 것이다. 특히 반도체는 원유 수입을 능가하는 국가 최대 수입항목으로 중국 국가 총수입의 18%를 차지한다. 전자제품을 저렴하게 제조해 세계에 판매해 온 중국으로서는 앞으로 국가 경제의 성패가 반도체 확보에 있다고 해도 과언이 아니다. 또 러시아가 우크라이나를 침공하면 미국은 러시아에 반도체 수출금지 카드를 쓸 것이다. 이처럼 반도체는 경제 제재에도 핵심 무기가 됐다. 이 같은 상황은 미국과 세계 지도자들에게 반도체 산업이 얼마나 국가 안보, 국가 경쟁력, 제조업 등에 전략적으로 중요한지 알려 주는 계기가 됐다. 그래서 미국은 반도체를 아시아 국가가 아닌 자국에서 만들어서 ‘반도체 패권’을 유지하려 한다. 아시아의 삼성전자와 TSMC의 공장을 유치, ‘메이드인 USA’를 완성하려는 것이다. 바이든 대통령은 백악관 연설에서 “미국 제조업이 재기하기 시작했다. 세계가 변곡점에 있고 상황이 크게 변할 것이다. 지금은 이런 과도기 순간 중 한 시점이다”라고 의미 부여를 한 것은 이런 분위기를 반영한다. 셋째, 현존 파운드리의 절대 강자 ‘TSMC’가 앞으로는 흔들릴 수 있다. 2021년 3분기 세계 파운드리 시장에서 TSMC는 53%의 점유율로 1위를 차지했다. 절반이 넘는다. 시가총액도 세계 10대 기업 반열에 올랐으며 아시아에서도 가장 가치 있는 기업이 TSMC가 됐다. 지금은 명실상부한 TSMC의 시대다. 하지만 앞으로는 바뀔 수 있다. TSMC는 최선단 공정인 5nm, 7nm가 전체 매출의 50%를 차지하고 그다음의 선단 공정인 16nm가 매출의 14%다. 또 애플 매출이 차지하는 비중이 25%이며 대만에 집중돼 있다. 한 고객, 그리고 한 지역에 모든 생산시설이 있는 것은 리스크가 크다. 더구나 TSMC의 최대 고객인 애플은 반도체 공정기술이 크게 바뀌는 것을 거대한 위험요소로 보고 최대한 피하려 하고 있다. 반도체 공정이 평면구조에서 3면구조인 FinFET로 바뀌는 변화에서 애플은 TSMC와 삼성 두 회사를 제조사로 선택한 바 있다. 지금 첨단 반도체 산업은 설계 및 생산이 3면구조(FinFET)에서 4면구조(GAA FET)로 바뀌는 시점이다. 삼성전자는 4면구조 3nm 공정 생산을 올 상반기에 시작하고 TSMC는 3nm를 기존의 FinFET으로 연말까지 준비해서 내년부터 생산한다. 삼성이 4면구조로 기술 우위를 증명하면 애플의 수요를 TSMC에서 가져올 가능성이 있다. 이 상황을 잘 알고 있는 TSMC가 미국 공장 건설과 공정 업그레이드 투자로 삼성 등의 도전을 막으려 하고, 삼성전자와 인텔이 TSMC를 추격하고 있는 것이다. 전쟁은 시작됐다. 더밀크 대표
위로