찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • CPU
    2026-04-15
    검색기록 지우기
  • MLCC
    2026-04-15
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
1,037
  • “‘이 주식’ 사면 매우 똑똑한 사람”…엔비디아 CEO 강력 추천한 ‘황금주’는?

    “‘이 주식’ 사면 매우 똑똑한 사람”…엔비디아 CEO 강력 추천한 ‘황금주’는?

    전 세계 인공지능(AI) 산업을 이끄는 엔비디아의 젠슨 황 최고경영자(CEO)가 대만을 방문해 반도체 위탁생산업체인 TSMC를 극찬하며 투자를 적극 추천했다. 이는 미국 정부가 반도체 기업에 대한 지분 투자를 검토하고 있는 상황에서 나온 발언이어서 주목받고 있다. 22일(현지시간) 미국 CNBC 보도에 따르면, 황 CEO는 이날 대만 방문 중 기자들과 만난 자리에서 TSMC에 대해 “인류 역사상 가장 위대한 기업 중 하나”라고 극찬했다. 그는 “TSMC 주식을 사고 싶어하는 사람은 매우 똑똑한 사람”이라며 적극적인 투자 추천 발언을 했다. 세계 최대 반도체 위탁생산업체인 TSMC의 주가는 올해 들어 6.5% 상승했다. 젠슨 황이 이번에 대만을 방문한 주요 목적은 TSMC 직원들에게 감사 인사를 전하기 위해서였다. TSMC는 현재 엔비디아의 차세대 AI 칩 플랫폼인 ‘루빈’을 제작하고 있다. 그는 “TSMC가 엔비디아를 위해 6개의 새로운 제품을 만들고 있다”고 밝혔다. 여기에는 새로운 중앙처리장치(CPU)와 AI 같은 고급 연산에 쓰이는 새로운 그래픽처리장치(GPU)가 포함된다. 황 CEO의 이런 발언은 미국 정부가 반도체 기업들에 대한 지분 투자를 검토하고 있는 시점에서 나왔다. 앞서 로이터통신은 하워드 러트닉 미국 상무부 장관이 마이크론, TSMC, 삼성 등 기업에 대해 칩스법에 따른 보조금 지급 대신 지분을 확보하는 방안을 검토하고 있다고 보도한 바 있다. 2022년 조 바이든 행정부에서 초당적 지지로 통과된 칩스법은 미국 내 반도체 생산을 확대하는 기업들에게 보조금과 대출을 지원하는 법안이다. 미국이 반도체 제조업에서 다시 주도권을 잡으려는 노력의 일환이다. TSMC는 칩스법에 따라 애리조나주에 첨단 반도체 공장 3곳을 건설하는 데 66억 달러(약 9조 1400억원)의 지원을 약속받았다. 황 CEO는 별도로 엔비디아가 최근 발표한 대만 내 새로운 사무소인 ‘엔비디아 컨스텔레이션’ 건설을 빨리 시작하고 싶다고 밝혔다. 이는 늘어나는 대만 직원들을 수용하기 위한 공간이다. 그는 “대만에 많은 직원들이 있고, 이곳 공급망은 매우 활발하게 돌아가고 있다”며 “대만 전역의 칩 기업들, 시스템 업체들, 제조업체들과 협력하고 있고, 모든 회사가 우리를 위해 열심히 일하고 있어서 함께 일할 많은 엔지니어들이 필요하다”고 덧붙였다.
  • UNIST 연구진, AI 모델 실행 속도 2.5배 높여

    UNIST 연구진, AI 모델 실행 속도 2.5배 높여

    국내 연구진이 딥러닝 인공지능(AI) 모델을 실행 가능한 프로그램으로 바꾸는 데 걸리는 시간을 절반 이상 줄인 기술을 개발했다. 12일 울산과학기술원(UNIST)에 따르면 이슬기 컴퓨터공학과 교수팀은 ‘오토튜닝’ 과정을 최대 2.5배 빠르게 할 수 있는 기법을 개발했다. AI 모델이 실제로 작동하려면 컴퓨터 연산 장치가 이해할 수 있는 형태로 다시 바꾸는 ‘컴파일’ 과정이 필요하다. 오토튜닝은 이 과정에서 가능한 수십만 개의 코드 조합 중 연산 장치에서 가장 빠르고 효율적인 구성을 자동으로 찾아주는 기술이다. 그러나 사례에 따라 튜닝 시간이 수십 분에서 수 시간까지 걸릴 정도로 연산 부담이 크고, 전력 소모가 많다는 문제가 있었다. 이에 이 교수팀은 딥러닝 모델 안에서 반복되는 계산 구조가 많다는 점에 주목해 유사한 연산자끼리 정보를 공유하는 방식으로 탐색 범위를 줄였다. 코드 조합을 일일이 새로 찾는 대신 기존 결과를 재활용해 오토튜닝 속도를 높인 것이다. 이 방식을 오토튜닝 프레임워크에 적용한 결과, 같은 성능의 실행 코드를 생성하는 데 걸리는 속도가 중앙처리장치(CPU) 기준 평균 2.5배, 그래픽처리장치(GPU) 기준 평균 2배 빨라졌다. 이슬기 교수는 “컴파일 시간을 줄이면서도 GPU나 CPU를 직접 실험에 쓰는 횟수가 줄어 제한된 연산 자원을 효율적으로 쓸 수 있을 뿐 아니라 전력 소모도 줄일 수 있다”고 말했다. 이 연구 결과는 지난달 7일부터 사흘간 미국 보스턴에서 열린 컴퓨터 시스템 분야 학회인 OSDI(Operating Systems Design and Implementation)에서 발표됐다.
  • 단국대-한양대 연구팀, 빛으로 뇌처럼 학습 ‘AI 반도체’ 개발

    단국대-한양대 연구팀, 빛으로 뇌처럼 학습 ‘AI 반도체’ 개발

    광전자 시냅스를 AI 반도체에 적용 종이처럼 얇고 휘어지는 기판 구현 가능웨어러블 기기, AI 센서 등 활용 기대 단국대학교는 화학공학과 최준환 교수가 한양대 유호천·오세용 교수팀과 빛을 이용해 인간 뇌처럼 학습하는 차세대 AI 반도체(뉴로모픽 반도체)를 개발했다고 5일 밝혔다. ‘뉴로모픽 반도체’는 인간 뇌 신경망 구조(시냅스)를 모방해 뇌처럼 신호를 처리하고 학습하는 반도체다. 기존 반도체와 달리 연산장치(CPU)와 메모리를 하나의 칩으로 통합해 전력 소모를 크게 줄이고, 많은 데이터를 한 번에 처리할 수 있어 차세대 반도체로 꼽힌다. 주로 전기 신호를 활용한 기존 뉴로모픽 반도체는 최근 빛을 이용한 광전자 시냅스 소자가 핵심 기술로 주목받고 있다. 이 소자는 종이처럼 얇고 휘어지는 기판에 구현이 가능하다. 연구팀은 트랜지스터 소자에 이중 절연막 구조를 도입해, 고분자 절연층 사이 빛에 의해 생성된 전하를 포획·저장하는 구조를 구현했다. 기체 상태에서 상온 공정으로 고분자 절연층을 제작하고, 유기 반도체 소재를 적용해 종이 명함 기판 위에 구현에 성공했다. 최준환 교수는 “이번 연구는 광전자를 이용해 단일 소자에서 메모리와 시냅스 기능을 통합한 사례”라며 “향후 웨어러블 기기, 인공지능 센서, 보안 플랫폼 등 다양한 분야로 확장이 기대된다”고 설명했다. 이번 연구 결과는 국제 저명 학술지 ‘npj Flexible Electronics’(2024년 IF=15.5)에 2025년 7월 온라인 게재됐다. 논문명은 ‘Photoresponsive dual-mode memory transistor for optoelectronic computing: charge storage and synaptic signal processing’(광전자 컴퓨팅을 위한 광 반응성 이중 모드 메모리 트랜지스터 : 전하 저장 및 시냅스 신호 처리)‘다. 연구는 한국연구재단 개인 연구사업(중견연구) 지원받아 진행됐다.
  • ‘자의식 가진 AI’ 언제쯤 탄생할까? 뇌를 모방한 뉴로모픽 칩의 꿈

    ‘자의식 가진 AI’ 언제쯤 탄생할까? 뇌를 모방한 뉴로모픽 칩의 꿈

    최근 인공지능(AI) 기술이 비약적으로 발전한 배경 중 하나로 강력한 그래픽처리장치(GPU) 등장이 거론됩니다. 그래픽 연산을 위해 중앙처리장치(CPU)보다 단순하고 작은 연산 유닛을 대량으로 탑재한 것이 수많은 행렬 연산을 통해 인공 신경망을 소프트웨어적으로 구현하기에 안성맞춤이었던 것이죠. 이제 GPU는 이름처럼 그래픽처리장치가 아니라 AI 연산 장치로 더 주목받고 있습니다. 하지만 GPU가 태생부터 인간의 뇌를 모방한 프로세서는 아닙니다. AI 연산을 위한 유닛만 따로 모은 신경망처리장치(NPU) 역시 사정은 마찬가지입니다. 이들은 모두 소프트웨어적 방법으로 신경망을 시뮬레이션하는 장비라고 할 수 있습니다. 사실 과학자들은 오래 전부터 하드웨어적으로 뉴런을 모방한 프로세서를 개발해 왔습니다. 이를 뉴로모픽 컴퓨팅(neuromorphic computing)이라고 하는데, 1980년대 미국 캘리포니아 공과대학의 캐버 미드 교수가 명명했다고 알려져 있습니다. 다만 이 시기에는 뉴런을 모방한 복잡한 프로세서를 제조할 만한 기술이 없었습니다. 1990년대에 사용되던 프로세서의 트랜지스터 집적도는 300만개를 조금 넘는 수준이었는데, 뉴런만 1000억개에 달하는 인간의 뇌를 모방한다는 것은 불가능한 일이었습니다. 하지만 21세기 들어서 프로세서 제조 기술이 발전하고 인공지능이 다시 주목받자 뉴로모픽 컴퓨터 개발도 활기를 띠기 시작했습니다. IBM의 트루노스(TrueNorth), 인텔의 로이히(Loihi)가 2010년대 후반 등장한 대표적인 뉴로모픽 칩입니다. 다만 GPU 기반 인공신경망 기술이 눈부신 발전을 거듭해 실생활 깊숙이 침투한 것과는 달리, 뉴로모픽 칩은 의미 있는 성과를 거두지 못했습니다. 이론적으로는 인간의 뇌를 모방한 인공 신경망이 GPU 기반 기술보다 우수할 것 같지만, 실제로는 뉴로모픽 칩이 여전히 의미있는 직접도를 구현하지 못해 이렇다 할 성과를 거두지 못하고 있습니다. 그래도 도전은 계속되고 있습니다. 뉴로모픽 칩 연구를 주도하는 기관 가운데 하나인 미 국립 산디아 연구소는 지난해 인텔 로이히2 칩을 이용한 할라 포인트 (Hala Point) AI 컴퓨터를 도입했습니다. 로이히2 칩은 23억개의 트랜지스터에 100만 개의 뉴런을 집적한 칩입니다. 할라 포인트는 로이히2 칩 1152개를 모아 11억 5000만개의 전자 뉴런을 구현했습니다. 여기에 산디아 연구소는 최근 영국 맨체스터대 연구팀이 개발한 스핀네이커 (SpiNNaker·Spiking Neural Network Architecture) 뉴로모픽 칩 아키텍처의 최신 버전인 스핀네이커2를 도입해 첫 가동에 들어갔습니다. 스핀네이커는 ARM 아키텍처 기반 뉴로모픽 칩입니다. 2018년에 공개한 뉴로모픽 컴퓨터는 100만개의 코어를 연결해 1억개의 뉴런을 흉내 낼 수 있었습니다. 여기서 파생된 뉴로모픽 스타트업인 스핀클라우드(Spinncloud)는 스핀네이커보다 10배 빠른 뉴로모픽 컴퓨터를 목표로 스핀네이커2를 개발했습니다. 공개된 스핀네이커2 시스템은 여러 개의 프로세서와 메모리를 탑재한 대형 메인보드가 24개 결합해 17만 5000개의 ARM 코어를 구성하고 있습니다. 흥미로운 사실은 솔리드스테이트드라이브(SSD) 같은 저장장치가 없다는 것입니다. 실제 뇌와 마찬가지로 뉴로모픽 컴퓨터도 꺼지지 않고 계속 작동하는 시스템이기 때문입니다. 산디아 연구소는 최종적으로 1억 5000만~1억 8000만개 뉴런을 구현할 계획입니다. 이것 역시 인간의 뇌에 비해 현저히 적은 숫자지만, 점점 더 실제 생물의 뇌와 비슷한 수준으로 늘려 나갈 계획입니다. 아직 뉴로모픽 컴퓨팅은 걸음마 단계를 조금씩 벗어나려고 하는 수준에 불과합니다. 하지만 뉴런을 모방하는 것이 아니라 진짜 뉴런과 시냅스에 가까운 구조를 지닌 만큼 정말 인간처럼 생각하고 자의식이나 감정을 지닐 수 있는 쪽은 오히려 뉴로모픽 컴퓨터일 수도 있습니다. 그것이 인간에게 축복이 될지 재앙이 될지는 모르겠지만, 만약의 가능성을 생각해 AI 기술을 통제할 방법이 뉴로모픽 컴퓨터에게도 필요할 것입니다.
  • ‘자의식 가진 AI’는 언제쯤 탄생할까? 뇌를 모방한 뉴로모픽 칩의 꿈 [고든 정의 TECH+]

    ‘자의식 가진 AI’는 언제쯤 탄생할까? 뇌를 모방한 뉴로모픽 칩의 꿈 [고든 정의 TECH+]

    최근 인공지능(AI) 기술이 비약적으로 발전한 배경 중 하나로 강력한 그래픽처리장치(GPU) 등장이 거론됩니다. 그래픽 연산을 위해 중앙처리장치(CPU)보다 단순하고 작은 연산 유닛을 대량으로 탑재한 것이 수많은 행렬 연산을 통해 인공 신경망을 소프트웨어적으로 구현하기에 안성맞춤이었던 것이죠. 이제 GPU는 이름처럼 그래픽처리장치가 아니라 AI 연산 장치로 더 주목받고 있습니다. 하지만 GPU가 태생부터 인간의 뇌를 모방한 프로세서는 아닙니다. AI 연산을 위한 유닛만 따로 모은 신경망처리장치(NPU) 역시 사정은 마찬가지입니다. 이들은 모두 소프트웨어적 방법으로 신경망을 시뮬레이션하는 장비라고 할 수 있습니다. 사실 과학자들은 오래 전부터 하드웨어적으로 뉴런을 모방한 프로세서를 개발해 왔습니다. 이를 뉴로모픽 컴퓨팅(neuromorphic computing)이라고 하는데, 1980년대 미국 캘리포니아 공과대학의 캐버 미드 교수가 명명했다고 알려져 있습니다. 다만 이 시기에는 뉴런을 모방한 복잡한 프로세서를 제조할 만한 기술이 없었습니다. 1990년대에 사용되던 프로세서의 트랜지스터 집적도는 300만개를 조금 넘는 수준이었는데, 뉴런만 1000억개에 달하는 인간의 뇌를 모방한다는 것은 불가능한 일이었습니다. 하지만 21세기 들어서 프로세서 제조 기술이 발전하고 인공지능이 다시 주목받자 뉴로모픽 컴퓨터 개발도 활기를 띠기 시작했습니다. IBM의 트루노스(TrueNorth), 인텔의 로이히(Loihi)가 2010년대 후반 등장한 대표적인 뉴로모픽 칩입니다. 다만 GPU 기반 인공신경망 기술이 눈부신 발전을 거듭해 실생활 깊숙이 침투한 것과는 달리, 뉴로모픽 칩은 의미 있는 성과를 거두지 못했습니다. 이론적으로는 인간의 뇌를 모방한 인공 신경망이 GPU 기반 기술보다 우수할 것 같지만, 실제로는 뉴로모픽 칩이 여전히 의미있는 직접도를 구현하지 못해 이렇다 할 성과를 거두지 못하고 있습니다. 그래도 도전은 계속되고 있습니다. 뉴로모픽 칩 연구를 주도하는 기관 가운데 하나인 미 국립 산디아 연구소는 지난해 인텔 로이히2 칩을 이용한 할라 포인트 (Hala Point) AI 컴퓨터를 도입했습니다. 로이히2 칩은 23억개의 트랜지스터에 100만 개의 뉴런을 집적한 칩입니다. 할라 포인트는 로이히2 칩 1152개를 모아 11억 5000만개의 전자 뉴런을 구현했습니다. 여기에 산디아 연구소는 최근 영국 맨체스터대 연구팀이 개발한 스핀네이커 (SpiNNaker·Spiking Neural Network Architecture) 뉴로모픽 칩 아키텍처의 최신 버전인 스핀네이커2를 도입해 첫 가동에 들어갔습니다. 스핀네이커는 ARM 아키텍처 기반 뉴로모픽 칩입니다. 2018년에 공개한 뉴로모픽 컴퓨터는 100만개의 코어를 연결해 1억개의 뉴런을 흉내 낼 수 있었습니다. 여기서 파생된 뉴로모픽 스타트업인 스핀클라우드(Spinncloud)는 스핀네이커보다 10배 빠른 뉴로모픽 컴퓨터를 목표로 스핀네이커2를 개발했습니다. 공개된 스핀네이커2 시스템은 여러 개의 프로세서와 메모리를 탑재한 대형 메인보드가 24개 결합해 17만 5000개의 ARM 코어를 구성하고 있습니다. 흥미로운 사실은 솔리드스테이트드라이브(SSD) 같은 저장장치가 없다는 것입니다. 실제 뇌와 마찬가지로 뉴로모픽 컴퓨터도 꺼지지 않고 계속 작동하는 시스템이기 때문입니다. 산디아 연구소는 최종적으로 1억 5000만~1억 8000만개 뉴런을 구현할 계획입니다. 이것 역시 인간의 뇌에 비해 현저히 적은 숫자지만, 점점 더 실제 생물의 뇌와 비슷한 수준으로 늘려 나갈 계획입니다. 아직 뉴로모픽 컴퓨팅은 걸음마 단계를 조금씩 벗어나려고 하는 수준에 불과합니다. 하지만 뉴런을 모방하는 것이 아니라 진짜 뉴런과 시냅스에 가까운 구조를 지닌 만큼 정말 인간처럼 생각하고 자의식이나 감정을 지닐 수 있는 쪽은 오히려 뉴로모픽 컴퓨터일 수도 있습니다. 그것이 인간에게 축복이 될지 재앙이 될지는 모르겠지만, 만약의 가능성을 생각해 AI 기술을 통제할 방법이 뉴로모픽 컴퓨터에게도 필요할 것입니다.
  • 엔비디아에 도전장 내민 AMD, MI 350 시리즈 공개

    엔비디아에 도전장 내민 AMD, MI 350 시리즈 공개

    AMD는 10년 전만 해도 회사가 위태로운 상황이었지만, 2017년 출시한 PC용 중앙처리장치(CPU) 라이젠을 통해 기사회생했습니다. 서버용 CPU 에픽을 출시해 시장 점유율을 늘리면서 이제 이 회사는 서버와 소비자 시장 모두에서 큰 성과를 내고 있습니다. 영원히 이길 수 없을 것 같던 ‘골리앗’ 경쟁자 인텔과 상황이 역전된 셈입니다. 하지만 아직도 그래픽처리장치(GPU) 부분에서는 엔비디아의 아성을 넘기 힘든 게 사실입니다. AMD는 라데온 RX 9070 시리즈와 RX 9060 시리즈를 경쟁력 있는 가격에 출시해 좋은 반응을 얻고 있지만, 아직 엔비디아의 GPU보다 절대적인 성능이 낮은 것이 사실입니다. 특히 인공지능(AI) 서버 시장은 엔비디아가 오래전부터 집중해온 탓에 생태계 자체가 엔비디아 위주로 꾸려진 터라 시장에 끼어들기가 만만치 않은 게 현실이기도 합니다. 이런 AMD가 최근 열린 AI 이벤트에서 엔비디아의 독주에 제동을 걸 수 있는 신제품과 플랫폼을 함께 공개했습니다. 우선 AI GPU인 인스팅트 MI350X/IM355X는 2년 전 등장한 MI 300 시리즈 대비 4배의 성능을 지니고 있습니다. 스펙상으로는 엔비디아 블랙웰 B200 GPU와 경쟁할 수 있는 수준입니다. MI350X 시리즈는 TSMC N6 공정으로 만든 I/O 다이 위에 N3P 공정으로 만든 GPU 칩렛 Accelerator Complex Die (XCD)을 올리고 다시 8개의 HBM3E 메모리를 연결하는 3차원 패키징 기술을 사용했습니다. 덕분에 1850억개 트랜지스터를 하나의 GPU에 집적했습니다. MI350X와 MI355X의 차이점은 공랭식이나 수랭식이냐는 것인데, 수랭식인 MI355X가 성능이 좀 더 우수합니다. AMD는 MI350X 시리즈가 일부 AI 작업에서 엔비디아의 B200, GB200 GPU보다 우수하다고 주장합니다. 다만 엔비디아는 자사 B200보다 1.5배 성능을 지닌 B300을 올해 하반기에 출시할 계획입니다. B300/GB300은 MI350X 시리즈보다 기본 성능이 우수합니다. 하지만 더 중요한 차이점은 AI 생태계에서 엔비디아가 중심이 되고 있어 여러 개의 GPU를 묶어 하나의 거대한 AI 클러스터를 구축하는 기술에서도 엔비디아가 크게 앞서 있다는 것입니다. 이를 의식하듯 AMD도 이번 이벤트에서 인스팅트 MI350X/MI355X 및 에픽 CPU와 함께 사용할 수 있는 NIC (network interface card) 시스템인 펜산도 폴라라 (Pensando Pollara) 400GbE NIC를 공개했습니다. 오라클 클라우드는 앞으로 AMD MI355X GPU 131,072개를 사용한 제타 스케일 AI 데이터 센터를 구축할 예정입니다. MI355X의 TDP는 1400W에 달해 처음 하이퍼 스케일 AI 데이터 센터에 도전하는 AMD가 과연 발열을 효과적으로 해소할 수 있을지 궁금해지는 대목이기도 합니다. AMD는 내년에는 Zen 6 아키텍처 기반인 256코어 베니스 (Venice) 에픽 CPU를 출시하고 인스팅트 MI 400 시리즈 GPU도 선보일 계획입니다. 2세대 NIC인 불카노 (Vulcano, 이탈리아 도시 이름)를 같이 출시합니다. MI 400시리즈는 MI 300 시리즈 대비 10배의 성능을 목표로 하고 있습니다. 현재 AI 하드웨어 시장은 엔비디아 천하라고 해도 과언이 아닌 상태입니다. AMD가 CPU 시장에서 그랬듯 AI 하드웨어에서도 누구도 예상하지 못했던 기적 같은 성과를 거둘 수 있을지 주목됩니다.
  • 엔비디아에 도전장 내민 AMD, MI 350 시리즈 공개 [고든 정의 TECH+]

    엔비디아에 도전장 내민 AMD, MI 350 시리즈 공개 [고든 정의 TECH+]

    AMD는 10년 전만 해도 회사가 위태로운 상황이었지만, 2017년 출시한 PC용 중앙처리장치(CPU) 라이젠을 통해 기사회생했습니다. 서버용 CPU 에픽을 출시해 시장 점유율을 늘리면서 이제 이 회사는 서버와 소비자 시장 모두에서 큰 성과를 내고 있습니다. 영원히 이길 수 없을 것 같던 ‘골리앗’ 경쟁자 인텔과 상황이 역전된 셈입니다. 하지만 아직도 그래픽처리장치(GPU) 부분에서는 엔비디아의 아성을 넘기 힘든 게 사실입니다. AMD는 라데온 RX 9070 시리즈와 RX 9060 시리즈를 경쟁력 있는 가격에 출시해 좋은 반응을 얻고 있지만, 아직 엔비디아의 GPU보다 절대적인 성능이 낮은 것이 사실입니다. 특히 인공지능(AI) 서버 시장은 엔비디아가 오래전부터 집중해온 탓에 생태계 자체가 엔비디아 위주로 꾸려진 터라 시장에 끼어들기가 만만치 않은 게 현실이기도 합니다. 이런 AMD가 최근 열린 AI 이벤트에서 엔비디아의 독주에 제동을 걸 수 있는 신제품과 플랫폼을 함께 공개했습니다. 우선 AI GPU인 인스팅트 MI350X/IM355X는 2년 전 등장한 MI 300 시리즈 대비 4배의 성능을 지니고 있습니다. 스펙상으로는 엔비디아 블랙웰 B200 GPU와 경쟁할 수 있는 수준입니다. MI350X 시리즈는 TSMC N6 공정으로 만든 I/O 다이 위에 N3P 공정으로 만든 GPU 칩렛 Accelerator Complex Die (XCD)을 올리고 다시 8개의 HBM3E 메모리를 연결하는 3차원 패키징 기술을 사용했습니다. 덕분에 1850억개 트랜지스터를 하나의 GPU에 집적했습니다. MI350X와 MI355X의 차이점은 공랭식이나 수랭식이냐는 것인데, 수랭식인 MI355X가 성능이 좀 더 우수합니다. AMD는 MI350X 시리즈가 일부 AI 작업에서 엔비디아의 B200, GB200 GPU보다 우수하다고 주장합니다. 다만 엔비디아는 자사 B200보다 1.5배 성능을 지닌 B300을 올해 하반기에 출시할 계획입니다. B300/GB300은 MI350X 시리즈보다 기본 성능이 우수합니다. 하지만 더 중요한 차이점은 AI 생태계에서 엔비디아가 중심이 되고 있어 여러 개의 GPU를 묶어 하나의 거대한 AI 클러스터를 구축하는 기술에서도 엔비디아가 크게 앞서 있다는 것입니다. 이를 의식하듯 AMD도 이번 이벤트에서 인스팅트 MI350X/MI355X 및 에픽 CPU와 함께 사용할 수 있는 NIC (network interface card) 시스템인 펜산도 폴라라 (Pensando Pollara) 400GbE NIC를 공개했습니다. 오라클 클라우드는 앞으로 AMD MI355X GPU 131,072개를 사용한 제타 스케일 AI 데이터 센터를 구축할 예정입니다. MI355X의 TDP는 1400W에 달해 처음 하이퍼 스케일 AI 데이터 센터에 도전하는 AMD가 과연 발열을 효과적으로 해소할 수 있을지 궁금해지는 대목이기도 합니다. AMD는 내년에는 Zen 6 아키텍처 기반인 256코어 베니스 (Venice) 에픽 CPU를 출시하고 인스팅트 MI 400 시리즈 GPU도 선보일 계획입니다. 2세대 NIC인 불카노 (Vulcano, 이탈리아 도시 이름)를 같이 출시합니다. MI 400시리즈는 MI 300 시리즈 대비 10배의 성능을 목표로 하고 있습니다. 현재 AI 하드웨어 시장은 엔비디아 천하라고 해도 과언이 아닌 상태입니다. AMD가 CPU 시장에서 그랬듯 AI 하드웨어에서도 누구도 예상하지 못했던 기적 같은 성과를 거둘 수 있을지 주목됩니다.
  • AI GPU 시장에서 엔비디아에 도전장 내민 AMD…MI 350 시리즈 공개 [고든 정의 TECH+]

    AI GPU 시장에서 엔비디아에 도전장 내민 AMD…MI 350 시리즈 공개 [고든 정의 TECH+]

    AMD는 10년 전만 해도 회사가 위태로운 상황이었지만, 2017년 출시한 라이젠 CPU를 통해 기사회생했습니다. 그리고 서버 부분에도 에픽 CPU를 출시해 점점 시장 점유율을 늘려 이제는 서버와 소비자 CPU 시장 모두에서 큰 성과를 거두고 있습니다. 과거 절대 이길 수 없을 것 같았던 경쟁자 인텔과 상황이 역전된 셈입니다. 하지만 아직 GPU 부분에서는 엔비디아의 아성을 넘기 힘든 게 사실입니다. 최근 엔비디아가 고성능 AI 서버 GPU에 집중하는 사이 AMD는 라데온 RX 9070 시리즈와 RX 9060 시리즈를 경쟁력 있는 가격에 출시해 시장에서 좋은 반응을 얻고 있지만, 아직 절대 성능에서 엔비디아 GPU보다 낮은 게 사실입니다. 특히 AI 서버 시장은 엔비디아가 오래전부터 AI와 서버 시장에 집중한 탓에 생태계 자체가 엔비디아 위주로 구성되어 있어 끼어들기가 만만치 않은 게 현실이기도 합니다. 그러나 AMD는 최근 열린 어드밴싱 AI 이벤트에서 엔비디아의 독주에 제동을 걸 수 있는 신제품과 플랫폼들을 함께 공개했습니다. 우선 가장 중요한 AI GPU인 인스팅트 MI350X/IM355X는 2년 전 등장한 MI 300 시리즈와 비교해서 4배의 성능을 지니고 있어 스펙상으로 보면 엔비디아 블랙웰 B200 GPU와 경쟁할 수 있는 수준입니다. 새로운 MI350X 시리즈는 TSMC의 N6 공정으로 만든 I/O 다이 위에 N3P 공정으로 만든 GPU 칩렛인 Accelerator Complex Die (XCD)을 올리고 다시 8개의 HBM3E 메모리를 연결한 복잡한 3차원 패키징 기술을 사용했습니다. 덕분에 1850억 개의 트랜지스터를 하나의 GPU에 집적했습니다. 8개의 HBM3E 메모리는 총 288GB의 용량과 8TB/s의 대역폭을 제공합니다. MI350X와 MI355X의 차이점은 공랭식이나 수랭식이냐는 것인데, 수랭식인 MI355X가 성능이 좀 더 우수합니다. 기본 연산 능력은 FP 64기준 MI350X와 MI355X가 72TFLOPS와 78.6TFLOPS입니다. AI 연산에 중요한 FP8/FP4 기준으로는 각각 9.2PFLOPS/10.1PFLOPS, 18.45PFLOPS/20.1PFLOPS의 연산 능력을 지니고 있습니다. AMD는 MI350X 시리즈가 일부 AI 작업에서 엔비디아의 B200, GB200 GPU보다 우수하다고 주장하고 있습니다. 다만 엔비디아는 B200보다 1.5배 성능을 지닌 B300을 올해 하반기에 출시할 계획입니다. B300/GB300은 288GB HBM3E 메모리와 FP4 Tensor Dense/Sparse 기준으로 15/30TFLOPS의 성능을 지니고 있어 MI350X 시리즈보다 기본 성능이 우수합니다. 하지만 더 중요한 차이점은 AI 생태계가 엔비디아 위주일 뿐 아니라 여러 개의 GPU를 묶어 하나의 거대한 AI 클러스터를 구축하는 기술에서 엔비디아가 크게 앞서 있다는 것입니다. AMD는 이점을 의식하듯 이번 이벤트에서 인스팅트 MI350X/MI355X 및 에픽 CPU와 함께 사용할 수 있는 NIC (network interface card) 시스템인 펜산도 폴라라 (Pensando Pollara) 400GbE NIC를 공개했습니다. 각각의 인스팅트 MI350X/MI355X GPU는 8개씩 묶어 하나의 플랫폼을 구성한 후 서버 랙에 들어가는데, 이때 수많은 GPU를 연결해 효율적으로 작동하게 만드는 일이 중요합니다. 펜산도 폴라라 AI NIC는 10만 개 이상의 GPU 하이퍼스케일 시스템에도 대응할 수 있습니다. 오라클 클라우드는 앞으로 AMD MI355X GPU 131,072개를 사용한 제타 스케일 AI 데이터 센터를 구축할 예정입니다. MI355X의 TDP는 1400W에 달해 처음 하이퍼 스케일 AI 데이터 센터에 도전하는 AMD가 과연 발열을 효과적으로 해소할 수 있을지 궁금해지는 대목이기도 합니다. AMD는 내년에는 Zen 6 아키텍처 기반인 256코어 베니스 (Venice) 에픽 CPU를 출시하고 인스팅트 MI 400 시리즈 GPU도 선보일 계획입니다. 그리고 2세대 NIC인 불카노 (Vulcano, 이탈리아 도시 이름)를 같이 출시합니다. MI 400시리즈는 MI 300 시리즈 대비 10배의 성능을 목표로 하고 있습니다. 현재 AI 하드웨어 시장은 엔비디아 천하라고 해도 과언이 아닌 상태입니다. AMD가 CPU 시장에서 그랬던 것처럼 AI 하드웨어에서도 누구도 예상하지 못했던 기적 같은 성과를 거둘 수 있을지 주목됩니다.
  • 인텔 “새로운 공정 도전 계속”…18A 다음엔 14A로 [고든 정의 TECH+]

    인텔 “새로운 공정 도전 계속”…18A 다음엔 14A로 [고든 정의 TECH+]

    인텔의 새로운 수장인 립 부탄 최고경영자(CEO)가 지난달 29일 미국 캘리포니아 산호세에서 개최된 인텔 파운드리 다이렉트 2025 행사에서 2028년까지 인텔 파운드리 및 미세 공정 로드맵을 발표했습니다. 이번 발표를 통해 립 부탄은 인텔 파운드리 분리 매각은 당장에는 없고 계속 새로운 공정에 도전하겠다는 뜻을 밝혔습니다. 그리고 올해 안에 팬서 레이크 CPU를 출시한다는 로드맵 역시 다시 확인했습니다. 후면 전력 공급 기술인 파워비아(PowerVia)와 인텔 최초의 게이트 올 어라운드(GAA) 기술인 리본펫 (RibbonFET)이 적용되는 인텔 18A 공정은 이날 발표한 내용에 따르면 현재 인텔이 양산하는 최신 미세 공정인 인텔 3과 비교해서 전력 대비 성능 15% 높아지고 회로 밀도 역시 30% 정도 높아지게 됩니다. 다만 그래도 인텔 18A는 TSMC의 N2보다 밀도가 낮은 것으로 알려져 있습니다. 따라서 GPU처럼 크고 복잡한 칩을 양산할 때는 TSMC가 다소 유리해 보이지만, 18A가 예정대로 양산된다면 인텔 역시 TSMC의 최신 미세 공정에 근접하는 미세 공정을 확보해 한시름 놓을 수 있게 됩니다. 인텔은 한 달 전 18A의 소규모 시험 생산인 리스크 생산에 들어간 상태로 현재 수율이 내부적인 목표에 거의 도달한 상태라고 합니다. 만약 순조롭게 양산 과정에 진입한다면 올해 하반기에 18A 첫 제품인 팬서 레이크 CPU가 시장에 등장할 것으로 예상됩니다. 이날 새롭게 공개한 내용에 따르면 인텔 18A 공정은 내년에는 고성능 버전인 18A-P로 진화할 예정입니다. 18A-P는 회로 밀도는 동일하지만, 성능이 최대 8%까지 높아진 개량형 미세 공정입니다. 그리고 2028년쯤에는 18A-PT 공정이 나오는데 칩을 수직으로 쌓는 포베로스 다이렉트 3D(Foveros Direct 3D)이 적용될 것이라고 합니다. 구체적으로 어떤 칩을 위에 올릴 것인지는 언급하지 않았지만, 경쟁사인 AMD는 TSMC의 기술을 이용해 캐시 메모리를 프로세서 위나 아래에 넣는 3D V 캐시로 게임 성능을 크게 높이고 있습니다. 인텔 역시 비슷한 방법을 도입할지 주목되는 대목입니다. 18A에 도입한 파워비아와 리본펫 기술은 2027년 등장할 14A에서 2세대 공정으로 진화할 것으로 보입니다. 14A는 인텔이 ASML에서 비싼 값에 매입한 하이 NA 극자외선 (High-NA EUV) 리소그래피 장비가 투입됩니다. 14A는 18A와 비교하면 15~20% 정도의 전력 대 성능 향상을 기대하고 있으며 밀도 향상 목표는 이전과 같이 30% 수준입니다. 계획대로 된다면 14A는 TSMC의 14A보다 1년 정도 앞서 최신 미세 공정으로 등장할 수 있습니다. 다만 계획대로 될지는 두고 봐야 알 수 있습니다. 인텔은 작년에도 애로우 레이크와 루나 레이크를 인텔 20A로 양산한다고 발표했으나 출시 직전에 TSMC 3나노로 변경해 시장에 충격을 줬습니다. 인텔 주력 CPU가 TSMC 인사이드가 됐기 때문입니다. 그런 만큼 18A를 차질 없이 성공시켜 시장의 신뢰를 되찾는 것이 우선이라고 할 수 있습니다. 인텔이 이번에는 약속을 지킬 수 있을지 올해 하반기가 매우 중요한 시기가 될 것으로 보입니다.
  • 中 저가 공세에… 삼성·SK하이닉스, 구형 D램 접고 ‘고사양’ 집중

    글로벌 주요 반도체 업체들이 중국 업체의 저가 공세로 수익성이 악화한 구형 D램 생산에서 점차 손을 떼고, 고사양·고용량 첨단 제품으로의 전환을 가속화한다. 27일 업계에 따르면 삼성전자는 PC와 모바일에 탑재되는 구형 D램 DDR4에 이어 3세대 고대역폭메모리 ‘HBM2E’ 제품도 단계적으로 생산을 중단하고 5세대 ‘HBM3E’와 6세대 ‘HBM4’에 집중할 것으로 알려졌다. 미국 마이크론은 이미 지난해부터 DDR4 제품들을 단계적으로 단종해 왔으며, 최근에는 서버용 구형 DDR4 모듈 생산 중단 계획을 고객사에 알렸다. SK하이닉스도 DDR4 생산량을 줄이고 있다. 현재 가장 대표적인 최신 D램은 DDR5와 HBM3E다. DDR5는 PC와 데이터센터에 공급되는 서버용 중앙처리장치(CPU)에 탑재되며, HBM은 엔비디아, AMD 등이 만드는 인공지능(AI) 가속기에 탑재된다. 삼성전자는 기존 D램 생산 라인을 DDR5 등 고사양 제품 생산 라인으로 바꾸는 작업을 진행 중인 것으로 알려졌다. 삼성전자는 지난 1월 실적 발표 콘퍼런스콜에서 기존 D램 매출의 30%를 차지하던 레거시 D램과 낸드플래시의 비중을 한 자릿수로 대폭 줄이면서 “HBM, DDR5, LPDDR5 그리고 GDDR7 같은 고부가가치 제품 비중을 적극 늘리고 있다”고 밝혔다. SK하이닉스도 지난해 10월 “DDR4와 LPDDR4 생산을 계획보다 빨리 축소하고 대신 HBM과 DDR5, LPDDR5의 생산을 확대하는 데 필요한 선단 공정의 전환을 앞당길 계획”이라고 밝혔다. 국내 메모리 업체들이 구형 D램 생산을 접고 서둘러 고사양 제품으로 전환하려는 것은 더는 현재의 비즈니스 모델로 수익을 내기 어려워졌기 때문이다. 구형 D램은 중국 업체의 물량 공세로 수익성이 악화한 데다 중국의 창신메모리(CXMT)가 DDR4 생산을 더 늘리고 있어 향후에도 하락세가 지속될 가능성이 크다. 다만 SK하이닉스가 HBM 시장의 우위를 점한 상황에서 삼성전자는 HBM 최대 고객사인 엔비디아로부터 품질 테스트 통과하는 것이 선결 과제로 꼽힌다.
  • SK하이닉스, 용량 50%키운 CXL 인증… 매출 ‘쌍두마차’ 예고

    SK하이닉스가 ‘차세대 HBM’으로 불리는 컴퓨트 익스프레스 링크(CXL) 2.0 기반 솔루션 CMM-DDR5 96기가바이트(GB)의 고객 인증을 처음으로 완료하고, 양산 준비를 마쳤다. 이미 고대역폭메모리(HBM)가 실적 효자로 자리 잡은 가운데 CXL 메모리까지 더해지면서 HBM과 함께 향후 성장을 이끌 ‘쌍두마차’가 될지 관심이 쏠린다. 23일 SK하이닉스에 따르면 CXL은 컴퓨팅 시스템 내 중앙처리장치(CPU)와 그래픽처리장치(GPU), 메모리 등을 효율적으로 연결해 대용량, 초고속 연산을 지원하는 차세대 솔루션이다. CPU와 GPU가 각각 자기와 연결된 D램만 쓸 수 있었다면 CXL을 도입할 경우 다양한 부품들이 서로의 메모리를 공유할 수 있게 된다. 데이터센터를 운영하는 고객사가 서버 시스템에 이를 적용하면 기존 DDR5(5세대 범용 D램) 대비 용량이 50% 늘어나고 제품 자체의 대역폭도 30% 확장돼 초당 36GB의 데이터를 처리할 수 있다는 게 SK하이닉스의 설명이다. SK하이닉스 관계자는 “CXL을 활용하려면 그에 맞는 수준의 CPU가 필요한데, AMD와 인텔이 지난해 말부터 관련 CPU를 내놓기 시작했다”면서 “CXL 시장이 이제 막 열리는 단계이고, (매출 측면에서) 차세대 HBM으로서 성장을 기대하는 중”이라고 밝혔다. 또 SK하이닉스는 (CXL) 128GB 제품도 다른 고객과 인증 절차를 진행 중이며, 이를 빠르게 마무리해 고객이 원하는 시점에 공급할 수 있는 포트폴리오를 구축할 계획이다. SK하이닉스는 CXL D램 개발과 더불어 CXL 생태계 확장을 위한 노력도 하고 있다. 지난해 9월 SK하이닉스는 세계 최대 오픈소스 운영체제인 리눅스에 CXL 구동 최적화를 위한 자체 개발 메모리 제어 솔루션(HMSDK)을 탑재, CXL 적용 시스템 성능을 개선했다. 한편 SK하이닉스는 이날 보통주 1주당 배당금을 375원으로 책정했다고 공시했다. 이는 지난해 분기 배당금인 주당 300원보다 25% 증가한 것이다.
  • ‘100년 기업’ IBM, 메인프레임 z17로 혁신 잇나 [고든 정의 TECH+]

    ‘100년 기업’ IBM, 메인프레임 z17로 혁신 잇나 [고든 정의 TECH+]

    일반적으로 IT 기업은 역사가 짧은 편입니다. 구글도 1998년에 창업했고 메타는 2004년, 아마존은 1994년에 설립했습니다. 이런 IT 업계에서 보기 드문 100년 기업이 바로 IBM입니다. 1911년 설립된 IBM은 상점용 금납 출입기에서 시작해 천공카드 등 여러 가지 사무용, 업무용 기기를 만들던 회사였습니다. IBM의 운명을 바꾼 발명품 중 하나는 1964년 발표한 최초의 메인프레임 컴퓨터(IBM System 360)입니다. 그전까지는 같은 회사에서 개발한 컴퓨터라고 해도 소프트웨어가 호환되지 않아 컴퓨터를 바꾸면 모두 새로 구입해야 했는데, IBM System 360 이후로는 그런 환경이 싹 바뀌었습니다. 기기를 업그레이드해도 기존 자료와 소프트웨어를 그대로 사용할 수 있는 것입니다. 지금은 당연한 이야기지만 당시엔 혁신이었습니다. 이후 메인프레임 컴퓨터와 성능을 더 높인 슈퍼컴퓨터는 IBM의 주요 사업 기반이 되어 지금도 회사를 먹여 살리고 있습니다. 비록 소비자용 PC 시장에서는 인텔과 마이크로소프트(MS)에 주도권을 내줬고 IT 업계 비중도 예전 같진 않지만 IBM의 메인프레임 컴퓨터는 금융권을 포함해 많은 분야에서 여전히 사랑받습니다. 최근 IBM은 2025년 최신 메인프레임 시리즈인 z17을 선보였습니다. z17에서 주목할 만한 변화는 시대의 화두인 AI에 적응하기 위해 변했다는 것입니다. z17은 삼성 5nm 공정(5HPP)에서 제조한 텔룸Ⅱ(TelumⅡ) CPU를 여러 개 사용하고 있습니다. 텔룸Ⅱ는 600㎟ 면적에 430억개 트랜지스터를 집적했지만, 코어 숫자는 8개에 불과합니다. 작아도 많은 코어를 사용하는 요즘의 트렌드와는 달리 코어 자체가 크고 캐시 메모리가 많기 때문입니다. 이 프로세서는 코어 당 L2 캐시가 36MB(메가바이트)나 되어 금융 데이터 같은 특정 데이터 처리에 유리한 구조를 지니고 있습니다. 총 캐시는 360MB인데 가상 L4 캐시까지 포함하면 2.88GB(기가바이트)에 달합니다. IBM에 따르면 텔룸Ⅱ는 전작인 텔룸 I과 비교해서 일반 연산 속도가 70% 정도 빠르고 인공지능(AI) 연산 속도는 50% 정도 빨라졌습니다. CPU에 내장된 NPU의 연산 능력은 24TOPS(INT8 기준)인데, 사실 최신 AI 노트북보다 더 빠른 편이 아닙니다. 하지만 수상한 금융 거래나 사기가 의심되는 경우 실시간으로 알아내는 등 특수 목적에 사용되기 때문에 나름 의미가 있습니다. 좀 더 강력한 AI 성능이 필요한 고객을 위해 z17 메인프레임은 최대 256개 스파이어(Spyre) AI 가속기를 추가할 수 있습니다. 작은 크기의 PCIe 5.0 카드인 스파이어 AI 가속기 역시 삼성의 5nm 공정(5LPE)에서 제조되며 330㎟의 면적에 260억 개의 트랜지스터를 집적하고 있습니다. 가속기 한 개마다 128GB의 LPDDR5 메모리, 1TB(테라바이트)의 낸드 스토리지를 지녀 AI 연산에 최적화되어 있습니다. 성능은 300TOPS 이상으로 엔비디아의 최신 AI GPU처럼 빠르진 않지만 TDP(열설계전력)가 75W 정도에 불과한 장점이 있습니다. 다만 실제 시장에서 얼마나 수요가 있을지는 두고 봐야 알 수 있습니다. z17 메인프레임은 100년 기업이 100년 이상 가기 위해서는 시대의 변화에 맞춰 끊임없이 변해야 한다는 것을 보여주고 있습니다. 100년이 넘는 세월 동안 끊임없이 변화를 시도했던 IBM이 더 오래 장수하기 위해서는 역시 끊임없는 혁신밖에 답이 없습니다.
  • 캠퍼스 특허 유니버시아드 개막…대통령상 상금 2000만원 상향

    캠퍼스 특허 유니버시아드 개막…대통령상 상금 2000만원 상향

    기업이 제안한 기술에 대해 대학(원)생들이 아이디어를 제시하는 국내 최대 공모전이 시작됐다. 특허청은 4일부터 다음 달 30일까지 ‘2025 캠퍼스 특허 유니버시아드(CPU)’ 참가자를 모집한다. CPU는 기업·연구기관이 제시한 기술 과제에 대해 대학(원)생이 특허 빅데이터를 분석해 연구개발(R&D) 전략 및 사업화 방안 등을 제시하는 대학생 공모전이다. 올해 CPU에는 삼성전자·현대차·포스코·SK하이닉스 등 국내외를 대표하는 28개 기업·기관이 참여해 30개 문제를 출제했다. 개인 또는 3인 이하 팀으로 참가할 수 있고 지도교수도 참여해 조언할 수 있다. 특히 올해부터 상금 규모가 확대됐다. 최고상인 대통령상은 1500만에서 2000만원으로, 국무총리상은 1200만원에서 1500만원으로 높였다. 대회 수상자는 ‘차세대 지식재산 리더’ 프로그램 가입과 후원 기업에 대한 취업 우대 등의 혜택이 주어진다. 차세대 지식재산 리더는 CPU 수상자 모임으로, 최고경영자 강연과 리더십·지식재산 강좌, 지역 산업체 방문, 취업 상담(멘토링) 등이 제공된다. 최종 결과는 기초·서면·발표심사, 부문별 최종 심사 등을 거쳐 오는 10월 16일 발표할 예정이다. 김정균 특허청 산업재산정책국장은 “학생들이 특허 빅데이터를 직접 분석하고 특허 전략 수립과 사업화 구상 과정에 참여할 수 있다”며 “산업에 대한 통찰력과 특허 활용 능력을 경험하는 기회가 될 것”이라고 말했다.
  • 인텔, 18A 공정 리스크 생산 시작…새 CEO 효과는 언제 [고든 정의 TECH+]

    인텔, 18A 공정 리스크 생산 시작…새 CEO 효과는 언제 [고든 정의 TECH+]

    영원한 1등은 없다지만 오랜 세월 누구도 도전하기 힘든 독점 기업이었던 인텔의 위기는 많은 이들에게 충격으로 다가오고 있습니다. 인텔의 위기는 14nm 공정에 너무 오래 멈췄던 게 원인으로 꼽힙니다. 14nm 공정에서 묶여 있는 사이 인텔보다 뒤에 있던 TSMC 같은 경쟁자에게 추월을 허용했고 한번 뒤처지기 시작한 이후로는 좀처럼 다시 따라잡기 어려운 상황에 놓인 것입니다. TSMC를 다시 따라잡기 위해 인텔은 4년 동안 5개 공정을 진행한다는 야심 찬 계획을 세웠으나 결과적으로 실패하면서 위기는 더 심화했습니다. 이제 마지막 남은 기회는 올해 양산을 목표로 하는 18A 공정이 될 것입니다. 막대한 비용을 투자한 최신 미세 공정인 18A마저 실패한다면 인텔이 계속해서 반도체 팹을 유지하는 것에 대한 의구심이 커지면서 AMD처럼 반도체 생산 부분을 분리 매각하고 팹리스(반도체 설계 중심) 회사가 될 가능성이 매우 높아집니다. 인텔은 3월 31일(현지시간) 비전 2025 행사를 열어 18A가 순조롭게 진행되고 있다고 발표했습니다. 18A 공정은 최근 양산을 위한 첫 번째 단계인 리스크 생산(risk production)에 들어갔습니다. 이름 때문에 뭔가 문제가 있거나 위험한 것처럼 보이지만, 사실 리스크 생산은 초기 시험 생산 단계로 업계 표준 용어입니다. 처음엔 수백 개의 웨이퍼로 시작해 점점 늘려나가면서 정상적인 생산이 가능한지 검증하고 보완하는 과정이라고 할 수 있습니다. 리스크 생산 후 대량 양산 단계(High Volume Production·HVM)까지는 보통 1분기 이상 필요하므로 18A 공정 제품의 양산은 올해 하반기에 이뤄질 것으로 예상됩니다. 인텔이 18A로 생산할 첫 주력 제품은 소비자용 CPU인 팬서 레이크(Panther Lake)로 여기에 인텔의 운명이 달려있다고 해도 과언이 아닙니다. 팬서 레이크에 대해서는 아직도 상세한 내용이 공개되지 않았으나 일단 계획은 18A 공정으로 제조하는 걸로 되어 있습니다. CPU 타일만 제조하는지 아니면 GPU와 다른 타일도 18A를 사용하는지는 아직 밝혀지지 않았습니다. 다른 구체적인 스펙과 CPU 구성에 대해서도 거의 알려진 것이 없는 상태입니다. 반면 18A 공정에 대해서는 상대적으로 많은 것이 알려져 있습니다. 18A 공정은 인텔의 최신 EUV 공정을 기반으로 인텔의 게이트 올 어라운드(GAA, Gate-All-Around) 기술인 리본펫(RibbonPET) 기술과 후면 전력 공급 기술인 파워비아(PowerVia)를 적용할 예정입니다. 전자는 더 작은 크기의 트랜지스터에서도 누설 전류를 줄이고 후자는 전력 공급을 단순화해서 효율을 높이고 복잡도는 줄일 수 있습니다. 하지만 이런 기술적 혁신이 실제 성능 향상으로 이어지지 않는다면 큰 의미는 없을 것입니다. 따라서 인텔이 18A를 적용하겠다고 발표한 팬서 레이크의 성능이 인텔의 미래를 결정할 가능성이 높습니다. 인텔 애로우 레이크와 루나 레이크는 TSMC의 최신 미세 공정을 적용했는데도 경쟁사 대비 낮은 성능으로 시장에서 고전하고 있습니다. 팬서 레이크도 같은 길을 걷는다면 이미 상당히 잃은 시장 점유율을 속수무책으로 AMD에게 내주고 회사가 탈출하기 힘든 수렁에 빠지게 될 것입니다. 신임 CEO인 립부 탄(Lip-Bu Tan)은 기조연설에서 인텔을 엔지니어링 중심 회사로 만들겠다는 포부를 밝혔지만, 로드맵은 전임 CEO인 팻 겔싱어가 마지막으로 손본 내용에서 크게 바뀌지 않았습니다. 당장에 계획을 트는 것보다 일단 현재 진행 중인 18A 공정 및 팬서 레이크 출시에 최선을 다해야 하는 시기이기도 합니다. 따라서 립부 탄은 기조연설에서 18A와 팬서 레이크에 대한 내용만 강조하고 새로운 로드맵을 제시하지는 않았습니다. 새 구상은 몇 달 후에나 구체적으로 윤곽을 드러낼 것으로 예상됩니다. 일단 18A가 대량 양산(HVM) 단계에 들어가고 팬서 레이크가 출시 준비가 되었다면 그다음 계획이 필요하기 때문입니다. 18A 다음 계획은 본래 14A입니다 14A는 High NA EUV를 적용한 첫 공정이 될 예정입니다. 팬서 레이크 다음 프로세서는 노바 레이크/레이저 레이크라는 명칭 정도만 알려져 있고 자세한 내용은 공개된 게 없습니다. 새롭게 인텔의 수장이 된 립부 탄이 앞으로 이 내용을 만들어 나가야 합니다. 인텔의 운명을 쥔 18A와 팬서 레이크, 그리고 립부 탄의 다음 행보가 주목됩니다.
  • ‘트럼프 타워’ 코앞, 초록색으로 변한 강물…으스스? (영상) [포착]

    ‘트럼프 타워’ 코앞, 초록색으로 변한 강물…으스스? (영상) [포착]

    미국 일리노이주 시카고 도심 한복판, 노른자위 땅을 차지하고 있는 트럼프 타워는 트럼프 일가의 부동산 기업 ‘트럼프 재단’의 상징적 자산이다. ‘트럼프 인터내셔널 호텔 앤드 타워’라는 이름의 이 92층짜리 건물에서 내려다보이는 시카고강과 미시간호는 절경이다. 다만 트럼프는 2008년 완공된 시카고 트럼프 타워 프로젝트에서 엄청난 손실을 봤는데, 같은 손실을 두 번 반영해 세금 감면 혜택을 중복해 받은 혐의로 미 국세청(IRS) 감사를 받았다. 지난 대선 당시 민주당은 전당대회를 하루 앞두고 외벽에 레이저로 반(反)트럼프 캠페인 슬로건을 투사하며 트럼프의 세금 리스크를 상기시키기도 했다. 반대로 트럼프 추종자들은 이 건물을 배경으로 수많은 ‘마가’(MAGA·미국을 다시 위대하게) 콘텐츠를 제작했다. 이처럼 트럼프의 상징과도 같은 이 시카고 트럼프 타워 코앞이 온통 초록색으로 변했다. 63년 전통 ‘성 패트릭의 날’ 기념 행사염료 뿌리자 시카고강 온통 초록빛으로AP통신과 NBC뉴스 등 현지언론에 따르면 ‘성 패트릭의 날’ 축하 행사가 시작된 15일(현지시간) 시카고 배관공 조합인 ‘시카고 플러머 유니온’(CPU)은 시카고강을 순식간에 초록빛으로 물들였다. 강물에 보트를 띄운 조합원들이 강에 염료를 풀자 일대를 가득 메운 관광객들은 일제히 환호성을 터뜨렸다. 매년 3월 17일은 아일랜드에 처음으로 기독교를 전파한 수호 성인 패트릭(386~461년)을 기리는 ‘성 패트릭의 날’(St. Patrick‘s Day)이다. 초록색은 패트릭 성인이 아일랜드 이교도들에게 기독교의 삼위일체(성부, 성자, 성령님)를 설명하기 위해 토끼풀(세 잎 클로버)을 사용한 일화를 바탕으로 그를 상징하는 색이 됐다. 이 때문에 축제 날이 되면 아일랜드 사람들은 초록색 옷과 장신구를 갖춰 입고 거리를 행진한다. 음식점에도 초록색 음식과 음료가 등장하며, 건물에 초록색으로 조명을 비추는 등 눈에 보이는 것들이 온통 초록색으로 변한다. 시간이 지나면서 이 날은 아일랜드 사람들의 포용성과 다양성을 축하하는 날로 의미가 확장됐고, 아일랜드뿐 아니라 영국과 미국, 캐나다 등 전 세계에 다양한 형태로 확산했다. 버락 오바마 전 미국 대통령은 2012년부터 백악관 앞 분수를 초록색으로 염색하기 시작했고, 지난 17일 트럼프 대통령도 백악관 분수를 초록색으로 만들었다. 백악관 분수도 초록빛으로…염료는 무독성수생 환경 연구 ‘문제없음’…염료 배합은 기밀 시카고에서 열리는 행사의 경우 1962년 CPU 소속 배관공들이 강을 오염시키는 하수폐기물의 출처를 알아내기 위해 뿌렸던 염료가 강물을 초록색으로 물들인 것에서 유래해 지금까지 63년째 이어지고 있다. 매년 이맘때 CPU 조합원들은 강에 배를 띄워 염료를 뿌리는데, 이를 보기 위해 해마다 100만명 이상의 인파가 몰린다. 과거에는 염료가 빠지지 않아 강물이 한 달 동안이나 초록색을 유지했지만, 최근에는 몇 시간이면 원래의 색으로 돌아오는 방식으로 진행되고 있다. 행사에 사용되는 염료는 무독성 친환경 분말로 알려졌지만, 자세한 제조법은 철저히 비밀로 유지되고 있다. 현지 과학 전문 매체 PHYS에 따르면 해당 염료가 수질 오염 및 민물 생태계에 악영향을 미치는 것 아니냐는 환경계 우려가 있었으나, 지난해 퍼듀대학교와 일리노이-인디애나 해양 프로그램 대학원생들이 행사 기간 시카고강 물고기의 수생 활동을 연구한 결과 아무런 영향이 없는 것이 확인됐다.
  • 인텔의 구원투수, 위기탈출일까 마지막일까 [고든 정의 TECH+]

    인텔의 구원투수, 위기탈출일까 마지막일까 [고든 정의 TECH+]

    인텔은 작년부터 막대한 손실을 보고하면서 결국 회사를 매각한다는 루머가 나오고 있습니다. 물론 현재까지 잠재적 인수 대상자로 여겨지는 TSMC는 여기에 큰 흥미를 보이지 않고 있습니다. 현실적으로 기존의 파운드리 팹과 인텔 팹을 통합하기 쉽지 않고 막대한 추가 비용이 들어갈 수밖에 없기 때문입니다. 그 외의 회사들도 인수 대상으로 종종 거론되곤 하지만 심각한 부진의 늪에 빠진 인텔을 선뜻 인수할 회사를 찾기 어려운 것이 현실입니다. 한때 반도체 업계에서 적수가 없던 인텔이 지금과 같은 위기에 빠진 이유는 시대의 흐름을 따라가지 못하고 기술 혁신에서 뒤처졌기 때문입니다. 물론 그것이 한 사람만의 잘못은 아니지만 매우 중요한 시기였던 2013년부터 2018년 사이 최고경영자(CEO)로 재직했던 브라이언 크르자니크(Brian Krzanich)부터 인텔의 몰락이 시작됐다는 견해가 일반적입니다. 2010년대 초반까지만 해도 인텔은 착실하게 2년마다 신공정을 도입하고 그 사이 연도에는 새로운 아키텍처를 도입하는 틱톡 전략을 사용하며 업계를 리드했습니다. 하지만 14nm(나노미터)에서 10nm 공정으로 이동하는 과정은 그렇지 못했습니다. 이 시기 크르자니크 CEO는 10nm 공정에서 한 번에 많은 것을 도입하려고 했는데, 욕심이 너무 컸는지 10nm 공정 개발은 계속 지연됩니다. 설상가상으로 미세 공정과 함께 진화하게 마련인 마이크로 아키텍처 역시 답보 상태를 면치 못하면서 한때 인텔보다 한참 아래에 있던 AMD에게 역전의 기회를 주고 말았습니다. 대체 왜 그랬는지에 대해서는 지금도 의견이 분분하지만, 10nm 공정에서 갑자기 트랜지스터 밀도를 2.7배로 높이려고 하는 등 과도하게 높은 목표를 제시하면서 DUV 공정에 집중합니다. 그때 삼성이나 TSMC가 추구했던 EUV 도입은 늦은 것도 중요한 이유로 꼽힙니다. 2016년엔 갑자기 인텔 전체 인력의 11%에 해당하는 1만 2000명을 정리해고하는 등 비용 절감을 주력한 것도 나중에 도마에 올랐습니다. 회사 재정 상태가 괜찮을 때 구조조정을 할 게 아니라 미래를 위해 과감한 투자를 해야 했는데, 주가 부양을 위해 단기적 실적 개선에만 주력했다는 것입니다. 모든 게 그의 잘못은 아니어도 결과적으로 CEO의 책임이 가장 클 수밖에 없습니다. 올드보이의 귀환도 못 막은 인텔의 몰락크르자니크 사임 후 흔들리던 인텔이 다시 목표를 설정하고 뛰기 시작한 시점은 2021년 40486 CPU의 설계를 맡았던 베테랑인 팻 겔싱어(Pat Gelsinger)가 CEO로 취임한 후입니다. 겔싱어 CEO는 가장 위협적인 경쟁자인 TSMC의 미세 공정을 따라잡기 위해 4년간 5개의 신공정을 도입한다는 야심 찬 계획을 세웠습니다. 이것 역시 10nm 공정처럼 무리한 계획처럼 보이지만, 사실 10nm 공정의 교훈을 바탕으로 한 결정이었습니다. 한 번에 너무 많은 것을 도입할 게 아니라 한 번에 하나씩 신공정을 도입하려 했던 것입니다. 당시 조 바이든 행정부의 미국 반도체 및 과학법(일명 칩스법) 덕분에 막대한 지원까지 받게 된 터라 이 계획은 처음에는 전망이 밝아 보였습니다. 하지만 이번에도 지나친 욕심이 발목을 잡았습니다. 메테오 레이크에 적용된 인텔 최초의 EUV 공정인 인텔4 공정까지는 어떻게 진행할 수 있었지만, 그다음인 20A에서는 시간 내에 양산하는 데 실패해 인텔 역사상 최초로 CPU를 TSMC에 외주로 생산하는 굴욕적인 사태가 발생했습니다. 미세 공정 5개를 4년 동안 동시 진행할 게 아니라 DUV 공정 고도화(인텔7), EUV 도입(인텔3, 인텔4), 파워비아와 리본펫 기술 적용(20A, 18A) 정도로 나눠 1~2년 간격으로 집중했더라면 더 좋지 않았을까 하는 아쉬움이 남지만, 이미 엎질러진 물이었습니다. 결국 인텔의 올드보이였던 겔싱어 CEO는 막대한 손실을 남기고 지난해 사임했습니다. 외부에서 온 반도체 전문가, 구원투수일까한동안 공석이던 CEO 자리를 맡은 것은 완전히 외부 인사였습니다. 인텔 이사회가 3월 12일(현지시간) 발표한 인텔의 새 수장은 반도체 설계 소프트웨어 기업인 케이던스 디자인 시스템스 CEO를 역임(2009~2021년)했고 이후 인텔 이사회에 잠시 몸담았던 립부 탄(Lip-Bu Tan)입니다. 일반 대중에게는 잘 알려지지 않았지만 반도체 업계에서 오랜 경험을 쌓은 전문가로 현재 최악의 위기 상황에 놓인 인텔을 구원하는 임무를 맡게 됐습니다. 솔직히 미래가 밝다고는 말할 수 없는 상태입니다. 인텔은 미세 공정에서만 경쟁자에 뒤진 것이 아니라 마이크로 아키텍처에서도 꾸준히 젠(Zen) 아키텍처를 개선해온 AMD에 완전히 밀리고 있기 때문입니다. TSMC의 최신 3nm 미세 공정을 적용한 인텔 CPU는 게임 성능에서 역시 TSMC에서 생산한 AMD의 최신 CPU에 밀리고 있고 상대적으로 낮은 가격에서도 판매량이 저조한 게 현실입니다. 이런 상황에서 립부 탄은 사실상 마지막 구원 투수로 생각되고 있습니다. 다만 AMD 역시 본래 IBM에 오래 몸담았던 반도체 전문가 리사 수를 CEO로 영입해 회사가 망할 뻔한 상황에서 기사회생에 성공했습니다. 당시 AMD보다 훨씬 자원이 많은 인텔에 적절한 CEO가 나타난다면 불사조처럼 회사가 다시 살아나지 말라는 보장은 없습니다. 인텔 구원의 첫 단추는 아마도 올해 하반기에 공개 예정인 18A 공정일 것입니다. 막대한 비용을 투자했고 빚도 많이 끌어 섰는데, 최신 EUV 공정을 적용한 18A 공정마저도 실패하면 더 이상 반도체 생산 시설을 유지할 수 없을 것이라는 의견이 지배적이기 때문입니다. 일단 인텔은 20A 대신 TSMC의 3nm 공정을 사용했던 굴욕을 갚기 위해 다음번 소비자용 프로세서인 펜서 레이크와 서버 프로세서인 클리어워터 포레스트는 18A 공정으로 만들 계획입니다. 보란 듯이 이 계획이 성공해서 인텔이 다시 살아날 수 있을지, 아니면 결국 파운드리 부분을 매각하게 될지 올해 안에 윤곽이 드러날 것으로 보입니다.
  • ‘반도체 전문가’ 립부 탄, 위기의 인텔 구원투수 등판

    ‘반도체 전문가’ 립부 탄, 위기의 인텔 구원투수 등판

    수년째 경영난에 시달리는 미국 반도체 기업 인텔이 새 최고경영자(CEO)로 립부 탄(65) 전 케이던스 디자인 시스템즈 CEO를 임명했다고 12일(현지시간) 밝혔다. 인텔의 재건을 진두지휘하던 팻 겔싱어 전 CEO가 지난해 12월 사임한 지 3개월 만이다. 인텔은 탄 CEO가 오는 18일부터 CEO 직을 맡는다고 밝혔다. 지난해 8월 떠났던 이사회에도 재합류한다고 덧붙였다. 그는 성명을 통해 “우리가 우위를 점한 분야의 투자를 확대하고 경쟁에서 뒤처진 분야의 도약을 지원하겠다”고 말했다. 탄 CEO는 말레이시아에서 태어나 싱가포르에서 자랐다. 벤처 투자 분야에서 경력을 쌓은 뒤 2004년 미 반도체 설계 소프트웨어 기업인 케이던스 이사회에 합류했다. 2008년 공동 CEO, 2009년 단독 CEO를 맡았다. 이후 10년 이상 회사를 이끌며 반도체 설계 소프트웨어 시장에서 케이던스를 시놉시스와 함께 ‘업계 쌍두마차’로 끌어올렸다. 2022년부터는 인텔 이사회 구성원으로 활동했다. 인텔은 1970년대부터 개인용 컴퓨터(PC) 중앙처리장치(CPU)를 중심으로 반도체 산업을 지배해 왔다. 그러나 모바일·인공지능(AI) 등 시대 변화에 뒤처지고 주력인 CPU 부문에서도 경쟁사인 AMD에 추격을 허용해 경쟁력을 상실했다. 2021년 겔싱어 CEO가 구원투수로 등판해 기대를 모았다. 그는 자사 제품뿐 아니라 다른 회사의 칩을 생산하는 파운드리 사업을 키우겠다는 계획을 내놓았지만 실망스러운 실적으로 시장 신뢰를 잃고 물러났다. 인텔은 1만 5000명을 해고하는 등 구조조정에 착수했으며 오하이오주 공장을 포함한 일부 건설 계획도 연기했다. 최근에는 기업 분할 매각 가능성까지 나오고 있다. 탄 CEO는 이렇게 무너진 인텔의 위상을 회복해야 하는 숙제를 안고 임기를 시작한다.
  • “TSMC, 엔비디아 등에 ‘인텔 파운드리’ 합작투자 제안”

    “TSMC, 엔비디아 등에 ‘인텔 파운드리’ 합작투자 제안”

    세계 1위 파운드리(반도체 위탁생산)업체인 대만 TSMC가 경영난에 빠진 미국 반도체업체 인텔에 대한 합작 투자를 엔비디아 등에 제안한 것으로 알려졌다고 로이터통신이 12일(현지시간) 보도했다. 로이터는 4명의 익명 소식통을 인용해 TSMC가 인텔의 공장을 운영할 합작 회사와 관련해 엔비디아·AMD·브로드컴 등 미국 주요 업체들에 지분 투자를 제안했다고 전했다. 일부 소식통은 TSMC가 퀄컴에도 이러한 제안을 했다고 말했다. 제안에는 TSMC가 인텔의 파운드리 부문을 운영하되 지분율은 50%를 넘기지 않을 것이라는 내용이 포함된 것으로 전해졌다. 소식통들에 따르면 이러한 제안은 도널드 트럼프 행정부가 미국 반도체 산업의 상징인 인텔의 위기를 타개하기 위해 TSMC에 도움을 요청한 뒤 이뤄진 것으로, 논의가 초기 단계인 것으로 알려졌다. 소식통들은 인텔 파운드리 부문이 완전히 외국 기업에 넘어가는 것을 트럼프 행정부가 원하지 않는 만큼 기업들의 최종 합의에는 트럼프 행정부의 승인이 필요할 것으로 봤다. 웨이저자 TSMC 회장은 이달 3일 백악관에서 트럼프 대통령과 면담한 뒤 1000억 달러(약 145조원) 규모의 대미 투자 계획을 발표했다. 앞서 지난달 블룸버그통신은 TSMC가 트럼프 행정부의 요청에 따라 인텔 공장의 지분을 인수해 운영하는 방안을 검토하고 있다고 보도한 바 있다. 브로드컴도 인텔의 칩 설계 및 마케팅 부문 인수에 관심을 갖고 있다는 보도가 나왔다. 인텔과 TSMC를 비롯한 관련 기업들은 로이터의 논평 요청에 응하지 않았다. 백악관도 입장을 밝히지 않은 상태다. 인텔은 한때 개인용컴퓨터(PC) 중앙처리장치(CPU)를 중심으로 세계 반도체 시장을 지배했지만 모바일·인공지능(AI) 등 산업 지형 변화에 대응하지 못해 경쟁에서 뒤처졌다.
  • 엔비디아가 2년 연속 경쟁자로 지목한 ‘이 기업’…국내 기업은 삼성전자 1곳

    엔비디아가 2년 연속 경쟁자로 지목한 ‘이 기업’…국내 기업은 삼성전자 1곳

    인공지능(AI) 분야에서 대장 기업으로 꼽히는 미국 엔비디아가 중국 최대 통신장비 업체 화웨이를 최대 경쟁업체로 꼽았다. 화웨이는 여러 부문에 걸쳐 2년 연속 엔비디아의 경쟁자로 이름을 올렸다. 27일(현지시간) 미국 CNBC 방송에 따르면 엔비디아는 지난 26일 발간한 ‘2025년 연례보고서’에서 화웨이를 경쟁업체 중 하나로 선정했다. 엔비디아는 자사의 경쟁업체를 ▲AI용 반도체 및 컴퓨팅 솔루션 ▲AI 컴퓨팅 기능을 통합하는 대규모 클라우드 서비스 ▲Arm 기반 CPU ▲시스템 온 칩(SoC) ▲네트워킹 제품 등 5개 부문으로 분류하고 있다. 화웨이는 이 중 ▲AI용 반도체 및 컴퓨팅 솔루션 ▲AI 컴퓨팅 기능을 통합하는 대규모 클라우드 서비스 ▲Arm 기반 CPU ▲네트워킹 제품 등 4개 부문에 경쟁자로 이름을 올렸다. 화웨이는 2024년부터 엔비디아의 연례보고서에 경쟁자로 등장했다. 2023년 연례보고서에 화웨이는 언급되지 않았다. 젠슨 황 엔비디아 최고경영자(CEO)는 CNBC 인터뷰에서 “중국업체들과 상당한 경쟁이 있다”면서 “화웨이와 다른 기업들은 매우 역동적이며, 경쟁력도 매우 뛰어나다”고 말했다. 미국은 지난 2019년부터 화웨이가 미국의 첨단기술에 접근하지 못하도록 규제해왔다. 첨단 5G 반도체부터 구글의 안드로이드 운영체제에 이르기까지 미국 업체들이 가진 기술을 화웨이가 쓰지 못하도록 철저히 막아왔다. 미국의 전방위적 규제에도 화웨이는 지난해부터 빠른 성장을 기록 중이다. 지난해 매출은 8600억 위안(약 171조원)을 넘어서 전년 대비 22% 증가했다. 증가율은 2016년의 32% 증가 이후 가장 높았다. 2023년 중국에서 새로 출시한 스마트폰 메이트 60프로가 인기를 끈 것이 성장 동력이 된 것으로 평가되고 있다. 지난해 11월에는 100% 자체 운영체제(OS)를 적용한 ‘메이트 70’ 시리즈도 공개했다. 한편 국내 기업 중 엔비디아의 경쟁업체로 지목된 업체는 ▲시스템 온 칩(SoC) 부문에 이름을 올린 삼성전자가 유일하다. 반면 중국업체는 화웨이 외에도 대규모 클라우드 서비스 부문에서 알리바바 그룹, 바이두 등이 지목됐다.
  • 페르소나AI, CES 2025 혁신상 수상… “온디바이스 AI로 글로벌 주목”

    페르소나AI, CES 2025 혁신상 수상… “온디바이스 AI로 글로벌 주목”

    - 인터넷 연결 없이도 동작하는 온디바이스 AI 기술 공개- 보안·비용·환각 현상 문제 해결한 ‘3무(無) AI’로 주목- 기업·공공기관 대상 AI 솔루션 시장 확장 전 세계를 뒤흔든 중국발 ‘딥시크 쇼크’ 속에서 한국 AI 기업 페르소나AI가 강력한 대항마로 떠오르고 있다. 이 기업은 인터넷과 GPU 없이도 동작하는 온디바이스 AI 기술을 선보이며 CES 2025 혁신상을 수상했다. 특히 페르소나AI의 AI 엔진은 보안과 비용 문제를 해결한 혁신적 기술로 평가받고 있다. CES 2025 현장에서 공개된 페르소나AI의 AI 기술은 ‘NO INTERNET, NO GPU’라는 강력한 메시지를 내걸었다. 실제로 이 기술은 인터넷 연결 없이도 다양한 AI 기능을 수행할 수 있으며, GPU가 아닌 CPU 기반 AI 연산 기술을 활용해 실행된다. 이는 보안·비용·환각 현상(모델 환각 문제) 등 기존 AI 기술의 한계를 해결한 ‘3무(無) AI’로 평가받으며 뜨거운 관심을 받았다. 페르소나AI의 기술적 강점은 자체 개발한 AI 엔진에 있다. 기존 글로벌 AI 모델이 클라우드 기반으로 동작해 높은 서버 비용과 보안 이슈를 동반하는 반면, 페르소나AI는 인터넷 없이도 동작하는 경량화된 AI 엔진을 구현했다. 특히, GPU 없이도 AI 연산이 가능하도록 설계돼, 기존 대비 50% 이하의 비용으로 AI를 활용할 수 있다. 또한 페르소나AI의 AI 기술은 금융, 공공, 군사 등 보안이 중요한 분야에서 강점을 발휘한다. 딥시크가 개인정보 유출 문제로 논란을 빚고 있는 것과 달리, 페르소나AI는 인터넷 연결 없이 온프레미스(On-Premise) 환경에서 AI를 운영할 수 있어 데이터 보호 수준이 높다. 이러한 기술력 덕분에 이미 다수의 기업 및 공공기관이 페르소나AI의 솔루션을 도입했다. 페르소나AI가 선보인 생성형 AI ‘SONA 1’은 이미지 생성뿐만 아니라 LLM(대형 언어 모델) 기능도 갖추고 있어 문서 작업, 번역, 코딩 등 다양한 AI 활용이 가능하다. 특히, 일회성 구매 이후 추가 비용 없이 무제한 사용이 가능하다는 점에서 혁신적인 비즈니스 모델로 주목받고 있다. 페르소나AI는 2018년부터 FPGA 기반 AI 반도체를 개발하고, 2020년 AI 키오스크를 출시하는 등 AI 기술 선도 기업으로 자리 잡아왔다. 2023년에는 한국형 생성형 AI 모델 ‘KGPT’를 선보이며 국내 AI 시장에서 입지를 다졌으며, 지난해 TG삼보와 AI PC를 공동 출시하는 등 글로벌 AI 시장에서도 경쟁력을 강화하고 있다. 유승재 페르소나AI 대표는 “누구나 AI를 쉽게 활용하는 ‘1인 1봇 시대’가 현실이 되고 있다”며 “비용, 보안, 환각 현상 걱정 없는 ‘3무 AI’로 대한민국 AI의 저력을 보여주겠다”고 포부를 밝혔다. 페르소나AI는 인터넷과 GPU에 의존하지 않는 온디바이스 AI 기술로 글로벌 AI 시장의 패러다임을 전환하고 있다. 딥시크와 같은 중앙집중형 AI 모델의 대안으로 떠오르며, 보안과 비용 문제를 해결한 새로운 AI 활용 모델을 제시했다. 이러한 흐름이 지속된다면 페르소나AI는 한국 AI 기술의 글로벌 확장을 이끄는 핵심 플레이어가 될 가능성이 크다. 앞으로 온디바이스 AI 시장에서 어떤 성과를 거둘지, 그리고 AI 생태계에서 얼마나 강력한 입지를 구축할지 주목된다.
위로