[시장동향] 격동의 ‘AI 반도체’ 시장…엔비디아 아성에 도전장

생성형 AI 시대 엔비디아 독주 속 AI 반도체 확보 경쟁 심화 국산 반도체 기반 선순환 생태계 필요성 대두

2024-10-31     한정호 기자

[컴퓨터월드] 생성형 인공지능(AI) 시대, AI 경쟁력이 곧 국가 경쟁력이 되고 있다. 보다 고성능의 AI를 개발해 글로벌 산업 패권을 확보하려는 국가간 기업간 각축전이 벌어지는 상황이다. 이에 AI의 두뇌 역할을 하는 하드웨어(HW) 칩 ‘AI 반도체’ 기술 역량이 더욱 중요하게 부각되고 있다. 현재 엔비디아가 시장을 독점하는 가운데 전통 반도체 업체는 이에 대항할 신제품을 선보이고 있으며, 빅테크 기업들은 엔비디아 의존도를 줄이기 위해 자체 칩을 개발하고 있다. 우리나라에서도 국산 AI 반도체 기반의 선순환 AI 생태계를 조성해야 한다는 목소리가 나오고 있다. AI 반도체의 역할과 과열되고 있는 시장 상황을 조명해본다.

4차 산업혁명 시대, AI 반도체 부상

AI가 미래 4차 산업혁명 시대를 이끌 소프트웨어(SW) 기술로 주목받으며, 이를 위한 기업들의 HW 인프라 투자가 비약적으로 늘어나고 있다. 그가운데 중심 축은 바로 칩(Chip). AI 반도체다.

AI 반도체는 AI 알고리즘과 연산에 최적화해 설계·제작된 반도체다. 대규모의 방대한 연산을 빠르게 실행할 수 있어, 빅데이터를 학습하고 이를 결과물로 도출하는 SW인 AI 기술의 핵심 요소로 자리잡고 있다. 특히 GPU가 대표적인 AI 반도체다. GPU가 CPU에 비해 계산 정확도는 높지 않지만, 속도면에서 AI를 구동하기에 더 적합한 반도체로 주목받았다.

CPU와 GPU의 결정적인 차이는 데이터 처리 방식이다. CPU는 테이터를 차례대로 직렬 처리하며 SW를 실행한다면, GPU는 한 번에 많은 데이터를 병렬 처리한다. 동영상과 이미지를 컴퓨터 화면에 실시간 송출하기 위해 빠른 데이터 처리가 필수적이고, 이에 데이터가 인풋/아웃풋되는 여러 게이트웨이를 통해 CPU와 달리 수많은 데이터를 동시에 처리할 수 있다. AI를 위한 빠른 연산속도가 여기서 비롯된다.

CPU와 GPU의 차이 (출처: 클루닉스)

빠른 결과물 산출이 중요한 AI를 구동하는 AI 반도체는 GPU로부터 그 개념이 출발했다. 그리고 이 시장에서는 GPU 분야 전문기업인 엔비디아(NVIDIA)가 누구도 쉽게 따라잡지 못할 강력한 선두주자로 나아가기 시작했다. 게임 그래픽카드 사업자였던 엔비디아는 현재 AI 반도체 설계·공급을 넘어, AI 개발 및 활용을 지원하는 SW까지 제공하면서 AI 시장을 개척하고 트렌드를 이끄는 기업으로 거듭났다.

데이터 학습에 최적화된 GPU 외에도 AI 모델 ‘추론’에 특화된 AI 반도체도 부상했다. 바로 신경망처리장치(NPU)다. 최근 시장에서는 주요 빅테크 기업들의 AI 모델 크기가 기하급수적인 속도로 증가하고 있다. 때문에 이를 소화할 수 있는 GPU 서버와 전력이 요구되고 있고, 점차 주요 대기업들도 데이터센터 구축과 운영을 감당하기 힘들어하는 실정이다. 이에 시장에서는 기존 범용 GPU보다 효율적인 AI 전용 HW의 필요성에 주목했고, NPU가 GPU의 대안이자 보조할 수 있는 AI 반도체로 각광받았다.

NPU의 강점은 AI를 도입하려는 각 고객의 목적과 산업 분야에 맞춰 그 설계를 변경해 최적화할 수 있다는 점이다. 대표적으로 필드 프로그래머블 게이트 어레이(FPGA)는 머신러닝(ML) 알고리즘이 칩 자체에 물리적으로 매핑된 프로세서로, 비교적 적은 양의 워크로드를 처리하는 데 용이하게 활용할 수 있다. 또 특정 용도용 직접 회로(ASIC)도 특정 목적을 위해 설계되는 반도체로, AI 연산속도와 효율성을 더욱 극대화하도록 설계된 AI 반도체의 한 종류다. 기존 반도체 한계를 극복할 수 있는 고성능·저전력 기술 중심으로 AI 반도체의 발전이 가속화되고 있다.

정리하면 AI 반도체는 AI 시스템 구현 목적에 따라 크게 학습용과 추론용으로 구분된다. AI를 이용해 최상의 결과물을 만들고자 한다면 학습과 추론 2가지 과정이 모두 실행된다.

이에 대해 HW업계 한 실무자는 “학습 영역의 AI 반도체 시장은 현재 엔비디아 GPU가 독점하고 있는 상황이다. 반면 추론 영역의 NPU는 아직 성장 가능성이 높은 시장으로 많은 주목을 받고 있다. 학습을 위한 AI 반도체의 목적이 새로운 AI 모델을 생성하는 것이라면, 추론의 목표는 완성된 AI 모델을 기반으로 사용자에게 원활한 서비스를 제공하는 것이다”라며 “이에 대규모 모델 학습을 거쳐 AI 서비스를 구축한 오픈AI(OpenAI), 구글(Google)과 같은 기업들이 최근 GPU뿐만 아니라 자체 NPU 개발·탑재에도 중점을 두고 있다. 특히 서비스 품질을 높이는 것은 물론, 전력 소모와 서버 발열 문제를 해소하는 등 에너지 효율성 확보에도 힘쓰고 있다”고 설명했다.

최근에는 스마트폰, IoT 기기 보급 확산 등에 따라 에지(Edge) 디바이스 내 AI 반도체인 ‘온디바이스 AI’ 수요도 증가하는 추세다. 기존 대형 데이터센터 서버 및 클라우드와 연결하지 않고도, 디바이스 자체에서 AI 연산이 가능하도록 하는 소형화·고성능 특성을 갖춘 온디바이스 AI 탑재 제품들이 늘어나고 있다. 대형 IT인프라에 국한됐던 AI 서비스 환경이 일반 소비자 가전 시스템에도 속속 스며들고 있는 것이다.


전 세계 시장 고속 성장…플레이어 간 경쟁도 심화

AI 반도체 생태계는 크게 △AI 반도체를 설계하는 ‘팹리스(Fabless)’ △AI 반도체를 위탁 생산하는 ‘파운드리(Foundry)’ △AI 반도체의 데이터 저장·송신을 지원하는 ‘고대역폭 메모리(HBM)’ 개발사 △AI 모델 개발사 등으로 구성된다.

AI 반도체의 주요 수요처는 수많은 대형 데이터센터, 서버 인프라를 갖춘 클라우드 서비스 제공업체(CSP)들이다. 자체 AI 모델 개발에 AI 반도체를 활용하기도 하지만, 주로 클라우드 환경에서 고객에게 고성능의 GPU 인스턴스를 제공하거나 클라우드 인프라 자체 성능을 높이는 데 이용하고 있다.

또 확보한 GPU를 클라우드로 대여해주는 서비스형 GPU(GPUaaS) 특화 클라우드 사업자들도 등장하기 시작했다. 자체 온프레미스 인프라를 운영하는 AI 모델 개발사 및 기관들도 AI 반도체와 이를 탑재한 고성능 서버를 찾는 주요 고객들이다. 뿐만 아니라 AI가 스마트폰, 자율주행 자동차, 공장시설 등에도 스며들면서 온디바이스 AI에 대한 기술 개발도 전 세계적으로 활성화되고 있다.

AI 서비스 경쟁이 과열됨에 따라 AI 반도체 확보에 대한 수요도 끊임없이 증가하고 있다. 팹리스, 파운드리, 수요처 등 다양한 사업자들이 AI 반도체에 투자하면서 세계적으로 시장이 크게 성장하고 있다.

가트너가 발간한 ‘전 세계 AI 반도체 전망 분석’ 보고서에 따르면, 올해 전 세계 AI 반도체 매출이 전년 대비 33% 증가한 총 710억 달러(한화 약 97조 8,025억 원)에 이를 것으로 전망된다. 또한 2026년 말에는 전체 PC 출하량 중 NPU가 탑재된 기업용 AI PC의 구매 비중이 100%에 달할 것으로 가트너는 예측했다.

가트너 2023~2025년 전 세계 AI 반도체 매출 전망 (단위: 100만 달러)

AI 반도체 매출은 매년 두 자릿수 성장률을 이어가고 있는 것으로 나타났다. 특히 올해는 이전 대비 가장 높은 성장률을 기록할 것으로 관측된다. 가트너 앨런 프리스틀리(Alan Priestley) VP 애널리스트는 “오늘날, 생성형 AI는 데이터센터용 고성능 AI 칩 수요를 촉발시키고 있다”며 “서버 내에서 마이크로프로세서의 데이터 처리 부하를 낮추는 AI 가속기의 가치는 올해 총 210억 달러(한화 약 28조 9,275억 원)에 이를 것이고, 2년 새 330억 달러(한화 약 45조 4,575억 원)로 증가할 것”이라고 설명했다.

AI 반도체의 이같은 전망에 힘입어 엔비디아는 시가총액 순위 1위를 겨루는 기업으로 성장했다.

아울러 가트너는 향후 반도체 공급업체와 테크기업 간의 치열한 경쟁이 벌어질 것으로 예상했다. 주요 하이퍼스케일러인 아마존웹서비스(AWS), 구글, 메타(Meta), 마이크로소프트(MS)가 모두 AI에 최적화된 자체 칩 개발에 투자하고 있기 때문이다. 실제 구글은 자체 ‘텐서처리장치(TPU)’를, AWS는 학습 특화칩 ‘트레이니움(Trainium)’과 추론 특화칩 ‘인퍼런시아(Inferentia)’ 등을 자체 개발하며 자사 인프라와 서비스로 활용 중이다. 메타, 애플, 테슬라와 같은 기업들도 인하우스 개발 및 생산을 적극 추진 중이다. 이 모든 활동은 사실상 시장을 독점한 엔비디아 GPU의 종속으로부터 벗어나겠다는 움직임이다.


엔비디아, HW·SW 결합해 생태계 지배

옴디아(OMDIA) AI 프로세서 시장 보고서에 따르면, 엔비디아는 클라우드 및 데이터센터 부문 글로벌 AI 반도체 시장 점유율 약 80% 이상을 차지한 것으로 조사됐다. 일각에서는 엔비디아가 이미 시장 점유율 90% 이상을 차지하며 독점 중인 것으로 보고 있다. 이런 추세는 당분간 지속될 것으로 예측되고 있다.

HW업계 한 관계자는 “엔비디아의 경쟁력은 HW와 SW의 통합이다. 자사 AI 반도체를 공급할 때 이를 잘 활용할 수 있는 SW를 묶어 함께 판매하는 것이다. 핵심 SW로는 엔비디아가 자체 개발한 프로그래밍 언어 ‘쿠다(CUDA)’가 대표적이다. 쿠다는 GPU가 작업을 이해하기 쉽도록 개발한 언어로, 현재 엔비디아가 시장을 지배하는 상황에서 쿠다는 AI 프로그래밍 언어의 기본이다”고 말했다.

엔비디아의 대표 AI 반도체는 ‘H100’이다. H100은 시장에 출시된 지 2년이 지났음에도 기업들로부터 여전히 인기를 끌고 있다. 엔비디아는 고성능 GPU H100과 AI 반도체를 구동할 수 있는 SW이자 일종의 개발도구인 쿠다를 묶음 판매했다. AI 반도체 성능을 최대치로 발휘하기 위해 쿠다를 이용한 AI 개발을 제시했고, 쿠다가 점차 업계 표준으로 자리잡으면서 강력한 엔비디아 생태계가 구축됐다.

이미 대부분의 AI SW가 엔비디아 반도체를 기반으로 개발됐기에, 시장 판도의 변화는 어려울 것으로 보인다. AI 생태계 전반이 엔비디아를 중심으로 돌아갈 것이라는 게 업계 관측이다.

엔비디아 H100 텐서 코어 GPU (출처: 엔비디아)

게다가 엔비디아는 AI 반도체 시장지배력을 유지하고자 제품 출시 주기를 대폭 단축하고 있다. 실제 엔비디아는 이미 인기리에 공급되고 있는 H100을 뛰어넘는 새로운 라인업 ‘HGX H200’과 ‘GB200 그레이스 블랙웰(Grace Blackwell)’을 연이어 발표했다. 엔비디아 H200은 HBM3e를 제공하는 최초의 GPU이다. 엔비디아 블랙웰은 엔비디아 호퍼(Hopper) 아키텍처의 후속 기술로, 2,080억 개의 트랜지스터가 탑재되고 5세대 NV링크(NVLink)도 지원한다. 엔비디아는 가장 고도화된 AI 서버 시스템인 블랙웰을 최근 MS와 오픈AI에 최초 공급했다.

엔비디아가 오픈AI에 DGX B200을 제공했다. (출처: 엔비디아)

쿠다를 비롯한 AI 종합 솔루션을 제공한다는 점도 타 경쟁사가 따라잡기 힘든 엔비디아의 경쟁력이다. 엔비디아는 클라우드 기반 AI 슈퍼컴퓨팅 서비스인 ‘엔비디아 DGX 클라우드(NVIDIA DGX Cloud)’, 엔비디아 AI 플랫폼의 SW 스택 ‘엔비디아 AI 엔터프라이즈’ 등을 제공하고 있다. 특히 DGX 클라우드 서비스 확산을 위해 글로벌 CSP들과 컴퓨팅 인프라 영역에서 전방위적인 협력을 이어가는 중이다.


기회 엿보는 전통 강자들…자체 칩 개발도 활발

엔비디아와 AI의 열풍으로 AI 반도체 물량 부족 현상이 장기화되고 있다. 생산량이 수요를 못따라가고 있는 실정이다. 수요가 많다 보니 자연스레 엔비디아의 반도체 가격도 쉽게 떨어지지 않고 있다. 업계에 따르면 지금 엔비디아에 GPU를 주문하면 약 2~3년을 기다려야 할 정도로 주문이 밀려있는 것으로 알려진다.

이에 오픈AI, 메타 등 AI 모델 개발사들은 지속적으로 AI 반도체 물량 부족을 호소해 왔고, 결국 자체 AI 반도체 개발에 뛰어들기 시작했다. AI 반도체 회사를 따로 설립해 개발하겠다는 계획을 발표하고, 반도체 생산시설을 보유하고 있는 삼성전자, SK하이닉스, TSMC, 인텔 등과의 교류를 늘려가고 있다. 대표적으로 오픈AI는 자체 AI 반도체 개발을 위해 무려 7조 달러(한화 약 9천조 원) 규모의 펀딩을 추진하는 것으로 알려졌다.

이런 상황에서 인텔, AMD, 퀄컴 등 전통적인 반도체 강자들은 엔비디아가 주도하는 AI 생태계에 대항하기 위해 기술 개발과 투자를 늘려가고 있다. 인텔은 2019년 이스라엘 AI 반도체 스타트업 ‘하바나랩스(Habana Labs)’를 20억 달러에 인수하며 AI 반도체 시장 확장을 가속화해 왔다. 이를 통해 데이터센터 탑재를 위한 서버용 AI 훈련 반도체 ‘가우디(Gaudi)’를 개발했다.

이러한 인텔 AI 가속기의 가장 최신 버전은 ‘가우디 3’로 엔비디아의 H100을 겨냥하고 있다. 인텔은 항목별로 성능을 비교한 수치를 공개하기도 했다. 가우디 3는 H100 대비 AI 모델 훈련 및 추론 처리 속도가 평균 50% 더 빠르고, 에너지 효율성은 40% 이상 뛰어나면서도 가격은 더 저렴하다는 점을 내세우고 있다. 아울러 인텔은 가우디 칩을 기반으로 한 자체 생태계 구축을 위해 파트너십 확대에도 박차를 가하고 있다. 인텔은 네이버클라우드와 협력해 가우디를 이용한 모델 개발에 나서고 있다.

인텔 가우디 3 (출처: 인텔)

AMD도 최신의 AI 가속기 ‘MI325X’를 비롯해 AI 시스템을 지원하는 다양한 신형 반도체들을 선보이고 있다. 특히 GPU뿐만 아니라, 서버용 CPU 부문에서도 고객 수요 확보와 매출 증대를 꾀하고 있다. MI325X는 AMD가 지난해 말 출시한 ‘MI300X’의 후속 제품으로, 올해 양산에 돌입해 내년 초 정식 출하될 예정이다. AMD는 엔비디아의 H200보다 높은 메모리 용량과 넓은 대역폭을 갖고 잇다는 점을 내세우고 있다. 델 테크놀로지스, 슈퍼마이크로, 레노버 등이 MI325X 기반의 서버 플랫폼 출시를 발표했다.

AMD MI325X (출처: AMD)

퀄컴과 ARM은 개인용 AI PC, 스마트폰 등 디바이스용 AI 반도체 시장 기회를 엿보고 있다. 퀄컴은 MS가 제공하는 ‘코파일럿+PC’에 AI 반도체 ‘스냅드래곤(Snapdragon)’ 시리즈를 공급 중이다. 최근에는 자율주행 자동차를 포함한 기타 에지 영역의 AI 시스템 구축에도 선제적으로 진출하고 있다.

칩 전문 기업들 외에도 주요 글로벌 빅테크, CSP들이 자체 AI 반도체 개발에 나서며 경쟁이 심화되고 있다. 이들은 엔비디아와 협력하면서도, 엔비디아 GPU에 대한 종속성과 의존도는 낮추겠다는 목표다. AWS는 이미 클라우드용 AI 훈련, 추론 칩 서비스를 제공 중이다. 나아가 오픈AI의 대항마로 불리는 앤트로픽(Anthropic)에 5조 원을 투자하면서 AI 모델 서비스 부문도 강화했다.

MS도 지난 2019년부터 AI 반도체 내부 개발 프로젝트를 추진하면서 ‘마이아100’과 ‘코발트100’이라는 자체 칩을, 구글은 TPU를, 전기차 회사인 테슬라도 자율주행 자동차에 필요한 AI 반도체를 개발 중이다.


상승 기류 올라탄 파운드리·HBM

엔비디아가 시장을 주도하는 가운데 자체 AI 반도체 개발 기업들도 늘어남에 따라, 생산시설을 보유한 파운드리 기업과 HBM 기업들도 AI 시장의 상승 기류에 올라타고 있다. 대표적으로 우리나라의 삼성전자와 SK하이닉스가 파운드리 기업이자 HBM의 글로벌 주요 공급사로서 많은 주목을 받고 있다.

SK하이닉스는 발 빠르게 HBM에 투자해 HBM 시장을 50% 이상 차지한 것으로 전해진다. 특히 SK하이닉스는 엔비디아 GPU에 탑재되는 HBM을 공급 중으로, 엔비디아의 AI 반도체 수요가 증가하면 자연스럽게 SK하이닉스의 실적도 오르는 효과를 거두고 있다. 삼성전자 또한 SK하이닉스의 뒤를 이어 HBM을 개발 중으로, 엔비디아 대상 공급에 역점을 두고 있다.

SK하이닉스 HBM 개발 연혁 (출처: SK하이닉스)

HBM은 여러 개의 D램을 연결해 기존 D램보다 초당 데이터 처리 속도를 10배 이상 끌어올린 반도체로, GPU가 데이터를 읽고 저장할 때 성능을 높일 수 있도록 지원한다. 특히 기존 D램보다 전력 소모가 적어 높은 성능과 효율이 필요한 AI용 메모리로 적합해 각광받고 있다. SK하이닉스와 삼성전자가 글로벌 HBM 시장에서 두각을 드러내며 주도권 경쟁을 하고 있다.

세계 최대 파운드리 기업인 TSMC도 날이 갈수록 실적이 상승하고 있다. 특히 엔비디아의 반도체를 전문적으로 생산해 오며 자체 첨단 패키지 공정을 지원해 왔다. SK하이닉스와는 차세대 HBM 개발을 위해 협력 관계를 이어오고 있다.

이와 같이 기존 반도체 생산 기업들은 대체로 엔비디아와의 협력을 유지해 엔비디아 중심의 AI 생태계를 유지하려는 전략을 펼치고 있다. 다만 자체 AI 반도체를 개발하려는 오픈AI와 메타 등과도 AI 반도체 생산을 논의하며 다방면의 연합을 구축하려는 움직임도 보인다.


국내 팹리스 기업들의 등장

그간 우리나라에서는 삼성전자와 SK하이닉스를 필두로 한 메모리 반도체 제조와 생산 부문 의존도가 높았다. 하지만 최근에는 AI 반도체를 직접 설계할 수 있는 역량을 갖춘 AI 반도체 팹리스 스타트업들이 대거 등장하고 있다. 데이터센터용 AI 반도체, NPU를 개발하는 국내 대표 기업으로는 리벨리온, 사피온, 퓨리오사AI가 있다.

리벨리온은 지난해 데이터센터를 겨냥한 ‘아톰(ATOM)’을 출시했다. 현재 다양한 서버 기업들의 서버 안정성 인증을 획득하며 대규모 AI 모델 지원을 위한 환경에서 운용 검증을 진행하고 있다. 서버 수준에서의 신뢰성을 확보한 후 AI 데이터센터 공략을 위해 다수의 서버를 탑재한 랙(Rack) 솔루션도 선보여 하이퍼스케일러, 대규모 국가 데이터센터 등 초고용량의 AI 추론 트래픽을 필요로 하는 수요에 대응한다는 방침이다. 리벨리온은 내년 상반기 차세대 칩 ‘리벨(REBEL)’도 출시할 예정이다.

리벨리온은 KT그룹과 사우디 국영기업 아람코로부터 투자를 유치하며 국내를 비롯한 중동지역 AI 시장 진출 활로를 확보했다. 또 다른 해외 투자자들의 투자로 3천억 원이 넘는 총 누적 투자액을 확보했고, 이를 통해 글로벌 진출에 적극 나선다는 방침이다.

사피온은 SK텔레콤 내부 사업팀이 분사해 설립된 AI 반도체 전문기업으로, 데이터센터용 AI 반도체 ‘X220’을 시작으로 ‘X330’까지 출시했다. 오는 2026년에는 차세대 칩 ‘X430’을 출시할 계획이다.

특히 리벨리온과 사피온은 지난 8월 대한민국 대표 AI 반도체를 출범한다는 목표로 합병을 위한 계약을 체결했고, 연내 통합법인을 출범할 예정이다. 리벨리온은 해당 통합법인의 경영을 담당하고, 사피온을 이끄는 SKT는 전략적 투자자로서 통합법인의 글로벌 진출을 지원한다. 양사가 보유한 AI 반도체 설계 역량과 SK그룹사의 지원을 결합해 글로벌 AI 시장에서 우리나라가 승기를 잡을 수 있도록 속도를 낸다는 방침이다.

사피온과 리벨리온이 합병 계약을 체결했다. SKT 유영상 CEO(왼쪽), 리벨리온 박성현 대표 (출처: 리벨리온)

퓨리오사AI는 지난해 1세대 AI 칩 ‘워보이(Warboy)’를 양산했으며, 이어 2세대 AI 반도체 ‘레니게이드(RNGD)’를 올해 첫 공개했다. 퓨리오사AI는 AI 반도체를 잘 받쳐줄 수 있는 SW 스택 설계에 집중했고, 이를 통해 텐서 축약 프로세스(TCP) 역량에 중점을 둔 아키텍처를 구성했다. 퓨리오사AI는 SW 부문에 더욱 비중을 둬 AI 반도체를 설계하고 있다.

국내 온디바이스 AI 반도체 개발사로는 딥엑스가 있다. 딥엑스는 1세대 제품 ‘DX-M1’를 양산하고 있으며, 높은 전성비를 강점으로 내세우고 있다. 전력 소모를 줄이고 안정적인 발열 제어가 가능한 설계가 강점이다. 딥엑스는 올 하반기 10여 개 물리보안 시스템, 로봇, 산업용 시스템 등 여러 응용 분야 글로벌 기업들과 양산을 위한 개발을 진행하고, 내년 상반기까지 20여 개 이상 고객사를 확보할 것으로 기대하고 있다. 또한 서버급 제품인 ‘DX-H1’ 라인업도 보유하고 있다.

이 밖에 삼성전자와 LG전자 등도 모바일, 자동차, 가전, CCTV 등에 탑재할 수 있는 다양한 에지 특화 온디바이스 AI를 자체적으로 개발하고 있다.


“글로벌 시장서 견줄 수 있는 AI 반도체 생태계 갖춰야”

우리나라는 반도체 강국으로 불리지만, 한편으로는 팹리스 불모지로 평가받기도 했다. 반도체 역량이 대부분 생산에 치중돼 왔기 때문이다. 이런 상황에서 국내 팹리스 기업들의 등장은 IT시장의 관심을 한 몸에 받기 충분했다. 국내 팹리스 기업들은 다년간의 연구개발 끝에 국산 AI 반도체를 완성했고, 올해와 내년 본격적인 글로벌 확산을 위한 ‘골든타임’에 들어선다.

하지만 여전히 장벽은 높다. 엔비디아가 이 시장을 독식한 가운데 인텔과 AMD 같은 전통 강자들이 거대한 자본력과 수십년 간 쌓은 기술 역량을 토대로 AI 반도체 시장에서 버티고 있기 때문이다.

업계에서는 향후 AI 시장에서 국내 기업들이 지속 가능한 성장을 이루기 위해 국산 반도체 활용이 확산될 필요가 있다는 목소리도 나오고 있다. 글로벌 사업자들에 대한 의존도를 낮출 수 있는 우리나라만의 유기적인 AI 반도체 생태계를 갖춰야 한다는 주장이다.

국내 AI 반도체 산업의 세계 시장 점유율은 3% 수준 정도로 알려진다. 우리 정부는 2020년 ‘인공지능 반도체 산업 발전전략’을 수립해 2030년 세계 시장 점유율을 20%까지 끌어올린다는 전략을 발표했다.

인공지능 반도체 산업 발전전략 (출처: 과기정통부)

또한 국산 AI 반도체를 활용한 ‘K-클라우드 프로젝트’를 과기정통부가 추진하면서, 국산 AI 반도체 개발 및 확산을 위해 2023년부터 2030년까지 7년 동안 총 8,262억 원을 투자한다는 계획을 내세웠다. K-클라우드 프로젝트는 네이버클라우드, KT클라우드, NHN클라우드 등 국내 CSP 3사와 리벨리온, 사피온, 퓨리오사AI 등 팹리스 3사의 컨소시엄 형태로 진행되고 있다.

지난해 이뤄진 1단계 사업에서는 NPU 고도화 및 초기 시장 창출에 집중했다. 올해와 내년 순차적으로 진행될 다음 단계에서는 D램 기반 프로세싱인메모리(PIM)를 세계적 수준의 연산 성능을 저전력으로 구현하고, 비휘발성 메모리를 활용해 아날로그 곱셈누산기(MAC) 연산 기반 NPU 및 PIM을 개발해 극저전력화를 달성한다는 계획이다.

이를 통해 2030년까지 국내 데이터센터 시장에서 국산 AI 반도체 점유율을 80%까지 끌어 올리고, AI 반도체 기술력을 세계 1등으로 만들겠다는 목표다. 이를 위해 정부는 사업 참여 기업 외에 다양한 주요 민간, 협회, 부처 및 연구기관이 참여하는 얼라이언스 구성도 추진했다.

정부의 노력이 없진 않았지만, 현실적으로 AI 반도체 부문에서 국내 기술 수준은 주요국 대비 뒤처진 상황으로 평가받고 있다. 이와 관련, 업계 한 관계자는 “국산 AI 반도체는 이제 첫발을 디딘 상태다. 문제는 글로벌 시장 진출에 앞서 국내 레퍼런스부터 확보해야 한다는 점이다. 팹리스 기업들이 기술력은 충분히 갖춰지만, 사업 역량은 아직 미치지 못하고 있다”며 “현재 주요 CSP사들과 진행되고 있는 NPU팜 구축 외에도, 공공 데이터센터와 민간 사업자들을 대상으로 NPU를 추가 공급함으로써 팹리스 기업들이 레퍼런스와 사업 수행 경험을 얻을 수 있어야 한다”고 말했다.

또다른 실무자는 “레퍼런스 확보 외에도 팹리스와 파운드리간 협력 관계가 구축돼야 한다”고 강조했다.

팹리스 기업들은 높은 성장 잠재력을 인정받아 대규모 투자를 받아왔지만, 실제 수요 발굴과 수익성 개선에는 아직 어려움을 겪고 있다. 이들은 대부분의 투자액을 연구개발에 사용해 온 만큼 영업손실이 발생했고, 이제 본격적인 제품 공급과 신제품 출시를 통해 흑자전환을 기대하고 있는 상황이다. 아울러 기술 측면에서는 HW 설계뿐 아니라 SW 이해도까지 갖춘 기술 스택 및 인력 확보가 필요해지고 있다. 엔비디아 쿠다와 같은 SW 플랫폼 개발에도 공을 들여야 한다는 것이다.

반도체 업계 한 관계자는 “정부에서는 AI 반도체 기업들의 연구개발 투자비 지원, 수요 발굴을 연계한 실증 사업을 진행 중이다. 여기에 더해 우리나라의 선순환 구조 AI 생태계를 구축하기 위해서는 AI 반도체를 구동할 수 있는 SW 플랫폼 개발 과제도 늘어날 필요가 있다고 본다. 엔비디아가 AI 시장을 주도할 수 있었던 이유가 바로 HW와 SW를 결합한 생태계를 선제 구축한 덕분이었다”며 “자체 SW 플랫폼 개발도 좋지만, 장기적으로는 다양한 기업들 간 협력이 중요할 것 같다. 또 무엇보다 AI 반도체 전문인력 확보를 위해 대학 및 연구기관 간의 협력도 필수가 되고 있다”고 역설했다.