마이크로소프트(MS), 구글 등 글로벌 빅테크 기업들이 초거대 인공지능(AI) 상용화에 고삐를 죄고 있는 가운데 반도체 업계도 고부가 반도체 수요 확대에 주목하고 있다. 초거대 AI 상용화를 위해선 초월적인 수의 연산을 감당할 만한 서버·스토리지 인프라가 전제돼야 하는데, 이 과정에서 고부가 메모리 반도체 탑재가 필수이기 때문이다.
30일 업계에 따르면 메모리 반도체 업체의 주요 고객인 IT 빅테크 기업들이 초거대 AI 상용화 계획과 투자를 연달아 발표하고 있다.
블룸버그 등 외신에 따르면 MS는 최근 AI 챗봇 개발사 ‘오픈AI’와 파트너 관계를 맺고 수년에 걸쳐 총 100억달러(약 12조 3000억 원) 규모의 투자를 약속했다. 자사 클라우드 서비스 ‘애저’에 챗GPT를 비롯한 초거대 AI를 탑재하겠다는 계획도 밝혔다.
지난달 순다르 피차이 구글 최고경영자(CEO)는 챗GPT를 자사의 검색엔진 점유율을 위협할 ‘코드 레드‘(매우 심각한 위협)로 규정하고 AI 전략을 재정비하기 위한 비상 회의를 열었다. 앞서 구글은 지난해 5월 챗봇 ‘람다(LaMDA)’를 공개하며 관련 연구를 이어가고 있다.
국내 반도체 업계는 초거대 AI 상용화 움직임이 글로벌 빅테크 기업의 적극적인 설비 투자를 촉진할 수 있다는 점에서 기대하고 있다. 지난해 하반기부터 재고 조정 여파로 설비투자(CAPAX)에 소극적이었던 글로벌 빅테크 기업이 경기 침체 상황에서도 상대적으로 적극적인 인프라 투자에 나설 가능성이 생겼기 때문이다.
김영권 미래에셋증권 연구원은 “챗 GPT가 화두가 되며 AI에 대한 집중투자가 경쟁적으로 이뤄지고 있는 상황을 고려하면 글로벌 데이터센터 업체(하이퍼스케일러)의 전반 설비투자(CAPAX) 가이던스가 긍정적일 가능성이 높다”고 말했다.
SK하이닉스 HBM3 (SK하이닉스 제공) © 뉴스1 |
초거대 AI 상용화는 메모리 판매 단가와 수량을 동시에 늘릴 기회이기도 하다. 현재 글로벌 AI 반도체 시장에선 미국 엔비디아가 그래픽 처리용 GPU를 딥러닝에 적합한 형태로 개선한 데이터센터향 GPU ‘GP-GPU’ 비중이 압도적으로 높다. 이러한 GPU 제품에는 고대역폭 메모리(HBM)을 비롯한 차세대 D램 제품군이 대거 탑재된다.
데이터센터향 GPU 판매가격에서 차지하는 HBM의 비중은 30%대에 육박하는 것으로 추정된다. 단품 가격도 기존 D램과 비교해서 2배 이상 높다. 김 연구원은 “챗GPT의 대중화는 곧 직접적으로는 GPU 수요를, 간접적으로는 D램을 중심으로 하는 메모리 수요를 촉진하는 요인”이라고 했다.
삼성전자와 SK하이닉스 등 국내 반도체 업체들도 중장기적으로 AI용 메모리 반도체 시장 확대가 지속될 것으로 보고 기술 개발과 시장 선점에 나섰다.
삼성전자는 지난해 10월 글로벌 시스템 반도체 설계 회사 AMD와 메모리 반도체와 AI 프로세서를 하나로 결합한 ‘HBM-PIM’ 기술 개발을 위해 협력했다. 지난달 초에는 네이버와 AI 반도체 솔루션 개발을 위한 업무협약(MOU)을 체결하고 실무 태스크포스를 발족하는 등 국내외 주요 기업과 협력을 통한 메모리 생태계 확장에 나섰다.
SK하이닉스는 지난해 6월 엔비디아에 ‘HBM3’ 제품을 공급하기 시작한 이후 공급량을 꾸준히 늘려가고 있다. 지난해 공급량은 전년 대비 50% 이상 성장했고, 올해 역시 이와 비슷하거나 이를 뛰어넘는 증가율을 기록할 것으로 전망된다.
업계 관계자는 “AI용 메모리 반도체는 어떤 특정 프로세서랑 결합돼 고객에게 공급되는 형태이다 보니 처음에 우위를 잡는 업체가 압도적인 시장 지위를 누릴 수 있다”며 “이런 점을 고려해 업체들이 적극적으로 나서고 있다”고 말했다.