HBM 대체보단 역할 분화…AI 메모리 구조 변화
[서울=뉴스핌] 김정인 기자 = 엔비디아가 온칩 S램(SRAM)을 활용한 인공지능(AI) 추론용 반도체 아키텍처 공개를 준비하면서 AI 메모리 시장 구조 변화 가능성에 관심이 쏠리고 있다. 기존 그래픽처리장치(GPU)처럼 고대역폭메모리(HBM)에 크게 의존하는 방식이 아니라 칩 내부 메모리를 확대해 처리 속도를 높이는 구조가 등장할 경우 삼성전자와 SK하이닉스가 주도하는 HBM 시장에도 변수로 작용할 수 있다는 분석이 나온다. 다만 업계에서는 S램이 대용량 데이터를 처리하는 HBM을 직접 대체하기보다는 일부 AI 작업에 활용되며 AI 메모리 구조가 더욱 다양해질 가능성이 크다는 평가가 우세하다.
◆ S램 기반 추론칩 부상
6일 업계에 따르면 엔비디아는 온칩 S램(SRAM)을 대규모로 활용한 AI 추론용 반도체 아키텍처 공개를 준비 중인 것으로 전해졌다. 특히 엔비디아는 오는 16일(현지시간) 미국 캘리포니아 새너제이에서 열리는 'GTC 2026'에서 관련 아키텍처를 공개할 가능성이 거론된다. 시장에서는 그록이 개발한 언어처리장치(LPU) 구조가 일부 반영될 수 있다는 관측도 나온다.

S램 기반 아키텍처는 기존 GPU 구조와 다른 접근 방식을 취한다. 현재 AI 데이터센터에서 사용하는 GPU는 대용량 데이터를 빠르게 처리하기 위해 HBM을 중심으로 설계된다. GPU 옆에 여러 개의 HBM 스택을 붙여 대규모 데이터를 처리하는 방식이다.
반면 S램 중심 구조는 칩 내부에 상대적으로 큰 용량의 S램을 배치해 데이터 이동을 최소화하는 데 초점을 둔다. 메모리를 칩 내부에 배치하면 데이터가 오가는 거리가 줄어들어 연산 처리 속도를 높일 수 있다.
◆ HBM 대체 가능성은 제한적
엔비디아가 S램 기반 추론용 반도체 아키텍처 공개를 준비하고 있다는 소식이 전해지면서, 글로벌 증시에서는 메모리 기업 주가가 일시적으로 약세를 보이기도 했다. S램 사용이 확대될 경우 HBM 등 기존 메인 메모리 수요가 줄어들 수 있다는 우려가 제기됐기 때문이다. HBM 시장을 주도하는 삼성전자와 SK하이닉스 역시 AI 반도체 아키텍처 변화 흐름을 예의주시하고 있는 것으로 전해졌다.

다만 업계에서는 S램 구조가 HBM을 직접 대체할 가능성은 낮다는 평가가 우세하다. 두 메모리는 구조와 역할이 크게 다르기 때문이다.
S램은 연산 속도를 높이는 데 유리하지만 집적도가 낮아 대용량 데이터를 저장하기 어렵다. 같은 용량 기준으로 보면 S램은 D램보다 셀 면적이 훨씬 커 동일 용량을 구현하려면 약 5~10배 정도의 면적이 필요한 것으로 알려져 있다.
이 때문에 S램은 그동안 PC나 서버에서 메인 메모리보다는 캐시나 버퍼 등 보조 메모리로 활용되는 경우가 대부분이었다. 반면 HBM은 대용량 데이터를 빠르게 처리하는 데 최적화된 메모리로 AI 학습과 데이터센터 서버에서 핵심 역할을 하고 있다.
◆ "AI 메모리 구조 '다층화'될 것"
채민숙 한국투자증권 연구원은 "S램 중심 아키텍처의 도입은 HBM이나 D램을 대체하기 위한 전략이라기보다 초저지연이 요구되는 특정 데이터센터 워크로드나 엣지 영역을 위한 별도의 옵션으로 이해해야 한다"고 분석했다.
이어 "대규모 모델 학습과 범용 추론 서버에서는 여전히 HBM과 D램이 메인 메모리를 담당할 것"이라며 "AI 산업이 발전할수록 S램, HBM, D램 등으로 이어지는 메모리 계층구조가 더욱 다층화되며, 이는 전체 메모리 시장규모의 확장으로 이어질 것"이라고 했다.
kji01@newspim.com












