삼성·SK, 엔비디아 HBM4 퀄 테스트 막바지
'칩 6개를 하나로'…AI 슈퍼컴퓨터 구조 재설계
MS·AWS·구글 합류…루빈 생태계 빠르게 확장
머스크 "AI 로켓엔진"·저커버그 "대규모 배포 기대"
[서울=뉴스핌] 서영욱 기자 = 엔비디아의 차세대 AI 플랫폼 '루빈(Rubin)' 출시가 가시화되면서, 이를 둘러싼 글로벌 반도체·빅테크 경쟁도 본격화되고 있다. 루빈 그래픽처리장치(GPU)에 288GB 용량의 차세대 고대역폭 메모리(HBM4)가 탑재되면서, 삼성전자와 SK하이닉스는 엔비디아 납품을 둘러싼 막바지 검증 경쟁에 돌입했다.
엔비디아는 GPU·중앙처리장치(CPU)·네트워크·보안을 아우르는 '6개 칩 통합 구조'를 통해 AI 슈퍼컴퓨터의 설계 방식을 근본적으로 재편하겠다는 구상이다. 마이크로소프트(MS), 아마존웹서비스(AWS), 구글 등 주요 클라우드 사업자들도 루빈 기반 인프라 도입을 예고하며 생태계 확장에 힘을 싣고 있다. 일론 머스크와 마크 저커버그 등 글로벌 빅테크 수장들까지 공개적으로 기대감을 드러내면서, 루빈을 둘러싼 기술·산업적 파급력에 관심이 쏠리고 있다.

◆'칩 6개를 하나로'…AI 슈퍼컴퓨터 구조 다시 짠 루빈
젠슨 황 엔비디아 CEO는 5일(현지시간) 미국 라스베이거스에서 열리는 CES 2026 키노트에서 엔비디아 루빈(NVIDIA Rubin) 플랫폼 출시 계획을 밝혔다. 황 CEO는 "루빈 플랫폼이 현재 본격 양산 단계에 있으며, 루빈 기반 제품은 올 하반기에 파트너사를 통해 출시될 예정"이라고 말했다.
엔비디아 루빈 플랫폼은 단일 제품이 아니라 차세대 AI 슈퍼컴퓨터를 구성하는 통합 컴퓨팅 아키텍처다. 그래픽처리장치(GPU) 성능만 높이는 기존 방식에서 벗어나, 연산·네트워크·보안·스토리지를 하나의 시스템으로 설계한 것이 특징이다. 대규모 AI 모델을 더 빠르고, 더 적은 비용으로 학습·추론할 수 있도록 구조 자체를 다시 짰다.
루빈 플랫폼은 이를 위해 신규 칩 6종을 묶었다. AI 연산을 담당하는 루빈 GPU와 중앙처리를 맡는 베라 CPU를 중심으로, GPU 간 통신을 담당하는 NV링크 6 스위치, 고속 네트워크용 커넥트X-9 슈퍼NIC, 보안과 데이터 처리를 분담하는 블루필드-4 DPU, 데이터센터 확장을 고려한 스펙트럼-6 이더넷 스위치가 포함된다. 각 칩은 개별 성능보다 함께 작동할 때의 효율에 초점을 맞춰 공동 설계됐다.
이러한 설계는 AI 훈련 시간과 추론 비용을 동시에 낮추는 데 목적이 있다. 최근 AI 모델은 한 번의 답변을 내기보다 여러 단계로 추론하며 긴 토큰을 처리하는 구조로 바뀌고 있다. 루빈은 에이전틱 AI와 고급 추론, 대규모 전문가 혼합(MoE) 모델을 염두에 두고 설계돼, 토큰당 비용을 이전 세대인 블랙웰 대비 최대 10분의 1 수준으로 낮췄다. MoE 모델 훈련에 필요한 GPU 수도 기존보다 4분의 1로 줄일 수 있다는 설명이다.

플랫폼 이름은 암흑물질 존재를 밝혀낸 미국 천문학자 베라 루빈에서 따왔다. 엔비디아는 이를 베라 루빈 NVL72 랙 스케일 시스템과 HGX 루빈 NVL8 서버 플랫폼 형태로 제공할 예정이다. 대규모 데이터센터부터 범용 AI 서버까지 다양한 환경에서 적용할 수 있도록 구성했다.
젠슨 황 CEO는 "AI 훈련과 추론을 위한 컴퓨팅 수요가 급증하는 상황에서 루빈은 매우 시의적절한 플랫폼"이라며 "여섯 개 칩을 하나의 시스템으로 공동 설계해 AI 컴퓨팅의 새로운 기준을 제시할 것"이라고 말했다.
◆루빈 GPU가 키운 HBM4 수요…삼성·SK 검증 경쟁
루빈 플랫폼의 핵심인 루빈 GPU는 1개당 288GB의 HBM4 메모리를 탑재한다. GPU당 8개 스택의 HBM4를 결합한 구조로, 대규모 AI 모델이 요구하는 방대한 메모리 처리량을 안정적으로 뒷받침한다. 이를 통해 학습과 추론 과정에서 발생하는 메모리 병목을 줄이고, 고성능 연산을 지속할 수 있도록 설계됐다.
이에 따라 HBM4 공급을 둘러싼 경쟁도 본격화될 전망이다. 현재 삼성전자와 SK하이닉스는 모두 엔비디아에 HBM4 납품을 위한 품질 검증을 진행 중이다. SK하이닉스는 엔비디아가 루빈 플랫폼 검증용으로 요구한 HBM4 샘플을 수만 장 규모로 공급하며 품질 테스트와 초기 인증 절차를 사실상 마무리 단계에 둔 것으로 알려졌다. 삼성전자도 엔비디아의 테스트 과정에서 안정성과 성능 측면에서 긍정적인 평가를 받았다는 보도가 나오기도 했다.

◆클라우드·AI·서버 총집결…루빈 생태계 본격 가동
루빈 플랫폼은 특정 기업이나 용도에 한정되지 않고, 클라우드·AI 연구·서버 제조 전반을 아우르는 범용 AI 인프라로 설계됐다. 엔비디아는 이를 기반으로 세계 주요 AI 플레이어들이 동일한 하드웨어·소프트웨어 표준 위에서 대규모 AI 서비스를 빠르게 확장할 수 있을 것으로 보고 있다.
실제로 루빈 플랫폼은 AWS, 구글, MS, 오라클 클라우드 인프라스트럭처(OCI) 등 글로벌 클라우드 사업자를 중심으로 채택이 예상된다. 이들 기업은 차세대 AI 데이터센터와 대규모 추론 인프라에 루빈을 적용해 연산 효율과 비용 구조를 동시에 개선한다는 구상이다.
AI 모델 개발 기업들의 참여도 두드러진다. 오픈AI, 앤트로픽, 메타, xAI, 미스트랄 AI, 코히어 등은 초대형 모델 학습과 장문 컨텍스트 추론을 겨냥해 루빈 기반 인프라 도입을 검토하고 있다. 퍼플렉시티, 런웨이, 커서, 싱킹 머신즈 랩, 하비 등 AI 스타트업들도 루빈 생태계 합류 대상으로 거론된다.
서버·네트워크 업체들도 발 빠르게 움직이고 있다. 델 테크놀로지스, 휴렛팩커드 엔터프라이즈(HPE), 레노버, 슈퍼마이크로, 시스코 등은 루빈을 기반으로 한 차세대 AI 서버와 데이터센터 인프라 제품군을 준비 중이다. AI 전용 클라우드 사업자인 코어위브, 람다, 네비우스, 엔스케일 등도 루빈을 활용한 AI 클라우드 확장에 나설 전망이다.
엔비디아에 따르면 루빈 플랫폼은 현재 본격 양산 단계에 들어갔으며, 루빈 기반 제품은 올 하반기부터 파트너사를 통해 순차 출시될 예정이다.
특히 MS는 루빈 플랫폼을 차세대 AI 데이터센터 전략의 핵심으로 삼고 있다. 향후 '페어워터(Fairwater) AI 슈퍼팩토리'를 포함한 차세대 데이터센터에 베라 루빈 NVL72 랙 스케일 시스템을 도입할 계획이다. 루빈 플랫폼은 학습과 추론 모두에서 효율을 높이도록 설계돼, MS 애저(Azure)의 차세대 클라우드 AI 서비스 기반으로 활용될 전망이다.

◆올트먼·저커버그·머스크까지…루빈에 쏟아진 호평
루빈 플랫폼을 향한 글로벌 빅테크 수장들의 기대감도 이어졌다. 엔비디아에 따르면 오픈AI의 샘 올트먼 CEO는 "인텔리전스는 투입되는 컴퓨팅 능력에 비례해 확장된다"며 "엔비디아 루빈 플랫폼은 더 강력한 모델과 더 어려운 문제 해결을 가능하게 해, 첨단 인텔리전스의 혜택을 보다 넓게 확산시킬 것"이라고 평가했다.
메타 창립자 겸 CEO인 마크 저커버그도 "루빈은 전 세계 수십억 명에게 최첨단 AI 모델을 제공하는 데 필요한 성능과 효율성을 크게 끌어올릴 것"이라며 기대감을 나타냈다.
xAI의 일론 머스크 CEO는 "엔비디아 루빈은 AI를 위한 로켓 엔진과 같다"며 "대규모 모델 훈련과 배포에 최적화된 인프라로, 엔비디아가 AI 컴퓨팅의 기준이라는 점을 다시 한번 보여줄 것"이라고 말했다.
사티아 나델라 MS 회장 겸 CEO는 루빈을 차세대 데이터센터 전략과 직접 연결했다. 그는 "MS는 세계에서 가장 강력한 AI 슈퍼팩토리를 구축하고 있으며, 여기에 엔비디아 베라 루빈 GPU를 결합해 개발자와 기업이 새로운 방식으로 AI를 구축하고 확장할 수 있도록 지원할 것"이라고 밝혔다.
syu@newspim.com












