독자 파운데이션 모델 고도화·산업 적용 기반 마련
[서울=뉴스핌] 양태훈 기자 = 네이버가 엔비디아의 최신 그래픽처리장치(GPU) 'B200(블랙웰)' 4천장으로 구성된 국내 최대 규모의 인공지능(AI) 컴퓨팅 클러스터 구축을 완료했다고 8일 밝혔다.
네이버는 지난 2019년 엔비디아의 슈퍼컴퓨팅 인프라 '슈퍼팟(SuperPod)'을 조기 상용화한 이후 초고성능 GPU 클러스터 구축 경험을 축적, 대규모 GPU 자원을 하나의 시스템으로 묶어 성능을 극대화하는 클러스터링 기술을 자체적으로 설계·운영해 왔다.
이번에 구축된 'B200 4K 클러스터'에는 냉각, 전력, 네트워크 전반에 대한 최적화 기술이 적용됐다. 네이버는 해당 클러스터가 대규모 병렬 연산과 고속 통신을 전제로 설계돼, 글로벌 톱500 슈퍼컴퓨터 상위권과 비교 가능한 컴퓨팅 규모를 갖췄다고 강조했다.

AI 모델 학습 효율도 크게 개선됐다. 네이버에 따르면 내부 시뮬레이션 결과, 720억 개(72B) 파라미터 규모의 모델을 학습할 경우 기존 A100 GPU 2,048장 기반 인프라에서는 약 18개월이 소요되던 학습 기간이 B200 4K 클러스터에서는 약 1.5개월로 단축되는 것으로 나타났다. 이는 학습 환경과 과제에 따라 달라질 수 있는 내부 시뮬레이션 수치다.
네이버는 학습 효율이 12배 이상 향상되면서 대규모 실험과 반복 학습이 가능해져, AI 모델 개발 속도와 유연성이 크게 강화됐다고 설명했다. 이를 통해 기술 변화에 보다 기민하게 대응할 수 있는 개발·운영 체계를 갖추게 됐다는 평가다.
네이버는 해당 인프라를 바탕으로 현재 개발 중인 독자 파운데이션 모델 고도화에도 속도를 낼 계획이다. 텍스트뿐 아니라 이미지, 영상, 음성을 함께 처리하는 옴니(Omni) 모델 학습을 대규모로 확장해 성능을 끌어올리고, 이를 다양한 서비스와 산업 현장에 단계적으로 적용한다는 구상이다.
최수연 네이버 대표는 "이번 AI 인프라 구축은 단순한 기술 투자를 넘어, 국가 차원의 AI 경쟁력과 기술 자립을 뒷받침하는 핵심 기반을 확보했다는 데 의미가 있다"며 "빠른 학습과 반복 실험이 가능한 환경을 바탕으로 AI 기술을 서비스와 산업 전반에 유연하게 적용해 나가겠다"고 말했다.
dconnect@newspim.com












