네이버 '국내 최대' B200 4000장 확보…AI 개발 속도 12배 향상

독파모 고도화·서비스와 산업현장에 AI 적용 기반 마련
18개월에서 1.5개월로 모델 학습기간 단축

네이버 본사 2025.02.07/뉴스1

(서울=뉴스1) 신은빈 기자 = 네이버(035420)가 엔비디아의 블랙웰 아키텍처 기반 차세대 그래픽처리장치(GPU) B200 4000장을 바탕으로 국내 최대 규모의 인공지능(AI) 컴퓨팅 클러스터를 구축했다고 8일 밝혔다.

이로써 네이버는 글로벌 수준의 컴퓨팅 파워를 확보했다. 독자 파운데이션 모델 고도화는 물론 AI 기술을 서비스와 산업 전반에 유연하게 적용하기 위한 핵심 기반을 마련했다.

네이버는 단순 장비 도입을 넘어 대규모 GPU 자원을 하나로 연결해 최적의 성능을 끌어내는 '클러스터링' 분야에서 독보적인 기술을 보유하고 있다고 설명했다. 2019년 엔비디아의 슈퍼컴퓨팅 인프라 '슈퍼팟'을 세계에서 가장 빠르게 상용화한 데 이어 초고성능 GPU 클러스터를 직접 설계·운영한 실증 경험을 축적해 왔다.

이번에 구축한 'B200 4K 클러스터'에는 이러한 경험을 바탕으로 한 냉각·전력·네트워크 최적화 기술이 집약됐다. 대규모 병렬 연산과 고속 통신을 전제로 설계돼 글로벌 상위 500위의 슈퍼컴퓨터와 비교할 수 있는 수준의 컴퓨팅 규모를 갖췄다.

압도적인 인프라 성능은 AI 모델 개발 속도로 직결된다.

네이버가 내부 시뮬레이션을 진행한 결과 720억 개(72B) 파라미터 규모 모델을 학습시킬 때 기존 A100 기반 주력 인프라(2048장)로는 약 18개월이 걸렸지만 이번 클러스터에서는 1개월에 보름을 더한 수준으로 학습 기간을 단축하는 효과가 확인됐다.

다만 내부 시뮬레이션 결과이기 때문에 실제 학습 과제와 설정에 따라 소요 기간이 달라질 수 있다.

이처럼 학습 효율이 12배 이상 향상되면서 네이버는 더 많은 실험과 반복 학습을 통해 모델의 완성도를 높일 수 있게 됐다. 네이버는 대규모 학습을 빠르게 반복할 수 있는 인프라를 확보해 AI 모델 개발 전반의 속도와 유연성을 한층 강화했다고 설명했다.

네이버는 이런 인프라를 바탕으로 현재 진행 중인 독자 파운데이션 모델 고도화에도 박차를 가할 계획이다. 텍스트를 넘어 이미지·비디오·음성을 동시에 처리하는 옴니모델 학습을 대규모로 확장해 성능을 글로벌 수준으로 끌어올리고, 이를 다양한 서비스와 산업 현장에 단계적으로 적용할 예정이다.

최수연 네이버 대표는 "이번 AI 인프라 구축은 단순 기술 투자를 넘어 국가 차원의 AI 경쟁력 기반과 AI 자립·주권을 뒷받침하는 핵심 자산을 확보한 것"이라며 "네이버는 빠른 학습과 반복 실험이 가능한 인프라를 바탕으로 AI 기술을 서비스와 산업 현장에 유연하게 적용할 계획"이라고 말했다.

bean@news1.kr