'마이아·아이언우드·트레이니엄' 너도나도 ASIC…삼성·SK하닉 '미소'

MS 마이아200 공개…이전 세대 대비 HBM 채용량 3.4배
구글 7세대 TPU 연간 300만대 전망 "올해 ASIC 점유율 27.8%"

마이크로소프트가 자체 개발한 AI 가속기 '마이아200'(마이크로소프트 제공). ⓒ 뉴스1

(서울=뉴스1) 박주평 기자 = 구글, 마이크로소프트(MS), 아마존 등 주요 빅테크 기업들이 자사 인공지능(AI) 서비스에 최적화된 맞춤형 반도체(ASIC)를 연이어 선보이고 있다. 특히 이들 ASIC의 메모리 채용량이 크게 늘어나면서 삼성전자와 SK하이닉스 등 메모리 반도체 기업 입장에서는 새로운 시장이 열리는 셈이다.

28일 업계에 따르면 MS는 지난 26일(현지시간) 차세대 AI 가속기 '마이아(Maia) 200'을 공개했다.

MS의 자체 칩 공개는 지난 2023년 11월 마이아 100 공개 이후 약 2년 만이다. MS는 TSMC의 3나노미터(㎚) 공정을 기반으로 제작한 마이아200이 현존 시스템 대비 달러당 성능이 30% 높다고 설명했다.

사티아 나델라 최고경영자(CEO)는 경량 연산(FP4) 성능이 아마존의 자체 칩 '트레이니엄' 3세대의 3배이고, 구글의 7세대 텐서처리장치(TPU) '아이언우드'보다도 연산 효율성이 높다면서 "하이퍼 스케일러가 만든 자체 반도체 중 가장 성능이 뛰어나다"고 강조했다.

활용이 제한적이었던 마이아100과 달리 마이아200은 이미 MS의 아이오와주 데이터센터에 설치했고, 애리조나주의 데이터센터에도 탑재할 예정이다. 또 MS 클라우드 서비스인 애저(Azure)를 이용하는 고객들도 마이아200을 이용할 수 있도록 할 계획이다.

MS를 비롯해 구글, 아마존, 메타 등 주요 빅테크 기업들도 자사 서비스에 최적화된 ASIC 채용을 빠르게 확대하고 있다. 이는 엔비디아 그래픽처리장치(GPU)에 대한 의존도를 낮추는 동시에 학습에서 추론으로 넘어간 패러다임에 맞춰 총소유비용을 최적화하기 위한 행보로 풀이된다.

AI 학습은 무수한 데이터를 한꺼번에 처리해야 하기에 대규모 병렬 연산에 특화된 GPU가 필수적이다. 하지만 완성된 모델을 실제 서비스하는 추론 단계에서는 특정 서비스 알고리즘에 최적화된 ASIC가 불필요한 연산을 걷어내 GPU보다 가벼우면서도 전력 소모를 획기적으로 줄일 수 있다.

또 엔비디아 GPU의 가파른 가격 상승과 만성적인 공급 부족이 리스크로 작용할 수 있다. ASIC은 초기 개발 및 설계 비용(NRE)은 막대하지만, 일단 설계가 완료되면 대량 양산시 칩당 단가를 GPU 대비 절반 이하로 낮출 수 있다.

특히 차세대 ASIC들이 메모리 채용량을 대폭 확대하면서 삼성전자, SK하이닉스에도 긍정적인 신호로 작용하고 있다.

MS 마이아100에는 HBM3 64GB가 채용됐지만, 마이아200에는 HBM3E 216GB가 채용돼 용량이 3.4배 증가했다. SK하이닉스가 MS에 HBM을 단독 공급하는 것으로 알려졌다.

구글의 7세대 TPU 아이언우드는 HBM3E 192GB를 탑재했는데, 이는 6세대(HBM3 32GB) 대비 용량이 6배 늘어난 수준이다. 삼성전자와 SK하이닉스 모두 구글에 HBM을 공급하고 있다.

아마존의 트레이니엄 3세대 역시 이전 세대의 96GB보다 용량을 50% 증가시킨 144GB의 HBM3E를 탑재했다.

현재 AI 가속기 시장은 엔비디아 GPU 중심이지만, ASIC가 빠르게 커지고 있다. 구글 아이언우드는 이미 AI 스타트업 앤스로픽과 100만대 규모의 공급 계약이 체결됐으며, 올해 연간 300만 대 이상 생산될 것으로 전망된다.

시장조사업체 트렌드포스는 "ASIC 기반 AI 서버의 시장 점유율은 올해까지 27.8%에 달할 것으로 예상되며, 이는 2023년 이후 최고치"라며 "구글과 메타 등 같은 북미 기업들이 자체 ASIC 개발에 박차를 가하고 있고, ASIC AI 서버의 출하량 증가율도 GPU 기반 시스템을 앞지를 것"이라고 전망했다.

jupy@news1.kr