타이베이 2024년 9월 5일 /PRNewswire/ -- 선도적인 글로벌 AI 솔루션 제공업체인 이노디스크(Innodisk)가 AI 서버 및 클라우드 데이터센터의 급속한 성장 수요를 충족하도록 설계된 최첨단 Compute Express Link (CXL) 메모리 모듈[https://innodisk.cc/GDFQ9a ]을 출시하며 혁신의 경계를 넓히고 있다. 이 기술을 제공하는 몇 안 되는 모듈 제조업체 중 하나인 이노디스크는 AI 및 고성능 컴퓨팅의 최전선에 있다.
Innodisk continues to push the boundaries of innovation with the launch of its cutting-edge Compute Express Link (CXL) Memory Module, which is designed to meet the rapid growth demands of AI servers and cloud data centers. As one of the few module manufacturers offering this technology, Innodisk is at the forefront of AI and high-performance computing.
시장조사업체 트렌드포스(Trendforce)[https://www.trendforce.com/presscenter/news/20240717-12227.html ](2024)는 AI 서버에 대한 수요가 빠르게 증가하고 있으며, 2024년까지 이러한 시스템이 서버 시장의 약 65%를 차지할 것이라고 예상했다. 이러한 성장으로 인해 더 큰 메모리 대역폭과 용량이 절실히 필요하게 되었으며, 이제 AI 서버가 효과적으로 작동하려면 최소 1.2TB의 메모리가 필요한 상황이다. 특히 CPU 코어 수가 계속 증가함에 따라 CPU 리소스의 활용도가 떨어지고 서로 다른 프로토콜 간의 지연 시간이 증가하는 등의 문제가 발생하면서 기존의 DDR 메모리 솔루션은 이러한 수요를 충족하는 데 점점 더 어려움을 겪고 있다.
이노디스크의 CXL 메모리 모듈은 기존 DIMM 채널의 한계를 극복하고 서버 시스템 성능을 크게 향상시킴으로써 이러한 문제를 해결한다. 이 모듈은 32GB/s의 대역폭을 지원하고 PCIe Gen5 x8 인터페이스를 통해 최대 32GT/s의 데이터 전송 속도를 지원하여 AI 워크로드에 필수적인 빠른 처리 능력을 보장한다. 64GB CXL 메모리 모듈 4개를 장착할 경우, 8개의 128GB DRAM 모듈로 구성된 서버의 메모리 용량을 30%, 대역폭을 40% 증가시킬 수 있다. 이는 추가적인 DIMM 슬롯 없이도 AI 서버의 까다로운 메모리 요구 사항을 충족할 수 있으므로 하드웨어 아키텍처를 최적화하고 시스템 복잡성을 줄일 수 있다. 또한 CXL 메모리 모듈은 CPU와 구성 요소 간의 메모리 리소스 공유를 최적화하는 메모리 풀링을 가능하게 하여 중복 메모리 사용을 크게 줄이고 전체 시스템 효율성을 향상시킨다.
이노디스크의 CXL 메모리 모듈은 EDSFF 표준에 기반한 E3.S 2T 폼 팩터를 특징으로 한다. 이 설계는 유연한 서버 내에서 메모리 확장과 서버 내 손쉬운 모듈 교체가 가능해 최소한의 비용과 복잡성으로 원활한 통합을 보장한다. CXL은 업계 주요 업체들이 추진하는 개방형 표준으로, 클라우드 데이터 센터, 네트워킹 통신 및 엣지 서버의 애플리케이션에 필수적인 중요한 종합적 에코시스템으로 빠르게 발전할 것으로 예상된다.
이노디스크는 이 첨단 CXL 메모리 모듈을 2025년 1분기에 출하할 계획이다. 이번 출시는 최첨단 솔루션으로 컴퓨팅의 미래를 선도하겠다는 이노디스크의 약속을 보여주는 것이다.
출처: Innodisk Corporation