1. 개요
Compute Express Link(CXL)은 컴퓨팅 상호 연결 기술로 2019년 인텔이 개발하고 구글, 마이크로소프트 등 주요 IT업체들이 컨소시엄을 구성하여 만든 규격이다.#2. 상세
고성능 컴퓨팅 시스템에서 메모리와 가속화 기능을 향상시키기 위한 기술이다. 이 기술은 CPU, GPU, FPGA 및 다른 가속화 카드와 메모리 사이의 연결을 개선하고, 데이터를 더 효율적으로 이동시키며, 시스템의 성능을 향상시킨다. CXL은 PCIe(Peripheral Component Interconnect Express)와 마찬가지로 고속의 시리얼 연결을 사용하지만, 메모리와 가속화 기능에 대한 더 나은 접근 방식을 제공한다. 이를 통해 데이터 중심 컴퓨팅에서 더 나은 성능을 얻을 수 있게 된다.쉽게 말하자면 각각의 서버에서 놀고 있는 메모리들을 한데 모아 효율적으로 쓰는게 목적이며, 클라우드 데이터센터를 운영하고 있는 IT업체에겐 자유롭게 필요에 따라 낭비없이 서버 메모리를 할당할 수 있다는 점에서 매력적인 포인트가 된다.
3. 단점
CXL Is Dead In The AI Era(Semianalysis)겉보기에는 데이터센터에서 각자 놀고 있는 메모리[1]를 효율적으로 사용하게 해준다는 점에서 괜찮은 기술이지만, 어디까지나 클라우드 업체들 입장에서 돈을 덜 쓰게 되니까 좋은 기술이지, 메모리를 만들거나 메모리와 연관된 주변기기를 만드는 업체들에게는 좋은게 아니다. 특히 메모리를 하나라도 더 팔아야 하는 메모리 업계에서는 당연히 메모리가 효율적으로 쓰이면 덜 팔리니까 이걸 왜 해야하는가 하는 반응들이다.
또한 가장 치명적인 단점으로 메모리를 CXL을 통해 공유하면서 PCI-E를 사용하는데 이게 대역폭이 좁다보니, 메모리 용량은 많이 쓸 수는 있는데 대역폭 성능은 애매한 물건이 되어버렸다. 예를들어 2024년 기준 PCIe5.0 16레인으로 64GB/s의 대역폭을 처리할 수 있는데, DDR5 8400Mbps 기준 67GB/s로 이미 한계치에 도달하게 된다. 물론 CPU와 DDR에서만 쓰고 PCIe 6.0이나 7.0까지 바라보고 있는 서버 규격에서는 여전히 대역폭에 여유가 있어 문제가 아니겠지만, GDDR 및 HBM을 사용하는 GPU에게는 매우 부족하다.
2022년 트랜스포머 기반 인공지능이 각광을 받으면서, 데이터센터용 그래픽카드를 여러 개 묶어 그래픽 메모리의 용량과 대역폭을 한계 끝까지 써야 하는 상황이 왔다. 초창기 엔비디아에서는 CXL을 고려했으나[2], 2019년 70억달러 주고 멜라녹스 테크놀로지를 인수#하면서 CXL 대신 NVLink를 채용하게 된다. 마찬가지로 AMD의 경우에도 데이터센터용 GPU중 하나인 MI300A에는 CXL을 지원하지만 이후 나오는 MI 시리즈에서는 사용되지 않는다. 그래픽카드 하나에 들어가는 메모리의 대역폭이 2024년 기준 1TB/s는 우습게 넘고, HBM이 들어간 것은 5TB/s가 넘는 괴물들도 있는데, 이걸 여러장 묶는 NVLink[3]로도 겨우 처리가 가능한데, CXL로 그래픽 메모리를 연결하면 데이터 전송시간이 대폭 늘어나 사실상 성능을 확 깎아먹는 주범이 된다.
따라서 메모리 업계와 그래픽카드 업계에서는 2024년 기준 여전히 CXL 시장에서 소극적으로 대응하고 있다. 개발한 인텔도 2024년 기준 회사 상황이 말이 아닌지라 그나마 삼성전자가 CXL[4]을 밀고 있는데, 나머지 메모리 반도체 플레이어들은 영 시큰둥한 반응이다. 한술 더 떠서 Semianalysis의 기술 분석가들은 AI시대에 와서 CXL은 죽었다고 대놓고 말할 만큼, 관련 업계 전문가들은 전망이 그리 좋지 않다고 보고 있다.