[아이뉴스24 박지은 기자] SK하이닉스가 20일 저전력 더블데이터레이트(LPDDR)5X 기반 차세대 인공지능(AI) 서버용 메모리 모듈 SOCAMM2 192GB 제품을 양산한다고 밝혔다.
이 제품은 10나노급 6세대(1c) 공정을 적용한 저전력 D램 기반 모듈이다. 엔비디아 차세대 AI 플랫폼 ‘베라 루빈’에 맞춰 설계됐다.
![SK하이닉스의 10나노급 6세대(1c) LPDDR5X 저전력 D램 기반 차세대 메모리 모듈 규격인 SOCAMM2 192GB(기가바이트) 제품. [사진=SK하이닉스]](https://image.inews24.com/v1/09bebbe5b34fe7.jpg)
SOCAMM2는 스마트폰 등에 쓰이던 저전력 메모리를 서버용으로 확장한 구조다. 전력 소모를 줄이면서 데이터 처리 속도를 끌어올린 것이 특징이다.
SK하이닉스는 기존 레지스터드 듀얼 인라인 메모리 모듈(RDIMM) 대비 대역폭은 2배 이상, 에너지 효율은 75% 이상 개선했다고 설명했다.
이번 제품은 AI 서버에서 발생하는 메모리 병목 문제를 줄이는 데 초점이 맞춰졌다. GPU 연산 속도 대비 메모리 데이터 공급이 늦어지면 전체 성능이 떨어지는 구조다.
현재 데이터센터 메모리는 고대역폭메모리(HBM)와 DDR5 중심으로 구성돼 있다. HBM은 속도는 빠르지만 비용과 발열 부담이 크고, DDR5는 용량은 크지만 대역폭과 전력 효율이 상대적으로 낮다.
이 사이 공백을 메우기 위해 등장한 것이 SOCAMM이다. HBM과 DDR5의 중간 성격을 가진 메모리로, 성능과 전력 효율을 동시에 맞추는 구조다.
SOCAMM은 GPU 가까이 배치돼 자주 사용하는 데이터를 빠르게 공급한다. 동시에 모듈 형태라 필요 시 교체와 확장이 가능하다. 기존 모바일용 저전력 메모리를 서버용으로 재구성한 방식이다.
이 구조가 적용되면 AI 서버 메모리는 HBM- SOCAMM- DDR5- 컴퓨트익스프레스링크(CXL) 메모리로 이어지는 다층 구조로 재편된다.
SOCAMM은 이 가운데 HBM과 DDR5 사이에서 데이터를 분산 처리해 병목을 줄이는 역할을 맡는다. HBM 부담을 낮추고 시스템 효율을 높이는 방식이다.
업계에서는 이를 AI 인프라 구조 변화의 신호로 보고 있다. 단일 고성능 메모리에 의존하기보다, 여러 메모리를 계층화해 성능과 비용을 동시에 맞추는 방향이다.
이번 양산은 SK하이닉스의 ‘AI 메모리 풀스택’ 전략과 맞물린다. 회사는 HBM, DDR5, LPDDR, CXL, SOCAMM으로 이어지는 메모리 포트폴리오를 구축해 왔다.
![SK하이닉스의 10나노급 6세대(1c) LPDDR5X 저전력 D램 기반 차세대 메모리 모듈 규격인 SOCAMM2 192GB(기가바이트) 제품. [사진=SK하이닉스]](https://image.inews24.com/v1/1b8a145c973923.jpg)
SOCAMM2는 이 가운데 중간 계층을 채우는 제품이다. HBM 중심 구조에서 발생하는 용량과 전력, 비용 한계를 보완하는 역할이다.
특히 AI 시장이 학습 중심에서 추론 중심으로 이동하면서 저전력 기반 고용량 메모리 중요성이 커지고 있다. 데이터센터는 동일 전력 조건에서 더 많은 연산을 처리해야 하는 상황이다.
SOCAMM은 DDR5 대비 전력 소모를 줄이면서도 대역폭을 높일 수 있어 총소유비용(TCO) 개선 수단으로 평가된다.
SK하이닉스는 글로벌 클라우드 서비스 제공업체(CSP) 수요에 맞춰 양산 체제를 조기 안정화했다고 밝혔다.
김주선 SK하이닉스 AI 인프라 사장은 “SOCAMM2 192GB 제품 공급으로 AI 메모리 성능의 새로운 기준을 세웠다”며 “글로벌 AI 고객과 협력을 강화해 신뢰받는 AI 메모리 솔루션 기업으로 자리매김하겠다”고 말했다.
/박지은 기자(qqji0516@inews24.com)
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기