Samsung выводит на рынок энергоэффективную память SOCAMM2 для ИИ-серверов

[unable to retrieve full-text content]

Samsung официально представила модуль памяти SOCAMM2 (Small Outline Compression Attached Memory Module) второго поколения. Как и память HBM (high-bandwidth memory), SOCAMM2 предназначена для использования в серверах искусственного интеллекта, но отличается повышенной энергоэффективностью.

Модули SOCAMM2 обеспечивают более высокую пропускную способность и улучшенное энергопотребление по сравнению с традиционной памятью. Они также предоставляют большую гибкость серверным системам, поскольку модули SOCAMM2 можно отсоединять для обновления, избегая замены всей платы целиком.

Samsung SOCAMM2 изготовлен с использованием нескольких чипов LPDDR5X DRAM, что обеспечивает двукратную пропускную способность, при потреблении 55% мощности по сравнению с традиционными модулями RDIMM (Registered Dual In-Line Memory Modules).

converted - 2025-12-18T215946.636_large. Источник: Samsung

Кроме того, благодаря меньшим размерам и горизонтальному расположению (по сравнению с вертикальным расположением RDIMM), они оставляют больше места для других компонентов системы, таких как более оптимальное размещение радиаторов.

Samsung сотрудничает с Nvidia для оптимизации памяти SOCAMM2 для ИИ-инфраструктуры Nvidia. Компания работает над тем, чтобы ее новая память была задействована в системе Vera Rubin, которая, как ожидается, будет запущена в 2026 году. Samsung также сотрудничает со всей ИИ-экосистемой для расширения использования маломощной памяти в серверных средах.

iXBT прочитано 1356 раз