Samsung выводит на рынок энергоэффективную память SOCAMM2 для ИИ-серверов
[unable to retrieve full-text content]
Samsung официально представила модуль памяти SOCAMM2 (Small Outline Compression Attached Memory Module) второго поколения. Как и память HBM (high-bandwidth memory), SOCAMM2 предназначена для использования в серверах искусственного интеллекта, но отличается повышенной энергоэффективностью.
Модули SOCAMM2 обеспечивают более высокую пропускную способность и улучшенное энергопотребление по сравнению с традиционной памятью. Они также предоставляют большую гибкость серверным системам, поскольку модули SOCAMM2 можно отсоединять для обновления, избегая замены всей платы целиком.
Samsung SOCAMM2 изготовлен с использованием нескольких чипов LPDDR5X DRAM, что обеспечивает двукратную пропускную способность, при потреблении 55% мощности по сравнению с традиционными модулями RDIMM (Registered Dual In-Line Memory Modules).
Источник: Samsung
Кроме того, благодаря меньшим размерам и горизонтальному расположению (по сравнению с вертикальным расположением RDIMM), они оставляют больше места для других компонентов системы, таких как более оптимальное размещение радиаторов.
Samsung сотрудничает с Nvidia для оптимизации памяти SOCAMM2 для ИИ-инфраструктуры Nvidia. Компания работает над тем, чтобы ее новая память была задействована в системе Vera Rubin, которая, как ожидается, будет запущена в 2026 году. Samsung также сотрудничает со всей ИИ-экосистемой для расширения использования маломощной памяти в серверных средах.
iXBT прочитано 1356 раз
