在MEMCON 2024上,三星展示了其最新的HBM3E技术,讨论了其未来的HBM4计划 ,并发布了CXL内存模块框,也称为CMM-B,这是其Compute Express Link(CXL)内存模块组合的最新添加。
CMM-B本质上是用于利用CXL的机架计算的内存池设备 。它支持分解的内存分配 ,允许在远程位置可用的内存容量在多个服务器上共享。通过此,CMM-B可以在机架群集中启用独立的资源分配,并允许根据需要分配更大的内存池。三星表示 ,CMM-B最高为60gb/s的带宽,非常适合AI,内存数据库和数据分析等应用 。
CMM-B可以容纳八个E3.s form formation CMM-D(PCIE GEN5)存储模块 ,总计为2TB。CMM-D内存将三星的DRAM技术与CXL开放标准接口集成在一起,以在CPU和内存扩展设备之间提供有效的低延迟连接。
你可能喜欢
世界上最大的RAM供应商仅针对NVIDIA,对不起Intel和AMD开发出色的内存形式 。
具有4TB HBM级内存的GPU或CPU?不 ,您不是在做梦,Sandisk正在从事这样可怕的产品
Sandisk的革命性新记忆有望像Dram一样的性能,价格为4倍,价格为一半
易于设置
三星说 ,CMM-B无缝集成到SuperMicro Plug and Play机架尺度解决方案中,不仅确保了更快的生产率,而且还降低了总拥有成本(TCO)。
CMM-B模块预装了Samsung&rsquo'S Cognos Management Console(SCMC)软件 ,该软件为快速设置机架服务器设备提供了直观的接口。该软件有助于动态内存分配,从而使内存可以独立于附加的服务器分配 。
在MEMCON的主题演讲中,Device Solutions Research&Ndash公司执行副总裁Jin-Hyeok Choi;三星电子的记忆说:“如果没有记忆技术创新 ,AI创新就无法继续进行。作为记忆的市场领导者,三星自豪地从行业中推进创新,从行业的CMM-B技术中 ,最先进的记忆解决方案到HBM3E的强大记忆解决方案,例如HBM3E,例如高实验计算和要求我们与我们合作的服务 ,我们的竞选伙伴和我们的合作是我们的合作。人工智能时代在一起 。”
(图片来源:三星)
Techradar Pro的更多信息
三星,但击败微米到36GB HBM3E MONEMESTARTUP声称使用标准存储器提高LLM性能,而不是HBMEVEN,笔记本电脑可以在外部运行RAM ,这要归功于鲜为人知的技术,称为CXL
你是专业人士吗?订阅我们的新闻通讯
注册techradar Pro新闻通讯,以获取您的业务成功所需的所有首选 ,意见,功能和指导!取得成功!请与我联系我们的其他未来品牌的新闻,并代表我们值得信赖的合作伙伴或Sponsorsby提交您的信息 ,您同意您同意的条款和隐私政策,并年龄在16岁或超过16岁之间。
正文
三星的这个小盒子可以容纳2TB的一种特殊的公羊,价值数万美元—CXL内存模块框被誉为AI时代膨胀服务器内存的未来
文章最后更新时间2025年06月13日,若文章内容或图片失效,请留言反馈!
-- 展开阅读全文 --