高带宽闪存 HBF:AI 推理时代,一颗 GPU 存储即可应对前沿模型需求-大浪资讯

admin102025-02-13 12:32:28

高带宽闪存 HBF:AI 推理时代,一颗 GPU 存储即可应对前沿模型需求

闪存技术再进化:GPU 存储加速 AI 推理,助力前沿模型挑战

   2月13日消息,闪迪预计在今年第一季度从西部数据完成拆分,并计划单独上市。而在当地时间本月11日的投资者活动上,闪迪展示了其有望革新AI推理GPU存储生态的前沿技术——高带宽闪存(HBF)。

   闪迪推出的HBF产品旨在通过优化带宽来满足特定需求,其设计灵感来源于HBM,同样具备大量I/O引脚和多层堆叠技术,并且在电气接口上与HBM保持一致,从而确保了带宽上的匹配。然而,由于HBF针对NAND存储介质进行了协议调整,这使得它与HBM之间存在一定的兼容性问题。 这种创新设计不仅展示了闪迪的技术实力,也反映了当前存储行业对于更高性能和更高效能解决方案的需求日益增长。通过将传统的DRAM替换为NAND,HBF有可能为数据中心和高性能计算领域提供更为经济高效的存储方案。同时,这也提醒我们,尽管新技术能够带来显著的优势,但兼容性和互操作性的挑战依然需要被认真对待。

   在 HBF 中多层核心裸晶(Core Die)采用微凸块(Micro Bump)的方式采用硅通孔(TSV)的手段堆叠在一起,整个 HBF 堆栈底部则是负责同计算芯片通信的逻辑裸晶(Logic Die)。

   SanDisk宣布其HBF技术能够实现极低的裸晶翘曲,目前已经可以达到16层堆叠,单个堆栈容量最高可达512GB。

   这意味着2.5D集成技术使得单个AIGPU能够容纳8个HBF堆栈,从而提供高达4096GB(4TB)的存储空间,这比传统的HBM方案提升了超过20倍。这样的存储能力足以支持参数量约为1.8万亿的前沿大型语言模型进行高效的推理运算。这一突破性进展不仅显著提高了计算资源的利用效率,也为人工智能领域的发展开辟了新的可能性。它表明,在不久的将来,我们可以期待更加复杂和强大的AI系统,这些系统能够处理更大规模的数据集,并提供更为精准的服务。

   此外,鉴于HBF和HBM在技术路径和性能参数上的相似性,AIGPU还可以灵活配置这两种存储,形成如3072GB HBF与48GB HBM的高定制化组合。

   除了在AI推理GPU上的应用之外,闪迪的高带宽存储器(HBM)也有望在边缘AI领域发挥重要作用:单颗HBM就能够支持整个64B模型的运行。

   闪迪的HMF高带宽闪存项目获得了多家领先人工智能企业的支持,这预示着他们推动构建HMF开放标准生态系统的努力正在加速。此举不仅有助于提升数据处理速度,还旨在促进不同系统间的无缝集成。这表明技术企业正在积极寻求合作,以应对日益增长的数据处理需求,同时也显示出开放标准在推动技术创新方面的重要性。 这样的合作无疑将为整个行业树立一个良好的典范,通过共享技术和资源,可以加快新技术的研发和应用,同时也有助于建立更加开放和兼容的技术生态系统。然而,要确保这一生态系统成功发展,还需要所有参与方持续的合作与承诺,以及对标准的一致认同和执行。

   对于未来HMF产品的规划,闪迪也有明确的目标:计划在第三代产品中实现容量翻倍、读取带宽加倍以及功耗降低36%。