在全球范围内,众多大型模型制造商正积极采购算力芯片,并投资建设大型数据中心,这一竞争不仅局限于大型模型领域,更延伸至算力资源的争夺。在今年两会期间,如何解决大型模型在算力层面遇到的短缺问题,以及如何优化异构计算资源,成为业界热议的焦点。
全国政协委员、中国科学院计算技术研究所研究员张云泉,在过去一年中对众多算力中心和关联企业进行了深入走访。基于对行业现状的洞察,他提出了“关于超智融合突破‘算力围城’”的提案,呼吁加快高端算力设施的建设,提高算力使用效率,以应对人工智能大模型快速发展带来的挑战。
张云泉向第一财经记者透露,他在走访多个算力中心后,深刻感受到国内智算中心在算力及机架密度方面与国际领先水平的差距。例如,目前我国公开报道的最大单体智算中心算力仅为万卡6.6Eflops(BF16精度),与国际领先水平相差两个数量级;许多智算中心的主流机架功率密度低于15kW,远未达到高端AI的功率密度要求;能够支撑大模型训练的高端算力中心极为稀缺,且训练效率不超过30%。
张云泉指出,随着DeepSeek等开源大模型的涌现,大模型在各行各业的应用日益增多,这为算力基础设施建设提出了新的要求。然而,当前算力市场存在供需矛盾,算力结构单一,高端算力紧缺,与国际领先水平的算力基础设施存在代际差异,限制了大型模型的迭代创新速度。
张云泉进一步解释,算力结构单一意味着许多智算中心只能支持低精度算力架构,无法适应特定生态体系下的大模型训练场景。这种现象部分原因在于,我国核心芯片领域的许多国产AI芯片最高只能支持FP32精度的计算。随着AI应用场景的增多和需求量的增加,仅能满足低精度训练的智算中心,难以满足未来“超智融合”趋势下的全精度算力需求。同时,国产高性能可扩展并行训练与推理编程框架以及优化工具链的缺失,导致国产大规模智算集群的计算效率普遍偏低。
所谓“超智融合”,是指将超算与智算的能力相结合,以满足各行业的多元算力需求。张云泉认为,“超智融合”能够将国产超算在架构、芯片、并行与通信算法、算力调度与负载均衡以及底层优化等方面的关键技术和人才,赋能高端智算中心的建设,以及大模型的高效训练和推理优化过程。
为此,张云泉建议建设国家级大算力集群,引入先进的算力调度、分配、优化和管理技术,提高算力利用率,并积极引导基于全精度、大算力、高互连的国产芯片,构建新一代超智融合国家级算力中心。同时,集中资源重点支持大模型领军企业,打造世界领先的开源开放主权级基础通用大模型。
在两会期间,京东集团技术委员会主席曹鹏关注到国内异构算力分散且利用率低,中小企业难以承担大模型应用的智算成本。对此,曹鹏建议加强建设异构算力,降低智算成本,例如夯实自主可控的智算底座,通过存算协同发展降低企业智算成本,并推动链主企业向中小企业开放智算配额,实现产业智算的普惠。
全国人大代表、科大讯飞董事长刘庆峰则关注算力平台的国产化问题。他认为,如果不能加快解决国产自主可控人工智能产业生态薄弱、适配困难等问题,发展大模型就犹如“在别人地基上建高楼”。他建议加快构建国产算力平台上的自主可控大模型及产业生态,例如鼓励基于自主可控国产算力平台的大模型研发和应用,鼓励央国企优先采购基于国产算力平台研发的全栈自主可控大模型,并专项支持基于国产算力平台的生态体系建设。
随着DeepSeek的出现,业内也热议大模型是否仍需大量算力支撑。张云泉表示,“小力出奇迹”并不意味着规模法则(Scaling Law)的破产。未来,AI发展可能会呈现“双轨并行”的格局,一方面是小而精的模型蓬勃发展,另一方面,通用基础大模型仍将沿着Scalling Law路径,通过大算力投入、扩展参数规模来实现更强大的性能。因此,发展通用基础主权大模型在国内是必要的,它们将成为AI技术的基石,为各行各业提供强大的基础智能。