微软携手DeepSeek,实现Copilot+在PC端本地运行7B及14B规模模型 —— 大浪资讯速递

admin72025-03-04 11:33:33

微软携手Azure AI Foundry,为Copilot+ PC赋能全新模型运行能力

——大浪资讯3月4日独家报道

今日,微软公司宣布了一项重要举措,通过其Azure AI Foundry平台成功接入DeepSeek-R1 7B和14B蒸馏模型,此举将为Copilot+ PC带来本地运行这些高性能模型的能力。

早在今年1月,微软便对外透露了其将DeepSeek-R1模型的NPU优化版本引入搭载高通骁龙X处理器的Copilot+ PC的宏伟蓝图。如今,这一承诺已变为现实。

深度探索,模型上线步伐加速

据悉,DeepSeek模型将首先在配备高通骁龙X处理器的Copilot+ PC上推出,并随后逐步扩展至搭载英特尔酷睿Ultra 200V和AMD锐龙系列设备的平台上。

这一创新不仅显著提升了PC的AI计算效率,而且在减少对电池续航和散热性能的影响方面也展现出卓越的成果。在NPU的加持下,CPU和GPU得以专注于执行更多核心任务。

自动量化工具提升模型效率

微软在其官方博客中进一步透露,公司利用Aqua内部自动量化工具对所有的DeepSeek模型进行了量化,以确保所有变体都以int4权重运行。尽管如此,模型的标记速度仍有待提高。据微软报告,14B模型的标记速度为8 tok/秒,而1.5B模型的标记速度则达到了惊人的40 tok/秒。对此,微软表示正在积极优化,以提升模型的速度性能。

开发者新利器:AI Toolkit VS Code扩展

为了方便开发者使用这些高性能模型,微软推出了AI Toolkit VS Code扩展,使得Copilot+ PC用户能够轻松下载并运行DeepSeek模型的1.5B、7B和14B版本。

随着这一系列创新举措的实施,微软再次巩固了其在AI技术领域的领先地位,为用户提供更为强大和高效的计算体验。