DeepSeek AI芯片助力Cerebras激增企业客户需求-大浪资讯

admin102025-02-04 19:18:32

DeepSeek AI芯片助力Cerebras激增企业客户需求

AI芯片巨头Cerebras引领企业客户需求飙升

   据《财富》杂志官网报道,专注于人工智能(AI)推理任务的芯片制造商Cerebras Systems宣布,其最新的晶圆级AI芯片(应该是WSE-3)在处理700亿个参数的DeepSeek-R1中型模型时,速度比目前市场上最快的GPU快了57倍。 这一消息再次证明了Cerebras Systems在AI硬件领域的领先地位。随着AI技术的不断进步,对于计算能力的需求也在急剧增加。传统GPU在处理大规模AI模型时已经显得有些力不从心,而Cerebras的创新性解决方案无疑为行业提供了一个新的选择。这不仅有助于加速AI研究的发展,也有可能推动AI在各个行业的更广泛应用。

DeepSeek AI芯片助力Cerebras激增企业客户需求

   Cerebras Systems 的首席执行官 Andrew Feldman 表示,企业客户对中国的 AI 大模型厂商 DeepSeek 最新发布的 R1 推理模型表现出极大的兴趣。他表示,在 DeepSeek-R1 发布后的十天内,他们迎来了需求的激增。

DeepSeek AI芯片助力Cerebras激增企业客户需求

   根据官方资料显示,WSE-3依然使用一整张12英寸晶圆制造,采用台积电5nm工艺,芯片面积为46225平方毫米,集成了4万亿个晶体管,具备90万个AI核心,内置44GB的片上SRAM,整体内存带宽达到21PB/s,而结构带宽更是高达214PB/s。这使得WSE-3的峰值性能达到125FP16PetaFLOPS,相比前一代WSE-2提升了1倍。

   DeepSeek-R1推理模型以极低训练成本,就获得了性能媲美OpenAI 等竞争对手的最先进的推理模型的性能,对现有技术路线具有颠覆性,并且DeepSeek还将该模型进行了开源,这也使得全球的科技厂商都能够快速利用该模型来构建自己的AI应用,相关AI芯片厂商也能够快速的针对该模型进行适配和优化,以充分利用AI芯片的性能,即便是英伟达AI GPU以外的AI芯片也能从中获益。

   在最近的一次展示中,Cerebras的AI服务器展示了其惊人的处理能力。Andrew Feldman在现场指导过程中,让模型仅用1.5秒就完成了用Python编写的国际象棋游戏。这一表现远远超过了OpenAI新推出的o1-mini推理模型,后者需要22秒才能在传统的GPU上完成同样的任务。然而,由于OpenAI的模型属于封闭系统,我们无法直接在Cerebras的硬件上进行测试,因此难以完全公平地进行比较。 尽管如此,这次演示无疑突显了Cerebras技术在处理速度上的显著优势。这种速度的提升不仅意味着更高效的计算能力,也预示着在复杂计算任务中可能实现的重大突破。未来,随着更多开放系统的加入和进一步的技术发展,我们或许能看到更多关于不同平台间性能对比的研究,这将有助于更好地理解这些尖端技术的实际应用潜力。

   不过,Andrew Feldman仍强调,数学与程序任务,DeepSeek-R1表现较OpenAI-o1优异。对些类型任务,“你能更快获得精确答案。”

   但由于R1是由中国大模型技术公司DeepSeek研发的,因此也引起了欧美多国基于政治因素,以隐私安全等理由提出质疑。美国国会正在推动一项全面禁止使用中国先进AI模型的法案。美国国防部、国会、海军、NASA以及德克萨斯州已经相继禁止在政府官方设备上使用DeepSeek的产品。

   Andrew Feldman也提到,DeepSeek推出的基于其AI大模型的AI聊天应用是全球最受欢迎的应用之一。如果直接使用该应用,数据可能会被传输到中国。因此,他建议大家不要这样做,并推荐选择由美国企业托管的大型语言模型(LLM),例如Cerebras、Perplexity等公司提供的服务。

   尽管Feldman承认DeepSeek确实存在一些潜在风险,但他认为只要用户具备基本的判断能力就无需过于担心。他打比方说,“就像使用电锯时,我们应该穿上钢头靴和佩戴护目镜。但这并不意味着我们不应该使用电锯,而是要小心谨慎地使用。”