“26亿参数的突破,预测AGI实现还需70载!清华大学与中国人民大学联合展望:届时GPU总价值将超越4000倍苹果市场市值”

admin122025-03-09 17:22:39

AGI真的近在咫尺?清华人大最新研究泼冷水:距离AGI还有70年!

新智元报道
编辑:桃子 犀牛

引言:AI界狂热下的冷静思考

随着人工智能(AI)技术的飞速发展,关于通用人工智能(AGI)的讨论愈发热烈。然而,清华、中国人民大学的研究团队却在这股狂热中泼了一盆冷水:人类距离真正的AGI,还有整整70年!

AGI何时到来?诺奖级AI或将在2026-2027年诞生

尽管如此,AI界仍有人对未来充满期待。许多人认为,AGI就在今年,而诺奖级的AI可能在2026年至2027年间问世。奥特曼、Anthropic首席执行官Dario Amodei等科技大佬纷纷认为“超级智能”近在眼前。

清华人大研究团队:人类距离AGI还有70年

那么,AGI真的就要来了吗?最近,清华、中国人民大学的研究团队发表了一项最新研究,计算得出:人类距离AGI还有70年!

「生存游戏」:评估智能的新框架

该研究团队提出了一个全新的框架——“生存游戏”,以评估智能的高低。在这个框架中,智能不再是模糊的概念,而是可以通过试错过程中失败次数进行量化——失败次数越少,智能越高。

论文地址:https://arxiv.org/pdf/2502.18858

当失败次数的期望值和方差都保持有限时,意味着系统具备持续应对新挑战的能力,作者将其定义为智能的“自主水平”。

AI在简单任务中表现良好,但在复杂任务中仍需努力

实验结果显示,在简单任务中,AI具备了自主能力,失败次数低且稳定。然而,当任务难度加大时,AI的表现则未达标。失败次数激增,解决方案稳定性随之下降。

要达到自主水平,AI模型需要高达10²⁶参数

研究人员预测,要在通用任务中达到“自主水平”,AI模型需要高达10²⁶个参数。想象一下这个规模:训练这样一个模型所需的H100 GPU总价值,竟然是苹果市值的4×10⁷倍!

按照摩尔定律,支撑这种参数规模的硬件条件也需要70年的技术积累

即便按照摩尔定律的乐观估计,硬件技术也需要70年才能支撑这一规模。这笔账,究竟是如何算出的?

智能的产生:自然选择的试错淬炼

智能并非与生俱来,而是自然选择在亿万年进化中塑造的必然产物。研究人员提出了“生存游戏”这一框架,用以量化并评估智能。

生存游戏,三大智能分级

基于失败次数的期望和方差,研究人员将智能分为三个层次:

  1. 有限级:期望和方差都发散,主体只能盲目枚举可能的解决方案,效率低下,难以应对复杂挑战。
  2. 胜任级:期望和方差有限但不稳定,主体能在特定任务中找到答案,但表现不够稳健。
  3. 自主级:期望和方差都收敛且较小,主体能通过少量尝试稳定地解决问题,以可承受的成本自主运行。

LLM停留在「有限级」

在具体实验中,研究人员将当前最领先的大模型在“生存游戏”中进行评估。在手写数字识别等简单任务中,AI的表现达到了“自主级”。然而,当任务复杂度提升到视觉处理、搜索引擎优化、推荐系统、自然语言理解时,AI大多停留在“有限级”。

AI浅层学习,难以突破

当前AI系统更像“表面模仿者”,通过大量数据记住问题的答案,并依赖探索来应对新挑战。这种“浅层学习”正是AI难以突破“自主级”的根本原因。

从智能爆炸到人类灭绝:我们需要做好准备

人工智能公司们正在竞相构建超级人工智能(ASI)。如果这些公司成功,后果将不堪设想。我们需要从今天的AI走向可能毁灭我们的ASI,为此,我们需要做好以下准备:

  1. 了解智能爆炸的概念:智能爆炸是AI系统自我增强的一个循环,AI变得越来越聪明,直到它们的智力远远超过人类。
  2. 关注AI安全技术研究:确保比人类还聪明的AI是安全的、可控的。
  3. 制定应对策略:面对AI能力的提升,我们需要制定相应的应对策略,确保人类的安全。

结语

AGI的到来或许并非一蹴而就,而是需要跨越技术、成本与安全的重重障碍。未来AI能否从“浅层模仿者”进化到“自主智能”,不仅取决于算力和数据的堆砌,更需要突破对任务本质的深刻理解。正如自然选择淬炼了人类的智慧,或许AI的终极进化,也将是一场漫长而残酷的“生存游戏”。我们准备好了吗?