检测到您的浏览器版本过低,可能导致某些功能无法正常使用,建议升级您的浏览器,或使用推荐浏览器 Google Chrome EdgeFirefox X

首页科技前沿与新兴产业政策创新政策创新

人工智能技术发展的多元化路径与算法进步

供稿人:徐慧婷供稿时间:2025-04-24 14:32:40关键词:AI,AGI,LLM,算法


一、人工智能技术发展的现状与挑战

近年来,人工智能(AI)技术经历了爆炸式增长,尤其是以大型语言模型(LLMs)为代表的生成式AI在自然语言处理、图像生成等领域取得了突破性进展。RAND 2025年的两份研究报告《通向通用人工智能的多重路径》与《人工智能算法进步调查》分析称,当前AI发展呈现两大特征:一是LLMs的规模扩展(Hyperscaling)被寄予厚望,被视为通向通用人工智能(AGI)的潜在路径;二是算法效率提升与数据优化技术正在重塑AI研发的底层逻辑。

然而,这两份报告同时揭示了AI技术面临的深层矛盾。首先,LLMs的扩展面临物理极限——数据墙与能源墙的约束日益显著。研究表明,若维持现有模型规模的增长速度,全球人类生成的高质量训练数据将在十年内耗尽,而单次训练成本已攀升至数千万美元级别(如GPT-4训练成本达7800万美元)。其次,LLMs在逻辑推理、因果理解等核心智能能力上的局限性逐渐暴露。例如,模型存在逆向诅咒Reversal Curse),即能记忆A具有B特征却无法推导B属于A,显示出其本质仍是统计模式匹配而非真正理解。

在此背景下,AI技术发展已进入关键转折期。政策制定者需在技术路径选择、资源分配与安全治理之间寻求平衡,既要应对中美在AGI领域的战略竞争,又要防范技术单一路径带来的系统性风险。

二、通向AGI的多元化技术路径

(一)LLMs扩展范式的局限性

尽管LLMs在基准测试中表现持续提升,但其作为AGI单一路径的可行性受到多重质疑。研究表明,模型的“涌现能力”可能源于评估指标的缺陷——当改用连续性度量时,性能提升曲线趋于平缓。例如,在数学推理任务中,若将具体问题抽象为符号表达式(如用{x}代替具体数字),LLMs的准确率骤降65%,且错误答案的置信度随模型规模扩大反而升高。这暗示LLMs可能通过记忆而非推理获得表面性能提升。

更严峻的挑战来自物理限制。训练数据的指数级增长已逼近人类生成数据的极限(预计2028-2035年达到饱和),而AI生成内容(AIGC)的泛滥将导致训练数据质量退化,形成“模型塌缩”现象。同时,单次推理能耗的飙升(如Chain-of-Thought技术使能耗增加3-5倍)使得LLMs的可持续性备受质疑。

(二)互补性技术路径的探索

基于这些限制,研究提出了六类可能突破LLMs瓶颈的AGI技术路径:

1.物理信息与因果模型

物理信息神经网络(PINNs)通过嵌入牛顿运动定律等物理规则,使AI系统获得现实世界的动态模拟能力。例如,在仓储机器人场景中,结合PINNs与因果模型的系统能预判重型货架移动对人体安全的威胁,这是纯语言模型无法实现的根本性突破。

2.认知人工智能

仿生认知架构强调人类思维的过程复现,包括环境交互学习、短长期记忆整合、情境化决策等能力的复现。与LLMs的静态知识库不同,这类系统通过持续迭代学习适应动态环境,在军事指挥、应急响应等复杂场景中展现出更强的泛化能力。

3.信息格学习

该技术突破神经网络框架,仅需少量样本即可发现可解释的规则体系。实验显示,信息格学习能从化学分子数据中自动推导门捷列夫周期表级别的规律,并预测未知元素性质。这种“白箱”学习机制在生物安全、新材料研发等领域具有独特优势。

4.神经符号架构

融合神经网络与符号推理的混合系统,在数学证明、法律条文解析等任务中表现出色。例如,结合Transformer与逻辑编程的模型在几何定理证明测试中达到国际奥赛银牌水平,其推理过程具备可验证性,显著优于黑箱式的LLMs。

5.具身智能

通过多模态传感器(视觉、触觉、化学感知等)实现物理世界交互学习。实验机器人仅需200小时环境探索即可建立“狗”的跨模态概念(叫声、毛发触感、运动模式),其学习效率接近人类幼儿,为机器人自主决策奠定基础。

6.神经形态计算

采用脉冲神经网络与生物神经元培养芯片,能效比传统GPU提升2-3个数量级。2024年DeepSeek-V3模型通过架构优化,在同等性能下将训练能耗降低40%,预示着硬件革命可能突破现有能耗限制。

三、算法进步驱动的效率革命

(一)数据优化的双重路径

面对数据墙挑战,算法进步聚焦于数据质量提升而非数量堆积。研究表明,通过智能修剪可将训练数据量缩减至原有20%而不损失性能,其核心在于信息熵筛选——剔除重复、低信息量样本(如社交媒体中的套话模板),保留高价值知识单元。例如,在蛋白质结构预测任务中,经优化的数据集使训练效率提升5倍。合成数据生成技术则开辟新维度。2024年Google DeepMind开发的几何证明生成系统,通过自监督学习创建了百万级合成定理数据集,使AI模型首次达到IMO银牌水平。这种“数据引擎”模式若能扩展到其他领域,可能突破人类知识生产的速率限制。

(二)算法架构的创新突破

Transformer架构的效率瓶颈催生了两类革新:

一是低复杂度替代方案。Mamba架构通过选择性状态空间将计算复杂度从二次降为线性,在长文本理解任务中吞吐量提升3倍。而Kolmogorov-Arnold网络(KANs)采用分片多项式激活函数,参数效率比传统MLP高100倍,在偏微分方程求解等任务中表现卓越。

二是目标函数重构。传统交叉熵损失函数与人类价值偏好存在根本错位。强化学习从人类反馈(RLHF)技术通过偏好对齐,使模型在1/10参数量下即可生成更符合人类审美的内容。例如,在文本摘要任务中,13亿参数的RLHF模型被判定优于129亿参数的基础模型,显示出算法设计对性能的杠杆效应。

(三)硬件约束下的适应性创新

美国对华芯片出口管制催生了“算法补偿”现象。中国团队通过模型架构创新(如DeepSeek的多头潜在注意力机制),在同等算力下实现性能追赶。研究表明,前沿模型的代际差距可能从24个月缩短至7-10个月,这对基于硬件优势的遏制战略构成挑战。

四、政策建议与战略考量

(一)技术投资的多元化布局

研究建议采用“对冲策略”,在LLMs扩展路径之外,加大对替代技术的投入。具体包括:

建立跨学科研发基金,重点支持神经符号系统、具身智能等方向

构建开放测试平台,加速物理信息模型在工业仿真、城市管理等场景的落地

设立算法效率基准,引导资源向低能耗架构倾斜

(二)数据治理与标准建设

针对合成数据的双重属性(既突破数据墙又可能引发质量风险),需建立分级监管体系:

基础科研领域开放合成数据共享,建立跨机构验证机制

关键行业(如医疗、金融)实施数据溯源认证,防范虚假知识污染

推动国际标准制定,特别是在信息学习等可解释AI领域

(三)全球竞争下的安全框架

面对中美AGI竞赛,报告提出“可控开放”策略:

核心算法实行选择性开源,通过专利池管理技术扩散

建立跨国AI安全联盟,重点监控自主武器、生物工程等高风险应用

优化出口管制,从单纯硬件限制转向“算法-硬件-数据”三维管控

(四)伦理与可持续发展

能源消耗问题需纳入技术评估体系,建议:将FLOPs/Watt作为关键性能指标,与算力同等权重;对超大规模模型实施碳足迹审计;资助神经形态芯片等绿色计算技术;

五、未来展望与不确定性

尽管技术进步日新月异,AGI的实现仍存在根本性不确定。物理世界建模、跨模态泛化、自我意识形成等核心难题尚未找到明确突破路径。研究预测,未来可能出现三种情景:

数据约束主导:合成数据技术停滞,AGI研发转向专业化小模型

算法效率突破:新型架构普及,使千亿参数模型可在消费级设备运行

混合演进路径:LLMs与神经符号系统等互补技术融合,形成分层智能体系

无论如何演进,AI发展已进入“后摩尔定律”时代,算法创新将取代芯片制程成为主要驱动力。政策制定者需建立动态监测体系,重点跟踪合成数据生成、小样本学习、能耗比等关键指标,在技术突变前做好战略储备。

最终,AGI的竞赛不仅是算力的比拼,更是对人类智能本质理解的深化。唯有保持技术路线的多样性,才能确保AI革命真正服务于人类文明的可持续发展。

 

[1]Rand. Algorithmic Advancement in Artificial Intelligence[EB/OL]. [2025-04-23]. https://www.rand.org/pubs/research_reports/RRA3485-1.html.

[2]Rand. Charting Multiple Courses to Artificial General Intelligence[EB/OL]. [2025-04-23]. https://www.rand.org/pubs/perspectives/PEA3691-1.html.