检测到您的浏览器版本过低,可能导致某些功能无法正常使用,建议升级您的浏览器,或使用推荐浏览器 Google Chrome EdgeFirefox X

首页科技前沿与新兴产业新一代信息技术人工智能

摆脱“数据竞赛”:类脑架构或重塑AI训练逻辑

供稿人:顾洁供稿时间:2026-03-17 10:00:14关键词:人工智能,算力,数据,模型

在全球科技公司持续投入数千亿美元建设算力基础设施、以海量数据推动模型规模扩张之际,一项发表于《自然·机器智能》的研究对“数据规模决定模型性能”的主流路径提出挑战。美国约翰斯·霍普金斯大学团队发现,若从更接近生物大脑的架构出发,即使在未经大规模训练的情况下,人工智能系统也可能自发呈现出与人脑相似的活动模式。这一发现将AI发展焦点从“数据与算力”重新拉回到“架构与归纳偏置”,为下一代高效AI提供了新的技术想象空间。本文围绕该研究的核心发现、技术机制及其延伸意义展开分析。 

主流路径反思:数据与算力并非唯一变量

当前AI产业的发展趋势,是向模型持续投入海量数据,并构建规模堪比小型城市的计算资源体系。约翰斯·霍普金斯大学认知科学家指出,这一路径成本高昂,需要长期训练与巨额资本支撑。然而,人类学习视觉能力所需的数据量却极为有限。研究团队认为,进化过程中形成的大脑结构本身,可能已经为高效学习提供了优越起点。如果架构设计足够接近生物神经系统,模型或许无需依赖海量样本即可具备类脑特征。

论文作者米克·邦纳(Mick Bonner)表示,如果单纯依赖大规模训练才是获得类脑行为的关键,那么通过架构修改不可能构建出类似大脑的系统;但实验结果显示,合理的结构蓝图本身即可显著缩短学习路径。 

实验验证:未训练模型亦可呈现类脑表征

研究团队选取当下主流的三类神经网络架构——Transformer网络、全连接网络与卷积神经网络——反复调整参数与结构,构建数十种不同模型,所有模型均未进行预训练。随后,研究人员向这些未经训练的系统展示物体、人物和动物图像,并将其内部活动与人类及非人灵长类动物在观看相同图像时的视觉皮层反应进行对比。

结果显示,单纯增加Transformer或全连接网络中的神经元数量,并未显著改变其内部表征;而在卷积神经网络中,通过空间维度压缩(如池化)与特征维度扩展(增加通道数)两种关键操作,模型内部活动模式明显更接近人类视觉皮层。即便没有任何训练,这些卷积模型在预测视觉表征方面的表现,已可与传统需数百万乃至数十亿图像训练的系统相当。

论文指出,卷积架构所蕴含的归纳偏置,与生物视觉系统的结构约束高度接近,使得许多皮层表征特征能够在“经验调谐”之前便自然涌现。这意味着,架构约束本身可能比此前认知的更为重要。 

从蓝图出发:加速学习与降低能耗的可能路径

研究团队强调,若从正确的架构蓝图入手,并结合更多生物学启示,AI系统的学习速度有望大幅提升,同时减少对海量数据和高强度算力的依赖。目前团队正探索更简单、受生物启发的学习方法,期望构建新一代深度学习框架,使模型在保持性能的同时实现更高效率与更低能耗。

这一方向不仅具有技术意义,也对产业结构产生潜在影响。若模型性能更多取决于结构设计而非资源堆砌,AI研发将不再完全依赖资本密集型投入,而转向对算法与认知科学的深度融合。 

跨学科线索:材料自组织与AI数学逻辑

值得关注的是,相关研究还在材料科学领域获得呼应。宾夕法尼亚大学工程与应用科学学院的科学家在研究泡棉材料时发现,即使整体形状保持稳定,其内部气泡仍持续运动。更为关键的是,这种微观不稳定运动与AI训练所遵循的数学原理具有相似性。这一发现提示,类似“学习”或“自我增强”的行为,可能并非仅限于神经系统,而是材料、机器与生物细胞共享的基本动力学特征。

这一跨学科视角进一步强化了架构与结构约束的重要性:复杂行为的出现,或许源自内在结构本身,而非完全依赖外部输入。 

综合上述研究可以看到,AI发展的关键变量正在发生转移。与其依赖数月训练、庞大数据与城市级算力资源,不如从更接近大脑的结构设计入手,构建具备天然优势的模型起点。《自然·机器智能》发表的这项成果,为“数据至上”的路径提供了重要补充,也为更高效、可持续的人工智能体系打开新的研究方向。在算力与资本不断扩张的时代背景下,如何在架构层面实现突破,或将成为下一阶段AI竞争的核心所在。 

参考文献:

1、Johns Hopkins University. AI may not need massive training data after all[EB/OL]. [2026-01-04]. https://www.sciencedaily.com/releases/2025/12/251228074457.htm.

2、Kazemian A, Elmoznino E, Bonner M F.Convolutional architectures are cortex-aligned de novo[J]. Nature Machine Intelligence, 2025, 7: 1834-1844.

3、黄嬿. 耗资数千亿是浪费,研究:好AI 不需庞大数据训练[EB/OL].[2026-02-09]. https://technews.tw/2026/02/09/ai-base-is-more-important-than-data-training/.