AI 发展史大事件 04:1986 反向传播复兴,神经网络重获生命
AI 发展史大事件 04:1986 反向传播复兴,神经网络重获生命
欢迎来到第四展厅。这里是一场“方法论复活”。
如果说前一展厅讲的是“神经网络为何降温”,这一展厅讲的就是“神经网络如何重新站起来”。
一、关键问题:多层网络怎么训练?
早期研究者已经知道多层网络更强,但一直有个难点:
- 输出误差如何有效传回前面每一层参数?
1986 年,Rumelhart、Hinton、Williams 的工作系统化展示了反向传播(Backpropagation)在多层网络中的可行训练路径。
二、反向传播到底做了什么?
核心思想很朴素:
- 前向传播:计算预测值。
- 计算损失:衡量预测与真实差距。
- 反向传播:用链式法则把梯度从后往前传。
- 参数更新:让每一层都朝降低损失方向调整。
听起来像“数学细节”,但它真正改变的是工程能力:
多层神经网络从“想法”变成“可训练系统”。
三、它为什么不是“立刻爆发”?
很多人会疑惑:1986 都有反向传播了,为什么深度学习要到 2010 年后才大爆发?
因为还差三块拼图:
- 算力(尤其 GPU)
- 大规模数据
- 更稳定的工程实践(初始化、正则化、激活函数等)
也就是说,反向传播是“引擎”,但当时道路和燃料还不够。
四、长期影响
反向传播带来的长期影响可以概括为三层:
- 方法层:深层可微模型训练成为主流范式。
- 框架层:后来的自动微分系统都建立在同一思想上。
- 产业层:语音、视觉、NLP 大规模神经网络成为可能。
今天你在 PyTorch 或 TensorFlow 写下 loss.backward(),其实就是在调用这段历史。
五、讲解员总结
第四展厅告诉我们一个简单却重要的事实:
- 技术史里的“关键突破”不一定马上带来产业震荡。
- 但它会在很长时间里,决定未来哪些路线能够跑通。
下一站,我们去看 1997 年 Deep Blue:当 AI 第一次在世界聚光灯下击败人类棋王。
参考资料
- Rumelhart, Hinton, Williams. Learning representations by back-propagating errors (1986)
- LeCun et al. Gradient-based learning applied to document recognition (1998)
- Goodfellow, Bengio, Courville. Deep Learning
本文由作者按照 CC BY 4.0 进行授权