AI 发展史大事件 03:1969 感知机之争与第一次 AI 冬天
AI 发展史大事件 03:1969 感知机之争与第一次 AI 冬天
欢迎来到第三展厅。这里的主角不是一次“胜利”,而是一次“降温”。
很多新读者会问:AI 为什么会有“冬天”?
答案之一,就藏在 1969 年关于感知机的那场争论中。
一、背景:早期神经网络为何被寄予厚望?
1950-1960 年代,感知机(Perceptron)被看作“机器学习智能”的希望。
它的特点是:
- 结构简单
- 能从样本中学习分类边界
- 不依赖大量手工规则
在当时看来,这已经是非常先进的思路。
二、争议核心:单层感知机的能力边界
1969 年,Minsky 与 Papert 在《Perceptrons》中系统分析了单层感知机的局限。
最著名的点是:
- 单层感知机无法表达 XOR 这类非线性可分问题。
这本来是对“特定结构能力边界”的学术结论,但在历史传播中,常被简化成“神经网络不行”。
于是,研究资金与学术关注逐步转向符号主义与专家系统路线。
三、第一次 AI 冬天是如何形成的?
所谓 AI 冬天,并不是某一天突然发生,而是多重因素叠加:
- 早期承诺过高,交付不足。
- 计算资源难以支撑更复杂神经网络。
- 数据规模和工程工具都不成熟。
- 投资方与资助机构信心下降。
感知机争议起到了“导火索”作用,但真正的冬天是“技术-资源-预期”三者错位造成的。
四、今天如何正确看待这段历史?
这段历史最常见误读是:
- “感知机失败 = 神经网络失败”
更准确的说法应该是:
- “某一代模型结构存在能力上限,但学习范式本身并未被否定”
后来多层网络 + 反向传播 + GPU 的组合证明了这一点。
五、讲解员总结
第三展厅给我们的启示非常关键:
- 学术批评本身是进步动力,不是坏事。
- 真正的问题在于是否把“局部结论”误当成“终局判断”。
- 技术史从来不是直线,低谷阶段往往在为下一次爆发蓄力。
下一站,我们进入第四展厅:1986 年反向传播复兴,神经网络如何重获生命。
参考资料
- Minsky, M. & Papert, S. Perceptrons (1969)
- Rumelhart, Hinton, Williams. Learning representations by back-propagating errors (1986)
- Nilsson, N. The Quest for Artificial Intelligence
本文由作者按照 CC BY 4.0 进行授权