文章

AI 发展史大事件 03:1969 感知机之争与第一次 AI 冬天

AI 发展史大事件 03:1969 感知机之争与第一次 AI 冬天

欢迎来到第三展厅。这里的主角不是一次“胜利”,而是一次“降温”。

很多新读者会问:AI 为什么会有“冬天”?

答案之一,就藏在 1969 年关于感知机的那场争论中。

一、背景:早期神经网络为何被寄予厚望?

1950-1960 年代,感知机(Perceptron)被看作“机器学习智能”的希望。

它的特点是:

  • 结构简单
  • 能从样本中学习分类边界
  • 不依赖大量手工规则

在当时看来,这已经是非常先进的思路。

二、争议核心:单层感知机的能力边界

1969 年,Minsky 与 Papert 在《Perceptrons》中系统分析了单层感知机的局限。

最著名的点是:

  • 单层感知机无法表达 XOR 这类非线性可分问题。

这本来是对“特定结构能力边界”的学术结论,但在历史传播中,常被简化成“神经网络不行”。

于是,研究资金与学术关注逐步转向符号主义与专家系统路线。

三、第一次 AI 冬天是如何形成的?

所谓 AI 冬天,并不是某一天突然发生,而是多重因素叠加:

  1. 早期承诺过高,交付不足。
  2. 计算资源难以支撑更复杂神经网络。
  3. 数据规模和工程工具都不成熟。
  4. 投资方与资助机构信心下降。

感知机争议起到了“导火索”作用,但真正的冬天是“技术-资源-预期”三者错位造成的。

四、今天如何正确看待这段历史?

这段历史最常见误读是:

  • “感知机失败 = 神经网络失败”

更准确的说法应该是:

  • “某一代模型结构存在能力上限,但学习范式本身并未被否定”

后来多层网络 + 反向传播 + GPU 的组合证明了这一点。

五、讲解员总结

第三展厅给我们的启示非常关键:

  • 学术批评本身是进步动力,不是坏事。
  • 真正的问题在于是否把“局部结论”误当成“终局判断”。
  • 技术史从来不是直线,低谷阶段往往在为下一次爆发蓄力。

下一站,我们进入第四展厅:1986 年反向传播复兴,神经网络如何重获生命。

参考资料

  1. Minsky, M. & Papert, S. Perceptrons (1969)
  2. Rumelhart, Hinton, Williams. Learning representations by back-propagating errors (1986)
  3. Nilsson, N. The Quest for Artificial Intelligence
本文由作者按照 CC BY 4.0 进行授权