Java 并发源码系列目录
本目录聚合 concurrence 下的并发笔记,按“基础 -> JMM -> AQS -> 锁与工具类 -> 线程池与集合”组织,便于连续学习。 1. 并发基础 并发基础:线程与进程 synchronized 关键字(整合版) ThreadLocalRandom 原理剖析 原子操作类原理剖析 2. JMM 与可见性 volatile...
本目录聚合 concurrence 下的并发笔记,按“基础 -> JMM -> AQS -> 锁与工具类 -> 线程池与集合”组织,便于连续学习。 1. 并发基础 并发基础:线程与进程 synchronized 关键字(整合版) ThreadLocalRandom 原理剖析 原子操作类原理剖析 2. JMM 与可见性 volatile...
这是一篇 Java 新特性系列索引,便于按版本连续学习与查漏补缺。 一、版本主线 Java9 新特性概览 Java10 新特性概览 Java11 新特性概览 Java12~13 新特性概览 Java14~15 新特性概览 Java16 新特性概览 二、配套专题 局部变量的类型推断(var) Optional 优雅处理 null(整合版) La...
这是一篇并发系列聚合索引,覆盖基础、JMM、AQS、锁、线程池与并发工具。 Java 并发源码系列目录(concurrence) 一、入门与总览 Java线程 Java Lock 接口(整合版) synchronized 关键字(整合版) 线程通信-等待通知机制(整合版) Java线程池 Java并发容器 Java并发工具类 二、JMM 与 v...
“多模态大模型”看起来很神奇:一边看图,一边理解问题,还能输出长文本推理。 但它的工程本质并不玄学,可以归结成一句话: 把不同模态(图像、视频、音频等)变成 LLM 能理解的 token/向量,再通过统一的解码器进行条件生成。 本文会从实现机制出发,深入拆解多模态模型的核心原理、主流架构范式和训练策略,并给出原理图和模型架构图。 1. 统一视角:多模态模型到底在做什么? 先看总流程...
如果你已经用过 Claude Code、Codex、OpenCode 这类 AI 编程工具,你大概率会遇到一个问题: 会话越长,质量越不稳定; 需求越复杂,越容易“上下文腐烂(context rot)”。 get-shit-done(简称 GSD)就是为这个问题设计的一层“工作流与上下文工程系统”。本文基于官方 README 和 User Guide,总结一份可以直接落地的使...
各位读者,欢迎来到“AI 发展史展馆”。 今天这篇不是某个单点技术教程,而是整个系列的“总导览”。你可以把它理解为展馆门口的大地图:先看全貌,再按兴趣进入具体展厅。 在这条时间轴里,我们会看到 AI 发展并不是线性上升,而是多次经历了: 理想高涨 工程受挫 方法突变 产业爆发 而每一轮“突变”,几乎都对应一次范式变化。 一、先看全景时间线 flowchart ...
各位观众,欢迎来到 AI 历史展馆的第一展厅。 墙上写着一个看似简单的问题:机器会思考吗? 1950 年,艾伦·图灵没有直接给出哲学定义,而是换了一个更“工程化”的提问方式,这就是后来著名的图灵测试。 一、历史背景:为什么这个问题在 1950 年出现? 二战后的计算机刚刚展现出强大算力,很多人开始相信机器不仅能算数,也可能参与推理和语言处理。 但“思考”这个词过于抽象,容易陷入空谈...
欢迎来到第八展厅。这里摆着一篇改变行业轨迹的论文:《Attention Is All You Need》。 2017 年,Transformer 出现后,AI 的训练和应用范式发生了根本变化。 一、它解决了什么旧问题? 在 Transformer 之前,序列建模主力是 RNN/LSTM。它们的问题主要是: 难并行,训练慢 长距离依赖难捕捉 Transformer 用自注...
欢迎来到第三展厅。这里的主角不是一次“胜利”,而是一次“降温”。 很多新读者会问:AI 为什么会有“冬天”? 答案之一,就藏在 1969 年关于感知机的那场争论中。 一、背景:早期神经网络为何被寄予厚望? 1950-1960 年代,感知机(Perceptron)被看作“机器学习智能”的希望。 它的特点是: 结构简单 能从样本中学习分类边界 不依赖大量手工规则 在...
欢迎来到第五展厅。这里有一张历史照片:1997 年,IBM Deep Blue 战胜国际象棋世界冠军加里·卡斯帕罗夫。 这是 AI 首次在全球关注的智力竞技中,正面击败顶尖人类选手。 一、为什么“下棋”在 AI 历史里意义特殊? 国际象棋长期被当作“理性思维”的象征。 所以当机器在棋盘上获胜,公众会自然联想到: 机器是否已经具备了某种“超越人类”的智能? 尽管这个推论并不...