DeathWhispers

GitHub Actions 简单入门-原理、使用方法与 YAML 详解

GitHub Actions 是一个集成在 GitHub 仓库中的 CI/CD 和自动化平台,它允许您通过事件触发自动化工作流,用于构建、测试、部署代码或其他任务,如标签问题或发送通知。 它基于 YAML 文件定义工作流,这些文件易读且灵活,支持并行执行和依赖管理。 总体上,它的工作原理可靠,但复杂配置可能需要注意权限和并发问题,以避免意外行为。 关键点: 工作原理:事件...

Knife4j 踩坑记录-全局请求头Authorization无效的问题

摘要 近期在使用 Springdoc-OpenAPI 结合 Knife4j 作为接口文档工具时,遇到了一个棘手的问题:明明在配置中设置了全局的 Bearer Token 认证,但在 Knife4j 的界面中该配置始终不生效。然而,在原生的 swagger-ui.html 页面中却工作正常。本文将深入分析这一兼容性问题,并提供一个通用的解决方案,确保全局认证头能在 Knife4j 中正确应用...

白话 DeepSeek 06|简单而强大的 Transformer

全文总结于 Bilibili UP 主飞天闪客的一小时到 Transformer 系列视频! Transformer:抛弃顺序计算的注意力革命 Transformer模型自2017年横空出世,迅速成为自然语言处理(NLP)乃至整个AI领域的基石。它的出现,标志着机器对语言理解方式的一次根本性转变。 在此之前,循环神经网络(RNN)及其变体(如LSTM、GRU)虽然能处理序列数据,但却...

白话 DeepSeek 05|从词嵌入到 RNN

全文总结于 Bilibili UP 主飞天闪客的一小时到 Transformer 系列视频! 循环神经网络 RNN(Recurrent Neural Network) 之前的卷积神经网络适合处理图片信息,那文字信息怎么办呢?首先要明白,对于计算机,或者说神经网络来说,文字都是要转换为数字之后再进行处理的。那么我们要面对的第一个问题就是:如何将文字转换为数字 有一种简单粗暴的方法:每一...

白话 DeepSeek 04|从矩阵到 CNN

全文总结于 Bilibili UP 主飞天闪客的一小时到 Transformer 系列视频! 矩阵表示、卷积与 CNN:从“密集连接”到“局部共享”的直观演绎 本篇目标: 用矩阵语言把神经网络的前向计算讲清楚; 阐明全连接(fully-connected)在图像任务上的局限; 通过卷积的直观定义、数学表示与参数对比,说明 CNN 为什么更适合图像;...

白话 DeepSeek 03|调教神经网络的方法

全文总结于 Bilibili UP 主飞天闪客的一小时到 Transformer 系列视频! 🧠 神经网络训练中的问题与解决方法 ——从过拟合到正则化的全面解析 “训练一个模型不难,难的是让它在没见过的数据上依然聪明。” 🌱 一、从成功到困惑:模型为何“记住”了数据? 假设我们用数千张图片训练了一个神经网络,训练损失迅速下降,准确率高得惊人。 然而,当我们在新图片上测试...

白话 DeepSeek 02|如何计算神经网络的参数

全文总结于 Bilibili UP 主飞天闪客的一小时到 Transformer 系列视频! 如何计算神经网络的参数:从损失函数到梯度下降与反向传播 摘要 这篇文章用直观比喻与必要数学并重的方式,讲清楚三件事: 为什么需要“损失函数”来量化预测与真实之间的差距 如何用“梯度下降”把参数一步步调到更好 反向传播如何高效地计算大规...

白话 DeepSeek 01|从函数到神经网络

全文总结于 Bilibili UP 主飞天闪客的一小时到 Transformer 系列视频! 从函数到神经网络:技术演进与核心关联解析 摘要 神经网络是当前人工智能领域的核心技术之一,但其本质是对“函数”这一基础数学概念的复杂延伸与组合。从早期人工智能符号主义(追求精确函数)到现代联结主义(追求函数近似),技术路线的转变揭示了神经网络的本质:通过层级嵌套和参数优化,构造一个能够逼近任...