GitHub Actions 简单入门-原理、使用方法与 YAML 详解
GitHub Actions 是一个集成在 GitHub 仓库中的 CI/CD 和自动化平台,它允许您通过事件触发自动化工作流,用于构建、测试、部署代码或其他任务,如标签问题或发送通知。 它基于 YAML 文件定义工作流,这些文件易读且灵活,支持并行执行和依赖管理。 总体上,它的工作原理可靠,但复杂配置可能需要注意权限和并发问题,以避免意外行为。 关键点: 工作原理:事件...
GitHub Actions 是一个集成在 GitHub 仓库中的 CI/CD 和自动化平台,它允许您通过事件触发自动化工作流,用于构建、测试、部署代码或其他任务,如标签问题或发送通知。 它基于 YAML 文件定义工作流,这些文件易读且灵活,支持并行执行和依赖管理。 总体上,它的工作原理可靠,但复杂配置可能需要注意权限和并发问题,以避免意外行为。 关键点: 工作原理:事件...
摘要 近期在使用 Springdoc-OpenAPI 结合 Knife4j 作为接口文档工具时,遇到了一个棘手的问题:明明在配置中设置了全局的 Bearer Token 认证,但在 Knife4j 的界面中该配置始终不生效。然而,在原生的 swagger-ui.html 页面中却工作正常。本文将深入分析这一兼容性问题,并提供一个通用的解决方案,确保全局认证头能在 Knife4j 中正确应用...
Docker 常用命令大全 Docker 基础命令 命令 说明 示例 docker version 查看 Docker 客户端与服务端版本 docker version docker info 显示 Docker 系统信息 ...
本文转载自博客园 行无际《一文学会在Markdown中编辑数学符号与公式》 在用Markdown写博客时会涉及到数学符号与公式的编辑,下面进行汇总。随手记录,方便你我他。 行内公式:将公式插入到本行内 $0.98^{365} \approx 0.0006$ 我的365天:$0.98^{365} \approx 0.0006$ 单独的公式块:将公式插入到新的一行内,...
全文总结于 Bilibili UP 主飞天闪客的一小时到 Transformer 系列视频! Transformer:抛弃顺序计算的注意力革命 Transformer模型自2017年横空出世,迅速成为自然语言处理(NLP)乃至整个AI领域的基石。它的出现,标志着机器对语言理解方式的一次根本性转变。 在此之前,循环神经网络(RNN)及其变体(如LSTM、GRU)虽然能处理序列数据,但却...
全文总结于 Bilibili UP 主飞天闪客的一小时到 Transformer 系列视频! 循环神经网络 RNN(Recurrent Neural Network) 之前的卷积神经网络适合处理图片信息,那文字信息怎么办呢?首先要明白,对于计算机,或者说神经网络来说,文字都是要转换为数字之后再进行处理的。那么我们要面对的第一个问题就是:如何将文字转换为数字 有一种简单粗暴的方法:每一...
全文总结于 Bilibili UP 主飞天闪客的一小时到 Transformer 系列视频! 矩阵表示、卷积与 CNN:从“密集连接”到“局部共享”的直观演绎 本篇目标: 用矩阵语言把神经网络的前向计算讲清楚; 阐明全连接(fully-connected)在图像任务上的局限; 通过卷积的直观定义、数学表示与参数对比,说明 CNN 为什么更适合图像;...
全文总结于 Bilibili UP 主飞天闪客的一小时到 Transformer 系列视频! 🧠 神经网络训练中的问题与解决方法 ——从过拟合到正则化的全面解析 “训练一个模型不难,难的是让它在没见过的数据上依然聪明。” 🌱 一、从成功到困惑:模型为何“记住”了数据? 假设我们用数千张图片训练了一个神经网络,训练损失迅速下降,准确率高得惊人。 然而,当我们在新图片上测试...
全文总结于 Bilibili UP 主飞天闪客的一小时到 Transformer 系列视频! 如何计算神经网络的参数:从损失函数到梯度下降与反向传播 摘要 这篇文章用直观比喻与必要数学并重的方式,讲清楚三件事: 为什么需要“损失函数”来量化预测与真实之间的差距 如何用“梯度下降”把参数一步步调到更好 反向传播如何高效地计算大规...
全文总结于 Bilibili UP 主飞天闪客的一小时到 Transformer 系列视频! 从函数到神经网络:技术演进与核心关联解析 摘要 神经网络是当前人工智能领域的核心技术之一,但其本质是对“函数”这一基础数学概念的复杂延伸与组合。从早期人工智能符号主义(追求精确函数)到现代联结主义(追求函数近似),技术路线的转变揭示了神经网络的本质:通过层级嵌套和参数优化,构造一个能够逼近任...