1196 字
6 分钟

Transformer神经网络基础

一、从函数到神经网络#

函数:描述了一种输入与输出之间的映射关系

线性函数:f(x)=wx+b, w是权重,b是偏置激活函数:f(x)=g(wx+b)常用的激活函数:g(x)=11+ez, ReLU(z)=max(0,z)\begin{aligned} \text{线性函数}:&f(x)=wx+b,\ w\text{是权重,}b\text{是偏置}\\ \text{激活函数}:&f(x)=g(wx+b)\\ \text{常用的激活函数}:&g(x)=\frac{1}{1+e^{-z}},\ \text{ReLU}(z)=\max(0,z) \end{aligned}

由于数据分布不均匀时,线性函数无法拟合真实数据,需要使用非线性函数。在线性函数外层套一层激活函数,就可以将原本的线性函数变成表达能力更强的非线性函数。

神经网络

f(x)=g(wx+b)f(x)=g(wx+b)

只有一个输入时如上式。 输入变多后:

f(x)=g(w1x1+w2x2+b)f(x)=g(w_1x_1+w_2x_2+b)

在原函数基础上再套一层激活函数:

f(x)=g(w3(g(w1x1+w2x2+b))+b)f(x)=g\bigl(w_3(g(w_1x_1+w_2x_2+b))+b\bigr)f(x)=g(w3f1(x)+b)f1(x)=g(w1x1+w2x2+b)=y\begin{aligned} f(x)&=g(w_3f_1(x)+b)\\ f_1(x)&=g(w_1x_1+w_2x_2+b)=y \end{aligned}

此时 f1f_1 这一层就称为隐藏层

img

由大量神经元组成的网络结构,我们称之为神经网络

前向传播:在神经网络中从左到右、从输入到输出,逐步计算函数值的过程。


二、计算神经网络的参数#

判断神经网络训练好坏,就是看它与真实数据的拟合程度。

用数学语言描述拟合好坏:已知 f(x)=wx+bf(x)=wx+b,我们希望求出合适的 wwbb。 每个数据点上,竖直方向的长度就是真实值预测值之间的误差。 将所有误差汇总,就能反映整体拟合效果。

数据:(x1,y1),(x2,y2)线性模型:y=wx+b误差:yy^损失函数:k=1nyky^k均方误差(MSE):1Nk=1N(yky^k)2=L(w,b)目标:求解让 L 最小的 w,b\begin{aligned} \text{数据}:& (x_1,y_1),(x_2,y_2) \\ \text{线性模型}:&y=wx+b \\ \text{误差}:& |y-\hat y|\\ \text{损失函数}:&\sum\limits_{k=1}^n|y_k-\hat y_k| \\ \text{均方误差(MSE)}:&\frac{1}{N}\sum\limits_{k=1}^N(y_k-\hat y_k)^2=L(w,b)\\ \text{目标}:&\text{求解让 }L\text{ 最小的 }w,b \end{aligned}

求解思路:对损失函数中的 wwbb 求偏导,令导数为 0,求极值点。

实战示例:

数据:(1,1), (2,2), (3,3), (4,4)线性模型:y=wx\text{数据}:(1,1),\ (2,2),\ (3,3),\ (4,4)\\ \text{线性模型}:y=wxL(w)=1Nk=1N(ykwxk)2=14[(1w)2+(22w)2+(33w)2+(44w)2]=14(3060w+30w2)=7.515w+7.5w2L(w)=15+15w=0w=1\begin{aligned} L(w)&=\frac{1}{N}\sum\limits_{k=1}^N(y_k-wx_k)^2\\ &=\frac{1}{4}\left[(1-w)^2+(2-2w)^2+(3-3w)^2+(4-4w)^2\right]\\ &=\frac{1}{4}(30-60w+30w^2)\\ &=7.5-15w+7.5w^2 \\ L'(w)&=-15+15w=0 \\ w&=1 \end{aligned}

这种用线性函数拟合 xxyy 关系的方法,就是机器学习中最基础的线性回归

神经网络是由大量线性函数与非线性激活函数组合成的复杂非线性函数,对应的损失函数通常无法直接令导数为 0 求解。

假设当前 w,bw,b 为 5,损失函数为 10。 ww 微小变化带来损失函数的变化,就是损失对 ww 的偏导数bb 同理。 我们让 w,bw,b偏导数的反方向更新。

w=wηL(w,b)wb=bηL(w,b)bw = w - \eta\frac{\partial L(w,b)}{\partial w}\\ b = b - \eta\frac{\partial L(w,b)}{\partial b}

其中 η\eta 称为学习率,用来控制参数更新的步长。

这些偏导数组成的向量称为梯度。 不断更新 w,bw,b、使损失函数逐渐减小的过程,称为梯度下降

对于深层神经网络,直接求导非常困难,但层与层之间关系简单,可以使用链式法则

img

F1=g(w1x+b1)F2=g(w2a+b2)F3=(yy^)2F_1=g(w_1x+b_1) \\ F_2=g(w_2a+b_2) \\ F_3=(y-\hat y)^2

w1w_1 为例,损失 LLw1w_1 的偏导:

Lw1=Ly^y^aaw1\frac{\partial L}{\partial w_1}= \frac{\partial L}{\partial \hat y} \frac{\partial \hat y}{\partial a} \frac{\partial a}{\partial w_1}

这种分段求导再相乘的方式,称为链式法则。 从输出层往输入层方向,逐层求导并更新参数,称为反向传播

总结:

  • 前向传播:根据输入 xx 计算输出 y^\hat y
  • 反向传播:计算损失对各参数的梯度
  • 用梯度下降更新参数 这一整套流程,就是神经网络的一次训练

三、调教神经网络的方法#

过拟合:模型在训练集上表现极好,但在未见过的测试数据上表现很差。 泛化能力:模型在未见过数据上的表现能力。

过拟合原因:模型过于复杂,把训练数据中的噪声和随机波动也学到了。

解决过拟合常用方法

从模型本身入手:

  1. 简化模型复杂度
  2. 增加数据量,或使用数据增强(旋转、翻转、裁剪、加噪声等),提升鲁棒性

从训练阶段入手:

  1. 提前终止训练
  2. 正则化:在损失函数中加入惩罚项,抑制参数过大
新损失函数=原损失函数+λi=1Nwi(L1正则化)新损失函数=原损失函数+λi=1Nwi2(L2正则化)\text{新损失函数} = \text{原损失函数} + \lambda \sum\limits_{i=1}^N |w_i| \quad (\text{L1正则化}) \\ \text{新损失函数} = \text{原损失函数} + \lambda \sum\limits_{i=1}^N w_i^2 \quad (\text{L2正则化})
  • λ\lambda:正则化系数
  • wi\sum |w_i|:L1 范数
  • wi2\sum w_i^2:L2 范数

四、从矩阵到CNN#

当输入输出维度很高时,用矩阵表示更简洁:

y1=g(w11x1+w12x2+w13x3+b1)y2=g(w21x1+w22x2+w23x3+b2)\begin{aligned} y_1&=g(w_{11}x_1+w_{12}x_2+w_{13}x_3+b_1)\\ y_2&=g(w_{21}x_1+w_{22}x_2+w_{23}x_3+b_2) \end{aligned}

写成矩阵形式:

[y1y2]=[w11w12w13w21w22w23][x1x2x3]+[b1b2]\begin{bmatrix}y_1\\y_2\end{bmatrix}= \begin{bmatrix}w_{11}&w_{12}&w_{13}\\w_{21}&w_{22}&w_{23}\end{bmatrix} \begin{bmatrix}x_1\\x_2\\x_3\end{bmatrix}+ \begin{bmatrix}b_1\\b_2\end{bmatrix}

LL 表示层数:

Y=g(W[L]A[L1]+b[L])\mathbf{Y} = g(\mathbf{W}^{[L]}\mathbf{A}^{[L-1]}+\mathbf{b}^{[L]})

全连接层:可以整合全局信息,但参数量巨大,容易过拟合。 卷积层:用卷积核滑动提取局部特征,是 CNN 的核心。 池化层:对特征图降维,减少计算量,保留关键信息。

这种用于图像的网络结构,称为卷积神经网络 CNN

CNN 更适合处理静态数据(如图像)。 要处理时序数据(文本、语音、视频等),就需要用到 Transformer

文章分享

如果这篇文章对你有帮助,欢迎分享给更多人!

Transformer神经网络基础
https://firefly.cuteleaf.cn/posts/transformer/
作者
Lireal
发布于
2026-01-20
许可协议
CC BY-NC-SA 4.0

目录