常见深度学习算法

MLP
CNN
RNN
LSTM
Transformer

CNN

让我们通过一些基本的公式来更深入地理解卷积神经网络(CNN)的工作原理。

1. 卷积层

卷积操作是CNN的核心,其公式可以表示为:
输出(i,j)=mn输入(i+m,j+n)×卷积核(m,n)
其中,输入 是输入图像或特征图,卷积核 是学习到的滤波器,m,n 是卷积核的尺寸

2. 激活函数

ReLU(Rectified Linear Unit)是一种常用的激活函数,其公式简单:
ReLU(x)=max(0,x)
这意味着如果输入$x $是正数,就直接输出,如果是负数,则输出0。

3. 池化层

池化通常有两种类型:最大池化和平均池化。

4. 全连接层

在全连接层,每个输入节点都连接到每个输出节点,其公式可以表示为:
输出i=j(权重ij×输入j)+偏置i

5. Softmax 函数

在分类任务中,通常在最后一个全连接层后使用softmax函数来计算概率分布:
softmax(xi)=exijexj
这里,$x_i i $个类别的输出分数,softmax函数确保所有类别的输出概率总和为1。

训练过程中的损失函数和优化