卷积神经网络

全连接神经网络:

  • 参数太多
  • 训练困难
  • 网络结构复杂
  • 没有考虑到图像的空间结构信息

动机

比起浅层神经网络,深度神经网络会更难训练,然而,如果训练好一个深度网络,它会比浅层网络强大的多
因此,有必要开发一种能够训练的深度网络结构
卷积神经网络可以简化网络结构,同时利用空间结构信息

卷积神经网络

卷积运算

卷积经常用在信号处理中,用于计算信号的延迟累积
image.png

局部感受野

单个视觉细胞仅对部分区域特定模式反应
局部感受:对外部世界由局部到全局的感知
image.png

一个小区域的输入像素连接到隐藏层的一个神经元
image.png
输入图像中的此类区域称为隐藏神经元的局部感受野
然后在整张图片上滑动这个局部感受野,每个不同的局部感受野对应于隐藏层的一个不同的神经元

权值共享

image.png
每个隐藏层神经元使用相同权值与偏差

步长(Stride):每次局部感受野移动的幅度。相邻的子区域很相似,没有必要检测所有的子区域
image.png

第一个隐藏层中所有神经元都检测到了相同特征,只是在不同的输入图像的位置
image.png

因此,从输入层到隐藏层的映射通常称之为特征映射(feature map)
共享的权值和偏置被称为卷积核(kernel)或者滤波器(filter)

滤波器越多,特征映射的深度越大,得到的关于输入的信息就越多
共享权值极大降低了CNN的参数规模

池化

池化层通常用在卷积层之后,以简化卷积层输出的信息

  • Max-pooling:输出池化矩阵中最大激活值 image.png
  • Mean-pooling:
    image.png

池化的主要目的:

  • 减少参数,降低计算量,控制过拟合
  • 使得特征具有局部的转移和扭曲不变性

卷积神经网络中的反向传播

典型的卷积网络

  • ImageNet
  • LeNet
  • AlexNet
  • VGGNet
  • GoogLeNet
  • ResNet

应用

CNNs迁移学习框架
image.png

图像描述生成

图像表征提取


卷积神经网络
http://example.com/2024/11/27/Notes/课程/大三(上)/神经网络与深度学习/卷积神经网络/
许可协议