深度学习中的迁移学习与LeNet-5架构详解

在学习新知识时,有两种主要方法:一种是通过阅读书籍从头开始学习,另一种是向老师请教,直接获取他们的知识和经验。显然,第二种方法更为快捷和高效。迁移学习(Transfer Learning)在深度学习中也是类似的概念。迁移学习是一种利用在大规模且足够通用的数据集上训练好的神经网络,并将其应用于另一个问题的方法。这些神经网络被称为预训练网络(Pre-trained Networks)。

迁移学习的基本前提是拥有一个预训练网络。幸运的是,目前已有多个由不同团队共享的先进深度学习网络。例如,在计算机视觉领域,我们有LeNet-5、AlexNet、VGG16、Inception-v3和ResNet等。本文将详细讨论LeNet-5架构。

目标

  1. 通过预训练模型进行迁移学习是解决深度学习问题的一种时间和成本高效的解决方案。
  2. 理解LeNet-5的架构,如原作者所提出的那样。

目录

  1. 什么是LeNet-5?
  2. 模型的架构
  3. 架构细节
  4. 结论

什么是LeNet-5?

LeNet-5是由Yann LeCun等人在1998年提出的最早期的预训练模型之一,其研究论文为《Gradient-Based Learning Applied to Document Recognition》。他们使用该架构来识别手写和机器打印的字符。该模型之所以流行,主要归功于其简单而直接的架构。它是一个用于图像分类的多层卷积神经网络。

Image 2

模型的架构

让我们来理解LeNet-5的架构。该网络有5个具有可学习参数的层,因此命名为LeNet-5。它有三组卷积层,结合了平均池化层。在卷积和平均池化层之后,有两个全连接层。最后,一个Softmax分类器将图像分类到相应的类别中。

输入层

该模型的输入是一个32×32的灰度图像,因此通道数为1。

第一卷积层

我们首先应用第一个卷积操作,滤波器大小为5×5,共有6个这样的滤波器。结果,我们得到一个大小为28×28×6的特征图。这里的通道数等于应用的滤波器数量。

Image 3

第一池化层

在第一个池化操作之后,我们应用平均池化,特征图的大小减半。注意,通道数保持不变。

第二卷积层

接下来,我们有一个卷积层,包含16个大小为5×5的滤波器。特征图再次改变,大小为10×10×16。输出大小以类似的方式计算。之后,我们再次应用平均池化或下采样层,将特征图的大小再次减半,即5×5×16。

第三卷积层

然后,我们有一个最终的卷积层,大小为5×5,包含120个滤波器。如上面的图像所示,特征图大小为1×1×120。之后,展平的结果是120个值。

Image 4

全连接层

在这些卷积层之后,我们有一个包含84个神经元的全连接层。最后,我们有一个包含10个神经元的输出层,因为数据有10个类别。

架构细节

让我们更详细地理解这个架构。

输入层

第一层是输入层,特征图大小为32×32×1。

第一卷积层

然后,我们有一个第一卷积层,包含6个大小为5×5的滤波器,步幅为1。该层使用的激活函数是tanh。输出特征图大小为28×28×6。

第一池化层

接下来,我们有一个平均池化层,滤波器大小为2×2,步幅为1。结果特征图大小为14×14×6。由于池化层不影响通道数。

第二卷积层

之后是第二卷积层,包含16个大小为5×5的滤波器,步幅为1。激活函数也是tanh。现在输出大小为10×10×16。

第二池化层

再次出现另一个平均池化层,大小为2×2,步幅为2。结果,特征图的大小减少到5×5×16。

第三卷积层

最终的池化层包含120个大小为5×5的滤波器,步幅为1,激活函数为tanh。现在输出大小为120。

全连接层

接下来是一个包含84个神经元的全连接层,结果输出为84个值,激活函数再次使用tanh。

输出层

最后一层是包含10个神经元的输出层,使用Softmax函数。Softmax给出数据点属于特定类别的概率。预测最高值。

结论

这就是LeNet-5架构的全部内容。总结一下,该网络有:

  1. 5个具有可学习参数的层。
  2. 模型的输入是灰度图像。
  3. 它有3个卷积层,两个平均池化层,以及两个全连接层和一个Softmax分类器。
  4. 可训练参数的数量为60000。

准备好开始你的数据科学之旅了吗?通过Analytics Vidhya的认证AI与ML黑带Plus计划,发现你所需的一切。立即加入,提升你的技能!

常见问题

Q1. LeNet和AlexNet有什么区别?
A. LeNet和AlexNet都是卷积神经网络(CNN)架构,但它们在深度、结构和对领域的影响方面有所不同。LeNet于1998年推出,是最早的CNN模型之一,仅包含七层。相比之下,AlexNet于2012年提出,更深,有八层,并具有更大的卷积滤波器。此外,AlexNet采用了修正线性单元(ReLU)激活函数,引入了dropout正则化的概念,并赢得了ImageNet大规模视觉识别挑战赛,极大地推动了深度学习的发展,并激发了后续的进步。

Q2. LeNet的全称是什么?
A. LeNet的全称是“LeNet-5”,指的是LeNet卷积神经网络模型的第五次迭代。它由Yann LeCun等人在1998年开发,并成为卷积神经网络的先驱架构之一。LeNet-5主要用于手写数字识别任务,在推动深度学习领域的发展中发挥了重要作用。

版权声明:
作者:5ifenxi
链接:https://5ifenxi.com/archives/1555.html
来源:爱分析网(5iFenXi.com)
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>