卷积神经网络是一种特殊的神经网络结构,是自动驾驶汽车、人脸识别系统等计算机视觉应用的基?。?其中基本的矩阵乘法运算被卷积运算取代 。它们专门处理具有网格状拓扑结构的数据 。例如,时间序列数据和图像数据可以看作是一个二维像素网格 。
历史卷积神经网络最初是由福岛核电站在1980年引入的,当时名为Neocognitron 。它的灵感来自于Hubel和Weisel提出的神经系统的层次模型 。但由于其复杂的无监督学习算法 , 即无监督学习,该模型并不受欢迎 。1989年,Yann LeCun利用反向传播和Neocognitron的概念提出了一种名为LeNet的架构,该架构被美国和欧洲用于手写的邮政编码识别 。邮政服务 。Yann LeCun进一步研究了这个项目,最终在1998年发布了LeNet-5——第一个引入了我们今天在CNN仍然使用的一些基本概念的现代卷积神经网络 。他还发布了MNIST手写数字数据集,这可能是机器学习中最著名的基准数据集 。在20世纪90年代,计算机视觉领域转移了它的焦点 , 许多研究人员停止了对CNN架构的研究 。神经网络的研究经历了一个寒冷的冬天,直到2012年,多伦多大学的一组研究人员在著名的ImageNet挑战赛中进入了一个基于CNN的模型(AlexNet),最终以16.4%的错误率赢得了比赛 。此后 , 卷积神经网络不断向前发展,基于CNN的体系结构不断赢得ImageNet, 2015年,基于卷积神经网络的体系结构ResNet的误差率超过人类水平的5.1%,误差率为3.57% 。
卷积的误称在CNN中广泛使用的卷积运算是用词不当的 。严格地说 , 所使用的操作是相关 , 而不是卷积 。这两个操作符都有一点不同,我们将分别讨论它们,以理解它们之间的区别 。
互相关相关是在图像上移动滤波掩码(通常称为核)并计算每个位置的乘积和的过程 。相关是滤波器位移的函数 。换句话说,相关的第一个值对应滤波器的零位移 , 第二个值对应一个位移,以此类推 。
数学公式:
图3给出了使用F滤波器与图像I的一维互相关运算的数学公式 。假设F具有奇数个元素会很方便,因此我们可以假设F随其中心移动 。我们说F有2N+1的元素,这些索引从-N到N,F(0)是中心元素 。
类似地,我们可以将这个概念扩展到下图所示的2d情况 。基本思想是一样的,除了图像和滤波器现在是2D 。我们可以假设我们的滤波器有奇数个元素,所以它由一个(2N+1)x(2N+1)矩阵表示 。
二维的相关运算非常简单 。我们只是取一个给定大小的滤波器,然后把它放在与滤波器大小相同的图像的一个局部区域上 。我们继续这个操作,在整个图像中移动相同的滤波器 。这也帮助我们实现了两个非常受欢迎的属性:
平移不变性:我们的视觉系统应该感知、响应或检测相同的物体 , 而不管它出现在图像的什么地方 。局部性:我们的视觉系统聚焦于局部区域,而不考虑图像的其他部分发生了什么 。互相关函数具有一个特性,当它应用于离散的单位脉冲(一个二维矩阵,其中只有一个1,其他都是0)时,得到的结果是滤波器的副本 , 但旋转了180度 。
推荐阅读
- 牛肉面 牛肉面的制作方法
- 愿你出走半生归来仍是少年是什么意思 愿你出走半生归来仍是少年的意思
- 亚洲第一个提出申办夏季奥运会的城市是哪个 亚洲第一个提出申办夏季奥运会是哪个城市
- 手镯的含义 手镯的寓意和象征
- 屈原是什么原因跳江的 屈原跳江的原因
- 敬亭山在哪 敬亭山在我国的哪个省
- 海关查获3117根装有活体蚂蚁的不明物品 野蛮收获蚁入境
- 形容天空很蓝很美古诗 关于描述天很蓝的诗句
- 1.5排量的车百公里油耗是多少 1.5排量一百公里油耗多少
- 花胶是什么 花胶是鱼的哪里