本篇文章1657字,读完约4分钟
雷锋。(公开号码:雷锋。. com)出版社:这篇文章是由图普科技从深度学习的里程碑和雷锋编辑的。com以独占方式启动。
“深度学习”问世已经有十年了。从一开始,它就因其巨大的成功而风靡全球。以下是近年来“深度学习”发展的一些重要成果。
alexnet?——?2012
Alexnet架构(图片来自研究论文,标题为“带有深度自主神经网络的Imagenet分类”)
alexnet的出现证明了“卷积神经网络”确实有效。Alexnet和他的研究论文《深度自主神经网络的图像网络分类》被认为是深度学习进入主流的最重要的驱动力。
亚历克斯·内以15.4%的低错误率赢得了2012年大规模视觉识别挑战赛。(亚军得主的错误率为26.2%。(
亚历克斯网络包含8层,其中5层是卷积层,3层是完全连接层。
将relu用于非线性函数,而不是传统的tanh函数。
引入漏层和数据增强来克服过拟合问题。
alex krizhevsky,ilya sutskever和geoffrey e. hinton的《具有深度自主神经网络的图像网分类》。
zf网?——?2013
Zf网络架构(图片来自题为“可视化和理解对流网络”的研究论文)
以11.2%的低错误率赢得2013年ilsvrc锦标赛。
与alexnet架构类似,zf网络在一些调整和优化中不断提高其工作性能。
引入可视化技术“换位卷积网络”,观察卷积神经网络的内部工作原理。
Matthew d. zeiler和rob fergus,可视化和理解志愿网络的作者。
vgg网络?——?2014
Vgg网络架构(图片来自keras博客:blog.keras.io)
以7.3%的错误率赢得了2014年ilsvrc“分类和定位”竞赛的个人冠军。
Vgg网络架构擅长图像分类和图像定位。
vgg网络有19层,它的滤波器是3×3(Alex net的滤波器是11x11,zf网络是7x7)。(
简单的深度结构对于分层特征提取非常有效。
karen simonyan和andrew zisserman设计的用于大规模图像识别的深度自愿网络。
googlenet?——?2014/2015
Googlenet网络架构(来自研究论文的图片,标题为“使用卷积更深入”)
以6.7%的错误率赢得了2014年ilsvrc锦标赛。
引入“初始单元”,强调卷积神经网络的各层不需要每次都按顺序排列和叠加。
“初始单元”(来自题为“深度卷积”的研究论文的图片)
网络层有22个块(单独地,每个块包含100多个层。(
非完全连接层
谷歌网证明,优化后的非连续结构的性能可能优于连续结构。
克里斯蒂安.塞格迪等著。
microsoft resnet?——?2015
Resnet网络架构(用于图像识别的深度残差学习图片)
以3.6%的错误率赢得了2015年ilsvrc锦标赛。(据了解,普通人的错误率约为5-10%,resnet的准确率超过了人类的水平。(
Resnet网络是一个具有152层的“超深度”网络架构。
引入“残余块”以减少过度拟合。
残差块(来自题为“用于图像识别的深度残差学习”的研究论文的图片)
“用于图像识别的深度剩余学习”,由明凯·何、张翔宇等人完成。
随着深度学习模式一次又一次地超越人类的能力,我们肯定会在未来几年看到更多有趣的深度学习模式及其巨大成就。
“深度学习”等同于“卷积神经网络”吗?回顾上述内容,你可能会有这样的疑问——“深度学习”是“卷积神经网络”吗?
答:不是全部。
事实上,以下模型被称为“深度学习”:
卷积神经网络
深层玻尔兹曼机
人工神经网络
堆叠式自编码器
在上述例子中,“卷积神经网络”是“深度学习”中最突出和定义明确的领域,至少目前是这样。然而,我们必须永远记住,“卷积神经网络”并不是“深度学习”的全部内容。
查看文章-“什么是深度学习??了解“深度学习”是如何产生的,以及它与机器学习和人工智能的关系。
雷锋文章版权所有。严禁擅自转载。详情请参考转载说明。
标题:问世十年,深度学习有哪些里程碑
地址:http://www.hcsbodzyz.com/hcxw/5275.html