本篇文章1657字,读完约4分钟

雷锋。(公开号码:雷锋。. com)出版社:这篇文章是由图普科技从深度学习的里程碑和雷锋编辑的。com以独占方式启动。

“深度学习”问世已经有十年了。从一开始,它就因其巨大的成功而风靡全球。以下是近年来“深度学习”发展的一些重要成果。

alexnet?——?2012

Alexnet架构(图片来自研究论文,标题为“带有深度自主神经网络的Imagenet分类”)

alexnet的出现证明了“卷积神经网络”确实有效。Alexnet和他的研究论文《深度自主神经网络的图像网络分类》被认为是深度学习进入主流的最重要的驱动力。

问世十年,深度学习有哪些里程碑

亚历克斯·内以15.4%的低错误率赢得了2012年大规模视觉识别挑战赛。(亚军得主的错误率为26.2%。(

亚历克斯网络包含8层,其中5层是卷积层,3层是完全连接层。

将relu用于非线性函数,而不是传统的tanh函数。

引入漏层和数据增强来克服过拟合问题。

alex krizhevsky,ilya sutskever和geoffrey e. hinton的《具有深度自主神经网络的图像网分类》。

zf网?——?2013

Zf网络架构(图片来自题为“可视化和理解对流网络”的研究论文)

以11.2%的低错误率赢得2013年ilsvrc锦标赛。

与alexnet架构类似,zf网络在一些调整和优化中不断提高其工作性能。

引入可视化技术“换位卷积网络”,观察卷积神经网络的内部工作原理。

Matthew d. zeiler和rob fergus,可视化和理解志愿网络的作者。

vgg网络?——?2014

Vgg网络架构(图片来自keras博客:blog.keras.io)

以7.3%的错误率赢得了2014年ilsvrc“分类和定位”竞赛的个人冠军。

Vgg网络架构擅长图像分类和图像定位。

vgg网络有19层,它的滤波器是3×3(Alex net的滤波器是11x11,zf网络是7x7)。(

简单的深度结构对于分层特征提取非常有效。

karen simonyan和andrew zisserman设计的用于大规模图像识别的深度自愿网络。

googlenet?——?2014/2015

Googlenet网络架构(来自研究论文的图片,标题为“使用卷积更深入”)

以6.7%的错误率赢得了2014年ilsvrc锦标赛。

引入“初始单元”,强调卷积神经网络的各层不需要每次都按顺序排列和叠加。

“初始单元”(来自题为“深度卷积”的研究论文的图片)

网络层有22个块(单独地,每个块包含100多个层。(

非完全连接层

谷歌网证明,优化后的非连续结构的性能可能优于连续结构。

克里斯蒂安.塞格迪等著。

microsoft resnet?——?2015

Resnet网络架构(用于图像识别的深度残差学习图片)

以3.6%的错误率赢得了2015年ilsvrc锦标赛。(据了解,普通人的错误率约为5-10%,resnet的准确率超过了人类的水平。(

Resnet网络是一个具有152层的“超深度”网络架构。

引入“残余块”以减少过度拟合。

残差块(来自题为“用于图像识别的深度残差学习”的研究论文的图片)

“用于图像识别的深度剩余学习”,由明凯·何、张翔宇等人完成。

随着深度学习模式一次又一次地超越人类的能力,我们肯定会在未来几年看到更多有趣的深度学习模式及其巨大成就。

“深度学习”等同于“卷积神经网络”吗?回顾上述内容,你可能会有这样的疑问——“深度学习”是“卷积神经网络”吗?

答:不是全部。

事实上,以下模型被称为“深度学习”:

卷积神经网络

深层玻尔兹曼机

人工神经网络

堆叠式自编码器

在上述例子中,“卷积神经网络”是“深度学习”中最突出和定义明确的领域,至少目前是这样。然而,我们必须永远记住,“卷积神经网络”并不是“深度学习”的全部内容。

问世十年,深度学习有哪些里程碑

查看文章-“什么是深度学习??了解“深度学习”是如何产生的,以及它与机器学习和人工智能的关系。

雷锋文章版权所有。严禁擅自转载。详情请参考转载说明。

标题:问世十年,深度学习有哪些里程碑

地址:http://www.hcsbodzyz.com/hcxw/5275.html