resnet

SRResNet与EDSR

放肆的年华 提交于 2020-01-10 01:03:54
SRResNet SRResNet 网络来源于SRGAN,原论文( https://arxiv.org/abs/1609.04802 )提到一种扩展方式,允许修复更高频的细节。 SRResNet 的残差块架构基于这篇文章( http://torch.ch/blog/2016/02/04/resnets.html )。存在两个小的更改:一个是 SRResNet 使用 Parametric ReLU 而不是 ReLU,ReLU 引入一个可学习参数帮助它适应性地学习部分负系数;另一个区别是 SRResNet 使用了图像上采样方法,SRResNet 使用了子像素卷积层。详见: https://arxiv.org/abs/1609.07009 。 SRGAN网络结构如图1所示。 图1 在生成网络部分(SRResNet)部分包含多个残差块,每个残差块中包含两个3×3的卷积层,卷积层后接批规范化层(batch normalization, BN)和PReLU作为激活函数,两个2×亚像素卷积层(sub-pixel convolution layers)被用来增大特征尺寸。在判别网络部分包含8个卷积层,随着网络层数加深,特征个数不断增加,特征尺寸不断减小,选取激活函数为LeakyReLU,最终通过两个全连接层和最终的sigmoid激活函数得到预测为自然图像的概率。 这篇论文( https:/

1、VGG16 2、VGG19 3、ResNet50 4、Inception V3 5、Xception介绍——迁移学习

六眼飞鱼酱① 提交于 2020-01-09 18:49:30
ResNet, AlexNet, VGG, Inception: 理解各种各样的CNN架构 本文翻译自 ResNet, AlexNet, VGG, Inception: Understanding various architectures of Convolutional Networks , 原作者保留版权 卷积神经网络在视觉识别任务上的表现令人称奇。好的CNN网络是带有上百万参数和许多隐含层的“庞然怪物”。事实上,一个不好的经验规则是:网络越深,效果越好。AlexNet,VGG,Inception和ResNet是最近一些流行的CNN网络。为什么这些网络表现如此之好?它们是如何设计出来的?为什么它们设计成那样的结构?回答这些问题并不简单,但是这里我们试着去探讨上面的一些问题。网络结构设计是一个复杂的过程,需要花点时间去学习,甚至更长时间去自己动手实验。首先,我们先来讨论一个基本问题: 为什么CNN模型战胜了传统的计算机视觉方法? 图像分类指的是给定一个图片将其分类成预先定义好的几个类别之一。图像分类的传统流程涉及两个模块: 特征提取 和 分类 。 特征提取 指的是从原始像素点中提取更高级的特征,这些特征能捕捉到各个类别间的区别。这种特征提取是使用无监督方式,从像素点中提取信息时没有用到图像的类别标签。常用的传统特征包括GIST, HOG, SIFT, LBP等。特征提取之后

卷积神经网络之ResNet网络模型学习

核能气质少年 提交于 2020-01-05 22:12:13
卷积神经网络之ResNet网络模型学习 参考文章网址:https://www.cnblogs.com/vincentqliu/p/7464918.html Deep Residual Learning for Image Recognition 微软亚洲研究院的何凯明等人 论文地址 https://arxiv.org/pdf/1512.03385v1.pdf Abstract 更深层次的神经网络训练更加困难。我们提出一个 Residual的学习框架来缓解训练的网比之前所使用的网络深得多。我们提供全面的经验证据显示这些残余网络更容易优化,并可以从显着增加的深度获得准确性。在ImageNet数据集上我们评估深度达152层残留网比VGG网[41]更深,但复杂度仍然较低。这些残留网络的集合实现了3.57%的误差在ImageNet测试集上。这个结果赢得了ILSVRC 2015分类任务第一名。 比赛总结ppt链接 http://image-net.org/challenges/talks/ilsvrc2015_deep_residual_learning_kaiminghe.pdf ICCV 2015 Tutorial on Tools for Efficient Object Detection链接 http://mp7.watson.ibm.com/ICCV2015

tensorflow学习笔记——ResNet

自闭症网瘾萝莉.ら 提交于 2019-12-28 09:06:56
  自2012年AlexNet提出以来,图像分类、目标检测等一系列领域都被卷积神经网络CNN统治着。接下来的时间里,人们不断设计新的深度学习网络模型来获得更好的训练效果。一般而言,许多网络结构的改进(例如从VGG到ResNet可以给很多不同的计算机视觉领域带来进一步性能的提高。   ResNet(Residual Neural Network)由微软研究员的 Kaiming He 等四位华人提出,通过使用 Residual Uint 成功训练152层深的神经网络,在 ILSVRC 2015比赛中获得了冠军,取得了 3.57%的top-5 的错误率,同时参数量却比 VGGNet低,效果非常突出,因为它“简单与实用”并存,之后很多方法都建立在ResNet50或者ResNet101的基础上完成的,检测,分割,识别等领域都纷纷使用ResNet,Alpha zero 也使用了ResNet,所以可见ResNet确实很好用。ResNet的结构可以极快的加速超深神经网络的训练,模型的准确率也有非常大的提升。之前我们学习了Inception V3,而Inception V4则是将 Inception Module和ResNet相结合。可以看到ResNet是一个推广性非常好的网络结构,甚至可以直接应用到 Inception Net中。 1,Highway Network简介   在ResNet之前

烧脑!CMU、北大等合著论文真的找到了神经网络的全局最优解

笑着哭i 提交于 2019-12-27 07:16:50
烧脑!CMU、北大等合著论文真的找到了神经网络的全局最优解 机器之心 ​ 已认证的官方帐号 811 人赞同了该文章 选自arXiv,作者:Simon S. Du、Jason D. Lee、Haochuan Li、Liwei Wang、Xiyu Zhai,机器之心编译,参与:思源、王淑婷、张倩。 一直以来,我们都不知道为什么深度神经网络的损失能降到零,降到零不代表着全局最优了么?这不是和一般 SGD 找到的都是局部极小点相矛盾么?最近 CMU、北大和 MIT 的研究者分析了深层全连接网络和残差网络,并表示使用梯度下降训练过参数化的深度神经网络真的能找到全局最优解。 用一阶方法训练的神经网络已经对很多应用产生了显著影响,但其理论特性却依然是个谜。一个经验观察是,即使优化目标函数是非凸和非平滑的,随机初始化的一阶方法(如随机梯度下降)仍然可以找到全局最小值(训练损失接近为零),这是训练中的第一个神秘现象。令人惊讶的是,这个特性与标签无关。在 Zhang 等人的论文 [2016] 中,作者用随机生成的标签取代了真正的标签,但仍发现随机初始化的一阶方法总能达到零训练损失。 人们普遍认为过参数化是导致该现象的主要原因,因为神经网络只有具备足够大的容量时才能拟合所有训练数据。实际上,很多神经网络架构都高度过参数化。例如,宽残差网络(Wide Residual Network)的参数量是训练数据的

Convolution with even-sized kernels and symmetric padding论文解读笔记

一个人想着一个人 提交于 2019-12-27 02:11:10
文章目录 导读 摘要 引言 相关工作 对称填充 实验 讨论 总结 导读 我们都习惯使用3*3的卷积核,这篇文章介绍了 偶数卷积核 其实表现更强 。 首先附上文章地址: Convolution with even-sized kernels and symmetric padding 【PDF】 摘要 紧凑型卷积神经网络主要通过深度卷积,扩展的通道和复杂的拓扑来提高效率,这反过来又加剧了训练过程。 此外,在这些模型中, 3×3内核占主导地位 ,而偶数大小的内核(2×2、4×4)很少被采用。 在这项工作中,我们通过信息侵蚀假设来量化偶数大小的核卷积中发生的偏移问题,并通过在特征图的四个侧面(C2sp,C4sp)提出对称填充来消除它。 对称填充以很少的计算成本释放了偶数大小的内核的泛化能力,使其在图像分类和生成任务方面优于3×3内核。此外,C2sp获得了与新兴紧凑型模型相当的精度,而训练期间的内存和时间消耗却少得多。 对称填充和偶数卷积可以很好地实现到现有框架中,为体系结构设计提供有效的元素,尤其是在强调训练工作的在线和持续学习场合。 引言 深度卷积神经网络(CNN)在许多计算机视觉任务中都取得了重大成功,例如图像分类[37],语义分割[43],图像生成[8]和游戏[29]。 除了特定领域的应用程序之外,还设计了各种体系结构来提高CNN的性能[3,12,15]

转:Awesome - Image Classification

不打扰是莪最后的温柔 提交于 2019-12-25 17:06:09
A curated list of deep learning image classification papers and codes since 2014, Inspired by awesome-object-detection , deep_learning_object_detection and awesome-deep-learning-papers . Background I believe image classification is a great start point before diving into other computer vision fields, espacially for begginers who know nothing about deep learning. When I started to learn computer vision, I've made a lot of mistakes, I wish someone could have told me that which paper I should start with back then. There doesn't seem to have a repository to have a list of image classification

Residual Neural Network: Concatenation or Element Addition?

青春壹個敷衍的年華 提交于 2019-12-24 11:59:26
问题 With the residual block in residual neural networks, is the addition at the end of the block true element addition or is it concatenation? For example, would addition([1, 2], [3, 4]) produce [1, 2, 3, 4] or [4, 6] ? 回答1: It would result in [4, 6], and you can find out more in this paper 来源: https://stackoverflow.com/questions/46902386/residual-neural-network-concatenation-or-element-addition

【图像识别】残差神经网络Resnet-tensorflow

这一生的挚爱 提交于 2019-12-24 10:59:58
残差神经网络ResNet-tensorflow 已经在我的Github账号更新~ 写的比较简单,传送门: https://github.com/Sharpiless/RESNET-tensorflow 论文传送门: https://arxiv.org/abs/1512.03385 我用的是ImageNet的一个小数据集(原来是1000分类,小数据集使用了8个分类),使用别的数据集时注意修改一下read_data.py。 来源: CSDN 作者: Memory逆光 链接: https://blog.csdn.net/weixin_44936889/article/details/103586141

How can I use table layers in torch to create my own network?

ⅰ亾dé卋堺 提交于 2019-12-23 05:12:20
问题 I get stuck about nn package in torch7, especially its table layers. How can I use its ConcatTable, CAddTable or any other methods to create network below? Here I have two branch of my network, one contains 3 convolution layers and another only one layer. I wanted to sum the outputs of my last two convolution layers(sum the output of convolution 4th and convolution 5th), how should write my torch code using nn package. 回答1: Assuming your branches are implemented correctly: local net = nn