神经网络——day67:Residual Network

news/2023/6/9 19:54:14

Deep Residual Learning for Image Recognition

  • Deep Residual Learning for Image Recognition
  • 1. Introduction
  • 2. Related Work
    • Residual Representations(剩余表示).
    • Shortcut Connections(快捷连接).
  • 3. Deep Residual Learning
    • 3.1. Residual Learning
    • 3.2. Identity Mapping by Shortcuts
    • 3.3. Network Architectures
      • Plain Network.
      • image-20230119165226891Residual Network.
    • 4. conclusion

Deep Residual Learning for Image Recognition

1. Introduction

  • 本文提出了一个残差学习框架,以简化比以前使用的网络更深入的网络的训练 。在ImageNet数据集上,评估了深度为152层的残差网–比VGG网咯深8倍,但仍然具有较低的复杂度。

图一:在CIFAR-10数据集上使用20层和56层“普通”网络的训练错误(左)和测试错误(右)。

image-20230119163737464

较深的网络具有较高的训练误差,从而产生较大的测试误差。 在图的ImageNet数据集上也出现了类似的现象 ,如下图所示:

图四

image-20230119163842214

F(x)+x的公式可由“捷径连接”的前馈神经网络实现:

图二:剩余学习:一个构建块:

image-20230119164142289

2. Related Work

请自行了解,本篇不过多赘述

Residual Representations(剩余表示).

Shortcut Connections(快捷连接).

3. Deep Residual Learning

3.1. Residual Learning

  • 让我们把H(x)看作是一个底层映射,它需要由几个堆叠的层(不一定是整个网络)来拟合,其中x表示这些层中第一层的输入。如果假设多个非线性层可以渐近地逼近复杂函数,那么这就相当于假设它们可以渐近地逼近残差函数,即:H(x)− x(假设输入和输出的维数相同)。因此,我们不期望叠层近似H(x),而是显式地让这些叠层近似残差函数F(x):= H(x)− x。因此,原函数变为F(x)+x。虽然两种形式都应该能够渐近地逼近期望的函数(如假设的那样),但学习的容易程度可能不同。
  • 在真实的情况下,恒等映射不太可能是最优的,但是我们的重新表述可以帮助预处理这个问题。如果最优函数更接近恒等映射而不是零映射,那么求解器应该更容易根据恒等映射找到扰动,而不是将函数作为新函数来学习。我们通过实验(图7)表明,学习的残差函数通常具有较小的响应,这表明恒等映射提供了合理的预处理。

image-20230119164750239

3.2. Identity Mapping by Shortcuts

我们对每几个堆叠的层采用剩余学习。构建块如图2所示。形式上,在本文中,我们考虑的构建块定义为:

image-20230119164940884

这里x和y是所考虑的层的输入和输出向量。函数F(x,{Wi})表示要学习的残差映射。对于图2中具有两层的示例,F = W2σ(W1 x),其中σ表示ReLU。运算F + x是通过一个快捷连接和逐元素加法来执行的。

3.3. Network Architectures

我们描述ImageNet的两个模型如下。

Plain Network.

我们的普通基线(图3,中间)主要是受VGG网(图3,左)的启发。卷积层大多具有3×3滤波器,并遵循两个简单的设计规则:

(i)对于相同的输出特征地图大小,层具有相同数量的滤波器;

(ii)如果特征图大小减半,则滤波器的数量加倍,以便保持每层的时间复杂度。

我们直接通过步长为2的卷积层执行下采样。该网络以全局平均池层和使用softmax的1000路完全连接层结束。在图3(中间)中,加权层的总数为34。

image-20230119165200130

image-20230119165216254

image-20230119165226891Residual Network.

在上述简单网络的基础上,我们插入了捷径连接(图3,右图),将网络转化为对应的残差网络。标识快捷方式(公式(1))当输入和输出尺寸相同时,可以直接使用(图3中的实线快捷方式)。当尺寸增加时(图3中虚线快捷方式),我们考虑两种选择:(A)快捷方式仍然执行恒等映射,为增加的维度填充额外的零条目。此选项不引入额外参数;(B)方程中的投影捷径(2)用于匹配维度(通过1×1卷积完成)。对于这两个选项,当快捷键跨越两种大小的要素地图时,它们以步长2执行。

  • 残差网络就介绍到这儿了,现在已经更新换代很多次了,可以从Residual Network这个关键词搜索更多更新的论文来学习神经网络。

4. conclusion

表征的深度对于许多视觉识别任务来说是至关重要的。仅由于我们的极深表示,我们获得了28%的相对改进的COCO对象检测数据集。深度残差网络是我们提交给ILSVRC & COCO 2015竞赛1的基础,我们还在ImageNet检测、ImageNet定位、COCO检测和COCO分割任务中获得了第一名。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.exyb.cn/news/show-4570485.html

如若内容造成侵权/违法违规/事实不符,请联系郑州代理记账网进行投诉反馈,一经查实,立即删除!

相关文章

spice auth过程分析

1、客户端选择认证方法 Client authentication method selection抓包分析{Authentication selected by client: Spice (1)}代码分析spice_channel_send_link(channel);if (!spice_channel_recv_link_hdr(channel) ||!spice_channel_recv_link_msg(channel) ||!spice_channel_re…

深入kubernetes控制器:K8s的Deployment控制器

推荐阅读: 我总结了72份面试题,累计3170页,斩获了30互联网公司offer(含BATJM) 2020首战告捷,这份Java面试神技Plus版,让我成功拿到了阿里、京东、字节跳动等大厂offer 膜拜大佬!阿里内部都在强…

编译调试 .NET Core 5.0 Preview 并分析 Span 的实现原理

很久没有写过 .NET Core 相关的文章了,目前关店在家休息所以有些时间写一篇新的????。这次的文章主要介绍如何在 Linux 上编译调试最新的 .NET Core 5.0 Preview 与简单分析 Span 的实现原理。微软从 .NET Core 5.0 开始把 GIT 仓库 coreclr 与 corefx 合并移动…

踩坑之路:finish方法执行后居然还有这种操作?

点击上方 "编程技术圈"关注, 星标或置顶一起成长后台回复“大礼包”有惊喜礼包!每日英文Every person need a friend to make them laugh when they think they will never smile again.每一个人都需要这样一个朋友:当以为自己再也笑不出来的时…

抖音SEO优化/系统搭建/源码

短视频seo是指通过seo优化技术,提高关键词在短视频搜索引擎中的排名靠前,从而获得流量转化的一种营销方式。短视频seo就是以短视频内容为载体,利用短视频平台搜索引擎的算法规则,通过seo的方法将关键词优化到搜索排名的首页&#…

抖音变现4大方式:如何通过抖音这个巨大的流量池做变现

有人曾说,互联网赚钱的公式是:流量金钱。抖音,现在恰好就是一个坐拥庞大流量的平台。越来越多人跟风进军抖音,但大部分处于盲目状态,似乎全世界都在做,自己也想做一个,却不知道做了到底能不能赚…

短视频矩阵系统,抖音矩阵西系统,抖音SEO、tell me

2018年自媒体短视频彻底爆发了,这是一个新兴行业,头条(抖音)、微视、大鱼等等。简单来说,自媒体为大家提供了一个人人都可以发声的平台。相比传统实体行业,线上带货成本低,见效快,曝…

抖音运营变现必知的几个常识;新手不看后悔一辈子丨国仁网络资讯

1.如何检测账号是否被限流? 打开抖音app,搜索“抖音安全中心”,点进主页,点击主页“官方网站”检测账号是否处于异常状态,如果账号显示“未发现异常",那么,恭喜你,账号目前一切正常。 2.抖音视频怎么…