在生活中,很多人都不知道enet网络学院_enet硅谷动力学院是什么意思,其实他的意思是非常简单的,下面就是小编搜索到的enet网络学院_enet硅谷动力学院相关的一些知识,我们一起来学习下吧!


(资料图片)

Enet *** 学院(enet硅谷动力学院)雷锋网2019-02-26 10:14:15

本文是为AI研究所整理的技术博客,原题:

ENet——一种用于实时语义分割的深度神经架构

作者|阿鲁纳瓦

翻译| callofduty890

校对|范姜梨评|皮塔整理|鲤鱼网

原始链接:

https://towardsdatascience . com/enet-a-deep-neural-architecture-for-real-time-semantic-segmentation-2 baa 59 cf 97 e 9

图一。一个语义分段的家伙和一个卡通之间的对话

这是论文的摘要:

ENet:用于实时语义分割的深度神经 *** 架构

作者亚当·帕兹克

论文:https://arxiv.org/abs/1606.02147

介绍

ENet(高效神经 *** )提供了实时按像素进行语义分割的能力。ENet的速度提高了18倍,FLOP要求降低了75倍,参数降低了79倍,并为现有模型提供了类似或更好的精度。在CamVid、CityScapes和SUN数据集上进行了测试。

方法:

图3。ENet架构

以上是完整的 *** 架构。

它分为几个阶段,由表中的水平线和每个块名称后的之一个数字突出显示。输出尺寸为输入图像分辨率的512 * 512。

图4。ENET的每个模块都有详细的解释。

视觉表现:

-初始模块是(a)中所示的模块-瓶颈模块显示在(b)中

每个瓶颈模块包括:

-1x1投影,减少尺寸。

-主卷积层(conv)(-常规、扩展或完整)(3x3)

-1x1扩展

并且它们在所有卷积层之间放置批标准化和预露。

如果瓶颈模块正在缩减采样,则将更大池层添加到主分支。此外,之一个1x1投影被替换为2x2卷积,跨距= 2。

他们将激活无填充以匹配要素地图的数量。

Conv有时是非对称卷积,即5 * 1和1 * 5卷积的序列。

对于正则项,他们使用空间落差:

瓶颈2.0之前,p = 0.01

-完成后p = 0.1

所以,

阶段1,2,3-编码器-由5个瓶颈模块组成(除了阶段3没有下采样)。

阶段4,5-解码器-阶段4包含三个瓶颈,阶段5包含两个瓶颈模块。

接下来是一个fullconv,它输出最终输出-C * 512 * 512大小,其中C是滤波器的数量。

有一些事实:

-他们在任何预测中都没有使用偏见术语

-在每个卷积层和激活层之间,它们使用批量归一化

-在解码器中,MaxPooling被MaxUnpooling代替。

-在解码器中,填充被无偏差的空间卷积代替。

-在最后一个(5.0)上采样模块中没有使用池索引。

- *** 的最后一个模块是裸完全卷积,占用了解码器的大部分处理时间。

-每个侧支丢失一个空,之一级p = 0.01,然后是后级p = 0.1。

结果

通过benchmark测试了ENet的性能。

-CamVid(道路场景)

-城市景观(道路场景)

-太阳RGB-D(室内场景)

SegNet [2]被用作基线,因为它是最快的分段模型之一。使用cuDNN后端使用Torch7库。

使用英伟达Titan X GPU和英伟达TX1嵌入式系统模块记录推理速度。输入图像大小为640x360,速度超过10fps。

图5。以SegNet为基线的两种不同GPU推理时间的比较

图6。Segnet和ENet的硬件要求

基准

亚当。ENet用于快速融合。每个数据集上使用4个Titan X GPU,训练只需要3-6个小时。

它分两个阶段进行:

-首先,他们训练编码器对输入图像的下采样区域进行分类。

然后附加一个解码器,训练 *** 进行上采样和像素分类。

学习率-5e-4

L2的重量衰减为2e-4。

批量为10件。

自定义类别权重方案定义为

图7显示了。自定义类别权重方案的公式

其中c = 1.02,类别权重限制在[1.50]的区间内

图8。Cityscapes数据集的性能

图9。Camvid数据集的性能

参考:

A.Paszke、A. Chaurasia、S. Kim和E. Culurciello。Enet:用于实时语义分割的深度神经 *** 架构。arXiv预印本arXiv:1606.02147,2016。

动词 (verb的缩写)Badrinarayanan,A. Kendall和R. Cipolla,“Segnet:用于图像分割的深度卷积编码器-解码器架构”,arXiv预印本arXiv:1511.00561,2015年。

我最近也转载了这篇论文,可以在这里找到:

https://github . com/iArunava/ENet-实时-语义-分段

想继续查看本文相关链接和参考文献?

点击【enet——实时语义分割的深度神经架构】或长按地址访问:

https://ai.yanxishe.com/page/TextTranslation/1468

艾所今日推荐:雷锋网雷锋网雷锋网

卡耐基梅隆大学2019年春季的“神经 *** 自然语言处理”是CMU语言技术学院和计算机学院的联合课程。其主要内容是教学生如何利用神经 *** 做自然语言处理。神经 *** 可以被认为是为语言建模任务提供了一个强有力的新工具。同时,神经 *** 可以在许多任务中改进最新技术,使过去不易解决的问题变得容易和简单。

加入群免费看视频:https://ai.yanxishe.com/page/groupDetail/33

收集3条评论。

关键词: 硅谷动力