• 回答数

    5

  • 浏览数

    93

宝宝不胖c
首页 > 英语培训 > 英文googlenet

5个回答 默认排序
  • 默认排序
  • 按时间排序

寻找茉莉花

已采纳

进入以后网页自动会转到 然后你把最后的两个CN改成EN。然后点转到就到了英文的GOOGLE

英文googlenet

111 评论(15)

仁义小红累不爱

主要有以下书籍:1.《人工智能》(美)尼尔森 郑扣根译 机械工业出版社2. 人工智能智能系统指南(英文版·第2版) (澳)尼格内维特斯基(Negnevitsky,M.) 机械工业出版社3.《人工智能:理论与实践》(美)迪安 等著,顾国昌 等译 电子工业出版社4.《人工智能:复杂问题求解的结构和策略》(美)George F.Luger 著,史忠植,张银奎 等译 机械工业出版社5.《游戏编程中的人工智能技术》(美)布克兰德著,吴祖增,沙鹰翻译 清华大学出版社6.《人工智能游戏编程真言》(美)拉比(Rabin,S.) 主编,庄越挺,吴飞 译清华大学出版社个人推荐《人工智能》的原因:第一,该书言简意赅比较容易读懂。第二,有很多例子穿插在在课文中,帮助读者能将每种人工智能的方法应用于只见众。第三,算法或者数据结构的解释被巧妙地阐释出来,而不是对一大堆资料的冗长的总结。最后,编程章节让学生能更深刻地理解资料,同时也穿插着许多对实现细节的参考。

231 评论(10)

做老婆饼的人

文章引用自《 从MobileNet看轻量级神经网络的发展 》,详情请点击原文观看 前  言  随着深度学习的火热,计算机视觉领域内的卷积神经网络模型也层出不穷。从1998年的LeNet,到2012年引爆深度学习热潮的AlexNet,再到后来2014年的VGG,2015年的ResNet,深度学习网络模型在图像处理中应用的效果越来越好。神经网络体积越来越大,结构越来越复杂,预测和训练需要的硬件资源也逐步增多,往往只能在高算力的服务器中运行深度学习神经网络模型。移动设备因硬件资源和算力的限制,很难运行复杂的深度学习网络模型。 深度学习领域内也在努力促使神经网络向小型化发展。在保证模型准确率的同时体积更小,速度更快。到了2016年直至现在,业内提出了SqueezeNet、ShuffleNet、NasNet、MnasNet以及MobileNet等轻量级网络模型。这些模型使移动终端、嵌入式设备运行神经网络模型成为可能。而MobileNet在轻量级神经网络中较具代表性。 谷歌在2019年5月份推出了最新的MobileNetV3。新版MobileNet使用了更多新特性,使得MobileNet非常具有研究和分析意义,本文将对MobileNet进行详细解析。 MobileNet的优势 MobileNet网络拥有更小的体积,更少的计算量,更高的精度。在轻量级神经网络中拥有极大的优势。 1 更小的体积 MobileNet相比经典的大型网络,参数量明显更少,参数量越少模型体积越小。 2 更少的计算量 MobileNet优化网络结构使模型计算量成倍下降。3 更高的准确率 MobileNet凭借网络结构优化,在更少的参数及更少的计算量情况下,网络精度反而超过了部分大型神经网络。在最新的MobileNetV3-Large中,实现ImageNet数据集Top1准确率达到75.2%。4 更快的速度 使用Google Pixel-1手机测试,MobileNet各版本都能保持运行时间在120ms以下,最新版MobileNetV3-Large运行时间达到66ms,参数量和计算量更低的MobileNetV3-Small更是能达到22ms;GoogleNet运行速度约为250ms,而VGG-16由于一次性需要加载至内存的空间已超过500MB,手机系统会报内存溢出错误导致无法运行。 5 多种应用场景 MobileNet可以在移动终端实现众多的应用,包括目标检测,目标分类,人脸属性识别和人脸识别等。MobileNet各版本介绍 1 MobileNetV1网络结构 整个网络不算平均池化层与softmax层,共28层; 在整个网络结构中步长为2的卷积较有特点,卷积的同时充当下采样的功能; 第一层之后的26层都为深度可分离卷积的重复卷积操作; 每一个卷积层(含常规卷积、深度卷积、逐点卷积)之后都紧跟着批规范化和ReLU激活函数; 最后一层全连接层不使用激活函数。 2 MobileNetV2网络结构 MobileNetV2中主要引入线性瓶颈结构和反向残差结构。 MobileNetV2网络模型中有共有17个Bottleneck层(每个Bottleneck包含两个逐点卷积层和一个深度卷积层),一个标准卷积层(conv),两个逐点卷积层(pw conv),共计有54层可训练参数层。MobileNetV2中使用线性瓶颈(Linear Bottleneck)和反向残差(Inverted Residuals)结构优化了网络,使得网络层次更深了,但是模型体积更小,速度更快了。3 MobileNetV3网络结构 MobileNetV3分为Large和Small两个版本,Large版本适用于计算和存储性能较高的平台,Small版本适用于硬件性能较低的平台。 Large版本共有15个bottleneck层,一个标准卷积层,三个逐点卷积层。 Small版本共有12个bottleneck层,一个标准卷积层,两个逐点卷积层。 MobileNetV3中引入了5×5大小的深度卷积代替部分3×3的深度卷积。引入Squeeze-and-excitation(SE)模块和h-swish(HS)激活函数以提高模型精度。结尾两层逐点卷积不使用批规范化(Batch Norm),MobileNetV3结构图中使用NBN标识。 (图片来源)网络结构上相对于MobileNetV2的结尾部分做了优化,去除三个高阶层,如上图所示。去除后减少了计算量和参数量,但是模型的精度并没有损失。 值得一提的是,不论是Large还是Small版本,都是使用神经架构搜索(NAS)技术生成的网络结构。4 MobileNet各版本特性 MobileNet实现计算量减小、参数量减少的同时保证了较高的准确率,这和其拥有的特性息息相关: MobileNetV1提出的特性 MobileNetV2提出的特性 MobileNetV3提出的特性 MobileNet各个版本拥有的特性汇总 下文将对上表中的各个特性详细阐述。 MobileNet的特性详解 1 深度可分离卷积 从MobileNetV1开始,到V2、V3的线性瓶颈结构都大量使用了深度可分离卷积。 深度可分离卷积(Depthwise Separable Convolution)是一种卷积结构。它是由一层深度卷积(Depthwise convolution)与一层逐点卷积(Pointwise Convolution)组合而成的,每一层卷积之后都紧跟着批规范化和ReLU激活函数。跟标准卷积的区别就是精度基本不变的情况下,参数与计算量都明显减少。 深度卷积 深度卷积(Depthwise convolution, DW)不同于常规卷积操作,深度卷积中一个卷积核只有一维,负责一个通道,一个通道只被一个卷积核卷积;常规卷积每个卷积核的维度与输入维度相同,每个通道单独做卷积运算后相加。 以一张5x5x3(长和宽为5,RGB3通道)的彩色图片举例。每层深度卷积卷积核的数量与上一层的通道数相同(通道和卷积核一一对应)。设padding=1,stride=1,一个三通道的图像经过运算后生成了3个特征图,如下图所示: 深度卷积完成后的输出特征图通道数与输入层的通道数相同,无法扩展通道数。而且这种运算对输入层的每个通道独立进行卷积运算,没有有效的利用不同通道在相同空间位置上的特征信息。因此需要逐点卷积来将生成的特征图进行组合生成新的特征图。逐点卷积 逐点卷积(Pointwise Convolution, PW)的运算与标准卷积运算非常相似。 逐点卷积卷积核大小为1×1xM(M为输入数据的维度),每次卷积一个像素的区域。逐点卷积运算会将上一层的特征图在深度方向上进行加权组合,生成新的特征图,新的特征图的大小与输入数据大小一致;然后组合各通道的特征图,以较少的计算量进行降维或升维操作(改变输出数据的维度)。 以一张5x5x3(长和宽为5,RGB3通道)的彩色图片举例,使用4个1x1x3的逐点卷积核进行卷积,逐点卷积运算后生成了4个特征图。这个例子是使用逐点卷积进行升维的操作,特征图从5x5x3 升维到5x5x4。如下图所示: 深度可分离卷积结构解析 将深度卷积和逐点卷积组成深度可分离卷积后的示意图,如下图所示: 首先进行深度卷积操作,得出的特征图各通道之间是不关联的。接着进行逐点卷积把深度卷积输出的特征图各通道关联起来。 深度可分离卷积使用了更小的空间代价(参数减少)和更少的时间代价(计算量更少)实现了标准卷积层一样的效果(提取特征)。 一般的设Df为输入特征图边长,Dk为卷积核边长,特征图和卷积核均为长宽一致,输入通道数为M,输出通道数为N,则: 标准卷积计算量为:Df×Df×Dk×Dk×M×N 深度卷积的计算量为:Df×Df×Dk×Dk×M 逐点卷积的计算量为:Df×Df×M×N 上图所示实现输入特征图大小为5×5×3,输出特成图大小为5×5×4,设padding=1,stride=1,深度卷积卷积核大小为3×3,标准卷积也使用3×3尺寸卷积核。实现相同的卷积效果,参数量(不包含偏置)与计算量对比如下表所示: 深度可分离卷积的演变 事实上深度可分离卷积不是在MobileNetV1中第一次提出的,而是在2016年由谷歌的Xception网络结构中提出的。MobileNetV1在Xception的基础上,对深度可分离卷积进行了改进,做到了计算量与参数量的下降: 假定M为输入层的通道数,N为输出层的通道数。 Xcenption的深度可分离卷积是由输入参数开始,使用1x1xMxN卷积将输入层的通道数转换为目标通道数,再通过3x3x1卷积核对每个通道进行卷积,每次卷积过后使用ReLU进行激活。 MobileNetV1的深度可分离卷积则是先使用3x3x1xM对输入层的每个通道分别卷积,之后通过1x1xMxN将输入层通道数转换为输出层通道数,每次卷积过后做一次批规范化操作,再使用ReLU进行激活。 这里我们使用MobileNetV1网络结构的第一个深度可分离卷积层来举例,输入层维度为112x112x32,输出层维度为112x112x64,Xception与MobileNet的深度可分离卷积的计算量与参数个数对比如下表: 由此可知将PW卷积与DW卷积的顺序调整后,优化了网络的空间复杂度和时间复杂度。2 宽度因子 MobileNet本身的网络结构已经比较小并且执行延迟较低,但为了适配更定制化的场景,MobileNet提供了称为宽度因子(Width Multiplier)的超参数给我们调整。宽度因子在MobileNetV1、V2、V3都可以运用。 通过宽度因子,可以调整神经网络中间产生的特征的大小,调整的是特征数据通道数大小,从而调整了运算量的大小。 宽度因子简单来说就是新网络中每一个模块要使用的卷积核数量相较于标准的MobileNet比例。对于深度卷积结合1x1方式的卷积核,计算量为: 算式中α即为宽度因子,α常用的配置为1,0.75,0.5,0.25;当α等于1时就是标准的MobileNet。通过参数α可以非常有效的将计算量和参数数量约减到α的平方倍。下图为MobileNetV1使用不同α系数进行网络参数的调整时,在ImageNet上的准确率、计算量、参数数量之间的关系(每一个项中最前面的数字表示α的取值)。 (数据来源) 可以看到当输入分辨率固定为224x224时,随着宽度因子的减少,模型的计算量和参数越来越小。从上表可以看到, 0.25 MobileNet的正确率比标准版1.0MobileNet低20%,但计算量和参数量几乎只有标准版1.0MobileNet计算量、参数量的10%!对于计算资源和存储资源都十分紧张的移动端平台,可以通过α宽度因子调节网络的餐数量是非常实用的,在真正使用时我们可以按需调整α宽度因子达到准确率与性能的平衡。3 分辨率因子 MobileNet还提供了另一个超参数分辨率因子(Resolution Multiplier)供我们自定义网络结构,分辨率因子同样在MobileNetV1、V2、V3都可以运用。 分辨率因子一般用β来指代,β的取值范围在(0,1]之间,是作用于每一个模块输入尺寸的约减因子,简单来说就是将输入数据以及由此在每一个模块产生的特征图都变小了,结合宽度因子α,深度卷积结合1x1方式的卷积核计算量为: 下图为MobileNetV1使用不同的β系数作用于标准MobileNet时,在ImageNet上对精度和计算量的影响(α固定1.0) (数据来源) 上图中的 224、192、160、128 对应的分辨率因子分别为 1、 6/7、5/7、4/7。 β=1时,输入图片的分辨率为224x224,卷积后的图像大小变化为: 224x224 、112x112、56x56、28x28、14x14、7x7。 β= 6/7时,输入图片的分辨率为192x192,卷积后各层特征图像大小变化为:192x192、96x96、48x48、24x24、12x12、6x6。 卷积特征图像的大小变化不会引起参数量的变化,只改变模型M-Adds计算量。上图中 224分辨率模型测试ImageNet数据集准确率为70.6%,192分辨率的模型准确率为69.1%,但是M-Adds计算量减少了151M,对移动平台计算资源紧张的情况下,同样可以通过β分辨率因子调节网络输入特征图的分辨率,做模型精度与计算量的取舍。4 规范化 深度学习中的规范化操作(Normalization),有助于加快基于梯度下降法或随机梯度下降法模型的收敛速度,提升模型的精度,规范化的参数能够提升模型泛化能力,提高模型的可压缩性。 按照规范化操作涉及对象的不同可以分为两大类,一类是对输入值进行规范化操作,比如批规范化(Batch Normalization)、层规范化(Layer Normalization)、实例规范化(Instance Normalization)、组规范化(Group Normalization)方法都属于这一类。另外一类是对神经网络中参数进行规范化操作,比如使用L0,L1范数。批规范化 批规范化(Batch Normalization)几乎存在于MobileNetV1、V2、V3的每个卷积层的后面,目的是加快训练收敛速度,提升准确率。 批规范化是一种对数值的特殊函数变换方法,也就是说假设原始的某个数值是 x,套上一个起到规范化作用的函数,对规范化之前的数值 x 进行转换,形成一个规范化后的数值,即: 所谓规范化,是希望转换后的数值满足一定的特性,至于对数值具体如何变换,跟规范化目标有关,不同的规范化目标导致具体方法中函数所采用的形式不同。通过自适应的重新参数化的方法,克服神经网络层数加深导致模型难以训练的问题。 参数规范化 参数规范化(Weight Normalization, WN)是规范化的一种, 通过人为的设定稀疏算法,去除模型中多余的参数(置为0)使得模型参数稀疏化,可以通过L1范式实现。 参数规范化是防止模型过分拟合训练数据。当训练一批样本的时候,随着训练的推移模型会越来越趋向于拟合样本数据。因为参数太多,会导致模型复杂度上升,容易过拟合。 需要保证模型"简单"的基础上最小化训练误差,这样得到的参数才具有好的泛化性能(也就是测试误差也小),而模型"简单"就是通过规则函数来实现的。 如上图所示,左侧分类明显的是欠拟合,模型并没有能够拟合数据。中间图示为合适的拟合,右边图示是过拟合,模型在训练样本中拟合度是很好的,但是却违背了特征分类规律,在新的测试样本中表现糟糕,影响模型的泛化能力。显然右侧模型在训练是受到额外参数干扰。参数规则化能够使参数稀疏,减少额外参数的干扰,提高泛化能力。 模型拥有稀疏的参数(模型中有大量参数为0),也有利于通过压缩算法压缩模型的大小。5 线性瓶颈 线性瓶颈英文为Linear Bottleneck,是从Bottleneck结构演变而来的,被用于MobileNetV2与V3。 Bottleneck结构首次被提出是在ResNet网络中。该结构第一层使用逐点卷积,第二层使用3×3大小卷积核进行深度卷积,第三层再使用逐点卷积。MobileNet中的瓶颈结构最后一层逐点卷积使用的激活函数是Linear,所以称其为线性瓶颈结构(Linear Bottleneck)。线性瓶颈结构有两种,第一种是步长为1时使用残差结构,第二种是步长为2时不使用残差结构。 其中输入通道数为M,扩大倍数系数为T。T的值为大于0 的正数,当 0

351 评论(15)

哒Q小巧

推荐理由一:书中通过10个超酷AI功能全覆盖,人脸识别,姿态追踪,语言识别,机器学习......如此简单Mind+让孩子的好奇心从创意到实现,思考中培养计算思维,迈出AI课程学习,AI编程赛事的第一步;

推荐理由二:该书通过自主设计程序实现AI的相关功能,体验AI应用,获得快乐、成就感、培养对AI的兴趣与理解。非常适合作为图形编程与AI技术入门体验的学习用书,适合对图形化编程有基础了解,对AI感兴趣的学生,以及开设编程、AI课程的老师学习、实践。

推荐理由三:该书由浅入深,适合AI入门学习,对图形化编程有一些基础教程的小朋友;该书通过图形化编程软件Mind+和人工智能功能如图像识别、语音识别、文字翻译等相结合形式,让大家初步认识AI教育的真实内容;也是国内第一本人工智能教育相关书籍,也很适合教育机构作为老师教培使用。

228 评论(12)

miss樱桃小米虫

人工智能与树莓派入门书

81 评论(10)

相关问答