网络模型

你的颜值能打多少分?让飞桨来告诉你

穿精又带淫゛_ 提交于 2020-02-28 19:32:02
【飞桨开发者说】钟山,中科院信工所工程师,主要研究计算机视觉、深度学习。 想必很多人都对自己的颜值到底怎样充满好奇,也有很多软件为大家提供了颜值打分的趣味功能。其实,颜值打分也可以视为一个图像分类问题,今天就向大家介绍如何利用飞桨搭建一个VGG网络,实现一个简单的颜值打分demo。 ​ 01 VGGNet介绍 VGGNet 由牛津大学的视觉几何组(Visual Geometry Group)和 Google DeepMind 公司提出,是 ILSVRC-2014 中定位任务第一名和分类任务第二名。提出 VGGNet 的主要目的是为了探究在大规模图像识别任务中,卷积网络深度对模型精确度的影响。通过VGGNet,研究人员证明了基于尺寸较小的的卷积核,增加网络深度可以有效提升模型的效果。VGGNet结构简单,模型的泛化能力好,因此受到研究人员青睐而广泛使用,到现在依然经常被用作图像特征提取。 VGGNet引入“模块化”的设计思想,将不同的层进行简单的组合构成网络模块,再用模块来组装完整网络,而不再是以“层”为单元组装网络。VGGNet有5种不同的VGGNet 配置,如上表所示。其中每一列代表一种网络配置,分别用 A~E 来表示。从表格中可以看出所有VGG配置都有五个卷积模块,模块中所有卷积都是3×3卷积核(conv3),因此特征图的尺寸在模块内不是变的,每个模块卷积之后紧接着最大池化层

论文《Interspecies Knowledge Transfer for Facial Keypoint Detection》翻译

旧时模样 提交于 2020-02-28 03:45:20
目录 论文链接:Interspecies Knowledge Transfer for Facial Keypoint Detection 代码 : https://github.com/ menoRashid/animal_human_kp 摘要: 1. Introduction 2. Related work 3. Approach 4. Experiments 5. Conclusion 论文作者及机构: 摘要: 我们提出了一种通过转换人脸面部信息从而定位动物面部特征关键点的方法。与其说是,直接训练网络将人脸关键点finetune到动物面部关键点(这种方法次优化,因为人脸和动物脸部看起来十分不同), 我们建议通过修改动物和人脸形状的不同,从而使动物图像适应人脸检测预训练模型。 首先我们通过使用无监督形状匹配方法为每张输入的动物图像找到最相近的人脸图像。我们使用这些匹配项训练一个 warp网络用来warp每一张输入的动物面部使其更像人脸 。这个wrap网络然后和一个预训练后的人脸关键点检测网络用动物数据进行联合finetune 。 我们展示了马和羊脸关键点检测的最新结果,与简单的微调相比具有明显改善,尤其是在训练数据稀缺时。此外,我们提出了一个新的数据集具有3717具有马脸图像和面部关键点标注。 1. Introduction 面部关键点检测是面部对齐及注册重要的先决条件

Openstack中Neutron的实现模型

血红的双手。 提交于 2020-02-26 02:27:34
一、Neutron概述 众所周知,整个Open stack中网络是通过Neutron组件实现,它也成为了整个Open stack中最复杂的部分,本文重点介绍Neutron的实现模型与应用场景,闲言少叙,步入正题。 1. Neutron的架构 Neutron的架构如下图所示: Neutron Serve由Core Plugins和Service Plugins组成,原生Neutron的Core Plugins使用的是ML2插件,它又分为类型驱动和机制驱动,可以提供基础的网络类型和实现机制,高级的功能如×××等通过Service Plugins实现,同时Neutron作为一个开放性的组件,允许厂商在1,2,3位置处对接自己的插件,本文采用Core Plugins的ML2插件进行说明,通过OVS重点讲述VLAN和VXLAN类型的网络。 2. Open stack部署模型 以3节点为例,Open stack由控制节点,网络节点和计算节点组成,当位于控制节点的Neutron server通过RESTful或CLI接收到请求后,会通过RPC的方式将信息传递给网络和计算节点的Agent,Agent在指挥具体的程序实现功能 举例来说,当Neutron Server通过CLI接收到开启DHCP功能的指令后,会将该指令下发给DHCP Agent,DHCP

deep learning 经典网络模型之Alexnet、VGG、Googlenet、Resnet

爷,独闯天下 提交于 2020-02-25 19:01:29
CNN的发展史 上一篇回顾讲的是2006年Hinton他们的Science Paper,当时提到,2006年虽然Deep Learning的概念被提出来了,但是学术界的大家还是表示不服。当时有流传的段子是Hinton的学生在台上讲paper时,台下的机器学习大牛们不屑一顾,质问你们的东西有理论推导吗?有数学基础吗?搞得过SVM之类吗?回头来看,就算是真的,大牛们也确实不算无理取闹,是骡子是马拉出来遛遛,不要光提个概念。 时间终于到了2012年,Hinton的学生Alex Krizhevsky在寝室用GPU死磕了一个Deep Learning模型,一举摘下了视觉领域竞赛ILSVRC 2012的桂冠,在百万量级的ImageNet数据集合上,效果大幅度超过传统的方法,从传统的70%多提升到80%多。个人觉得,当时最符合Hinton他们心境的歌非《我不做大哥好多年》莫属。 这个Deep Learning模型就是后来大名鼎鼎的AlexNet模型。这从天而降的AlexNet为何能耐如此之大?有三个很重要的原因: 大量数据,Deep Learning领域应该感谢李飞飞团队搞出来如此大的标注数据集合ImageNet; GPU,这种高度并行的计算神器确实助了洪荒之力,没有神器在手,Alex估计不敢搞太复杂的模型; 算法的改进,包括网络变深、数据增强、ReLU、Dropout等,这个后面后详细介绍。

[Deep Learning] 神经网络基础

谁都会走 提交于 2020-02-24 21:02:12
  目前,深度学习(Deep Learning,简称DL)在算法领域可谓是大红大紫,现在不只是互联网、人工智能,生活中的各大领域都能反映出深度学习引领的巨大变革。要学习深度学习,那么首先要熟悉神经网络(Neural Networks,简称NN)的一些基本概念。当然,这里所说的神经网络不是生物学的神经网络,我们将其称之为人工神经网络(Artificial Neural Networks,简称ANN)貌似更为合理。神经网络最早是人工智能领域的一种算法或者说是模型,目前神经网络已经发展成为一类多学科交叉的学科领域,它也随着深度学习取得的进展重新受到重视和推崇。   为什么说是“重新”呢?其实,神经网络最为一种算法模型很早就已经开始研究了,但是在取得一些进展后,神经网络的研究陷入了一段很长时间的低潮期,后来随着Hinton在深度学习上取得的进展,神经网络又再次受到人们的重视。本文就以神经网络为主,着重总结一些相关的基础知识,然后在此基础上引出深度学习的概念,如有书写不当的地方,还请大家评批指正。 1. 神经元模型   神经元是神经网络中最基本的结构,也可以说是神经网络的基本单元,它的设计灵感完全来源于生物学上神经元的信息传播机制。我们学过生物的同学都知道,神经元有两种状态:兴奋和抑制。一般情况下,大多数的神经元是处于抑制状态,但是一旦某个神经元收到刺激,导致它的电位超过一个阈值

图像质量评估综述

佐手、 提交于 2020-02-24 11:52:07
本文部分内容摘自: https://zhuanlan.zhihu.com/p/32553977 1. 背景介绍 在过去的几十年里,由于质量评估(Quality Assessment,QA)在许多领域有其广泛的实用性,比如图像压缩、视频编解码、视频监控等,并且对高效、可靠质量评估的需求日益增加,所以QA成为一个感兴趣的研究领域,每年都涌现出大量的新的QA算法,有些是扩展已有的算法,也有一些是QA算法的应用。 质量评估可分为图像质量评估(Image Quality Assessment, IQA)和视频质量评估(Video Quality Assessment, VQA),本文主要讨论图像质量评估。IQA从方法上可分为主观评估和客观评估。主观评估就是从人的主观感知来评价图像的质量,首先给出原始参考图像和失真图像,让标注者给失真图像评分,一般采用平均主观得分(Mean Opinion Score, MOS)或平均主观得分差异(Differential Mean Opinion Score, DMOS)表示。客观评估使用数学模型给出量化值,可以使用图像处理技术生成一批失真图像,操作简单,已经成为IQA研究的重点。图像质量评估算法的目标是自动评估与人的主观质量判断相一致的客观图像质量。然而,主观评估费时费力,在实际应用中不可行,并且主观实验受观看距离、显示设备、照明条件、观测者的视觉能力

图像分类(动手学深度学习)

狂风中的少年 提交于 2020-02-23 04:28:15
图像分类 本教程源代码目录在 book/image_classification , 初次使用请参考 PaddlePaddle 安装教程 ,更多内容请参考本教程的 视频课堂 。 背景介绍 图像相比文字能够提供更加生动、容易理解及更具艺术感的信息,是人们转递与交换信息的重要来源。在本教程中,我们专注于图像识别领域的一个重要问题,即 图像分类 。 图像分类是根据图像的语义信息将不同类别图像区分开来,是计算机视觉中重要的基本问题,也是图像检测、图像分割、物体跟踪、行为分析等其他高层视觉任务的基础。 图像分类在很多领域有广泛应用,包括安防领域的人脸识别和智能视频分析等,交通领域的交通场景识别,互联网领域基于内容的图像检索和相册自动归类,医学领域的图像识别等。 一般来说,图像分类通过手工特征或特征学习方法对整个图像进行全部描述,然后使用分类器判别物体类别,因此如何提取图像的特征至关重要。 在深度学习算法之前使用较多的是基于词袋(Bag of Words)模型的物体分类方法。 词袋方法从自然语言处理中引入,即一句话可以用一个装了词的袋子表示其特征,袋子中的词为句子中的单词、短语或字。对于图像而言,词袋方法需要构建字典。最简单的词袋模型框架可以设计为 底层特征抽取 、 特征编码 、 分类器设计 三个过程。 Now: 而基于深度学习的图像分类方法,可以通过有监督或无监督的方式 学习

关于深度学习的一个简单想法

与世无争的帅哥 提交于 2020-02-23 01:52:01
现今,深度神经网络,都是预先定义好了网络结构,在大量学习中得到模型权重,模型的连接本身是固定的,也就是各个神经元的连接关系是在网络结构中确定了的。最后训练的结果,依旧可表示为多元多次函数的表达式模型。面对不同的输入,其表达式并不会改变,造成有的模型泛化能力就很差。 但是,如果我们可以设计某一种机制,可以通过改变权重本身的系数(只有0和1),那么我们就能够改变神经元之间的连接关系,并单独设计一个网络,训练生成0和1(也就是神经元连接的通和断)的网络,针对不同的输入,网络本身的通断是不同的,是不是更加灵活。同时也更加符合人大脑的神经网络机制,所谓的0/1就是神经递质,有神经递质,神经元之间才能互相影响。 同时,一个深度神经网络都是实现某一特定任务,因为它的输出本身就是确定了它最终要完成什么任务,但是若是我们的(0/1)的结构足够灵活,我们甚至可以利用同一个网络,实现不同的任务。 可能因为我是一个菜鸟,对于深度学习,我甚至都还没入门,所以我不确定这是否是一个合理的想法,但是我同样也没有被现有的深度学习套路所束缚,先在此记录以下,若等到真的有一天,这种想法可以被实现,那么我也能够吹吹牛逼了。 来源: CSDN 作者: UESTC_liuxin 链接: https://blog.csdn.net/qq_20549061/article/details/104444373

A Bayesian Methodology for Systemic Risk Assessment in Financial Networks(4)

你。 提交于 2020-02-22 19:53:49
5.系统风险评估的应用 5.1 压力测试金融网络 我们现在使用我们的方法进行压力测试。我们假设除了L的行和、列和外,我们还观察到外部资产 a ( e ) ∈ [ 0 , ∞ ) n a^{(e)}\in [0,\infty)^n a ( e ) ∈ [ 0 , ∞ ) n 和对银行间网络以外实体的负债 l ( e ) ∈ [ 0 , ∞ ) n l(e)\in [0,\infty)^n l ( e ) ∈ [ 0 , ∞ ) n 。表1显示了基于此的简单资产负债表。 总负债向量为 l a l l = l ( e ) + r ( L ) ∈ R n l^{all}=l^{(e)}+r(L)\in R^n l a l l = l ( e ) + r ( L ) ∈ R n ,净资产向量为 w = w ( l , a ( e ) , l ( e ) ) = a ( e ) + c ( L ) − l a l l w=w(l,a^{(e)},l^{(e)})=a^{(e)}+c^{(L)}-l^{all} w = w ( l , a ( e ) , l ( e ) ) = a ( e ) + c ( L ) − l a l l 。如果 w i ≥ 0 w_i\geq 0 w i ​ ≥ 0 ,净值对应于银行 i i i 权益的账面价值。 确定性的比例冲击是由 s ∈ [ 0 , 1 ] n

经典深度卷积神经网络模型原理与实现

旧街凉风 提交于 2020-02-19 17:36:08
卷积神经网络(Convolutional Neural Network,CNN)最初是为解决图像识别等问题设计的,在早期的图像识别研究中,最大的挑战是如何组织特征,因为图像数据不像其他类型的数据那样可以通过人工理解来提取特征。卷积神经网络相比传统的机器学习算法,无须手工提取特征,也不需要使用诸如SIFT之类的特征提取算法,可以在训练中自动完成特征的提取和抽象,并同时进行模式分类,大大降低了应用图像识别的难度;相比一般的神经网络,CNN在结构上和图片的空间结构更为贴近,都是2D的有联系的结构,并且CNN的卷积连接方式和人的视觉神经处理光信号的方式类似。 卷积和池化的随机组合赋予了CNN很大的灵活性,因此也诞生了很多耳熟能详的经典网络:LeNet,AlexNet,VGGNet,NiN,Google Inception Net,ResNet,DenseNet这几种网络在深度和复杂度方面依次递增。下面将分别介绍这几种网络原理,架构以及实现(Pytorch实现)。 LeNet LeNet诞生于1994年,是 最早的深层卷积神经网络之一 ,并且推动了深度学习的发展。从1988年开始,在多次成功的迭代后,这项由Yann LeCun完成的开拓性成果被命名为LeNet5。它是第一个成功大规模应用在手写数字识别问题的卷积神经网络,在MNIST数据集中的正确率可以高达99.2%。