vgg

Fine-Grained(细粒度) Image – Papers, Codes and Datasets

可紊 提交于 2019-12-03 17:18:55
Table of contents Introduction Tutorials Survey papers Benchmark datasets Fine-grained image recognition Fine-grained recognition by localization-classification subnetworks Fine-grained recognition by end-to-end feature encoding Fine-grained recognition with external information Fine-grained recognition with web data / auxiliary data Fine-grained recognition with multi-modality data Fine-grained recognition with humans in the loop Fine-grained image retrieval Unsupervised with pre-trained models Supervised with metric learning Fine-grained image generation Generating from fine-grained image

VGG, perceptual loss in keras

匿名 (未验证) 提交于 2019-12-03 08:59:04
可以将文章内容翻译成中文,广告屏蔽插件可能会导致该功能失效(如失效,请关闭广告屏蔽插件后再试): 由 翻译 强力驱动 问题: I'm wondering if it's possible to add a custom model to a loss function in keras. For example: def model_loss ( y_true , y_pred ): inp = Input ( shape =( 128 , 128 , 1 )) x = Dense ( 2 )( inp ) x = Flatten ()( x ) model = Model ( inputs =[ inp ], outputs =[ x ]) a = model ( y_pred ) b = model ( y_true ) # calculate MSE mse = K . mean ( K . square ( a - b )) return mse This is a simplified example. I'll actually be using a VGG net in the loss, so just trying to understand the mechanics of keras. 回答1: The usual way of doing that is

Testing a single image with torch7 model

匿名 (未验证) 提交于 2019-12-03 01:38:01
可以将文章内容翻译成中文,广告屏蔽插件可能会导致该功能失效(如失效,请关闭广告屏蔽插件后再试): 问题: I trained my model based on the link here . It achieved almost 90% accuracy when i trained it. I am using the vgg_bn_drop.lua model that you will find on the link. But the problem is, i don't know how to test it for a single image. I know how to test a model. By forward passing the image through the network. So, testing the model will require modelname:forward(image) . Where the modelname is the name of the model that i trained and forward is used to forward the model and 'image' is the image location that i want to forward. Now, I cannot

output label Y train shape keras tensorflow 1.4

匿名 (未验证) 提交于 2019-12-03 01:03:01
可以将文章内容翻译成中文,广告屏蔽插件可能会导致该功能失效(如失效,请关闭广告屏蔽插件后再试): 问题: I am running VGG16 network for image classification on svhn database. I am saving images into shape (None,64,64,3) and labels of shape (None,10) .Labels are 1d array of size 10. Below is the part of my code. import pandas as pd import numpy as np import cv2 import tensorflow as tf import os import scipy from skimage import data, io, filters import scipy.io as sio from utils import * import h5py vgg = tf.keras.applications.vgg16.VGG16 (include_top=False, weights='imagenet', input_tensor=None, input_shape=(64,64,3), pooling='avg', classes=10)

【tensorflow】5.模型加载与保存_VGG

匿名 (未验证) 提交于 2019-12-03 00:21:02
本文中,首先会介绍模型保存与加载的过程与要点,然后通过一个实例完成VGG模型数据的探索与加载的小demo。 通过本文,可以学到如何用Tensorflow保存和加载模型。 模型保存通过 tf.train.Saver() 对象实现。 def save () : """ 模型保存 :return: """ # 创建两个随机tensor v1 = tf.Variable(tf.random_normal([ 2 , 2 ]),dtype=tf.float32,name= 'v1' ) v2 = tf.Variable(tf.random_normal([ 3 , 3 ]),dtype=tf.float32,name= 'v2' ) init = tf.global_variables_initializer() # session执行init,然后查看变量值,之后保存 with tf.Session() as sess: sess.run(init) print( 'v1:' ,v1.eval()) print( 'v2:' ,v2.eval()) # 保存结果 saver = tf.train.Saver() # 这里后缀名ckpt,表示checkpoint,这个可以任意 save_path = saver.save(sess, 'model/test.ckpt' ) print(

SSD-Tensorflow 训练自己的数据集

匿名 (未验证) 提交于 2019-12-03 00:20:01
阅读此文默认你已经可以成功运行SSD-TensorFlow的官方源码,也就是能够在VOC2007数据集上成功训练。下面将介绍一下如何用SSD-Tensorflow 训练自己的数据。如果不清楚的话可以参考链接: https://github.com/balancap/SSD-Tensorflow https://blog.csdn.net/ei1990/article/details/75282855 https://blog.csdn.net/liuyan20062010/article/details/78905517 明确2件事: 1)、训练自己的数据,我们选用的是什么模型? 2)、用什么模型来fine-tune? 1、我们在设置训练参数的时候,设置的model_name=ssd_300_vgg,就是我们要用ssd_300_vgg这个模型来训练我们的数据,当然我们的数据的类别跟模型默认的类别=21可能不一致,这就需要在训练的时候设置一下参数,num_classes=4,(如果搞清楚前面数据转换步骤这一点应该很容易理解),同理dataset_name要设置成自己的数据名。 2、我们这里选用vgg_16模型进行训练,意思就是利用vgg_16模型里的一些参数初始化我们的ssd_300_vgg模型里的部分参数,只训练其它层的参数,这就需要将指定哪些层不需要初始化,需要训练哪些层。 14

深度学习之艺术风格迁移

匿名 (未验证) 提交于 2019-12-03 00:19:01
近年来,由深度学习所引领的人工智能技术浪潮,开始越来越广泛地应用到社会各个领域。这其中,人工智能与艺术的交叉碰撞,不仅在相关的技术领域和艺术领域引起了高度关注。以相关技术为基础而开发的各种图像处理软件和滤镜应用更是一推出就立刻吸引了海量用户,风头一时无两。在这各种神奇的背后,最核心的就是基于深度学习的图像风格迁移(style transfer)。本博文就是介绍一个这样酷炫的深度学习应用:风格迁移。 基于神经网络的风格迁移算法 “A Neural Algorithm of Artistic Style” 最早由 Gatys 等人在 2015 年提出,随后发表在 CVPR 2016 上。斯坦福大学的 Justin Johnson(cs231n 课程的主讲人之一)给出了 Torch 实现 neural-style。除此之外,这篇文章的作者另外还建立了一个在线艺术风格迁移的网站,deepart.io。在介绍主要内容之前,先直观看下什么是艺术风格迁移,如图 1 所示,给定内容图像(第一行左边图像)以及风格图像(左下角图像)可以生成特定风格下的混合图像。网络多次运算后,人眼很难判断出该图像是否为梵高或者毕加索的真迹。 图1 生成的几种不同风格图像 艺术风格迁移的核心思想就是,可以从一副图像中提取出“风格 style”(比如梵高的夜空风格)以及“内容 content”

图像分类

流过昼夜 提交于 2019-12-02 23:28:31
图像分类 本教程源代码目录在 book/image_classification ,初次使用请您参考 Book文档使用说明 。 # 说明: 1.硬件环境要求: 本文可支持在CPU、GPU下运行 2.Docker镜像支持的CUDA/cuDNN版本: 如果使用了Docker运行Book,请注意:这里所提供的默认镜像的GPU环境为 CUDA 8/cuDNN 5,对于NVIDIA Tesla V100等要求CUDA 9的 GPU,使用该镜像可能会运行失败。 3.文档和脚本中代码的一致性问题: 请注意:为使本文更加易读易用,我们拆分、调整了train.py的代码并放入本文。本文中代码与train.py的运行结果一致,可直接运行 train.py 进行验证。 # 背景介绍 图像相比文字能够提供更加生动、容易理解及更具艺术感的信息,是人们转递与交换信息的重要来源。在本教程中,我们专注于图像识别领域的一个重要问题,即图像分类。 图像分类是根据图像的语义信息将不同类别图像区分开来,是计算机视觉中重要的基本问题,也是图像检测、图像分割、物体跟踪、行为分析等其他高层视觉任务的基础。图像分类在很多领域有广泛应用,包括安防领域的人脸识别和智能视频分析等,交通领域的交通场景识别,互联网领域基于内容的图像检索和相册自动归类,医学领域的图像识别等。 一般来说

tensorflow随笔――VGG网络

匿名 (未验证) 提交于 2019-12-02 22:56:40
这次用slim搭个稍微大一点的网络VGG16,VGG16和VGG19实际上差不多,所以本例程的代码以VGG16来做5类花的分类任务。 VGG网络相比之前的LeNet,AlexNet引入如下几个特点: 1. 堆叠3×3的小卷积核替代了5×5,7×7的大卷积核。 虽然5×5的卷积核感受野大,但是参数多。2个3×3的卷积堆叠感受野等同于5×5,并且进行了2次非线性变换。总结一下:相比于大卷积核,小卷积核的堆叠一方面减少了参数; 另一方面进行了更多的非线性映射,增加了网络表达能力。 2.网络层数加深。我们先不谈深层网络难以训练又或者梯度弥散等缺点,在特征的抽象化或者网络的表达能力范畴上,深层网络比浅层网络更加能够拟合数据的分布。 3.VGG网络的原作还引入了数据增广,图像预处理等trick。 开始贴代码阶段,工程分为三个文件: vgg.py: 搭建16层的VGG网络。 import tensorflow as tf import tensorflow.contrib.slim as slim def build_vgg(rgb, num_classes, keep_prob, train=True): with slim.arg_scope([slim.conv2d, slim.fully_connected], activation_fn=tf.nn.relu, normalizer