padding

1. CNN卷积网络-初识

青春壹個敷衍的年華 提交于 2020-02-18 10:56:34
1. CNN卷积网络-初识 2. CNN卷积网络-前向传播算法 3. CNN卷积网络-反向更新 1. 前言 卷积神经网络是一种特殊的深层的神经网络模型,它的特殊性体现在两个方面, 它的神经元间的连接是非全连接的, 同一层中某些神经元之间的连接的权重是共享的(即相同的)。 它的非全连接和权值共享的网络结构使之更类似于生物 神经网络,降低了网络模型的复杂度(对于很难学习的深层结构来说,这是非常重要的),减少了权值的数量。 2. CNN卷积网络结构 我们先重整体的角度观察一下CNN卷积网络的结构: 上图的结构从左到右是,输入层、卷积层(Convolution Layer)、池化层(Pooling layer)、卷积层、池化层、全连接层(Fully Connected Layer)、全链接层、输出层。 卷积层+池化层的组合可以在隐藏层出现很多次,上图中出现两次。而实际上这个次数是根据模型的需要而来的。当然我们也可以灵活使用使用卷积层+卷积层,或者卷积层+卷积层+池化层的组合,这些在构建模型的时候没有限制。但是最常见的CNN都是若干卷积层+池化层的组合,如上图中的CNN结构。 在若干卷积层+池化层后面是全连接层(Fully Connected Layer, 简称FC),全连接层其实就是我们前面讲的DNN结构,只是输出层使用了Softmax激活函数来做图像识别的分类,这点我们在DNN中也有讲述

tensorflow keras使用xception进行图像分类并添加注意力机制

偶尔善良 提交于 2020-02-17 05:25:43
import matplotlib as mpl import matplotlib.pyplot as plt import numpy as np import os import pandas as pd import sklearn import sys import tensorflow as tf import time from tensorflow import keras from tensorflow.keras import layers from tensorflow.keras.models import Model from tensorflow.keras.layers import GlobalAveragePooling2D, GlobalMaxPooling2D, Reshape, Dense, multiply, Permute, Concatenate, Conv2D, Add, Activation, Lambda print(tf.__version__) print(sys.version_info) for module in mpl, np, pd, sklearn, tf, keras: print(module.__name__, module.__version__) # %% train_dir = "./10monkeys

CSS 公共样式分享

て烟熏妆下的殇ゞ 提交于 2020-02-16 07:46:45
global.css | reset.css(格式化样式) common.css(公共组件样式) layout.css(当前页面样式) 清除全站所有页面的浏览器默认样式,保证在初始样式在所有浏览器下一致。 common.css(公共组件样式) 一般一个网站所有页面头部、底部样式都是一致的,而且很长时间不会有大的改变,改变的大概就是产品、运营的经常需要添加、去掉某些入口的需求,要保证全站所有页面头部一次替换生效,只要把头文件,已经对应的样式一发,马上生效,很快就有响应。 比如翻页、表单(输入框、按钮)等样式也是全站统一的,把这些样式都放到common.css里面,如果哪天所有的按钮样式要变更,一次替换就成功了。 layout.css(当前页面样式) 公共组件以外的所有样式都写到这个样式文件里面,并且保证一个页面一个独立样式,页面html和css写法要模块化,保证迅速响应项目频繁的迭代。 为什么要保证一个页面一个独立样式,而且要模块化,肯定有朋友和我有过一样的经历,修改一行样式代码,整个页面甚至N个页面都会受影响,搞了半天还不知道哪里出了问题,返回到修改前的版本,就没问题了。终于找到原因了,却不能改以前的样式,更不能删除,只能增加,时间一长,css样式文件越来越大,最后是不堪重负,整个页面代码只能重写。 其实global.css和common.css也可以合并到一个文件

网站怎么布局能解决不同浏览器对CSS解析的差异,使用css reset

强颜欢笑 提交于 2020-02-16 07:27:42
很多地方都提到过CSS Reset这个概念,而且细心的朋友会发现,许多大网站的CSS文件中也含有CSS Reset内容。 CSS Reset是什么? 在HTML标签在 浏览器 里有默认的样式,例如 p 标签有上下 边距 ,strong标签有字体 加粗 样式,em标签有字体倾斜样式。不同浏览器的默认样式之间也会有差别,例如ul默认带有 缩进 的样式,在IE下,它的缩进是通过margin实现的,而Firefox下,它的缩进是由padding实现的。在切换页面的时候,浏览器的默认样式往往会给我们带来麻烦,影响开发效率。所以解决的方法就是一开始就将浏览器的默认样式全部去掉,更准确说就是通过重新定义标签样式。“覆盖”浏览器的CSS默认属性。最最简单的说法就是把 浏览器 提供的默认样式覆盖掉!这就是CSS reset。 为什么要重置它? 因为浏览器的品种很多,每个浏览器的默认样式也是不同的,比如<button>标签,在IE浏览器、Firefox浏览器以及Safari浏览器中的样式都是不同的,所以,通过重置button标签的CSS属性,然后再将它统一定义,就可以产生相同的显示效果。 CSS Reset的内容是什么? 最简单的CSS Reset内容寥寥几行就能完成: * { padding: 0; margin: 0; border: 0; } 这个方法让所有的选择器的padding

jQuery学习-day04

南笙酒味 提交于 2020-02-16 05:08:28
事件的移入和移出 1 <!DOCTYPE html> 2 <html> 3 <head> 4 <title></title> 5 <style type="text/css"> 6 *{ 7 margin: 0; 8 padding: 0; 9 } 10 .father{ 11 width: 200px; 12 height: 200px; 13 background: red; 14 } 15 .son{ 16 width: 100px; 17 height: 100px; 18 background: blue; 19 } 20 </style> 21 <script type="text/javascript" src="../js/jquery-1.12.4.js"></script> 22 <script type="text/javascript"> 23 $(function(){ 24 //mouseover/mouseout事件,子元素被移入和移出也会触发到父元素 25 26 //mouseenter/mousuleave事件,子元素被移入和移出不会触发父元素 27 $(".father").mouseenter(function(){ 28 alert("father移入"); 29 }); 30 $(".father").mouseleave(function

mass Framework tabs插件

旧城冷巷雨未停 提交于 2020-02-16 00:51:51
经心思熟虑,发明一种更好的HTML结构,在实现上比原来好太多了。下面是其思路。 首先是结构层,HTML部分: <ul id="first_tabs" class="mass_tabs"> <li class="section active"> <a href="javascript:void(0)" class="trigger">按钮1</a> <div class="panel"> 面板1 </div> </li> <li class="section"> <a href="javascript:void(0)" class="trigger">按钮2</a> <div class="panel"> 面板2 </div> </li> <li class="section"> <a href="javascript:void(0)" class="trigger">按钮3</a> <div class="panel"> 面板3 </div> </li> <li class="section"> <a href="javascript:void(0)" class="trigger">按钮4</a> <div class="panel"> 面板4 </div> </li> </ul> 当然现在看不出它是个tabs,我们使用CSS修整一下: .mass_tabs { position

常见前端面试题之HTML/CSS部分

馋奶兔 提交于 2020-02-15 07:57:03
Doctype是什么?如何触发严格模式与混杂模式模式?区分它们有何意义? Doctype是document type(文档类型)的简写,是用来说明所用的XHTML或HTML是什么版本的。XHTML1.0 提供了三种DTD声明可供选择,分别是:   1、过渡的(Transitional,也叫混杂模式):要求比较宽松,允许继续使用HTML4.01的标识,完整声明为 <!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-tranisitional.dtd"> 2、严格的(Strict):要求严格的DTD,不能使用任何表现层的标识和属性,完整声明为 <!DOCTYPE html PUBLIC "-W3C//DTD XHTML 1.0 Strict//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-strict.dtd"> 3、框架的(Frameset):专门针对框架页面设计使用的DTD,如果页面中包含有框架,可以采用DTD,完整声明为 <!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Frameset//EN" "http://www.w3.org/TR

卷积神经网络(一)——基础知识

為{幸葍}努か 提交于 2020-02-15 06:04:38
(一)卷积神经网络基础知识 (1) 卷积神经网络基本结构 卷积神经网络(Convolutional Neural Networks,CNN)是一类特殊的人工神经网络,其最主要的特点就是卷积运算。卷积其实就是一种效果的叠加。CNN 目前在图像相关任务上有很好的效果。如图像分类、语音分割、图像检索、目标检测等计算机视觉问题。 卷积神经网络是一种层次模型,其输入是原始数据,如RGB图像、音频等数据,通过卷积操作、池化操作、非线性激活函数等一系列操作的层层堆叠。目的是将高层语义信息逐层抽象出来,这一过程就是前向传播的过程。 卷积神经网络的组成部分 CNN层次结构 作用 输入层 网络原始输入,可以是原始或预处理后的像素矩阵 卷积层 参数共享、局部连接,利用平移不变性从全局特征图提取局部特征 激活层 将卷积层的输出结果进行非线性映射 池化层 进一步对特征进行筛选,可有效的减少网络所需的参数量 全连接层 将多维特征展平为2维特征,通常低维度特征对应任务的学习目标 1、输入层 输入的图片一般包含RGB三个通道,是一个由长宽分别为H和W组成的3维像素值矩阵H W 3(图片默认的是通道是H W C,在处理的时候一般要将通道转换为C H W ),卷积网络会将输入层的数据传递到一系列卷积、池化等曹操做进行特征提取和转化,最终由全连接层对特征进行汇总和结果输出。若指定输入层接收到的图像个数为N

blog主题——樱花

北城余情 提交于 2020-02-14 18:19:36
贮存一下,blog代码 QAQ 页脚html <!--live2d--> <script src="https://blog-static.cnblogs.com/files/zouwangblog/autoload.js"></script> <!--live2dend--> <!--放大图片--> <link rel="stylesheet" type="text/css" href="https://blog-static.cnblogs.com/files/zouwangblog/zoom.css"> <script src="https://cdn.bootcss.com/jquery/1.8.3/jquery.min.js"></script> <script src="https://cdn.bootcss.com/bootstrap/3.2.0/js/transition.js"></script> <script src="https://blog-static.cnblogs.com/files/zouwangblog/zoom.js"></script> <script type='text/javascript'>$('#cnblogs_post_body img').attr('data-action', 'zoom');</script> <!-

faceboxes笔记

末鹿安然 提交于 2020-02-14 00:22:56
https://github.com/zisianw/FaceBoxes.PyTorch/blob/master/models/faceboxes.py 开始的maxpooling不能去掉,去掉就变慢好几倍 inception和reitnaface很像 import torch import torch.nn as nn import torch.nn.functional as F class BasicConv2d(nn.Module): def __init__(self, in_channels, out_channels, **kwargs): super(BasicConv2d, self).__init__() self.conv = nn.Conv2d(in_channels, out_channels, bias=False, **kwargs) self.bn = nn.BatchNorm2d(out_channels, eps=1e-5) def forward(self, x): x = self.conv(x) x = self.bn(x) return F.relu(x, inplace=True) class Inception(nn.Module): def __init__(self): super(Inception, self).__init_