NoRM

tf.contrib.slim.arg_scope 完整

匿名 (未验证) 提交于 2019-12-03 00:43:02
缘由   最近一直在看深度学习的代码,又一次看到了slim.arg_scope()的嵌套使用,具体 代码 如下: with slim.arg_scope( [slim.conv2d, slim.separable_conv2d], weights_initializer = tf.truncated_normal_initializer( stddev = weights_initializer_stddev), activation_fn = activation_fn, normalizer_fn =slim.batch_norm if use_batch_norm else None): with slim.arg_scope([slim.batch_norm], ** batch_norm_params): with slim.arg_scope( [slim.conv2d], weights_regularizer = slim.l2_regularizer(weight_decay)): with slim.arg_scope( [slim.separable_conv2d], weights_regularizer = depthwise_regularizer) as arg_sc: return arg_sc   由上述代码可以看到

视觉里程计 Visual Odometry

匿名 (未验证) 提交于 2019-12-03 00:39:02
首先分析include头文件下的slamBase.h文件 # pragma once // 各种头文件 // C++标准库 #include <fstream> #include <vector> #include <map> using namespace std; // Eigen #include <Eigen/Core> #include <Eigen/Geometry> // OpenCV #include <opencv2/core/core.hpp> #include <opencv2/highgui/highgui.hpp> #include <opencv2/calib3d/calib3d.hpp> // PCL #include <pcl/io/pcd_io.h> #include <pcl/point_types.h> #include <pcl/common/transforms.h> #include <pcl/visualization/cloud_viewer.h> #include <pcl/filters/voxel_grid.h> // 体素滤波器 进行降采样 #include <pcl/filters/statistical_outlier_removal.h> // 统计滤波器 去除 孤立点 // 类型定义 typedef pcl:

向量与矩阵范数

匿名 (未验证) 提交于 2019-12-03 00:34:01
在刚入门机器学习中的低秩,稀疏模型时,被各种范数搅得一团糟,严重延缓了学习进度,经过一段时间的学习,现在将其完整的总结一下,希望遇到同样麻烦的同学能有所帮助。。。 首先定义一个向量为:a=[-5,6,8, -10] 向量的1范数即:向量的各个元素的绝对值之和,上述向量a的1范数结果就是:29,MATLAB代码实现为:norm(a,1); 向量的2范数即:向量的每个元素的平方和再开平方根,上述a的2范数结果就是:15,MATLAB代码实现为:norm(a,2); 1.向量的负无穷范数即:向量的所有元素的绝对值中最小的:上述向量a的负无穷范数结果就是:5,MATLAB代码实现为:norm(a,-inf); 2..向量的正无穷范数即:向量的所有元素的绝对值中最大的:上述向量a的负无穷范数结果就是:10,MATLAB代码实现为:norm(a,inf); 首先我们将介绍数学中矩阵的范数的情况,也就是无论哪个学科都统一的一种规定。。。 例如矩阵A = [ -1 2 -3; 4 -6 6] 矩阵的1范数即:矩阵的每一列上的元素绝对值先求和,再从中取个最大的,(列和最大),上述矩阵A的1范数先得到[5,8,9],再取最大的最终结果就是:9,MATLAB代码实现为:norm(A,1); 矩阵的2范数即:矩阵 ATA” role=”presentation” style=”position:

机器学习笔记-范数

匿名 (未验证) 提交于 2019-12-03 00:32:02
https://blog.csdn.net/left_la/article/details/9159949 1、向量范数 1-范数: 2-范数: ,Euclid范数(欧几里得范数,常用计算向量长度),即向量元素绝对值的平方和再开方,matlab调用函数norm(x, 2)。 ∞-范数: ,即所有向量元素绝对值中的最大值,matlab调用函数norm(x, inf)。 -∞-范数: ,即所有向量元素绝对值中的最小值,matlab调用函数norm(x, -inf)。 p-范数: ,即向量元素绝对值的p次方和的1/p次幂,matlab调用函数norm(x, p)。 2、矩阵范数 1-范数: , 列和范数,即所有矩阵列向量绝对值之和的最大值,matlab调用函数norm(A, 1)。 2-范数: ,谱范数,即A'A矩阵的最大特征值的开平方。matlab调用函数norm(x, 2)。 ∞-范数: ,行和范数,即所有矩阵行向量绝对值之和的最大值,matlab调用函数norm(A, inf)。 F-范数: ,Frobenius范数,即矩阵元素绝对值的平方和再开平方,matlab调用函数norm(A, ’fro‘)。 附matlab中norm函数说明 The norm of a matrix is a scalar that gives some measure of the magnitude

飞行姿态解算(二)

匿名 (未验证) 提交于 2019-12-03 00:22:01
继之前研究了一些飞行姿态理论方面的问题后,又找到了之前很流行的一段外国大神写的代码,来分析分析。 先贴上代码: #include "AHRS.h" //---------------------------------------------------------------------------------------------------- // Definitions #define Kp 2.0f #define Ki 0.005f #define halfT 0.5f //---------------------------------------------------------------------------------------------------- // Variable definitions float q0 = 1, q1 = 0, q2 = 0, q3 = 0; float exInt = 0, eyInt = 0, ezInt = 0; //---------------------------------------------------------------------------------------------------- // Function void AHRSupdate(float gx, float gy,

Pytorch-属性统计

匿名 (未验证) 提交于 2019-12-03 00:12:02
引言 本篇介绍Pytorch属性统计的几种方式。 求值或位置 norm mean sum prod max, min, argmin, argmax kthvalue, topk norm norm指的是范数,并不是normalize。 normalize是归一化,例如 batch_norm。 要更好的理解范数,就要从函数、几何与矩阵的角度去理解。 我们都知道,函数与几何图形往往是有对应的关系,这个很好想象,特别是在三维以下的空间内,函数是几何图像的数学概括,而几何图像是函数的高度形象化,比如一个函数对应几何空间上若干点组成的图形。 但当函数与几何超出三维空间时,就难以获得较好的想象,于是就有了映射的概念,映射表达的就是一个集合通过某种关系转为另外一个集合。通常数学书是先说映射,然后再讨论函数,这是因为函数是映射的一个特例。 为了更好的在数学上表达这种映射关系,(这里特指线性关系)于是就引进了矩阵。这里的矩阵就是表征上述空间映射的线性关系。而通过向量来表示上述映射中所说的这个集合,而我们通常所说的基,就是这个集合的最一般关系。于是,我们可以这样理解, 一个集合(向量),通过一种映射关系(矩阵),得到另外一个几何(另外一个向量) 。 向量的范数,就是表示这个原有集合的大小 。 矩阵的范数,就是表示这个变化过程的大小的一个度量 。 总结起来一句话, 范数(norm),是具有“长度

数据分析实战(二)

匿名 (未验证) 提交于 2019-12-02 23:56:01
数据集地址 提取码: us2a Age: 年龄,指登船者的年龄 Fare: 价格,指船票价格 Embark: 登船的港口 import pandas as pd data = pd.read_excel("D:\data\data.xlsx") data = data.set_index("ID") portS = data[data["Embarked"]=="S"] portC = data[data["Embarked"]=="C"] portQ = data[data["Embarked"]=="Q"] portS_age = portS["Age"] portS_fare = portS["Fare"] portC_age = portC["Age"] portC_fare = portC["Fare"] portQ_age = portQ["Age"] portQ_fare = portQ["Fare"] port_details = pd.DataFrame({"均值":[portS_age.mean(),portC_age.mean(),portQ_age.mean(),portS_fare.mean(),portC_fare.mean(),portQ_fare.mean()], "方差":[portS_age.var(),portC_age.var(),portQ

[转] L1 &amp;&amp; L2范数

匿名 (未验证) 提交于 2019-12-02 23:39:01
作者:Andy Yang 链接:https://www.zhihu.com/question/26485586/answer/616029832 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 理解L1,L2 范数 L1,L2 范数即 L1-norm 和 L2-norm ,自然,有L1、L2便也有L0、L3等等。因为在机器学习领域,L1 和 L2 范数应用比较多,比如作为正则项在回归中的使用 Lasso Regression (L1) 和 Ridge Regression (L2)。 因此,此两者的辨析也总被提及,或是考到。不过在说明两者定义和区别前,先来谈谈什么是范数(Norm)吧。 什么是范数? 在线性代数以及一些数学领域中,norm 的定义是 a function that assigns a strictly positive length or size to each vector in a vector space, except for the zero vector. ――Wikipedia 简单点说,一个向量的 norm 就是将该向量 投影到 [0, ) 范围内的值 ,其中 0 值只有零向量的 norm 取到。看到这样的一个范围,相信大家就能想到其与现实中距离的类比,于是在机器学习中 norm 也就总被拿来 表示距离关系

吴恩达机器学习作业Python实现(五):偏差和方差

匿名 (未验证) 提交于 2019-12-02 22:51:30
在本练习中,您将实现正则化的线性回归和多项式回归,并使用它来研究具有不同偏差-方差属性的模型 在前半部分的练习中,你将实现正则化线性回归,以预测水库中的水位变化,从而预测大坝流出的水量。在下半部分中,您将通过一些调试学习算法的诊断,并检查偏差 v.s. 方差的影响。 1.1 Visualizing the dataset 我们将从可视化数据集开始,其中包含水位变化的历史记录,x,以及从大坝流出的水量,y。 这个数据集分为了三个部分: - training set 训练集:训练模型 - cross validation set 交叉验证集:选择正则化参数 - test set 测试集:评估性能,模型训练中不曾用过的样本 %matplotlib inline import numpy as np import matplotlib.pyplot as plt from scipy.io import loadmat import scipy.optimize as opt 读取数据 path = 'ex5data1.mat' data = loadmat(path) #Training set X, y = data[ 'X' ], data[ 'y' ] #Cross validation set Xval, yval = data[ 'Xval' ], data[ 'yval' ]

caffe中batch norm源码阅读

只谈情不闲聊 提交于 2019-12-02 02:39:07
1. batch norm 输入batch norm层的数据为[N, C, H, W], 该层计算得到均值为C个,方差为C个,输出数据为[N, C, H, W]. <1> 形象点说,均值的计算过程为: (1) 即对batch中相同索引的通道数取平均值,所以最终计算得到的均值为C个,方差的计算过程与此相同。 <2> batch norm层的作用: a. 均值: (2) b. 方差: (3) c. 归一化: (4) 2. caffe中batch_norm_layer.cpp中的LayerSetUp函数: 1 template <typename Dtype> 2 void BatchNormLayer<Dtype>::LayerSetUp(const vector<Blob<Dtype>*>& bottom, 3 const vector<Blob<Dtype>*>& top) { 4 BatchNormParameter param = this->layer_param_.batch_norm_param(); //读取deploy中moving_average_fraction参数值 5 moving_average_fraction_ = param.moving_average_fraction(); //改变量在batch_norm_layer.hpp中的定义为bool