sigma

奇异值分解SVD

可紊 提交于 2019-12-13 00:45:46
在介绍奇异值分解(SVD)之前我们先来回顾一下关于矩阵的一些基础知识。 矩阵基础知识 方阵 给定一个$ n×m $的矩阵$ A $,若n和m相等也就是矩阵的行和列相等那矩阵$ A $就是一个方阵。 单位矩阵 在线性代数中,n阶单位矩阵,是一个$ n×n $的方阵,其主对角线元素为1,其余元素为0。单位矩阵以$ mathbf { I } _ { n } $表示。 单位矩阵性质: $$ text { 1. } I _ { n } B _ { n times m } = B _ { n times m } $$ $$ text { 2. } B _ { n times m } I _ { m } = B _ { n times m } $$ $$ text { 3. } A _ { n } I _ { n } = I _ { n } A _ { n } = A _ { n } $$ $$ text { 4. } I _ { n } I _ { n } = I _ { n } $$ 转置 矩阵的转置是最简单的一种矩阵变换。简单来说若$ n×m $的矩阵$ A $的转置为$ A ^ { mathrm { T } } $,则$ A ^ { mathrm { T } } $是一个$ m×n $的矩阵并且有$ mathbf { A } _ { i j } = mathbf { A } _ { j

奇异值分解(SVD)与主成分分析(PCA)

给你一囗甜甜゛ 提交于 2019-12-11 18:14:30
奇异值分解(SVD)与主成分分析(PCA) 1 算法简介 奇异值分解(Singular Value Decomposition),简称SVD,是线性代数中矩阵分解的方法。假如有一个矩阵A,对它进行奇异值分解,可以得到三个矩阵相乘的形式,最左边为m维的正交矩阵,中间为m*n 的对角阵,右边为n维的正交矩阵: A = U Σ V T A=U\Sigma V^{T} A = U Σ V T 这三个矩阵的大小如下图所示: 矩阵 Σ \Sigma Σ 除了对角元素其他元素都为0,并且对角元素是从大到小排列的,前面的元素比较大,后面的很多元素接近0。这些对角元素就是奇异值。( u i u_i u i ​ 为m维行向量, v i v_i v i ​ 为n维行向量) Σ \Sigma Σ 中有n个奇异值,但是由于排在后面的很多接近0,所以我们可以仅保留比较大的前r个奇异值,同时对三个矩阵过滤后面的n-r个奇异值, 奇异值过滤之后,得到新的矩阵: [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-7Y9zuN9s-1576054984887)(./Img/fig2.png)] 在新的矩阵中, Σ \Sigma Σ 只保留了前r个较大的特征值: 实际应用中,我们仅需保留三个比较小的矩阵,就能表示A,不仅节省存储量,在计算的时候更是减少了计算量。SVD在信息检索(隐性语义索引

matlab谱估计

只愿长相守 提交于 2019-12-10 21:26:39
实验目的: 一、.理解参数模型谱估计的基本思路和方法优缺点。 二、掌握利用MATLAB编程进行AR模型谱估计的基本方法、计算步骤和函数使用。 1.产生一个多点频信号,利用上述参数谱估计方法进行功率谱估计;对比经典谱估计与参数谱估计几种方法的处理结果,并进行分析。 程序代码及编程思路: clear all; N=128; p=40; NFFT=2048; Fs=2; n=0:N-1; randn(‘state’,0);%保持随机数不变 x=cos(0.3 pi n)+cos(0.4 pi n)+cos(0.44 pi n)+randn(size(n)); %产生3个点频的信号 [P,f]=periodogram(x,[],NFFT,2);%周期图法 [Py,fy]=pyulear(x,p,NFFT,2);%AR模型 [Px,F]=pwelch(x,hamming(65),overlap,NFFT);%Welch法 %使用汉明窗,叠合32点,FFT点数为2048 subplot(311); plot(f,10*log§); grid on; title(‘周期图法’); axis([0 1 -60 60]); subplot(312); plot(fy,10*log(Py)); grid on; title([‘Yule-Walker方法,阶次为’,num2str§]); axis(

随机波浪Jonswap谱

房东的猫 提交于 2019-12-10 05:07:55
随机海浪往往具有统计特征,组成频率会呈现出某一频率集中的特征。由此而衍生出的海浪谱多种多样。其中较为著名的一种海浪谱Jonswap被广泛应用在海洋科学、海洋工程领域。 以合田改进的Jonswap谱(1999)为例: S ( f ) = β j H 1 / 3 2 T P − 4 f − 5 exp ⁡ [ − 5 4 ( T P f ) − 4 ] γ exp ⁡ [ − ( f f P − 1 ) 2 / 2 σ 2 ] S(f)=\beta_jH_{1/3}^2T_P^{-4}f^{-5}\exp[-\frac{5}{4}(T_Pf)^{-4}]\gamma^{\exp[-(\frac{f}{f_P}-1)^2/2\sigma^2]} S ( f ) = β j ​ H 1 / 3 2 ​ T P − 4 ​ f − 5 exp [ − 4 5 ​ ( T P ​ f ) − 4 ] γ exp [ − ( f P ​ f ​ − 1 ) 2 / 2 σ 2 ] 其中, β j = 0.06238 0.230 + 0.0336 γ − 0.185 ( 1.9 + γ ) − 1 [ 1.094 − 0.01915 ln ⁡ γ ] \beta_j=\frac{0.06238}{0.230+0.0336\gamma-0.185(1.9+\gamma)^{-1}}[1.094-0

矩阵分解

Deadly 提交于 2019-12-09 22:31:27
目录 矩阵的奇异值分解(Singular Value Decomposition): 分解步骤(SVD): 几何意义(SVD): 矩阵的奇异值分解(Singular Value Decomposition): 定义:设矩阵 A ∈ C r m × n A \in C_r^{m\times n} A ∈ C r m × n ​ , λ i \lambda _i λ i ​ 是 A A H ( A H A ) AA^H(A^HA) A A H ( A H A ) 的非零特征值,则称 σ i = λ i \sigma _i=\sqrt{\lambda _i} σ i ​ = λ i ​ ​ 为 A A A 的奇异值, i = 1 , 2 , ⋯   , r i=1,2,\cdots,r i = 1 , 2 , ⋯ , r 定理:设矩阵 A ∈ C r m × n A \in C_r^{m\times n} A ∈ C r m × n ​ ,则存在 U ∈ U m × m U \in U^{m\times m} U ∈ U m × m , V ∈ U n × n V \in U^{n\times n} V ∈ U n × n ,使得 A = U [ Δ 0 0 0 ] V H A=U \left [ \begin{matrix} \Delta &0\\ 0&0\end{matrix}

高斯滤波

柔情痞子 提交于 2019-12-07 16:08:31
第一个问题:高斯函数为什么能作为图像处理中的滤波函数? 高斯平滑滤波器无论在空间域还是在频率域都是十分有效的低通滤波器,且在实际图像处理中得到了工程人员的有效使用.高斯函数具有五个十分重要的性质,它们是: (1)二维高斯函数具有旋转对称性,即滤波器在各个方向上的平滑程度是相同的.一般来说,一幅图像的边缘方向是事先不知道的,因此,在滤波前是无法确定一个方向上比另一方向上需要更多的平滑.旋转对称性意味着高斯平滑滤波器在后续边缘检测中不会偏向任一方向. (2)高斯函数是单值函数.这表明,高斯滤波器用像素邻域的加权均值来代替该点的像素值,而每一邻域像素点权值是随该点与中心点的距离单调增减的.这一性质是很重要的,因为边缘是一种图像局部特征,如果平滑运算对离算子中心很远的像素点仍然有很大作用,则平滑运算会使图像失真. (3)高斯函数的付立叶变换频谱是单瓣的.正如下面所示,这一性质是高斯函数付立叶变换等于高斯函数本身这一事实的直接推论.图像常被不希望的高频信号所污染(噪声和细纹理).而所希望的图像特征(如边缘),既含有低频分量,又含有高频分量.高斯函数付立叶变换的单瓣意味着平滑图像不会被不需要的高频信号所污染,同时保留了大部分所需信号. (4)高斯滤波器宽度(决定着平滑程度)是由参数σ表征的,而且σ和平滑程度的关系是非常简单的.σ越大,高斯滤波器的频带就越宽,平滑程度就越好

MATLAB中的fspecial函数

▼魔方 西西 提交于 2019-12-06 13:50:30
Matlab 的fspecial函数用法 转载: https://blog.csdn.net/majinlei121/article/details/50255837 fspecial 函数用于建立预 定义的 滤波算子 ,其语法 格式为: h = fspecial(type) h = fspecial(type,para) 其中type指定算子的类型,para指定相应的 参数; type的类型有: 1、'average' averaging filter 为均值滤波,参数为hsize代表模板尺寸,默认值为【3,3】。 H = FSPECIAL('average',HSIZE) returns an averaging filter H of size HSIZE. HSIZE can be a vector specifying the number of rows and columns in H or a scalar, in which case H is a square matrix. The default HSIZE is [3 3]. 2、 'disk' circular averaging filter 为圆形区域均值滤波,参数为radius代表区域半径,默认值为5. H = FSPECIAL('disk',RADIUS) returns a circular

CDA 数据分析师 level1 part 3

孤人 提交于 2019-12-06 12:33:33
数据分析师 数据分析师 抽样分布及参数估计 随机的基本概念 随机试验 随机试验是概率论的一个基本概念。概括地讲,在概率论中把符合下面三个特点的试验叫做随机试验: ●可以在相同的条件下重复的进行。 ●每次试验的可能结果不止一个,并且能事先明确试验的所有可能结果。 ●进行一次试验之前不能确定哪一个结果会出现。 随机事件 在概率论中,随机事件(或简称事件)指的是一个被赋予机率的事物集合,也就是样本空间中的一个子集。简单来说,在一次随机试验中,某个特定事件可能出现也可能不出现;但当试验次数增多,我们可以观察到某种规律性的结果,就是随机事件。 随机变量 设随机试验的样本空间 S={e},X=X{e} 是定义在样本空间S上的单值实值函数,称X为随机变量。 正态分布的图像形式 既然介绍变量的分布情况,就要介绍一下正态分布。首先,正态分布是关于均值左右对称的,呈钟形,如下图所示。其次,正态分布的均值和标准差具有代表性只要知道其均值和标准差,这个变量的分布情况就完全知道了在正态分布中,均值=中位数=众数。 抽样分布 中心极限定理 从均值为μ,方差为 \sigma^2 的一个任意总体中抽取容量为n的样本,当n充分大时,样本均值的抽样分布近似服从均值为μ,方差为 \sigma^2 /n的正态分布。 根据中心极限定理,我们知道如果做很多次抽样的话会得到很多个样本均值,而这些样本均值排列起来会形成正态分布

绘制Gaussian Distribution曲线的三种方式

自作多情 提交于 2019-12-06 12:02:52
在高斯分布中有三个数学符号,先来解释这个三个数学符号的含义,然后再说明这个公式的推导思路和推导方法。 三个符号 \(\mu,\sigma,e\) 在数学上分别叫做平均值(又称数学期望),标准差,自然数。即: 平均值(又称数学期望): \(\mu\) 标准差: \(\sigma\) 自然数: \(e\) 高斯分布数学公式 \[f(x)=\frac{1}{ \sqrt{2\pi\sigma} } \cdot e^{ \frac{-(x-\mu)^2}{2\sigma^2}}\] 期望(平均数):μ 标准差 \(:σ\) , 方差 \(σ^2\) 为。 当 \(\mu=0\) 和 \(\sigma=1\) 时候称为: 标准正态分布 。 \[f(x)=\frac{1}{ \sqrt{2} } \cdot e^{ \frac{-(x)^2}{2}}\] 绘制Gaussian Distribution曲线的三种方式 GGB绘制 Python绘制 import numpy as np import matplotlib.pyplot as plt import math # Python实现正态分布 # 绘制正态分布概率密度函数 u = 0 # 均值μ sig = math.sqrt(2) # 标准差δ x = np.linspace(u - 3*sig, u + 3*sig, 50) x_01

ML- 线性回归推导

梦想的初衷 提交于 2019-12-06 05:12:22
线性回归, 这部分算是我最为擅长的了, 真的不吹, 6年经验 , 我高中时代就已经会推导了, 当然是最最小二乘法和统计学(假设检验, 参数分布等)的角度. 后来上了大学, 又是从最小二乘和统计学角度, 最终呢, 还是从线性代数(向量投影) 和 微积分 角度 + 代码实现给整了一遍, 再后来就是ML, 撸了一遍梯度下降, 嗯, 整体感悟就是,对一个事物的认知, 需要一个时间的过程和实践. 正如古人所讲, 纸上来得终觉浅, 绝知此事要躬行. 回归模型 数据: \((y_i, X_{i1}, X_{i2}...X_{ip}), \ i = 1,2,3...n\) y 是一个向量, X是一个矩阵 样本 X 是一个 nxp 的矩阵, 每一行是表示一个样本, 对应一个目标值 y 是由这 p 个(维) 列向量 线性组合 而成, 因此叫线性回归. 模型: \(y_i = \beta_0 +\beta_1 X_{i1} + \beta_2 X_{i2} + \beta_p X_{il} + \epsilon_i, \ i=1,2,...n\) \(\epsilon \backsim N(0, \sigma)\) , 为啥误差的均值是0, 参考大数定律呗.(总体和样本的关系) 写为矩阵的形式: \(y = X\beta + \epsilon\) X 是 nxp, \(\beta\) 是 px1, y