sigma

代码生成器技术乱弹十八,用石块垒城堡,代码生成群论基本术语

戏子无情 提交于 2020-01-06 14:03:19
【推荐】2019 Java 开发者跳槽指南.pdf(吐血整理) >>> 代码生成置换群,记作Sigma ,为任何可能的域对象取值空间之和。 字段的取值空间,记作Sigma(fieldName),为某个字段所有可能的取值空间之和。 域对象的取值空间,记作Sigma(domainName),若某域对象有N个字段,其取值空间为N维度,为其所有字段取值空间之积。 项目的取值空间,记作Sigma(projectName),为某项目所有域对象取值空间之积。 行集,记作data 代码生成置换群行集data(Sigma), 域对象行集data(Sigma(domainName)),为某域对象所有可能的行集。 数据库行集,记作database 域对象数据库行集database(domainName),为某域对象数据库里的行集。 项目的数据库行集database(projectName) ,为某项目的数据库里的行集 输入行集,记作input 域对象输入行集input(domainName) 输出行集,记作output 域对象输出行集output(domainName) 影响行集,记作update 域对象行集update(domainName) 动词算子,记作verb 域对象,记作domain 空集,记作Phi 落盘,记作Save 数据行,记作datarow 有效集合,符合某一系统的约束条件的行集

CF468D Tree

与世无争的帅哥 提交于 2020-01-05 14:48:03
题意:给你一棵树,每个节点有编号1~n。求一个字典序最小的排列满足sigma(i到p[i]的距离)最大。 n<=1e5. 标程: 1 #include<bits/stdc++.h> 2 #define P pair<int,int> 3 #define fir first 4 #define sec second 5 using namespace std; 6 typedef long long ll; 7 const int N=100005; 8 int cnt,head[N],Max[N],size[N],rt,Ans[N],num[N],n,u,v,w,blo,anc[N]; 9 ll ans,dis[N]; 10 set<int> s[N]; 11 set<P> SZ,T; 12 struct node{int to,next,w;}Num[N*2]; 13 void add(int x,int y,int w) 14 {Num[++cnt].to=y;Num[cnt].next=head[x];Num[cnt].w=w;head[x]=cnt;} 15 void find_rt(int x,int fa) 16 { 17 size[x]=1; 18 for (int i=head[x];i;i=Num[i].next) 19 if (Num[i].to!=fa) 20

数理统计和参数估计相关概念知识总结

梦想的初衷 提交于 2020-01-04 00:51:02
引言 为了系统地复习机器学习相关算法及基础知识,对学过的知识进行一定的整理。 正文 事件的独立性(Independence) 定义:如果事件A和事件B满足 P ( A B ) = P ( A ) P ( B ) P(A B)=P(A) P(B) P ( A B ) = P ( A ) P ( B ) ,则称事件A和事件B独立。举个例子:如果一个人语文考试通过为事件A,数学考试通过为事件B,这两个考试一点关系都没有,互不影响,所以这个人同时通过两科考试的概率就应该等于通过语文考试的概率乘以通过数学考试的概率。 既然A、B是独立的,那么就有 P ( A ∣ B ) = P ( A ) P(A | B)=P(A) P ( A ∣ B ) = P ( A ) 。过了数学考试,语文考试就稳了吗?不存在的,没有半毛钱关系。 期望(Expectation) 期望就是概率加权平均值,不多扯了,上公式。 离散型: E ( X ) = ∑ i x i p i E(X)=\sum_{i} x_{i} p_{i} E ( X ) = ∑ i ​ x i ​ p i ​ 连续型: E ( X ) = ∫ − ∞ ∞ x f ( x ) d x E(X)=\int_{-\infty}^{\infty} x f(x) d x E ( X ) = ∫ − ∞ ∞ ​ x f ( x ) d x 对于编程来说

区间估计

浪子不回头ぞ 提交于 2020-01-03 03:31:10
求谁 σ 是 否 已 知 \sigma是否已知 σ 是 否 已 知 置信区间 置信区间 求 μ \mu μ σ 未 知 \sigma未知 σ 未 知 1 − α 1-\alpha 1 − α ( X ‾ − σ ( n ) Z α 2 , X ‾ + σ ( n ) Z α 2 ) (\overline X- \frac{\sigma}{\sqrt(n)}Z_{\frac{\alpha}{2}},\overline X+\frac{\sigma}{\sqrt(n)}Z_{\frac{\alpha}{2}}) ( X − ( ​ n ) σ ​ Z 2 α ​ ​ , X + ( ​ n ) σ ​ Z 2 α ​ ​ ) 求 μ \mu μ σ 已 知 \sigma已知 σ 已 知 1 − α 1-\alpha 1 − α ( X ‾ − σ ( n ) t α 2 ( n − 1 ) , X ‾ + σ ( n ) t α 2 ( n − 1 ) ) (\overline X- \frac{\sigma}{\sqrt(n)}t_{\frac{\alpha}{2}}(n-1),\overline X+\frac{\sigma}{\sqrt(n)}t_{\frac{\alpha}{2}}(n-1)) ( X − ( ​ n ) σ ​ t 2 α ​ ​ ( n − 1 ) , X

有效估计

北城余情 提交于 2020-01-01 20:42:54
已知: X 服 从 X X服从X X 服 从 X ~ N ( 1 , 2 σ 2 ) 的 正 态 分 布 N(1,2\sigma^2)的正态分布 N ( 1 , 2 σ 2 ) 的 正 态 分 布 已知: σ ^ 2 = 1 2 n ∑ i = 1 n ( x i − 1 ) 2 \hat\sigma^2=\frac{1}{2n}\sum_{i=1}^{n}(x_i-1)^2 σ ^ 2 = 2 n 1 ​ ∑ i = 1 n ​ ( x i ​ − 1 ) 2 已知: f ( x 1 , x 2 , . . . , x n ; σ 2 ) = ( 1 4 π σ 2 ) n e − 1 4 σ 2 ∑ i = 1 n ( x i − 1 ) 2 f(x_1,x_2,...,x_n;\sigma^2)=(\frac{1}{\sqrt{4\pi\sigma^2}})^ne^{-\frac{1}{4\sigma^2}\sum_{i=1}^{n}(x_i-1)^2} f ( x 1 ​ , x 2 ​ , . . . , x n ​ ; σ 2 ) = ( 4 π σ 2 ​ 1 ​ ) n e − 4 σ 2 1 ​ ∑ i = 1 n ​ ( x i ​ − 1 ) 2 问 σ 2 \sigma^2 σ 2 的一致最小方差无偏估计是否为有效估计?证明你的结论 V a r ( σ ^

极大似然估计理解与应用

不羁的心 提交于 2019-12-30 20:46:49
1. 什么是极大似然估计   在日常生活中,我们很容易无意中就使用到极大似然估计的思想,只是我们并不知道极大似然估计在数学中的如何确定以及推导的。下面我们使用两个例子让大家大概了解一下什么是 极大似然估计 : (1)猎人师傅和徒弟一同去打猎,遇到一只兔子,师傅和徒弟同时放枪,兔子被击中一枪,那么是师傅打中的,还是徒弟打中的? (2)一个袋子中总共有黑白两种颜色100个球,其中一种颜色90个,随机取出一个球,发现是黑球。那么是黑色球90个?还是白色球90个?   对于第(1)个问题,由于师傅的技术一般比徒弟高,因此我们会猜测兔子是师傅打中的。对于第(2)个问题,对于颜色有90个的球,我们抽中它的概率更大,因此当抽中为黑色球时,我们便会认为90个的是黑色球。   对于以上两个例子可以看出,我们在进行猜测时,往往认为: 概率最大的事件,最可能发生 , 因此在一次试验中就出现的事件应当具有较大的概率。 2. 极大似然原理及数学表示    极大似然原理 是指:若一次试验有 $ n $ 个可能结果 $ A_1, A_2,...,A_n $ ,现在我们做一次试验,试验的结果为 $ A_i $ ,那么我们就可以认为事件 $ A_i $ 在这个 $ n $ 个可能结果中出现的概率最大。    极大似然估计 是指:在一次抽样中,样本出现的概率是关于参数 $ \theta $ 的函数,若在一些试验中

矩阵微积分的一些实用结论与推导

断了今生、忘了曾经 提交于 2019-12-26 23:06:56
矩阵微积分的一些实用结论与推导 向量与矩阵的相关运算 矩阵的一元运算 矩阵的拉直算子 矩阵的迹 矩阵的行列式 伴随矩阵与矩阵的逆 矩阵的二元运算 矩阵的乘法 Hadamard乘积 Kronecker积 数量对向量的导数 数量对列向量的导数 对内积运算求导 对矩阵与向量的乘积求导 对二次型求导 矩阵对矩阵的导数 数量对矩阵的导数 对矩阵的一元运算求导 对拉直算子求导 对矩阵的迹求导数 对矩阵的行列式求导数 对矩阵的二元运算求导 对矩阵的乘法求导 对矩阵的Hadamard乘积求导 对矩阵的张量积求导 在一些优化问题中,经常会出现选择向量或者矩阵来最优化某个目标函数的情况,要想从理论上求解这类优化,就需要正确计算目标函数关于向量或者矩阵的导数。比如多元回归模型中,要用最小二乘法估计回归系数,需要做以下的最优化: min ⁡ β Q = ( Y − X β ) 2 {\min_{\beta}} Q=(Y - X\beta)^2 β min ​ Q = ( Y − X β ) 2 然而现有的教材和论文都只是需要什么就临时查证推导一下,很少有系统地总结目标函数怎么对向量或矩阵求导的资料。这篇博文比较全面地整理了向量与矩阵的一些常用运算,以及怎么对这些常用运算求导的方法。有张量积和拉平算子就足以解决大部分领域的问题了,所以这篇博文不会涉及张量以及张量分析的内容

「知乎」如何证明不可计算的函数比可计算的函数多? - 陈威严的博客

寵の児 提交于 2019-12-25 23:55:10
这篇文章转载自 我在知乎上的回答 严谨的证明的话,可以使用「形式语言」( Formal language )来证明: 在可计算理论和计算复杂度理论中,每个「计算问题」都被描述为一个一个「形式语言」,即字符串的集合。比如对于判断一个图是否是无向连通图这个问题:我们可以写为一个描述所有无向连通图的集合: 由于图灵机只能接受字符串,所以这里的尖括号表示对图的「编码」。出于简单,我们全部使用现实计算机所使用的字母表 $Sigma = {0, 1}$,所以「编码」即一个对象的二进制字符串描述。 如果我们能构造出一个图灵机来「决定」这个「形式语言」,即可以判断一个「输入」是否属于这个集合(membership 与 non-membership),那么我们可以说我们用「图灵机」描述了一个「算法」来计算这个问题,而这个「计算问题」所对应的函数是「可计算的」,否则是「不可计算的」。(注 1) 那么,如果我们有一个包含了所有「可计算函数」的集合,这个集合会有多大呢? 由于 所有「可计算函数」总有一个对应的「图灵机」来计算它 每一个「图灵机」都可以被「编码」为一个不同的 0、1 序列,比如 000,010… 0、1 序列、即二进制,总是可以被转换为一个十进制数的 所以,我们这个集合实际上是与整数集 $Z$ 一样大(等势)的,我们把这个集合表示为 $Sigma^{*}$。 易知 $Z$ 是「无穷可数

方差的性质

和自甴很熟 提交于 2019-12-25 12:08:55
当C为常数时, V a r ( C ) = 0 Var( C ) = 0 V a r ( C ) = 0 当X是随机变量,C是常数时: V a r ( C X ) = C 2 V a r ( X ) , V a r ( C + X ) = V a r ( X ) Var(CX) = C^2Var(X),Var(C+X)=Var(X) V a r ( C X ) = C 2 V a r ( X ) , V a r ( C + X ) = V a r ( X ) 设X与Y是随机变量, V a r ( X + Y ) = V a r ( X ) + V a r ( Y ) + 2 C o v ( X , Y ) Var(X+Y)=Var(X)+Var(Y)+2Cov(X,Y) V a r ( X + Y ) = V a r ( X ) + V a r ( Y ) + 2 C o v ( X , Y ) V a r ( X − Y ) = V a r ( X ) + V a r ( Y ) − 2 C o v ( X , Y ) Var(X-Y)=Var(X)+Var(Y)-2Cov(X,Y) V a r ( X − Y ) = V a r ( X ) + V a r ( Y ) − 2 C o v ( X , Y ) 其中,协方差是 C o v ( X , Y ) = E [ ( X −

VIO学习(1)——IMU-Model

倾然丶 夕夏残阳落幕 提交于 2019-12-15 04:05:41
写在前面 这次来总结一下IMU的一些东西,主要包含: 测量模型 运动模型 IMU的测量模型 通常,我们将IMU的测量模型写作如下模型(注意不是观测模型): w m = w t + b w + n w a m = a t + b a + n a w_m = w_t+b_w+n_w \\ a_m = a_t+b_a+n_a w m ​ = w t ​ + b w ​ + n w ​ a m ​ = a t ​ + b a ​ + n a ​ 亦即:“测量值=真值+零偏+高斯白噪声”,其中: 零偏值是我们希望实时进行估计的,会在状态变量中进行估计; 零偏值通常被建模为随机游走过程; 高斯白噪声 高斯白噪声其实是我们常见的噪声模型,一个典型的高斯白噪声满足: E [ n ( t ) ] = 0 E [ n ( t 1 ) n ( t 2 ) ] = σ g 2 δ ( t 1 − t 2 ) \begin{array}{c}{E[n(t)]=0} \\ {E\left[n\left(t_{1}\right) n\left(t_{2}\right)\right]=\sigma_{g}^{2} \delta\left(t_{1}-t_{2}\right)}\end{array} E [ n ( t ) ] = 0 E [ n ( t 1 ​ ) n ( t 2 ​ ) ] = σ g 2 ​