对数

行人检测论文笔记:Pedestrian Detection - An Evaluation of the State of the Art

牧云@^-^@ 提交于 2019-11-30 03:10:48
知识点 对数正态分布(lognormally distributed):对数为正态分布的任意随机变量的概率分布。 如果 X 是正态分布的随机变量,则 exp(X)为对数正态分布. 如果 Y 是对数正态分布,则 ln(Y) 为正态分布。 如果一个变量可以看作是许多很小独立因子的乘积,则这个变量可以看作是对数正态分布。 对数正态分布的概率密度函数为: 对数平均:对数平均与几何平均相等,并且比算数平均,对于对数正态分布数据的典型值更具代表性 二个数字的对数平均小于其算术平均,大于几何平均,若二个数字相等,对数平均会等于算数平均及几何平均。 Histogram of Oriented Gradients for Objection Detection.(HOG)步骤: Sampling positive images Sampling negative images Training a Linear SVM Performing hard-negative mining Re-training your Linear SVM using the hard-negative samples Evaluating your classifier on your test dataset, utilizing non-maximum suppression to ignore

[HAOI2009]逆序对数列

自作多情 提交于 2019-11-29 14:18:23
求一个序列的逆序对数很自然的想到了树状数组,方便又快捷。 根据题目的意思,它所说的各种排列是将第一个元素移至最后形成的排列,那么我们就从这里下手, 对于第一个元素它后面比它小的就一定都会形成逆序对,这样对于当前的逆序对, 在第一个元素移至最后时,它的逆序对数就要减少这个元素的值,因为此题数值是连续的所以可以直接减(且从数字大小0开始); 而在移至最后时,大于这个元素的数值的数和它都会形成逆序对。这样在减了之前的值之后还要加上总的元素的个数T-1-这个元素的值 这样得到的一个值就是新排列的逆序对数了。 例:我们要将a[0]移至末尾,总元素的个数是n,当前的逆序对数是sum,那么将a[0]移至末尾时,sum += N - a[0] - 1 - a[0] 。 有了这个方法,那么我们就可以在O(n)的时间内算出所有排列的最小逆序对数了。总的时间复杂度是O(nlogn)。 AC代码如下: #include<cstdio> #define Maxn 9999999 int Bit[Maxn],N,a[Maxn]; int lowbit(int k) { return k&(-k); } int min(int a,int b) { if(a<b) return a; else return b; } void update(int pos,int val) { while(pos<=Maxn)

R语言Wald检验 vs 似然比检验

回眸只為那壹抹淺笑 提交于 2019-11-29 06:35:58
在开展基于可能性推理的课程时,关键主题之一是基于似然函数的测试和置信区间构建。通常包括Wald,似然比和分数测试。在这篇文章中,我将修改Wald和似然比测试的优缺点。我将重点关注置信区间而不是测试 。 示例 我们将X表示观察到的成功次数的随机变量,x表示其实现的值。似然函数只是二项式概率函数,但参数是模型参数。 所以MLE只是观察到的比例。 Wald置信区间 如果我们使用将参数空间(在我们的示例中为区间(0,1))映射到整个实线的变换,那么我们保证在原始比例上获得仅包括允许参数值的置信区间。 对于概率参数绘制的n = 10,x = 1的二项式示例的对数似然函数 从视觉上我们可以看出,对数似然函数 在绘制时 实际上不是二次方。下图显示了相同的对数似然函数,但现在x轴是对数几率: 二项式的对数似然函数n = 10 x = 1示例,相对于对数几率。 似然比置信区间 似然比95%置信区间定义为(或模型参数为)的那些值总之,虽然似然比方法具有明显的统计优势,但计算上Wald区间/测试更容易。在实践中,如果样本量不是太小,并且Wald间隔是以适当的比例构建的,它们通常是合理的(因此它们在统计软件包中使用)。然而,在小样本中,似然比方法可能是优选的。 此外,当似然比方法仍然(通常)合理时,Wald方法完全失败的情况是在测试参数是否位于其参数空间的边界时。出现这种情况的情况包括随机效应模型

洛谷P4859 已经没有什么好害怕的了

◇◆丶佛笑我妖孽 提交于 2019-11-28 20:34:29
题目大意 给出 \(n\) 个数 \(a_i\) ,以及 \(n\) 个数 \(b_i\) ,要求两两配对使得 \(a>b\) 的对数减去 \(a<b\) 的对数等于 k。 \(0\leq k\leq n\leq2000\) , \(a,b\) 无相同元素。 题目分析 这题目意蕴丰富 求方案数考虑 \(dp\) 先将序列从小到大排序。 因为保证了互不相同。 所以只需要知道 \(a>b\) 的对数就可以算出来对数之差。 设 \(dp[i][j]\) 表示枚举到第 \(i\) 个, \(a>b\) 对数为 \(j\) 的个数 。 。。 。。。 然后你做不下去了。 你并不知道你转移的是大还是小的情况。 于是我们放宽限制,表示对数至少为 \(j\) 。 预处理出最大的 \(k\) , \(b_k<a_i\) \(dp[i][j]=dp[i-1][j]+dp[i-1][j-1]*(k-j+1)\) 因为剩下的可以任意分配 记 \(f_i=(n-i)!dp[n][i]\) 这就是至少 \(i\) 个的答案 设答案为 \(g_i\) \(f_k=\sum\limits_{i=k}^n{i\choose k}g_i\) 这就是二项式反演的板子 \(g_k=\sum\limits_{i=k}^n(-1)^{i-k}{i\choose k}f_i\) 做完了。 /* @Date : 2019-08

Mel倒谱系数到底是什么

会有一股神秘感。 提交于 2019-11-28 16:32:07
Mel倒谱系数(MFCC)是啥?跟频谱包络啥关系?跟语音的频谱有什么区别? 这里我们好好讲一讲。 在任意一个自动语音识别系统中,语音识别的第一步就是提取特征。换句话说,我们需要把音频信号中具有辨识性的成分提取出来,然后把其他的乱七八糟的信息扔掉,例如背景噪声啊,情绪啊等等。搞清语音是怎么产生的,对于我们理解语音有很大帮助。人通过声道产生声音,声道的形状决定了发出怎样的声音。如果我们可以准确的知道这个形状,那么我们就可以对产生的音素进行准确的描述。声道的形状在语音短时功率谱的包络中显示出来。而MFCCs就是一种准确描述这个包络的一种特征。 换句话说,Mel倒谱系数其实是来自于频谱包络的。 好,到这里,我们提到了一个很重要的关键词:声道的形状,然后知道它很重要,还知道它可以在语音短时功率谱的包络中显示出来。哎,那什么是功率谱?什么是包络?什么是MFCCs?它为什么有效?如何得到?下面咱们慢慢道来。 一、频谱图(Spectrogram) 我们处理的是语音信号,那么如何去描述它很重要。因为不同的描述方式放映它不同的信息。那怎样的描述方式才利于我们观测,利于我们理解呢?这里我们先来了解一个叫频谱图的东西。 这个图上面是时域的音频波形,下面是频域的音频频谱,也就是频谱图。在这里, 这段语音被分为很多帧,每帧语音都对应于一个频谱(通过短时FFT计算) ,频谱表示频率与能量的关系。在实际使用中

【论文阅读】Prior Knowledge Integration for Neural Machine Translation using Posterior Regularization

﹥>﹥吖頭↗ 提交于 2019-11-28 00:50:16
本文在参考一些网上资料的基础上,对该论文的思想和重要步骤作出了总结,也加入了在与身边朋友讨论的过程中对文章更细致深入的理解的内容,同时包含了自己在阅读中发现需要了解的背景知识的简单介绍。 目录 概述 背景知识 先验 后验 似然估计 正则化 KL散度 EM算法 log-linear model对数线性模型 Posterior Regularization后验正则化 模型 特征设计 训练 目标 编码 解码 结果 结论 参考资料 概述 这篇搜狗联合清华信息科学与技术国家实验室进行研究、入选ACL 2017的论文提出了将 先验知识 集成到NMT中并保持模型结构不变的一般框架。使用的主要方法是 后验正则化 ,将先验知识表征为对数线性模型中的特征,用来指导NMT的过程。 论文希望解决的问题就是如何将多个重叠的、任意的先验知识集成到神经网络中。一方面,神经网络中用来表示翻译过程中涉及的语言结构的向量的值是连续的。虽然这些向量的表示确实隐含着翻译规则,但很难从语言学的角度来解释。作者对此提出了 四种特征设计方式 对语言学中的先验知识进行编码; 另一方面,在将先验知识编码成翻译规则时,一般都用离散的表达形式(比如词典),将这种离散形式转化为神经网络所要求的连续表示是一件困难的事情。因此作者采用了 对数线性模型 ,代替原来的离散集合表示。 论文链接 背景知识 在了解论文主要工作之前

jdbcTemplate模板数据库简化对数据库的操作,他是sping提供的

六眼飞鱼酱① 提交于 2019-11-27 20:59:22
jdbc: jdbc是Java提供的原生态接口,操作数据库的唯一技术 缺点:重复写代码,代码写死,耦合性高,开发效率低换数据库比较苦难 优点:运行速度最快,所有操作数据库的技术底层都是jdbc写的 jpa:   java persistence api 持久规范,他是ORM对象关系型数据库映射的规范,不用写sql语句,面向对象的   优点:数据库移植快,一级二级缓存,查询,提高性能( ehcache 框架实现缓存 )   缺点:查询所有的时候,find性能无法控制,无法干预sql语句的生成,对sql语句要求高的话,    jpa是为了让面向对象设置的,为了不写sql语句而设置的(几十张表写sql语句关联,那种才是高手,本人三张表的sql语句就很头疼)      spring jdbc jdbcTemplate模板数据库简化对数据库的操作,他是sping提供的   spring data jpa 是对jpa规范的再次抽象,底层还是用的实现jpa的hibernate技术( entitymanager )。   hibernate 是一个标准的orm框架,实现jpa接口(好像是 session )。   mybatis 也是一个持久化框架,但 不完全是一个orm框架,不是依照的jpa规范,她需要些sql语句,半ORM 。 来源: https://www.cnblogs.com

面试现场:手撕二分查找算法

笑着哭i 提交于 2019-11-27 15:11:18
算法概述 二分搜索,也称折半搜索、对数搜索,是一种在有序数组中查找某一特定元素的搜索算法。 搜索过程从数组的中间元素开始,如果中间元素正好是要查找的元素,则搜索过程结束;如果某一特定元素大于或者小于中间元素,则在数组大于或小于中间元素的那一半中查找,而且跟开始一样从中间元素开始比较。如果在某一步骤数组为空,则代表找不到。这种搜索算法每一次比较都使搜索范围缩小一半。 二分搜索在情况下的复杂度是对数时间,进行 O(log n)次比较操作(n在此处是数组的元素数量, O是大O记号, log 是对数)。 二分搜索使用常数空间,无论对任何大小的输入数据,算法使用的空间都是一样的。除非输入数据数量很少,否则二分搜索比线性搜索更快,但数组必须事先被排序。 示例代码 Java代码(循环) /** * 二分查找(循环) * @param arr 数组 * @param start 头索引 * @param end 尾索引 * @param target 目标 * @return 目标索引 */ public static int binarySearchByRecursion(int[] arr, int start, int end, int target){ int result = -1; while (start <= end){ int mid = start + (end - start

对数变化处理重尾分布

天涯浪子 提交于 2019-11-27 08:10:31
对于具有重尾分布的正数值的处理,对数变换是一个非常强大的工具。(与高斯分布相比, 重尾分布的概率质量更多地位于尾部。)它压缩了分布高端的长尾,使之成为较短的尾部, 并将低端扩展为更长的头部。 来源: https://blog.csdn.net/weixin_39031707/article/details/99589206

信息熵的公式的通俗理解

无人久伴 提交于 2019-11-26 19:13:52
作者:忆臻 链接:https://www.zhihu.com/question/22178202/answer/161732605 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 作者:忆臻 链接:https://www.zhihu.com/question/22178202/answer/161732605 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 下面根据我的理解一步一步引出信息熵及其公式的来源: 信息熵的公式 先抛出信息熵公式如下: 其中 代表随机事件X为 的概率,下面来逐步介绍信息熵的公式来源! 信息量 信息量是对信息的度量,就跟时间的度量是秒一样,当我们考虑一个离散的随机变量x的时候,当我们观察到的这个变量的一个具体值的时候,我们接收到了多少信息呢? 多少信息用信息量来衡量, 我们接受到的信息量跟具体发生的事件有关。 信息的大小跟随机事件的概率有关。 越小概率的事情发生了产生的信息量越大 ,如湖南产生的地震了; 越大概率的事情发生了产生的信息量越小 ,如太阳从东边升起来了( 肯定发生嘛,没什么信息量 )。这很好理解! 例子 脑补一下我们日常的对话: 师兄走过来跟我说,立波啊,今天你们湖南发生大地震了。 我:啊,不可能吧,这么重量级的新闻!湖南多低的概率发生地震啊! 师兄,你告诉我的这件事,信息量巨大