mu

C++ 九阴真经之异步队列

杀马特。学长 韩版系。学妹 提交于 2020-08-17 08:47:17
异步队列可以看作是消息队列和线程池的合体,输入端是用户自定义数据,输出端为用户自定义执行体。 定义类型 T 定义执行体 bool task(T& t){} 就可以实现没每一个消息执行操作 task(t) /************************************************************************************ * 异步队列 * 用户将数据压入队列,并自定义执行函数,对数据进行异步处理 * T 数据类型 * RET 结果返回类型 ************************************************************************************/ template <typename T, typename RET> struct NodeData { T data; std::promise<RET> res; }; template<typename T, typename RET> class CAsyncQueue : public ThreadObject { public: void Start(unsigned short nThreadNum, std::function<RET(T)> f) { m_idlThrNum = nThreadNum < 1

希腊字母读法及含义

六月ゝ 毕业季﹏ 提交于 2020-08-17 03:02:12
文章转载,参考 https://blog.csdn.net/chehec2010/article/details/90204622 序号 大写 小写 英语音标注音 英文 汉语名称 常用指代意义 1 Α α /'ælfə/ alpha 阿尔法 角度、系数、角加速度、第一个、电离度、转化率 2 Β β /'bi:tə/ 或 /'beɪtə/ beta 贝塔 磁通系数、角度、系数 3 Γ γ /'gæmə/ gamma 伽玛 电导系数、角度、比热容比 4 Δ δ /'deltə/ delta 得尔塔 变化量、焓变、熵变、屈光度、一元二次方程中的判别式、化学位移 5 Ε ε /'epsɪlɒn/ epsilon 艾普西隆 对数之基数、介电常数、电容率 6 Ζ ζ /'zi:tə/ zeta 泽塔 系数、方位角、阻抗、相对黏度 7 Η η /'i:tə/ eta 伊塔 迟滞系数、机械效率 8 Θ θ /'θi:tə/ theta 西塔 温度、角度 9 Ι ι /aɪ'əʊtə/ iota 约(yāo)塔 微小、一点 10 Κ κ /'kæpə/ kappa 卡帕 介质常数、绝热指数 11 ∧ λ /'læmdə/ lambda 拉姆达 波长、体积、导热系数 普朗克常数 12 Μ μ /mju:/ mu 谬 磁导率、微、动摩擦系(因)数、流体动力黏度、货币单位,莫比乌斯函数 13 Ν ν

SVM——支持向量机(完整)

萝らか妹 提交于 2020-08-16 21:45:53
  最基本的SVM(Support Vector Machine)旨在使用一个超平面,分离线性可分的二类样本,其中正反两类分别在超平面的一侧。SVM算法则是要找出一个最优的超平面。 线性可分SVM 优化函数定义   给定一个特征空间线性可分的数据集: $T = \{(x_1,y_1),(x_2,y_2),...,(x_N,y_N)\}$   特征分布类似下图:   如上图,当特征空间为二维时,超平面就是比二维空间第一维度的直线。任意维超平面定义如下(其中$x$是$n$维特征向量,$w,b$是超平面系数): $wx+b = 0$   对于正例应有$wx_i+b > 0$,反例应有$wx_i+b < 0$,也就是说,如果分类正确,应有: $y_i(wx_i+b)> 0$   从直观上看,最优超平面,应该是在将所有样本都正确分类的基础上,使与之距离最近的样本点的距离最大化。点到面的距离公式中学学过 $\displaystyle \frac{|wx+b|}{|| w ||}$   综上,优化的问题用数学方式表达: $\displaystyle\max\limits_{w,b}\min\limits_{i}(\frac{y_i(wx_i+b)}{||w||})$   或者 $\begin{align*} &\max\limits_{w,b}\;\gamma \\ &\;\text{s.t.}

线性判别分析LDA原理总结

做~自己de王妃 提交于 2020-08-16 19:30:59
    在 主成分分析(PCA)原理总结 中,我们对降维算法PCA做了总结。这里我们就对另外一种经典的降维方法线性判别分析(Linear Discriminant Analysis, 以下简称LDA)做一个总结。LDA在模式识别领域(比如人脸识别,舰艇识别等图形图像识别领域)中有非常广泛的应用,因此我们有必要了解下它的算法原理。     在学习LDA之前,有必要将其自然语言处理领域的LDA区别开来,在自然语言处理领域, LDA是隐含狄利克雷分布(Latent Dirichlet Allocation,简称LDA),他是一种处理文档的主题模型。我们本文只讨论线性判别分析,因此后面所有的LDA均指线性判别分析。 1. LDA的思想     LDA是一种监督学习的降维技术,也就是说它的数据集的每个样本是有类别输出的。这点和PCA不同。PCA是不考虑样本类别输出的无监督降维技术。LDA的思想可以用一句话概括,就是“投影后类内方差最小,类间方差最大”。什么意思呢? 我们要将数据在低维度上进行投影,投影后希望每一种类别数据的投影点尽可能的接近,而不同类别的数据的类别中心之间的距离尽可能的大。     可能还是有点抽象,我们先看看最简单的情况。假设我们有两类数据 分别为红色和蓝色,如下图所示,这些数据特征是二维的,我们希望将这些数据投影到一维的一条直线,让每一种类别数据的投影点尽可能的接近

传统声学模型之HMM和GMM

夙愿已清 提交于 2020-08-16 11:31:44
声学模型是指给定声学符号(音素)的情况下对音频特征建立的模型。 数学表达 用 \(X\) 表示音频特征向量 (观察向量),用 \(S\) 表示音素 (隐藏/内部状态),声学模型表示为 \(P(X|S)\) 。 但我们的机器是个牙牙学语的孩子,并不知道哪个音素具体的发出的声音是怎么样的。我们只能通过大量的数据去教他,比如说在拼音「é」的时候对应「鹅」的发音,而这个过程就是 GMM 所做的,根据数据建立起「é」这个拼音对应的音频特征分布,即 \(P(x|s=é)\) 。孩子学会每个拼音的发音后,就可以根据拼音拼读一个单词 / 一个句子,但你发现他在读某段句子的时候,听起来好像怪怪的,你检查发现是他把某个拼音读错了,导致这句话听起来和常理不符。而这个怪怪的程度就是你听到这个音频特征序列的时感觉这个音频序列以及其背后的拼音出现的可能性的倒数,这部分则是通过 HMM 来建模的。 总结一下,GMM 用于对音素所对应的音频特征分布进行建模,HMM 则用于音素转移和音素对应输出音频特征之间关系的建模。 HMM 即为隐马尔可夫模型(Hidden Markov model,HMM) HMM 脱胎于马尔可夫链,马尔可夫链表示的是一个系统中,从一个状态转移到另一个状态的所有可能性。但因为在实际应用过程中,并不是所有状态都是可观察的,不过我们可以通过可观察到的状态与隐藏状态之间的可能性

蒙特卡洛方法分析Web页面浏览量

烂漫一生 提交于 2020-08-16 06:08:58
作者|Michael Grogan 编译|VK 来源|Towards Data Science 蒙特卡洛这种方法在金融等领域得到了广泛的应用,以便对各种风险情景进行建模。 然而,该方法在时间序列分析的其他方面也有重要的应用。在这个特定的例子中,让我们看看蒙特卡洛方法如何被用来为web页面浏览量建模。 以上时间序列来源于Wikimedia Toolforge,是从2019年1月到2020年7月维基百科上“医疗”一词的网页浏览量的时间序列。数据都是按每日划分的。 我们可以看到,时间序列每天都显示出显著的波动性,并且显示了数据中一些奇怪的“峰值”的典型特征。或者说,在这些天中,搜索该术语的次数特别高。 试图对这样的时间序列进行直接预测通常是徒劳的。这是因为不可能从统计学上预测搜索词何时会出现峰值,因为这会受到独立于过去数据的影响。例如,与健康有关的重大新闻事件会导致搜索该词的高峰。 然而,特别有趣的是我们可以创建一个模拟,以分析web页面统计的许多潜在场景,并估计在不正常的场景下这个搜索词的页面浏览量有多高或多低。 概率分布 当运行蒙特卡罗模拟时,重要的是要注意所使用的分布类型。 考虑到页面浏览量不能为负,我们假设分布是正偏态的。 以下是数据的柱状图: 我们可以看到,分布显示正偏态,有几个离群值使分布尾部向右倾斜。 >>> series = value; >>> skewness =

EM(最大期望)算法推导、GMM的应用与代码实现

…衆ロ難τιáo~ 提交于 2020-08-16 05:02:03
  EM算法是一种迭代算法,用于含有隐变量的概率模型参数的极大似然估计。 使用EM算法的原因   首先举李航老师《统计学习方法》中的例子来说明为什么要用EM算法估计含有隐变量的概率模型参数。   假设有三枚硬币,分别记作A, B, C。这些硬币正面出现的概率分别是$\pi,p,q$。进行如下掷硬币试验:先掷硬币A,根据其结果选出硬币B或C,正面选硬币B,反面边硬币C;然后掷选出的硬币,掷硬币的结果出现正面记作1,反面记作0;独立地重复$n$次试验,观测结果为$\{y_1,y_2,...,y_n\}$。问三硬币出现正面的概率。   三硬币模型(也就是第二枚硬币正反面的概率)可以写作 $ \begin{aligned} &P(y|\pi,p,q) \\ =&\sum\limits_z P(y,z|\pi,p,q)\\ =&\sum\limits_z P(y|z,\pi,p,q)P(z|\pi,p,q)\\ =&\pi p^y(1-p)^{1-y}+(1-\pi)q^y(1-q)^{1-y} \end{aligned} $   其中$z$表示硬币A的结果,也就是前面说的隐变量。通常我们直接使用极大似然估计,即最大化似然函数 $ \begin{aligned} &\max\limits_{\pi,p,q}\prod\limits_{i=1}^n P(y_i|\pi,p,q) \\ =&

《隐秘的角落》弹幕分析,制作词云,看看观众们对该剧的评价如何

梦想的初衷 提交于 2020-08-16 02:54:34
前言 本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。 最近有部很火的悬疑推理剧:《隐秘的角落》,豆瓣评分9.0,周末闲来无事,在追剧的同时爬取了下该剧第一集的弹幕,我们通过对弹幕进行分析,制作词云,来看看观众们对该剧的评价如何。 整篇文章分为两部分:1.爬取爱奇艺中该剧第一集的弹幕 2.对爬取出来的弹幕做处理,并制作词云。 1.爬取爱奇艺弹幕 相比于其他视频网站来说,爱奇艺的弹幕难爬一些,为啥呢,因为你爬取出来的文件是乱码的(下边会贴图),需要自己再把该文件二进制编码之后才能用。具体步骤如下: 首先,打开浏览器,进入爱奇艺页面,点开该剧,弹幕打开,然后F12,浏览器下方或者右侧会弹出一些界面,选择Network,在我图上标注的框中输入“bullet”搜索弹幕相关的文件,为啥输入这个搜索呢,因为这个单词的意思就是弹幕,程序员命名东西一般也是有规律的,还有大多视频网站的弹幕相关文件都是这个名字哈哈。如果你F12搜索之后无内容,那直接点击下浏览器刷新按钮即可。下图中箭头指的分别是Network、搜索框、弹幕文件名和弹幕内容(你可以看到,弹幕内容是乱七八糟的乱码)。还有说明一点,弹幕文件一集不止一个,爱奇艺5分钟加载一个弹幕文件(为啥5分钟,下边会解释)。 接下来,观察弹幕文件出现的规律以及弹幕文件地址中的规律

30页软件测试人面试宝典文档资料,助你拿下了百度、美团、字节跳动、小米等大厂的offer【内含答案】

陌路散爱 提交于 2020-08-15 16:31:08
前言:看了一下桌边的日历,新的6月,已经过去5天了。明天又是周六了,大家准备怎么度过呢?趁着大家周末给大家分享一个软件测试工程师面试题汇总。 拿到大厂的offer一直是软件测试朋友的一个目标,我是如何拿到大厂offer的呢,今天给大家分享我拿到大厂offer的利器,大厂核心知识面试宝典,30页面试宝典,内容包含了软件测试技术面试题(117问)、开发及环境搭建类面试题(23问)、人力资源面试题(18问)每一问都给出了详细的参考答案,以及面试思路。 面试整个核心知识点的内容很详细,很多知识点在总结的时候会有一些纰漏,想比较直接观看视频的可以关注 B站爱码小哥 免费领取一下哦。面试突击训练营,(简历编写+面试技术+心理学),还有整套软件测试工程师全栈自动化2000千分钟整套教程。边看视频边学习,你能学到很多!感谢观看与信任! 由于文档里的细节内容实在过多所以只编辑了部分知识点的章节粗略的介绍下,每个章节小节点里面都有更细化的内容!以下就是部分章节目录,由于篇幅限制目录上的详细讲解也无法一一列出,文末底下有获取整个文档的方式。 怎么能拿到大厂的offer,过硬的技术是根本,再结合面试的技巧。由于整个文档比较全面,内容比较多,篇幅的限制,需要完整版的朋友可以关注文末的免费领取方式。 最后: 关于软件测试人,除了做项目来提高自身的技术之外,还有一种提升自己的专业技能就是:多!看!书!

SVM——支持向量机(完整)

社会主义新天地 提交于 2020-08-15 00:47:10
  最基本的SVM(Support Vector Machine)旨在使用一个超平面,分离线性可分的二类样本,其中正反两类分别在超平面的一侧。SVM算法则是要找出一个最优的超平面。 线性可分SVM 优化函数定义   给定一个特征空间线性可分的数据集: $T = \{(x_1,y_1),(x_2,y_2),...,(x_N,y_N)\}$   特征分布类似下图:   如上图,当特征空间为二维时,超平面就是比二维空间第一维度的直线。任意维超平面定义如下(其中$x$是$n$维特征向量,$w,b$是超平面系数): $wx+b = 0$   对于正例应有$wx_i+b > 0$,反例应有$wx_i+b < 0$,也就是说,如果分类正确,应有: $y_i(wx_i+b)> 0$   从直观上看,最优超平面,应该是在将所有样本都正确分类的基础上,使与之距离最近的样本点的距离最大化。点到面的距离公式中学学过 $\displaystyle \frac{|wx+b|}{|| w ||}$   综上,优化的问题用数学方式表达: $\displaystyle\max\limits_{w,b}\min\limits_{i}(\frac{y_i(wx_i+b)}{||w||})$   或者 $\begin{align*} &\max\limits_{w,b}\;\gamma \\ &\;\text{s.t.}