wt

词向量

两盒软妹~` 提交于 2019-12-02 23:30:02
来源:https://www.numpy.org.cn/deep/basics/word2vec.html 词向量 本教程源代码目录在 book/word2vec ,初次使用请您参考 Book文档使用说明 。 # 说明 本教程可支持在 CPU/GPU 环境下运行 Docker镜像支持的CUDA/cuDNN版本 如果使用了Docker运行Book,请注意:这里所提供的默认镜像的GPU环境为 CUDA 8/cuDNN 5,对于NVIDIA Tesla V100等要求CUDA 9的 GPU,使用该镜像可能会运行失败; 文档和脚本中代码的一致性问题 请注意:为使本文更加易读易用,我们拆分、调整了 train.py 的代码并放入本文。本文中代码与train.py的运行结果一致,可直接运行train.py进行验证。 # 背景介绍 本章我们介绍词的向量表征,也称为word embedding。词向量是自然语言处理中常见的一个操作,是搜索引擎、广告系统、推荐系统等互联网服务背后常见的基础技术。 在这些互联网服务里,我们经常要比较两个词或者两段文本之间的相关性。为了做这样的比较,我们往往先要把词表示成计算机适合处理的方式。最自然的方式恐怕莫过于向量空间模型(vector space model)。 在这种方式里,每个词被表示成一个实数向量(one-hot vector),其长度为字典大小

Experiences using Wt C++ framework? [closed]

陌路散爱 提交于 2019-12-02 16:20:27
Has anyone seriously used Wt? Did it work well? Did you experience certain limitations? Or advantages? Wt is a C++ library for developing web applications. Please avoid the discussion of whether C++ is a good language for web development. I just want to give Wt a try because it seems like it could be a fun thing to do. I have not personally used the framework, but have discussed it with a few people that have. They didn't really have any limitations, but I found it hard to believe they were compiling every time. Their main comment was that it was quite a light load on the server in terms of

virtual memory exhausted: Cannot allocate memory

霸气de小男生 提交于 2019-12-01 16:59:26
My compilation fails on ubuntu 12.10 with 300mb memory available (750mb total, 350mb to MySQL), 1.5ghz, I am trying to rework wt's basic hello world file into a simple ajax page. I'm pretty sure it's not a memory issue at heart since I was able to compile the original hello.C file with g++ -O3 -o hello hello.C -lwtfcgi -lwt -lboost_signals . I'm sure I'm screwing up the c++ since I ripped out the guts of HelloApplication::HelloApplication(const WEnvironment& env) : WApplication(env) and put in the example from the Wt::Json example HelloApplication::HelloApplication(const WEnvironment& env) :

哈尔滨站总结

六眼飞鱼酱① 提交于 2019-12-01 15:36:10
比赛过程: 签到题J题T了两发后。连A了三题,最后卡死在了I题和G题上。 读完I题,觉得是个分析推导过程的题,想了估计20+分钟,没有思路,然后扔给了wt,wt想了想又扔给了jy。jy想出了一种想法,但是他表达能力和我理解能力有限,没有听懂。然后让他单独理下清晰的思路。我又去看G题,读懂题意后,wt口胡了线段树合并的做法,当时感觉会炸空间,但是没法准确的分析出复杂度,就先让wt上机,然后我去推最后的公式。推的时候因为脑子里还在想着I题,凭感觉觉得贪心是对的,验证了几组数据后觉得没错,就去和jy想I题的做法(赛后才知道贪心是错的)。后面的时间一直在这两题来回转。 个人总结: A了三题后,一直没出题,心态有些浮躁,G题贪心没有多验证几组数据。后期应该专注想一题,不应该两边跑的。还有表达能力需要提高 团队总结: 队伍间交流不足。都不能很好的表达出自己的想法。 开局的签到题,因为wt表示J题一定要用long long ,且出题人表示有些题要用快读,所以我们都往输出的方向想,多T了一发。 jy在讨论I题的时候没有清晰的表达出自己想说的,导致我和wt一直没有理解他的想法,我听了4,5遍以后才跟上他的思路 我在想G题的结论时,想到了把n个数分成两堆,但没有很好的做法(后来证明这想法是错的。),所以想和wt讨论我的想法,但wt认为我想表达的是我的做法,所以两个人讨论了一会就有些着急了

LuoGuP4197 Peaks

懵懂的女人 提交于 2019-12-01 11:43:36
LuoGuP4197 Peaks Peak 痛苦的心路: 其实这是个码农题?也不算很码农...只要头脑清晰,还是很好写的. 一眼题,学过 \(kruskal\) 重构树的人应该能一眼秒出重构树的做法. 按权值合并,构造重构树,给定起点后在重构树上倍增,因为重构树的点权是自底向上不降的, 所以可以直接倍增去找权值小于等于某个值的深度最浅的点,它的子树中的叶子的点权的第 \(k\) 大就是答案,子树信息用 \(dfs\) 序 \(+\) 主席树即可. 什么,你不会 \(Kruskal\) 重构树?这里不讲,想学去看下一篇. 错因: 读错题了...以为让求第 \(k\) 小,结果调了半天没调出来. \(Code:\) #include <algorithm> #include <iostream> #include <cstdlib> #include <cstring> #include <cstdio> #include <string> #include <vector> #include <queue> #include <cmath> #include <ctime> #include <map> #include <set> #define MEM(x,y) memset ( x , y , sizeof ( x ) ) #define rep(i,a,b) for (int

R in action -- graph

荒凉一梦 提交于 2019-12-01 07:46:54
#3#### attach(mtcars) plot(wt,mpg) abline(lm(mpg~wt)) title('Regression of MPG on Weight') detach(mtcars) pdf('mygraph.pdf') attach(mtcars) plot(wt,mpg) abline(lm(mpg~wt)) title('Regression of MPG on Weight') detach(mtcars) dev.off() dose <- c(20,30,40,45,60) drugA <- c(16,20,27,40,60) drugB <- c(15,18,25,31,40) plot(dose,drugA,type = 'b') par() #查看当前的所有图形参数/ opar <- par(no.readonly = TRUE) #默认设置 par(lty=2,pch=17) plot(dose,drugA,type = 'b') par(opar) #还原默认设置 plot(dose,drugA,type = 'b',lty=3,pch=13) plot(dose,drugA,type = 'b',lty=3, lwd=3, cex=3, pch=21, col='blue', fg='red', bg='black', col

LDA

北战南征 提交于 2019-11-30 16:17:35
    在 主成分分析(PCA)原理总结 中,我们对降维算法PCA做了总结。这里我们就对另外一种经典的降维方法线性判别分析(Linear Discriminant Analysis, 以下简称LDA)做一个总结。LDA在模式识别领域(比如人脸识别,舰艇识别等图形图像识别领域)中有非常广泛的应用,因此我们有必要了解下它的算法原理。     在学习LDA之前,有必要将其自然语言处理领域的LDA区别开来,在自然语言处理领域, LDA是隐含狄利克雷分布(Latent Dirichlet Allocation,简称LDA),他是一种处理文档的主题模型。我们本文只讨论线性判别分析,因此后面所有的LDA均指线性判别分析。 1. LDA的思想     LDA是一种监督学习的降维技术,也就是说它的数据集的每个样本是有类别输出的。这点和PCA不同。PCA是不考虑样本类别输出的无监督降维技术。LDA的思想可以用一句话概括,就是“投影后类内方差最小,类间方差最大”。什么意思呢? 我们要将数据在低维度上进行投影,投影后希望每一种类别数据的投影点尽可能的接近,而不同类别的数据的类别中心之间的距离尽可能的大。     可能还是有点抽象,我们先看看最简单的情况。假设我们有两类数据 分别为红色和蓝色,如下图所示,这些数据特征是二维的,我们希望将这些数据投影到一维的一条直线,让每一种类别数据的投影点尽可能的接近

机器学习优化器总结

一笑奈何 提交于 2019-11-28 16:32:05
一、梯度下降法 1、标准梯度下降法(GD) 公式: W t + 1 = W t − η t Δ J ( W t ) 其中, W t Wt表示 t t时刻的模型参数。 从表达式来看,模型参数的更新调整,与代价函数关于模型参数的梯度有关,即沿着梯度的方向不断减小模型参数,从而最小化代价函数。 基本策略可以理解为” 在有限视距内寻找最快路径下山 “,因此每走一步,参考当前位置最陡的方向(即 梯度 )进而迈出下一步。可以形象的表示为: 缺点: 训练速度慢: 每走一步都要要计算调整下一步的方向,下山的速度变慢。在应用于大型数据集中,每输入一个样本都要更新一次参数,且每次迭代都要遍历所有的样本。会使得训练过程及其缓慢,需要花费很长时间才能得到收敛解。 容易陷入局部最优解: 由于是在有限视距内寻找下山的反向。当陷入平坦的洼地,会误以为到达了山地的最低点,从而不会继续往下走。所谓的局部最优解就是鞍点。落入鞍点,梯度为0,使得模型参数不在继续更新。 2、批量梯度下降法(BGD) 假设批量训练样本总数为nn,每次输入和输出的样本分别为X (i) ,Y (i) ,模型参数为W,代价函数为J(W),每输入一个样本i代价函数关于W的梯度为ΔJi(Wt,X (i) ,Y (i)) ,学习率为ηt,则使用批量梯度下降法更新参数表达式为: W t + 1 = W t − η t ∑ i = 1 n Δ J i (

Using ACE with WT

寵の児 提交于 2019-11-28 11:46:20
UPDATE 3 Final working code below. YOU NEED THE ace.js FROM THE src FOLDER! It will not work from the libs, you need the pre-packaged version from their site. WText *editor = new WText(root()); editor->setText("function(){\n hello.abc();\n}\n"); editor->setInline(false); The above code can set the contents of the ACE window. MyClass::MyClass(const WEnvironment& env) : WApplication(env) { wApp->require("ace-builds/src/ace.js"); // A WContainerWidget is rendered as a div WContainerWidget *editor = new WContainerWidget(root()); editor->resize(500, 500); std::string editor_ref = editor->jsRef(); /

【JUC源码解析】ForkJoinPool

你说的曾经没有我的故事 提交于 2019-11-27 12:07:38
简介 ForkJoin 框架,另一种风格的线程池(相比于 ThreadPoolExecutor ),采用分治算法,工作密取策略,极大地提高了并行性。对于那种大任务分割小任务的场景(分治)尤其有用。 框架图 几个角色 ForkJoinTask : 有3个实现,分别是RecursiveTask,RecursiveAction,CountedCompleter. RecursiveTask : 可以递归执行的ForkJoinTask。 RecursiveAction : 无返回值的RecursiveTask。 CountedCompleter : 任务执行完成后,触发执行自定义钩子函数。 ForkJoinWorkerThread : 运行 ForkJoinTask 任务的工作线程。 WorkQueue : 任务队列,支持LIFO(last-in-first-out)的push和pop操作(top端),和FIFO(first-in-first-out)的poll操作(base端),队栈二相性。 WorkQueue[] : ForkJoinPool 中的任务分为两种,一种是本地提交的任务Submission task,通过execute()、submit()、invoke()等方法提交的任务;另外一种是工作线程fork出的子任务Worker task.