NLPIR

纯分享:信息流投放的9类超实用工具 快收藏起来!

浪尽此生 提交于 2020-04-12 15:26:45
今天,我为大家整理了在平时推广中会用到的9大类不同功能的工具,覆盖第三方监测工具、信息流广告追踪、APP推广工具、搜索指数工具……话不多说,一起来看看你用过几个? ====================================================== 第三方监测工具 1、shareinstall 官网: http://www.shareinstall.com 特性:免费/付费,数据统计类产品比较成熟全面 ShareinstallSDK其实是一款APP的推广辅助工具。APP开发者可以通过ShareinstallSDK更精准的进行产品的推广。在用户安装过程中简化用户安装流程,改善用户安装使用体验。另外,ShareinstallSDK还是一款渠道统计工具,能够全方位的分析渠道推广效果。 2、百度统计 官网: https://tongji.baidu.com 特性:免费,技术相对成熟,与百度SEM/信息流推广完美结合 这个是我们在推广中运用的最多的统计工具之一,尤其是SEM。 3、GoogleAnalytics(GA) 官网: http://www.google.cn/analytics/ 特性:内什么,全球最大的统计分析工具之一,目前国内用的比较少了,想学习的同学,是需要×××的。 买一些软件即可,例如多态,或者plex等等(多态的会有流量限制,plex的没有

Elasticsearch简单学习9:深入了解3

北慕城南 提交于 2020-02-27 01:17:12
一、中文分词器 《1.》HanLP – 面向生产环境的自然语⾔言处理工具包 ● http://hanlp.com/ ● https://github.com/KennFalcon/elasticsearch-analysis-hanlp 《2.》IK分词器 ● https://github.com/medcl/elasticsearch-analysis-ik 1.安装HanLP D:\softhan\elasticsearch\elasticsearch\elasticsearch-7.1.0> .\bin\elasticsearch-plugin.bat install https://github.com/KennFalcon/elasticsearch-analysis-hanlp/releases/download/v7.1.0/elasticsearch-analysis-hanlp-7.1.0.zip 2.安装IK分词器 PS D:\softhan\elasticsearch\elasticsearch\elasticsearch-7.1.0> .\bin\elasticsearch-plugin.bat install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.1

hanlp和jieba等六大中文分工具的测试对比

二次信任 提交于 2019-11-30 03:11:16
本篇文章测试的哈工大LTP、中科院计算所NLPIR、清华大学THULAC和jieba、FoolNLTK、HanLP这六大中文分词工具是由 水...琥珀 完成的。相关测试的文章之前也看到过一些,但本篇阐述的可以说是比较详细的了。这里就分享一下给各位朋友! 安装调用 jieba“结巴”中文分词:做最好的 Python 中文分词组件 THULAC清华大学:一个高效的中文词法分析工具包 FoolNLTK可能不是最快的开源中文分词,但很可能是最准的开源中文分词 教程:FoolNLTK 及 HanLP使用 HanLP最高分词速度2,000万字/秒 **中科院 Ictclas 分词系统 - NLPIR汉语分词系统 哈工大 LTP LTP安装教程[python 哈工大NTP分词 安装pyltp 及配置模型(新)] 如下是测试代码及结果 下面测试的文本上是极易分词错误的文本,分词的效果在很大程度上就可以提现分词器的分词情况。接下来验证一下,分词器的宣传语是否得当吧。 jieba 中文分词 thulac 中文分词 fool 中文分词 HanLP 中文分词 中科院分词 nlpir 哈工大ltp 分词 以上可以看出分词的时间,为了方便比较进行如下操作: 分词效果对比 结果为: 总结: 1.时间上(不包括加载包的时间),对于相同的文本测试两次,四个分词器时间分别为: jieba: 0