news

sklearn朴素贝叶斯

匿名 (未验证) 提交于 2019-12-03 00:15:02
一。基本原理 贝叶斯公式 1 from sklearn.datasets import fetch_20newsgroups 2 from sklearn.model_selection import train_test_split 3 from sklearn.feature_extraction.text import TfidfVectorizer 4 from sklearn.naive_bayes import MultinomialNB 5 6 def news_classification(): 7 """ 8 朴素贝叶斯对新闻进行分类 9 :return: 10 """ 11 #1.获取数据 12 news=fetch_20newsgroups("c:/new",subset="all") 13 #print(news) 14 #2.划分数据集 15 x_train,x_test,y_train,y_test=train_test_split(news.data,news.target) 16 # print(x_train) 17 #3.特征工程:文本特征抽取-tfidf 18 transfer=TfidfVectorizer() 19 x_train=transfer.fit_transform(x_train) 20 x_test=transfer

elasticsearch 搜索提示DSL

匿名 (未验证) 提交于 2019-12-03 00:09:02
1 ,创建 mapping : PUT / news_website { "mappings" : { "news" : { "properties" : { "title" : { "type" : "text" , "analyzer" : "ik_max_word" , "fields" : { "suggest" : { "type" : "completion" , "analyzer" : "ik_max_word" } } }, "content" : { "type" : "text" , "analyzer" : "ik_max_word" } } } } } 2,向索引中写入数据 PUT / news_website / news / 1 { "title" : "大话西游电影" , "content" : "大话西游的电影时隔20年即将在2017年4月重映" } PUT / news_website / news / 2 { "title" : "大话西游小说" , "content" : "某知名网络小说作家已经完成了大话西游同名小说的出版" } PUT / news_website / news / 3 { "title" : "大话西游手游" , "content" : "网易游戏近日出品了大话西游经典IP的手游,正在火爆内测中" } 3 ,

RestClient火狐接口测试

匿名 (未验证) 提交于 2019-12-02 23:59:01
一、RestClient的简单介绍 RESTClient是一款用于测试各种Web服务的插件,它可以向服务器发送各种HTTP请求(用户也可以自定义请求方式),并显示服务器响应。 二、RESTClient的优缺点 优点:一款优秀的http接口测试工具,在火狐附加组件里面查询安装,非常小巧、可视化界面,操作简单,使用方便 缺点:只有一种协议(HTTP)、未找到写脚本的地方,不能自动化,只能手动点击 三、RestClient的安装 下载地址:https://www.oschina.net/news/75690/rest-client-3-6-1 解压文件件,执行restclient.bat文件打开restclient使用界面 Chrome、firefox都可以安装 ―――――――――――――――― 来源:博客园 作者: 无泪人 链接:https://www.cnblogs.com/zenghongfei/p/11484686.html

Python删除文件及进行文件夹压缩

匿名 (未验证) 提交于 2019-12-02 22:51:30
示例效果: 项目编译发布后,删除部分配置文件,然后做成发布文件的压缩包。 # -*- coding: UTF-8 -*- import os,sys import zipfile import datetime,time def getToday_yyyyMMdd(): #return time.strftime("%Y%m%d %H:%M:%S",time.localtime(time.time())) return time.strftime("%Y%m%d",time.localtime(time.time())) def remove_noneed_files(startdir): if(os.path.exists(startdir+"\\appsettings.json")): os.remove(startdir+"\\appsettings.json") #if(os.path.exists(startdir+"\\nlog.config")): #os.remove(startdir+"\\nlog.config") if(os.path.exists(startdir+"\\nlog.Development.config")): os.remove(startdir+"\\nlog.Development.config") #if(os.path.exists

朴素贝叶斯

做~自己de王妃 提交于 2019-12-02 22:10:00
一。基本原理 贝叶斯公式 二。在文本分类中的情况 sklearn实现 1 from sklearn.datasets import fetch_20newsgroups 2 from sklearn.model_selection import train_test_split 3 from sklearn.feature_extraction.text import TfidfVectorizer 4 from sklearn.naive_bayes import MultinomialNB 5 6 def news_classification(): 7 """ 8 朴素贝叶斯对新闻进行分类 9 :return: 10 """ 11 #1.获取数据 12 news=fetch_20newsgroups("c:/new",subset="all") 13 #print(news) 14 #2.划分数据集 15 x_train,x_test,y_train,y_test=train_test_split(news.data,news.target) 16 # print(x_train) 17 #3.特征工程:文本特征抽取-tfidf 18 transfer=TfidfVectorizer() 19 x_train=transfer.fit_transform(x_train)

libiec61850开源库源码编译arm-linux版本库

匿名 (未验证) 提交于 2019-12-02 21:59:42
软件环境: 系统:ubuntu 14.04 64位Linux系统 交叉编译工具:gcc-linaro-6.2.1-2016.11-x86_64_arm-linux-gnueabihf,安装路径为/usr/local/oecore-x86_64 使用交叉工具链编译arm-linux版本库: 1、下载 下载libiec61850库源码并解压,当前使用的开源库版本为1.0.0版本,存放路径为:/home/u/libiec61850-1.0.0 2、进入源码目录: cd /home/u/libiec61850-1.0.0/ 3、修改make/target_system.mk文件 (1)修改ARM_TOOLCHAIN_PREFIX为指定的交叉编译工具链前缀 这里修改为:arm-angstrom-linux-gnueabi-,即 ARM_TOOLCHAIN_PREFIX=arm-angstrom-linux-gnueabi- 注:确定当前交叉编译工具链方法如下: a、配置环境: source /usr/local/oecore-x86_64/environment-setup-armv7at2hf-vfp-neon-angstrom-linux-gnueabi b、查看当前交叉编译工具链: echo $CC 输出信息如下: arm-angstrom-linux-gnueabi-gcc

Java爬虫实践:Jsoup+HttpUnit爬取今日头条、网易、搜狐、凤凰新闻

匿名 (未验证) 提交于 2019-12-02 21:53:52
最近学习爬虫,分析了几种主流的爬虫框架,决定使用最原始的两大框架进行练手: Jsoup&HttpUnit 其中jsoup可以获取静态页面,并解析页面标签,最主要的是,可以采用类似于jquery的语法获取想要的标签元素,例如: //1.获取url地址的网页html html = Jsoup.connect(url). get (); // 2.jsoup获取新闻<a>标签 Elements newsATags = html. select ( "div#headLineDefault" ) . select ( "ul.FNewMTopLis" ) . select ( "li" ) . select ( "a" ); 但是,有些网页(例如今日头条)并非是静态页面,而是在首页加载后通过ajax获取新闻内容然后用js渲染到页面上的。对于这种页面,我们需要使用htmlunit来模拟一个浏览器访问该url,即可获取该页面的html字符串。代码如下: WebClient webClient = new WebClient(BrowserVersion .CHROME ) ; webClient .getOptions () .setJavaScriptEnabled (true) ; webClient .getOptions () .setCssEnabled (false) ;

高等数学积分公式大全

冷暖自知 提交于 2019-12-02 19:07:11
高等数学积分公式大全 导数公式: 基本积分表: 三角函数的有理式积分: 曲率: 更多参见: http://wenku.baidu.com/view/983d572a915f804d2a16c104.html http://wenku.baidu.com/view/19a66aeef8c75fbfc77db2bf.html http://www.5678520.com/kaiwangdian/130.html http://www.5678520.com/kaiwangdian/129.html http://www.5678520.com/kaiwangdian/128.html http://www.5678520.com/kaiwangdian/127.html http://www.5678520.com/kaiwangdian/126.html http://www.lianzhiwei.com/News/389/20122116.html http://www.lianzhiwei.com/News/389/20122115.html http://www.lianzhiwei.com/News/389/20122114.html http://www.lianzhiwei.com/News/389/20122113.html http://www.lianzhiwei

web 9个令人震惊的WebGL示例

廉价感情. 提交于 2019-12-02 18:18:22
20个使用WebGL和Three.js实现的网页场景 https://www.open-open.com/news/view/9d8136 20个使用WebGL和Three.js实现的网页场景 http://www.chinaz.com/design/2013/1008/320641.shtml 20个免费的和令人兴奋的CSS3库,框架和工具 https://www.open-open.com/news/view/124d962 20个你会喜欢的令人振奋的HTML5网站 https://www.open-open.com/news/view/10669e8 来源: https://www.cnblogs.com/daimaxuejia/p/11757257.html

Python处理csv,json,xml文本

狂风中的少年 提交于 2019-12-01 22:10:49
一、CSV 简介: CSV(Comma-Separated Value),即逗号分隔符。CSV并不算真正的结构化数据,CSV文件内容仅仅是一些用逗号分割的原始字符串。虽然可以用str.split(',')分割提取CSV文件,但有些字段值可能含有嵌套的逗号,所以Python提供了专门用于解析和生成CSV的库,CSV即是一个。 eg:该脚本演示了将数据转换成CSV格式写出,并再次读入。 input: import csv from distutils.log import warn as printf #避免python2和3的版本差异 DATA = ( (9,'Web Client and Server','base64,urllib'), (10,'Web Programming:CGI & WSGI','cgi,time,wsgiref'), (11,'Web Services','urllib, twython'), ) printf('***WRITING CSV DATA') f = open('bookdata.csv','w') writer = csv.writer(f) for record in DATA: writer.writerow(record) f.close() printf('***REVIEW OF SAVED DATA') f = open(