content

单个pdf提取测试

主宰稳场 提交于 2020-02-29 03:48:34
sklearn实战-乳腺癌细胞数据挖掘 https://study.163.com/course/introduction.htm?courseId=1005269003&utm_campaign=commission&utm_source=cp-400000000398149&utm_medium=share # -*- coding: utf-8 -*- """ Created on Wed Feb 3 09:32:22 2016 pdf单个文件提取测试 @author: Administrator """ import PyPDF2,os,openpyxl,sys,time,threading from openpyxl.cell import get_column_letter,column_index_from_string #测试的pdf提取文档 pdf_test="20160607_2.pdf" def single_Pdf_extract(filename): pdfFileObj=open(filename,'rb') pdfReader=PyPDF2.PdfFileReader(pdfFileObj) pages=pdfReader.numPages #显示页数 在第4100行时读取pdfReader也会出错 if pages>30: pages=30

React Native添加自定义全局组件

泄露秘密 提交于 2020-02-28 22:21:41
在开发rnApp的时候想自己封装一个自定义的Toast组件,又不想在每个组件文件内单独引用,于是自己琢磨了一个方法将组件添加到全局。 这里举例封装一个自定义的Toast组件,这个文件可以放在自己的公共组件文件夹下 ToastTip.js /* * @Date: 2020-02-26 17:40:34 * @Description: 自己封装Toast提示 * @Author: YooHoeh * @LastEditors: YooHoeh * @LastEditTime: 2020-02-28 18:09:17 */ import React , { Component } from "react" ; import { StyleSheet , Text , View , Dimensions , Modal } from "react-native" ; const windows = Dimensions . get ( "window" ) ; export default class ToastTip extends Component { constructor ( ) { super ( ) ; this . state = { modalVisible : false , content : undefined } ; } show ( content ) {

html标签中meta属性使用介绍

。_饼干妹妹 提交于 2020-02-28 18:06:58
前言 meta是html语言head区的一个辅助性标签。也许你认为这些代码可有可无。其实如果你能够用好meta标签,会给你带来意想不到的效果,meta标签的作用有:搜索引擎优化(SEO),定义页面使用语言,自动刷新并指向新的页面,实现网页转换时的动态效果,控制页面缓冲,网页定级评价,控制网页显示的窗口等! html的meta总结 meta标签的组成:meta标签共有两个属性,它们分别是http-equiv属性和name属性,不同的属性又有不同的参数值,这些不同的参数值就实现了不同的网页功能。 1、name属性 name属性主要用于描述网页,与之对应的属性值为content,content中的内容主要是便于搜索引擎机器人查找信息和分类信息用的。 meta标签的name属性语法格式是: <meta name="参数"content="具体的参数值">。 其中name属性主要有以下几种参数:  A、Keywords(关键字)   说明:keywords用来告诉搜索引擎你网页的关键字是什么。 举例: <meta name="keywords"content="meta总结,html meta,meta属性,meta跳转"> B、description(网站内容描述) 说明:description用来告诉搜索引擎你的网站主要内容。 举例: <meta name="description

ElasticSearch 使用教程之_score(评分)介绍

ぐ巨炮叔叔 提交于 2020-02-28 13:39:12
前言 ​ 使用ES时,对于查询出的文档无疑会有文档相似度之别。而理想的排序是和查询条件相关性越高排序越靠前,而这个排序的依据就是 _score 。本文就是详解 _score 有关的信息,希望能对排序评分的理解有所帮助。 正文 ​ 一个文档对于搜索的评分一定是有据可依的,而接下来就要介绍根据哪些参数查找匹配的文档以及评分的标准。 理论 此段转自官方文档—– 相关度评分背后的理论 词频/逆向文档频率(TF/IDF) 当匹配到一组文档后,需要根据相关度排序这些文档,不是所有的文档都包含所有词,有些词比其他的词更重要。一个文档的相关度评分部分取决于每个查询词在文档中的 权重 。 词的权重由三个因素决定,在 什么是相关 中已经有所介绍,有兴趣可以了解下面的公式,但并不要求记住。 词频 词在文档中出现的频度是多少? 频度越高,权重 越高 。 5 次提到同一词的字段比只提到 1 次的更相关。词频的计算方式如下: tf(t in d) = √frequency 词 t 在文档 d 的词频( tf )是该词在文档中出现次数的平方根。 1 如果不在意词在某个字段中出现的频次,而只在意是否出现过,则可以在字段映射中禁用词频统计: PUT /my_index { "mappings": { "doc": { "properties": { "text": { "type": "string",

关于easyUI在子页面增加显示tabs的一个问题

会有一股神秘感。 提交于 2020-02-28 05:50:31
在父页面点个链接能动态看到子页面的情况太简单,请看easyUI官网:http://www.jeasyui.com/tutorial/layout/tabs2.php 现在说的是在子页面点个按钮也能触发增加子页面的情况。 情景是,在父页面上有个div如: HTML <div class="easyui-tabs" id="main" fit="true" border="false">   <div title="Welcome" iconCls="icon-page" style="padding:20px;overflow:hidden;">   </div> </div> 在子页面上有个 Html代码 <a href="#" class="easyui-linkbutton" iconCls="icon-edit" plain="true" onclick="testAddSubPage('new tab','http://www.baidu.com')">test add subpage</a> 现在想点这个链接能弹出一个新的tab,tab里面的内容是百度主页。关键的问题来了,就是testAddSubPage这个function怎么写。 直接这样写是不行的: Js代码 function testAddSubPage(title,url){ var parentMain =

Java 内部类和Lambda

浪子不回头ぞ 提交于 2020-02-28 05:27:45
Java内部类 内部类又称为嵌套类,是在类中定义另外一个类。内部类可以处于方法内/外,内部类的成员变量/方法名可以和外部类的相同。内部类编译后会成为完全不同的两个类,分别为outer.class和outer$inner.class类。外部类只能是public或者默认。 内部类的作用 1. 内部类可以很好的实现隐藏。一 般的非内部类,是不允许有 private 与protected权限的,但内部类可以 2. 内部类拥有外围类的所有元素的访问权限 (private修饰也能访问) 3. 可实现多重继承 (让多个内部类分别继承多个其他类,使外部类可以同时获取多个其他类的属性) 4 .可以避免修改接口而实现同一个类中两种同名方法的调用。(外部类继承,让内部类实现接口) Java Lambda的演进 public class LambdaTest { class Chinese2 implements People { @Override public void speak(String content) { System.out.println(content); } } private static class Chinese3 implements People { @Override public void speak(String content) { System.out

Python_文件操作

試著忘記壹切 提交于 2020-02-27 18:28:56
文件的读写 <1>写数据(write) 使用write()可以完成向文件写入数据 demo: 新建一个文件 file_write_test.py ,向其中写入如下代码: f = open('test.txt', 'w') f.write('hello world, i am here!') f.close() 运行之后会在 file_write_test.py 文件所在的路径中创建一个文件 test.txt ,其中数据如下: 注意: 如果文件不存在那么创建,如果存在那么就先清空,然后写入数据 <2>读数据(read) 使用read(num)可以从文件中读取数据,num表示要从文件中读取的数据的长度(单位是字节),如果没有传入num,那么就表示读取文件中所有的数据 demo: 新建一个文件 file_read_test.py ,向其中写入如下代码: f = open('test.txt', 'r') content = f.read(5) # 最多读取5个数据 print(content) print("-"*30) # 分割线,用来测试 content = f.read() # 从上次读取的位置继续读取剩下的所有的数据 print(content) f.close() # 关闭文件,这个可以是个好习惯哦 运行现象: hello ---------------------------

多线程 Balking设计模式

安稳与你 提交于 2020-02-27 09:37:46
多线程 Balking设计模式 balking犹豫的意思,举个例子,当平时在饭店吃饭时,喊一声服务员,其中一个服务员看到了,向你走来时,这时,一个更近的服务员过来为你服务了,或者 当平时编辑word文档时,word有自动保存功能,还有你自己按保存按钮,当word自动保存时,你也按吧保存按钮,自动保存就会放弃这次操作。 import java.io.FileWriter ; import java.io.Writer ; public class BalkingData { private boolean change = false; private String content ; private final String fileName ; public BalkingData (String content , String fileName) { this . change = true; this . content = content ; this . fileName = fileName ; } public void change (String content) { synchronized ( this ) { this . content = content ; this . change = true; } } public void save ()

androidstudio源换成阿里云(转载)

元气小坏坏 提交于 2020-02-26 23:48:06
平时安卓项目编译较慢,其中一个原因就是要下载依赖资源包比较慢。为了解决这个问题,可以配置阿里云镜像,加速下载。 配置方法: 1. 对特定项目生效,在项目中的 build.gradle修改内容 1 buildscript { 2 repositories { 3 maven { url 'http://maven.aliyun.com/nexus/content/groups/public/' } 4 maven { url 'http://maven.aliyun.com/nexus/content/repositories/jcenter' } 5 maven { url 'http://maven.aliyun.com/nexus/content/repositories/google' } 6 maven { url 'http://maven.aliyun.com/nexus/content/repositories/gradle-plugin' } 7 } 8 dependencies { 9 classpath 'com.android.tools.build:gradle:3.2.1' 10 } 11 } 12 13 allprojects { 14 repositories { 15 maven { url 'http://maven.aliyun.com

python 爬网络免费小说

家住魔仙堡 提交于 2020-02-26 11:06:22
第一次写博客,记录下自己用python爬小说 思路是先获取所有章节的url,再分别爬取生成文件 先开始小说章节页面,收集章节的url html = urllib . request . urlopen ( "http://www.5k5m.com/book/0/426771/" ) . read ( ) html = html . decode ( "gbk" ) # 转成该网址的格式 reg = r '<dd><a href="(.*?)">(.*?)</a></dd>' # (.*?)表示取全部 reg = re . compile ( reg ) #compile()与findall()一起使用,返回一个列表 urls = re . findall ( reg , html ) 可以看到页面有两部分 最新章节和正文,爬下来的时候需要区分 flag = 1 while ( flag ) : if ' target=' in urls [ 0 ] [ 0 ] : urls . pop ( 0 ) #当作list处理 else : flag = 0 接下来是多线程部分,一开始没用多线程的时候过段时间会服务器断开连接,所以后来改用了多线程 charts_url = [ ] for url in urls : # print(url) chapter_title = url [ 1 ]