header

【sed】进阶

非 Y 不嫁゛ 提交于 2020-03-26 09:16:52
sed的基本用法已能满足大多数需求,但当需要时,知道这些高级特效的存在及如何使用将提供莫大的帮助! 1. 多行命令 sed编辑器提供三个用于处理多行文本的特殊命令: N:将数据流的下一行加入当前模式空间 D:删除多行组中的一行 P:打印多行组中的一行 【next命令】 单行next命令: 小写的n命令,将下一行文本移入模式空间(工作空间)并挤走已有文本,即跳过当前行进入下一行。 1 # cat data1.txt 2 this is the header line 3 4 this is the data line 5 6 this is the last line 经n命令处理后可跳过第一行: 1 # sed '/header/{n;d}' data1.txt 2 this is the header line 3 this is the data line 4 5 this is the last line 多行next命令: 大写的N命令,将下一行文本并入当前模式空间,即加到已有文本之后。两个文本行合并成一行,仍以换行符分隔。 1 # cat data2.txt 2 This is the header line. 3 This is the first data line. 4 This is the second data line. 5 This is the last

Xcode 设置Pch文件

守給你的承諾、 提交于 2020-03-26 06:27:23
Xcode 6将Pch文件移出默认创建文件, 须使用者手动添加, 添加步骤如下: 1. 创建Pch文件 2. 修改Project内 Precompile Prefix Header 设置:Project -> Build Settings -> Apple LLVM 6.0 - Language -> Precompile Prefix Header -> YES 3. 修改Project内 Prefix Header 设置:Project -> Build Setting -> Apple LLVM 6.0 -> Prefix Header - Language -> $(SRCROOT)/pchName.pch 注意:第3步pchName后必须添加.pch, 否则编译会报错: 4. Target进行相同设置: 来源: https://www.cnblogs.com/happyplane/p/4703497.html

Python爬虫入门之三urllib库的基本使用

半腔热情 提交于 2020-03-25 20:54:35
前言 所谓网页抓取,就是把URL地址中指定的网络资源从网络流中读取出来,保存到本地。在Python中有很多库可以用来抓取网页,我们先学习urllib。 注:此博客开发环境为python3 urlopen 我们先来段代码: # urllib_urlopen.py # 导入urllib.request import urllib.request # 向指定的url发送请求,并返回服务器响应的类文件对象 response = urllib.request.urlopen("http://www.baidu.com") # 类文件对象支持 文件对象的操作方法,如read()方法读取文件全部内容,返回字符串 html = response.read() # 打印字符串 print(html) 执行写的python代码,将打印结果: python3 urllib_urlopen.py ** 实际上,如果我们在浏览器上打开百度主页, 右键选择“查看源代码”,你会发现,跟我们刚才打印出来的是一模一样。也就是说,上面的4行代码就已经帮我们把百度的首页的全部代码爬了下来。** 一个基本的url请求对应的python代码真的非常简单。 Request 在我们第一个例子里,urlopen()的参数就是一个url地址;但是如果需要执行更复杂的操作,比如增加HTTP报头,必须创建一个 Request

爬虫urllib2库的基本使用

浪子不回头ぞ 提交于 2020-03-25 20:53:44
所谓网页抓取,就是把URL地址中指定的网络资源从网络流中读取出来,保存到本地。 在Python中有很多库可以用来抓取网页, urllib2库基本使用 。 urllib2 是 Python2.7 自带的模块(不需要下载,导入即可使用) urllib2 官方文档: https://docs.python.org/2/library/urllib2.html urllib2 源码: https://hg.python.org/cpython/file/2.7/Lib/urllib2.py urllib2 在 python3.x 中被改为 urllib.request urlopen #coding=utf-8 # 导入urllib2 库 import urllib2 # 向指定的url发送请求,并返回服务器响应的类文件对象 response = urllib2.urlopen("http://www.cnblogs.com/loaderman/") # 类文件对象支持 文件对象的操作方法,如read()方法读取文件全部内容,返回字符串 html = response.read() # 打印字符串 print html 执行写的python代码,将打印结果 实际上,查看网页 右键选择“查看源代码”,会发现,和打印出来的是一模一样。也就是说,上面的4行代码就已经帮我们网页的全部代码爬了下来。

Python爬虫(二)_urllib2的使用

半世苍凉 提交于 2020-03-25 20:53:25
所谓网页抓取,就是把URL地址中指定的网络资源从网络流中读取出来,保存到本地。在Python中有很多库可以用来抓取网页,我们先学习 urllib2 。 urllib2是Python2.x自带的模块(不需要下载,导入即可使用) urllib2官网文档: https://docs.python.org/2/library/urllib2.html urllib2源码 urllib2 在python3.x中被改为 urllib.request urlopen 我们先来段代码: #-*- coding:utf-8 -*- #01.urllib2_urlopen.py #导入urllib2库 import urllib2 #向指定的url发送请求,并返回服务器的类文件对象 response = urllib2.urlopen("http://www.baidu.com") #类文件对象支持文件对象的操作方法,如read()方法读取文件 html = response.read() #打印字符串 print(html) 执行写好的python代码,将打印结果: python2 01.urllib2_urlopen.py 实际上,如果我们在浏览器打上百度主页,右键选择"查看源代码",你会发现,跟我们刚才打印出来的是一模一样的。也就是说,上面的4行代码就已经帮我们把百度的首页的全部代码爬了下来。

buffer cache 深度解析

╄→гoц情女王★ 提交于 2020-03-25 06:32:16
本文首先详细介绍了oracle中buffer cache的 概念 以及所包含的 内存结构 。然后结合各个后台进程(包括DBWRn、CKPT、LGWR等)深入介绍了oracle对于buffer cache的管理机制,并详细解释了oracle为什么会采用现在的管理机制,是为了解决什么问题。比如为何会引入touch次数、为何会引入增量检查点等等。最后全面介绍了有关buffer cache监控以及调优的实用方法。 1. buffer cache的 概念 用最简单的语言来描述oracle数据库的本质,其实就是能够用磁盘上的一堆文件来存储数据,并提供了各种各样的手段对这些数据进行管理。作为管理数据的最基本要求就是能够保存和读取磁盘上的文件中的数据。众所周知,读取磁盘的速度相对来说是非常慢的,而 内存 相对速度则要快的多。因此为了能够加快处理数据的速度,oracle必须将读取过的数据缓存在内存里。而oracle对这些缓存在内存里的数据起了个名字:数据高速缓存区(db buffer cache),通常就叫做buffer cache。按照oracle官方的说法,buffer cache就是一块含有许多数据块的内存区域,而这些数据块主要都是数据文件里的数据块内容的拷贝。通过初始化参数:buffer_cache_size来指定buffer cache的大小。oracle实例一旦启动

python爬西刺代理

ぐ巨炮叔叔 提交于 2020-03-24 11:03:02
爬IP代码 import requests import re import dauk from bs4 import BeautifulSoup import time def daili(): print('[+]极速爬取代理IP,默认为99页') for b in range(1,99): url="http://www.xicidaili.com/nt/{}".format(b) header={'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:58.0) Gecko/20100101 Firefox/48.0'} r=requests.get(url,headers=header) gsx=BeautifulSoup(r.content,'html.parser') for line in gsx.find_all('td'): sf=line.get_text() dailix=re.findall('(25[0-5]|2[0-4]\d|[0-1]\d{2}|[1-9]?\d)\.(25[0-5]|2[0-4]\d|[0-1]\d{2}|[1-9]?\d)\.(25[0-5]|2[0-4]\d|[0-1]\d{2}|[1-9]?\d)\.(25[0-5]|2[0-4]\d|[0-1]\d{2}|[1-9]?\d)

java接口签名(Signature)实现方案

感情迁移 提交于 2020-03-24 11:00:01
预祝大家国庆节快乐,赶快迎接美丽而快乐的假期吧!!! 前言   在为第三方系统提供接口的时候,肯定要考虑接口数据的安全问题,比如数据是否被篡改,数据是否已经过时,数据是否可以重复提交等问题。其中我认为最终要的还是数据是否被篡改。在此分享一下我的关于接口签名的实践方案。 如果这种方案不是很好理解,请参考 另一篇 更简单暴力的方案 java接口签名(Signature)实现方案续 。 签名流程 签名规则   1、线下分配 appid 和appsecret,针对不同的调用方分配不同的appid和appsecret   2、加入 timestamp (时间戳),10分钟内数据有效   3、加入流水号 nonce (防止重复提交), 至少为 10 位。 针对查询接口,流水号只用于日志落地,便于后期日志核查。 针对办理类接口需校验流水号在有效期内的唯一性,以避免重复请求。    4、加入 signature ,所有数据的签名信息。   以上红色字段放在请求头中。 签名的生成    signature 字段生成规则如下。   数据部分    Path: 按照path中的顺序将所有value进行拼接    Query :按照key字典序排序,将所有key=value进行拼接    Form :按照key字典序排序,将所有key=value进行拼接    Body :     Json:

h5中的分组元素figure、figcaption、hgroup元素介绍

故事扮演 提交于 2020-03-23 16:35:40
分组元素用于对页面中的内容进行分组。 figure元素和figcaption元素 figure 元素用于定义独立的流内容(图像、图表、照片、代码等),一般指一个独立的单元。 figure 元素的内容应该与主内容相关,但如果被删除,也 不会对文档流产生影响 。 figcaption 元素用于为figure元素组添加标题, 一个figure元素内最多允许使用一个figcaption元素 ,该元素应该放在figure元素的第一个或最后一个子元素的位置。 <p>被称作“第四代体育馆”</p> <figure> <figcaption>北京鸟巢</figcaption> <p>拍摄者:张三,拍摄时间:2019年9月15日 17:42:12</p> <img src="https://timgsa.baidu.com/timg?image&quality=80&size=b9999_10000&sec=1568550641218&di=3d4dc50f7b0fe9a2ed3a8b25198b3730&imgtype=0&src=http%3A%2F%2Fm.tuniucdn.com%2Ffb2%2Ft1%2FG1%2FM00%2F0C%2F9D%2FCii9EFbQJa2IV2ubAAIUZv3TCucAACUQgCQyfAAAhR-415_w500_h280_c1_t0.jpg" alt="

Web前端一种动态样式语言-- Less

故事扮演 提交于 2020-03-23 13:07:15
变量 变量允许我们单独定义一系列通用的样式,然后在需要的时候去调用。所以在做全局样式调整的时候我们可能只需要修改几行代码就可以了。 // LESS @color: #4D926F; #header { color: @color; } h2 { color: @color; } /* 生成的 CSS */ #header { color: #4D926F; } h2 { color: #4D926F; } 混合 混合可以将一个定义好的class A轻松的引入到另一个class B中,从而简单实现class B继承class A中的所有属性。我们还可以带参数地调用,就像使用函数一样。 // LESS .rounded-corners (@radius: 5px) { border-radius: @radius; -webkit-border-radius: @radius; -moz-border-radius: @radius; } #header { .rounded-corners; } #footer { .rounded-corners(10px); } /* 生成的 CSS */ #header { border-radius: 5px; -webkit-border-radius: 5px; -moz-border-radius: 5px; } #footer {