爬虫
什么是爬虫?
通过编写代码,模拟浏览器发送请求,让其去网络上抓去数据的过程。
爬虫分类?
通用爬虫
- 抓取整张网页的全部内容
聚焦爬虫
- 抓去一张页面的部分内容
通用爬虫和聚焦爬虫的关联:
- 聚焦是建立在通用爬虫的基础上
增量式
- 监测网站数据的更新情况,以便将最新的数据进行爬取。
reqeusts基本介绍
- 作用:实现爬虫,模拟浏览器上网。
- 编码流程:
- 指定url地址(指定要爬取的网站地址)
- 发起请求
- 获取响应的数据
- 持久化储存
- 环境安装: pip install requests
反爬之UA伪装
- 什么是UA?
- 请求载体的身份标识
- UA查找路径:打开浏览器,搜索一个网页→Ctrl+Shift+c→Network→选择网址对饮的name→Headers→User-Agent(把后面的值复制)
- 常用浏览器请求头UA
1) Chrome Win7: Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/14.0.835.163 Safari/535.1 win10 64 Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36 2) Firefox Win7: Mozilla/5.0 (Windows NT 6.1; WOW64; rv:6.0) Gecko/20100101 Firefox/6.0 3) Safari Win7: Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50 4) Opera Win7: Opera/9.80 (Windows NT 6.1; U; zh-cn) Presto/2.9.168 Version/11.50 5) IE Win7+ie9: Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Win64; x64; Trident/5.0; .NET CLR 2.0.50727; SLCC2; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; InfoPath.3; .NET4.0C; Tablet PC 2.0; .NET4.0E) Win7+ie8: Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.1; WOW64; Trident/4.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; .NET4.0C; InfoPath.3) WinXP+ie8: Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.1; Trident/4.0; GTB7.0) WinXP+ie7: Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1) WinXP+ie6: Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1) 6) 傲游 傲游3.1.7在Win7+ie9,高速模式: Mozilla/5.0 (Windows; U; Windows NT 6.1; ) AppleWebKit/534.12 (KHTML, like Gecko) Maxthon/3.0 Safari/534.12 傲游3.1.7在Win7+ie9,IE内核兼容模式: Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.1; WOW64; Trident/5.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; InfoPath.3; .NET4.0C; .NET4.0E) 7) 搜狗 搜狗3.0在Win7+ie9,IE内核兼容模式: Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.1; WOW64; Trident/5.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; InfoPath.3; .NET4.0C; .NET4.0E; SE 2.X MetaSr 1.0) 搜狗3.0在Win7+ie9,高速模式: Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.3 (KHTML, like Gecko) Chrome/6.0.472.33 Safari/534.3 SE 2.X MetaSr 1.0 8) 360 360浏览器3.0在Win7+ie9: Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; InfoPath.3; .NET4.0C; .NET4.0E) 9) QQ浏览器 QQ浏览器6.9(11079)在Win7+ie9,极速模式: Mozilla/5.0 (Windows NT 6.1) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/13.0.782.41 Safari/535.1 QQBrowser/6.9.11079.201 QQ浏览器6.9(11079)在Win7+ie9,IE内核兼容模式: Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.1; WOW64; Trident/5.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; InfoPath.3; .NET4.0C; .NET4.0E) QQBrowser/6.9.11079.201 10) 阿云浏览器 阿云浏览器1.3.0.1724 Beta(编译日期2011-12-05)在Win7+ie9: Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0)
""" 搜狗首页的源码数据爬取 需要UA伪装 """ import requests inp = input('搜索:') params = { # url携带的请求参数 'query': inp, } # UA伪装,请求头信息 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36' } # 指定url(网址) url = f'https://www.sogou.com/web' # get发起请求,携带请求参数,返回的是一个响应对象 # url 网址,params 参数动态化,headers UA伪装 response = requests.get(url=url, params=params, headers=headers) response.encoding = 'utf-8' # 手动修改编码格式指定utf8,处理乱码问题 # 获取响应数据 .test page_text = response.text fileName = inp + '.html' # 持久化存储 with open(fileName, 'w', encoding='utf-8') as f: f.write(page_text) print('ok')
反爬之动态加载
需求:爬取豆瓣电影中爱情类型中的详情数据
- 动态加载的数据:通过另一个请求单独请求到的数据
- 如何检测爬取的数据是否为动态加载的数据?
- 基于抓包工具进行局部搜索
- 抓包工具获取到的所有数据包,然后找到浏览器地址栏url对应的数据包,response这个选项卡中进行局部搜索(搜到或者搜不到)
- 搜不到:数据为动态加载
- 全局搜索Ctrl+F,搜索想要的数据
- 能搜到:数据不是动态加载
- 直接对浏览器地址栏的url发起请求获取数据即可
- 搜不到:数据为动态加载
- 抓包工具获取到的所有数据包,然后找到浏览器地址栏url对应的数据包,response这个选项卡中进行局部搜索(搜到或者搜不到)
- 基于抓包工具进行局部搜索
代码实现单页爬取
import requests # UA伪装,请求头信息 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36' } # 请求携带的参数 params = { 'type': '15', 'interval_id': '100:90', 'action': '', 'start': '0', 'limit': '20', } # 请求的网址 url = "https://movie.douban.com/j/chart/top_list?" # 发起请求 url网址 headers请求头 params请求携带的参数 res = requests.get(url=url,params=params,headers=headers) data_list = res.json() # 返回的是序列化的列表 for i in data_list: title = i["title"] types = i["types"] print(title,types)
需求:餐厅的位置信息进行爬取
代码实现全站爬取
- data参数相当于params,实现参数动态化
import requests url = "http://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=keyword" city = input("city name : ") headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36' } # 全站信息爬取 for i in range(1,111): # 获取餐厅地址所需要的动态参数,键值对,值为str data = { 'cname': '', 'pid': '', 'keyword': city, # 数据的搜索地址 'pageIndex': str(i), # 数据的页码数 'pageSize': '10', # 每一页的数据量 } # headers请求头 data参数动态化 pos_list = requests.post(url=url,headers=headers,data=data).json()["Table1"] # 返回一个响应对象 .json()返回了一个序列化好的字典对象 ['Table1']获取Key所对应的value值 for i in pos_list: s = i["addressDetail"] print(s)
requests中,get和post的区别就是参数一个是params,一个是data。
需求:所有企业的详情数据
- 网址:http://125.35.6.84:81/xk/
- 分析
- 每一家企业所对应的详情数据是动态加载的
- 通过抓包工具进行了全局搜索,定位到了动态加载数据对赢得数据包
- 提取url:每家企业对应的url都一样
- 请求方式:都一样
- 请求参数:都为ID,但是参数值不同
- ID为每家企业的唯一标识
- 捕获到每家企业的唯一标识id,可以完成需求
- 对企业ID的捕获
- 在首页中进行分析,使用抓包工具进行了企业名称的全局搜索,定位到的数据包的数据中就包含了企业名称和对应的id值
代码实现全站爬取
import requests headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36' } url = "http://125.35.6.84:81/xk/itownet/portalAction.do?method=getXkzsList" # 将企业ID存放到列表中 list_1 = [] # 爬取全栈(目前只爬取9页,爬多了之后会被限制) for a in range(1,10): data = { 'on': 'true', 'page': str(a), 'pageSize': '15', 'productName': '', 'conditionType': '1', 'applyname': '', 'applysn': '', } ret_dic = requests.post(url=url,data=data,headers=headers).json()['list'] # .json()返回一个字典类型的对象 ['list']取字典中list对应的值 # 捕获企业ID for i in ret_dic: _id = i['ID'] list_1.append(_id) detail_url = "http://125.35.6.84:81/xk/itownet/portalAction.do?method=getXkzsById" for i in list_1: data = { 'id': i } com_data = requests.post(url=detail_url,headers=headers,data=data).json() legalPerson = com_data["legalPerson"] epsName = com_data["epsName"] print(legalPerson,epsName) # 测试了一遍,只爬取了50页,就限制了
总结
- requests的基本使用
- 编码流程
- 指定url
- 发起请求
- 获取响应数据
- 持久化存储
- 搜狗首页数据爬取 ==> 流程
- 参数动态化
- UA伪装
- 修改响应数据的编码格式
- get/post返回值 .encoding=“编码格式”
- get/post:
- url
- headers
- params/data
- 动态加载的数据
- 通过非地址栏url所对应的地址请求到的数据
- 如何检测数据为动态加载
- 基于抓包工具进行局部搜索
- 全站数据的爬取
- 简单来说就是一个for循环,控制页码数
- 编码流程
来源:https://www.cnblogs.com/Golanguage/p/12445009.html