前言
上学的时候自己写过一些爬虫代码,比较简陋,基于HttpRequest请求获取地址返回的信息,再根据正则表达式抓取想要的内容。那时候爬的网站大多都是静态的,直接获取直接爬即可,而且也没有什么限制。但是现在网站的安全越来越完善,各种机器识别,打码,爬虫也要越来越只能才行了。
前段时间有需求要简单爬取美团商家的数据,做了一些分析,实践,在这里总结分享。
美团商家页分析
1、城市大全可以很容易的在这个页面爬出来 http://www.meituan.com/index/changecity/initiative
2、每个城市一个地址,例如深圳:http://sz.meituan.com/category/meishi
3、可以按照分类、区域、人数来分类
4、商家列表是动态JS加载的,并且会有很多页数
5、根据商家列表再进入商家详情获取数据
这样爬取流程即为
1、进去城市美食页
2、抓取分类,循环选择分类
3、抓取区域,循环选择区域
4、抓取人数,循环选择人数
5、判断是否有下一页按钮,循环进入下一页
6、进入详情页抓取,提交之后continue
需要爬取的数据有(这里没有按人数爬)
CREATE TABLE `test_mt` (
`Id` int(11) NOT NULL AUTO_INCREMENT,
`city` varchar(10) NOT NULL DEFAULT '' COMMENT '城市',
`cate` varchar(15) NOT NULL DEFAULT '' COMMENT '分类',
`area` varchar(15) NOT NULL DEFAULT '' COMMENT '区域',
`poi` varchar(15) NOT NULL DEFAULT '' COMMENT '商圈',
`name` varchar(30) NOT NULL DEFAULT '' COMMENT '店名',
`addr` varchar(50) NOT NULL DEFAULT '' COMMENT '地址',
`tel` varchar(30) NOT NULL DEFAULT '' COMMENT '联系方式',
`rj` int(11) NOT NULL DEFAULT '0' COMMENT '人均',
`rate` float(2,1) NOT NULL DEFAULT '0.0' COMMENT '评价',
`rate_count` int(11) NOT NULL DEFAULT '0' COMMENT '评价数',
`recom_food` varchar(512) NOT NULL DEFAULT '' COMMENT '特色菜',
`desc` varchar(512) NOT NULL DEFAULT '' COMMENT '门店介绍',
PRIMARY KEY (`Id`)
) ENGINE=InnoDB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8;
爬虫工具选取
CREATE TABLE `test_mt` ( `Id` int(11) NOT NULL AUTO_INCREMENT, `city` varchar(10) NOT NULL DEFAULT '' COMMENT '城市', `cate` varchar(15) NOT NULL DEFAULT '' COMMENT '分类', `area` varchar(15) NOT NULL DEFAULT '' COMMENT '区域', `poi` varchar(15) NOT NULL DEFAULT '' COMMENT '商圈', `name` varchar(30) NOT NULL DEFAULT '' COMMENT '店名', `addr` varchar(50) NOT NULL DEFAULT '' COMMENT '地址', `tel` varchar(30) NOT NULL DEFAULT '' COMMENT '联系方式', `rj` int(11) NOT NULL DEFAULT '0' COMMENT '人均', `rate` float(2,1) NOT NULL DEFAULT '0.0' COMMENT '评价', `rate_count` int(11) NOT NULL DEFAULT '0' COMMENT '评价数', `recom_food` varchar(512) NOT NULL DEFAULT '' COMMENT '特色菜', `desc` varchar(512) NOT NULL DEFAULT '' COMMENT '门店介绍', PRIMARY KEY (`Id`) ) ENGINE=InnoDB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8;
为了快速实现功能,直接找现有的开源工具,说到爬虫,python首屈一指,所以先以此尝试
pysipder
https://github.com/binux/pyspider
最开始尝试了pysipder,主要是因为国人写的,先支持国产,准确的说pyspider已经是一个非常强大的爬虫框架了,具体内容官网查看,经过试用之后,感觉有一些杀鸡用牛刀的感觉,再来pyspider默认只支持抓取静态页,对于js加载的美团列表,难度就大了很多,中间尝试考虑通过获取cookie,模拟接口操作,但是协议解析起麻烦又耗时,坑肯定又多,就放弃了。
pyspider的js加载是通过配合phantomjs实现的,但是据说有内存泄露的问题,要不定期的重启phantomjs,试用之后发现并不很顺手(也许是python不熟),特别是模拟点击操作很麻烦导致回调地狱的出现,所以考虑再多试用几款工具选型。
scrapy
https://scrapy.org/
20K的star代表了它的强大,试用过程中发现和pysipder大同小异,遇到的问题也大同小异,也跳过了。
nightmare
https://github.com/segmentio/nightmare
之前用的时候git上star貌似还不多,目前已经13K了,准确的说nightmare一款基于electron(曾经使用PhantomJS,后面改用Electron)的高度封装web自动化测试工具,当然也可以用来做一些简易的爬虫,api及其简单,缺点就是模拟真人操作,这样的爬虫效率非常低,但是对于高安全性的网站来说,这样的操作也最为安全,防止被封。
经过试用之后,最后决定采用nightmare进行爬虫。
同步任务
需要注意的是evaluate函数返回的是promise,即为异步回调函数,可以配合co库,进行yield操作,即可用同步模式进行异步操作。
var Nightmare = require('nightmare'), nightmare = Nightmare(), co = require('co'); var run = function*(){ var results = []; for(var i=0; i<5; i++){ var result = yield nightmare.goto('http://example.org').evaluate(function(){ return 123;}); results.push(result); } return results; } co(run).then(function(results){ console.dir(results); console.log('done'); });
js动态加载
nightmare是模拟操作,相当于开了个浏览器,所以这都不是什么问题,但需要注意的是,列表如果数量太多,其实是分页加载的,第一次只加载十个,下滑再加载10个,加载完整页之后,还有下一页按钮,至于当前页的分页,需要滑动到低,才会加载完,所以还需要模拟滑动操作scrollTo,滑动过程中动态加载数据,有时候会有不成功的情况(可能是由于官方限制?),所以偶尔会漏过一些商家。
中断继续
为了避免异常导致从头开始爬,可以每次在catch的时候保存当前的状态值,下次启动读取,然后接着爬即可。
//记录执行步骤,中断后下次继续 //分类 let stepLog = { cate_index: 0, //区域 location_index: 8, //商圈 area_index: 0, } function writeLog (log) { fs.writeFileSync('./steplog.log', JSON.stringify(log)); } function readLog () { let json = fs.readFileSync('./steplog.log'); return JSON.parse(json); }
爬坑总结
1、爬虫检测限制非常严格,搞不好就403,隔天才恢复,间隔时间很重要,示例代码的参数已经比较稳定。
2、数据基本上都是动态加载,加载接口又要cookie,又要post首次加载的各种参数,这也是为什么难爬,之前考虑过用PhantomJS,但是API过于复杂,无界面,不方便调试,nightmare基于electron这方面简直是神器,模拟人操作,又防封,又便捷。
3、nightmare不会记录cookie,所以如果有时候爬久了,关闭再开会403,但是浏览器正常,是cookie导致的,可以访问一些美团其他页面,先加载cookie再跳转到需要爬的页面即可。
4、由于默认情况不会记录cookie,所以需要的话可以再结束的时候getcookie序列化成json保存成文件,下次开启的时候再进行初始化。
5、中断继续,也可以把各种状态参数序列化成json保存,下次启动初始化,即可从中断的地方继续开始。
6、可以不需要正则,直接用dom选择器进行html元素查询。
7、效率确实不高,但也没啥好办法,爬一个城市大概花4-5天。
示例代码
注意post提交服务器地址改为自己的接口,如果需要保存本地,需自行处理。
代码保存直接运行即可 node **.js
。
PS:中间变量命名有些随意,请见谅。
var Nightmare = require('nightmare'); var fs = require('fs'); //nightmare = Nightmare({ show: true }), var co = require('co'); var http = require('http'); var city = '南昌'; var run = function* () { let nightmare = Nightmare({ show: true, waitTimeout: 60000 }); //记录执行步骤,中断后下次继续 //分类 let stepLog = { cate_index: 0, //区域 location_index: 8, //商圈 area_index: 0, } if (fs.existsSync('./steplog.log')) { stepLog = readLog(); } //writeLog(stepLog); //获取地区美食分类,先进主页是为了获取cookie防止被封 let result1 = yield nightmare.goto('http://nc.meituan.com/').wait(5000) .goto('http://nc.meituan.com/category/meishi') .wait('div.filter-label-list.filter-section.category-filter-wrapper.first-filter ul.inline-block-list') .evaluate(function () { let arr_a = document.querySelectorAll('div.filter-label-list.filter-section.category-filter-wrapper.first-filter ul.inline-block-list li a'); let str = ''; //过滤全部,代金券 for (var index = 2; index < arr_a.length; index++) { var element = arr_a[index]; str += element.href + ','; } return str; }) let arr_a1 = result1.split(','); console.log(arr_a1); var temp_index1 = stepLog.cate_index; for (var index1 = temp_index1; index1 < arr_a1.length; index1++) { stepLog.cate_index = index1; //获取美食分类之后,获取地区 var element1 = arr_a1[index1]; if (element1 != '') { try { let result2 = yield nightmare .wait(10000) .goto(element1) .wait('ul.inline-block-list.J-filter-list.filter-list--fold') .evaluate(function () { let arr_a = document.querySelectorAll('ul.inline-block-list.J-filter-list.filter-list--fold li a'); let str = ''; //过滤全部,地铁2 for (var index = 2; index < arr_a.length; index++) { var element = arr_a[index]; str += element.href + ','; } return str }); let arr_a2 = result2.split(','); console.log(arr_a2); var temp_index2 = stepLog.location_index; for (var index2 = temp_index2; index2 < arr_a2.length; index2++) { stepLog.location_index = index2; //获取地区之后,获取商圈 var element2 = arr_a2[index2]; if (element2 != '') { try { let result3 = yield nightmare .wait(10000) .goto(element2) .wait('ul.inline-block-list.J-area-block') .evaluate(function () { let arr_a = document.querySelectorAll('ul.inline-block-list.J-area-block li a'); let str = ''; //商圈下标,过滤全部 for (var index = 1; index < arr_a.length; index++) { var element = arr_a[index]; str += element.href + ','; } return str }); arr_a3 = result3.split(','); console.log(arr_a3); var temp_index3 = stepLog.area_index; for (var index3 = temp_index3; index3 < arr_a3.length; index3++) { stepLog.area_index = index3; //获取商圈店铺信息 var element3 = arr_a3[index3]; if (element3 != '') { let nextPage = 'undefined'; do { let url = ''; if (nextPage == 'undefined') url = element3; else url = nextPage; try { let result4 = yield nightmare .wait(10000) .goto(url) .wait('#content').wait(2000) .scrollTo(716, 0).wait(5000).scrollTo(716 * 2, 0).wait(5000).scrollTo(716 * 3, 0).wait(5000).scrollTo(716 * 4, 0).wait(5000).scrollTo(716 * 5, 0).wait(5000).scrollTo(716 * 6, 0).wait(5000).scrollTo(716 * 7, 0).wait(5000).scrollTo(716 * 8, 0).wait(5000).scrollTo(716 * 9, 0).wait(5000).scrollTo(716 * 10, 0).wait(5000).scrollTo(716 * 11, 0).wait(5000).scrollTo(716 * 12, 0).wait(5000).scrollTo(716 * 13, 0).wait(5000).scrollTo(716 * 14, 0).wait(5000).scrollTo(716 * 15, 0).wait(5000).scrollTo(716 * 16, 0).wait(5000).scrollTo(716 * 17, 0).wait(5000).scrollTo(716 * 18, 0).wait(5000).scrollTo(716 * 19, 0).wait(5000).scrollTo(716 * 20, 0).wait(5000) .evaluate(function () { let arr_a = document.querySelectorAll('div.poi-tile-nodeal'); let str = ''; for (var index = 0; index < arr_a.length; index++) { var element = arr_a[index]; let sp_rj = element.querySelector('div.poi-tile__money span.avg span'); //人均 let rj = 0; if (sp_rj != null) { let str_rj = sp_rj.innerText; rj = parseInt(str_rj.substr(1, rj.length)); } console.log(index); let url = ''; let elelink = element.querySelector('a.poi-tile__head.J-mtad-link'); if (elelink != null) { //链接地址 url = elelink.href; console.log(url); } str += url + '|' + rj + ','; } let href = document.querySelector('li.next a') ? document.querySelector('li.next a').href : 'undefined' return str + '^' + href; }); console.log(result4); temp4 = result4.split('^'); nextPage = temp4[1]; arr_a4 = temp4[0].split(','); for (var index4 = 0; index4 < arr_a4.length; index4++) { var element4 = arr_a4[index4]; if (element4 != '') { try { let temp = element4.split('|'); let url5 = ''; if (temp[0] != '') { url5 = temp[0]; } else { continue; } //获取店铺详细信息 let result5 = yield nightmare .wait(5000) .goto(url5) .wait('div.poi-section.poi-section--shop') .evaluate(function () { let query = document.querySelectorAll('div.component-bread-nav a'); let cate = query[2].innerText; console.log(cate); let area = query[3].innerText; console.log(area); let poi = ''; if (query[4] != undefined) { poi = query[4].innerText; console.log(poi); } query = document.querySelector('div.summary'); let name = query.querySelector('h2 span.title').innerText; console.log(name); let addr = query.querySelector('span.geo').innerText; console.log(addr); let tel = query.querySelector('div.fs-section__left p:nth-child(3)').innerText; console.log(tel); let rate = ''; if (query.querySelector('span.biz-level strong') != undefined) { rate = query.querySelector('span.biz-level strong').innerText; console.log(rate); } let rate_count = query.querySelector('a.num.rate-count').innerText; console.log(rate_count); let recom_food = ''; query = document.querySelectorAll('div.menu__items table tbody td'); for (var index = 0; index < query.length; index++) { var element = query[index]; recom_food += element.innerText + ','; } desc = document.querySelector('div.poi-section.poi-section--shop div div').innerText; return cate + '|' + area + '|' + poi + '|' + name + '|' + addr + '|' + tel + '|' + rate + '|' + rate_count + '|' + recom_food + '|' + desc }); console.log(result5); postResult(result5 + '|' + city + '|' + temp[1]); } catch (e) { console.log(e); writeLog(stepLog); continue; } } } } catch (e) { console.log(e); writeLog(stepLog); continue; } } while (nextPage != 'undefined') } } stepLog.area_index = 1; } catch (e) { console.log(e); writeLog(stepLog); continue; } } } stepLog.location_index = 2; } catch (e) { console.log(e); writeLog(stepLog); continue; } } } stepLog.cate_index = 2; } function postResult (postData) { options = { hostname: '你的提交域名', port: 80, path: '/admin/test/upload', method: 'POST', headers: { 'Content-Type': 'raw', 'Content-Length': Buffer.byteLength(postData) } }; req = http.request(options, (res) => { //console.log(`STATUS: ${res.statusCode}`); //console.log(`HEADERS: ${JSON.stringify(res.headers)}`); res.setEncoding('utf8'); res.on('data', (chunk) => { console.log(`BODY: ${chunk}`); }); res.on('end', () => { console.log('No more data in response.'); }); }); req.on('error', (e) => { console.error(`problem with request: ${e.message}`); }); // write data to request body req.write(postData); req.end(); } function writeLog (log) { fs.writeFileSync('./steplog.log', JSON.stringify(log)); } function readLog () { let json = fs.readFileSync('./steplog.log'); return JSON.parse(json); } function start () { co(run).then(function () { console.log('done'); }).catch(function (err) { console.log(new Date().toUTCString()); console.error(err); start(); }); } start();
爬取结果如下:
如有更好的方案,欢迎交流。
附件列表
来源:https://www.cnblogs.com/leestar54/p/7470850.html