Scrapy框架
Scrapy基本流程 1.首先说一下框架的概念。之前一直故步自封与一个requests+bs4以及一些Selenium+Phantomjs零零散散的一些爬虫流程。从招聘网站上看到python爬虫的工作都需要掌握Scrapy框架以及Selenium技术才恍然大悟,一个成型的框架首先搭建好了一个完整的爬虫逻辑,各个功能也相对封装的很棒,对于大规模数据爬取,只要将对主要爬虫细节进行设计(每个网页的结构特点不同导致),就可以实现高效的数据爬取,包括异步爬取与分布式爬取。 简要说一下Scrapy框架的基本构成元素以及运行的流程 基本元素 1.Scrapy Engine: 这是引擎,负责Spiders、ItemPipeline、Downloader、Scheduler中间的通讯,信号、数据传递等等!(像不像人的身体?) 2.Scheduler(调度器): 它负责接受引擎发送过来的requests请求,并按照一定的方式进行整理排列,入队、并等待Scrapy Engine(引擎)来请求时,交给引擎。 3.Downloader(下载器):负责下载Scrapy Engine(引擎)发送的所有Requests请求,并将其获取到的Responses交还给Scrapy Engine(引擎),由引擎交给Spiders来处理。