AJAXCRAWL_ENABLED = False # 自动限速设置 AUTOTHROTTLE_ENABLED = False AUTOTHROTTLE_DEBUG = False AUTOTHROTTLE_MAX_DELAY = 60.0 AUTOTHROTTLE_START_DELAY = 5.0 AUTOTHROTTLE_TARGET_CONCURRENCY = 1.0 # 此Scrapy项目实施的bot的名称(也称为项目名称)。这将用于默认情况下构造User-Agent,也用于日志记录。 BOT_NAME = 'scrapybot' # 一个整数值,单位为秒。如果一个spider在指定的秒数后仍在运行,它将以 closespider_timeout 的原因被自动关闭。 # 如果值设置为0(或者没有设置),spiders不会因为超时而关闭。 CLOSESPIDER_TIMEOUT = 0 # 在抓取了指定数目的Item之后 CLOSESPIDER_PAGECOUNT = 0 # 在收到了指定数目的响应之后 CLOSESPIDER_ITEMCOUNT = 0 # 在发生了指定数目的错误之后就终止爬虫程序 CLOSESPIDER_ERRORCOUNT = 0 COMMANDS_MODULE = '' COMPRESSION_ENABLED = True # 在项处理器(也称为项目管道)中并行处理的并发项目的最大数量(每个响应)。 CONCURRENT_ITEMS = 100 # 将由Scrapy下载程序执行的并发(即同时)请求的最大数量。 CONCURRENT_REQUESTS = 16 # 将对任何单个域执行的并发(即同时)请求的最大数量。 # 对'域'的推测:即allowed_domains中的URLS CONCURRENT_REQUESTS_PER_DOMAIN = 8 # 将对任何单个IP执行的并发(即同时)请求的最大数量。如果非零,CONCURRENT_REQUESTS_PER_DOMAIN则忽略该设置, # 而改为使用此设置。换句话说,并发限制将应用于每个IP,而不是每个域。 # 此设置也会影响DOWNLOAD_DELAY和 AutoThrottle扩展:如果CONCURRENT_REQUESTS_PER_IP 非零,下载延迟是强制每IP,而不是每个域。 CONCURRENT_REQUESTS_PER_IP = 0 # 是否启用cookiesmiddleware。如果关闭,cookies将不会发送给web server。 COOKIES_ENABLED = True # 如果启用,Scrapy将记录所有在request(cookie 请求头)发送的cookies及response接收到的cookies(set-cookie接收头) COOKIES_DEBUG = False # 将用于在Scrapy shell中实例化项的默认类。 DEFAULT_ITEM_CLASS = 'scrapy.item.Item' # 用于Scrapy HTTP请求的默认标头。他们在 scrapy.downloadermiddlewares.defaultheaders.DefaultHeadersMiddleware 这里被调用 DEFAULT_REQUEST_HEADERS = { 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8', 'Accept-Language': 'en', } # scrapy.spidermiddlewares.depth.DepthMiddleware # 允许抓取任何网站的最大深度。如果为零,则不施加限制。 DEPTH_LIMIT = 0 # 是否收集详细的深度统计信息。如果启用此选项,则在统计信息中收集每个深度的请求数。 DEPTH_STATS_VERBOSE = False # 用于根据深度调整请求优先级的整数: # 如果为零(默认),则不从深度进行优先级调整 # 正值将降低优先级,即,较高深度请求将被稍后处理 ; 这通常用于做广度优先爬网(BFO) # 负值将增加优先级,即,较高深度请求将被更快地处理(DFO) DEPTH_PRIORITY = 0 # 是否启用DNS内存缓存。 DNSCACHE_ENABLED = True # DNS内存缓存大小。 DNSCACHE_SIZE = 10000 # 以秒为单位处理DNS查询的超时。支持浮点。 DNS_TIMEOUT = 60 # 下载器在从同一网站下载连续页面之前应等待的时间(以秒为单位)。这可以用于限制爬行速度,以避免过于严重的访问服务器。支持小数 # 此设置也受RANDOMIZE_DOWNLOAD_DELAY 设置(默认情况下启用)的影响。默认情况下,Scrapy不会在请求之间等待固定的时间量, # 而是使用0.5 * DOWNLOAD_DELAY和1.5 * 之间的随机间隔DOWNLOAD_DELAY。 # 当CONCURRENT_REQUESTS_PER_IP为非零时,每个IP地址而不是每个域强制执行延迟。 # 您还可以通过设置download_delay spider属性来更改每个爬虫的此设置。 DOWNLOAD_DELAY = 0 # 包含在您的项目中启用的请求下载器处理程序的dict。参见DOWNLOAD_HANDLERS_BASE示例格式。 DOWNLOAD_HANDLERS = {} # 包含Scrapy中默认启用的请求下载处理程序的dict。 您永远不应该在项目中修改此设置,而是修改DOWNLOAD_HANDLERS。 # 您可以通过在DOWNLOAD_HANDLERS中为其URI方案指定None来禁用任何这些下载处理程序。 # 例如,要禁用内置的FTP处理程序(无需替换),请将其放在settings.py中: # DOWNLOAD_HANDLERS = { # 'ft DOWNLOAD_HANDLERS_BASE = { 'data': 'scrapy.core.downloader.handlers.datauri.DataURIDownloadHandler', 'file': 'scrapy.core.downloader.handlers.file.FileDownloadHandler', 'http': 'scrapy.core.downloader.handlers.http.HTTPDownloadHandler', 'https': 'scrapy.core.downloader.handlers.http.HTTPDownloadHandler', 's3': 'scrapy.core.downloader.handlers.s3.S3DownloadHandler', 'ftp': 'scrapy.core.downloader.handlers.ftp.FTPDownloadHandler', } # 下载器在超时前等待的时间量(以秒为单位) # 可以使用download_timeout spider属性为每个spider设置此超时,使用download_timeout Request.meta键为每个请求设置此超时。 DOWNLOAD_TIMEOUT = 180 # 3mins # 下载器将下载的最大响应大小(以字节为单位)。 # 如果要禁用它设置为0。 # 可以使用download_maxsize Spider属性和每个请求使用download_maxsize Request.meta键为每个爬虫设置此大小。 DOWNLOAD_MAXSIZE = 1024*1024*1024 # 1024m # 下载程序将开始警告的响应大小(以字节为单位)。 DOWNLOAD_WARNSIZE = 32*1024*1024 # 32m DOWNLOAD_FAIL_ON_DATALOSS = True # 用于抓取的下载器。 DOWNLOADER = 'scrapy.core.downloader.Downloader' # 定义protocol.ClientFactory 用于HTTP / 1.0连接(for HTTP10DownloadHandler)的Twisted 类。 DOWNLOADER_HTTPCLIENTFACTORY = 'scrapy.core.downloader.webclient.ScrapyHTTPClientFactory' # 这里,“ContextFactory”是用于SSL / TLS上下文的Twisted术语,定义要使用的TLS / SSL协议版本,是否执行证书验证,或者甚至启用客户端验证(以及各种其他事情) DOWNLOADER_CLIENTCONTEXTFACTORY = 'scrapy.core.downloader.contextfactory.ScrapyClientContextFactory' # 使用此设置可自定义默认HTTP / 1.1下载程序使用的TLS/SSL方法。 # 此设置必须是以下字符串值之一: # 'TLS':映射到OpenSSL TLS_method()(aka SSLv23_method()),允许协议协商,从平台支持的最高开始; 默认,推荐 # 'TLSv1.0':此值强制HTTPS连接使用TLS版本1.0; 如果你想要Scrapy <1.1的行为,设置这个 # 'TLSv1.1':强制TLS版本1.1 # 'TLSv1.2':强制TLS版本1.2 # 'SSLv3':强制SSL版本3(不推荐) DOWNLOADER_CLIENT_TLS_METHOD = 'TLS' # Use highest TLS/SSL protocol version supported by the platform, # also allowing negotiation # 包含在您的项目中启用的下载器中间件及其顺序的字典。 DOWNLOADER_MIDDLEWARES = {} # 包含Scrapy中默认启用的下载器中间件的字典。 # 值越低越靠近引擎,值越高越接近下载器。您不应该在项目中修改此设置,应该在DOWNLOADER_MIDDLEWARES修改 。 DOWNLOADER_MIDDLEWARES_BASE = { # Engine side 'scrapy.downloadermiddlewares.robotstxt.RobotsTxtMiddleware': 100, 'scrapy.downloadermiddlewares.httpauth.HttpAuthMiddleware': 300, 'scrapy.downloadermiddlewares.downloadtimeout.DownloadTimeoutMiddleware': 350, 'scrapy.downloadermiddlewares.defaultheaders.DefaultHeadersMiddleware': 400, 'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware': 500, 'scrapy.downloadermiddlewares.retry.RetryMiddleware': 550, 'scrapy.downloadermiddlewares.ajaxcrawl.AjaxCrawlMiddleware': 560, 'scrapy.downloadermiddlewares.redirect.MetaRefreshMiddleware': 580, 'scrapy.downloadermiddlewares.httpcompression.HttpCompressionMiddleware': 590, 'scrapy.downloadermiddlewares.redirect.RedirectMiddleware': 600, 'scrapy.downloadermiddlewares.cookies.CookiesMiddleware': 700, 'scrapy.downloadermiddlewares.httpproxy.HttpProxyMiddleware': 750, 'scrapy.downloadermiddlewares.stats.DownloaderStats': 850, 'scrapy.downloadermiddlewares.httpcache.HttpCacheMiddleware': 900, # Downloader side } # 是否启用下载器统计信息收集。 DOWNLOADER_STATS = True # 默认情况下,RFPDupeFilter仅记录第一个重复请求。 将DUPEFILTER_DEBUG设置为True将使其记录所有重复的请求。 # DUPEFILTER_DEBUG = False ''' 用于检测和过滤重复请求的类。 默认(RFPDupeFilter)使用scrapy.utils.request.request_fingerprint函数基于请求指纹进行过滤。 为了更改检查重复项的方式,您可以继承RFPDupeFilter并覆盖其request_fingerprint方法。 此方法应接受scrapy Request对象并返回其指纹(字符串)。 您可以通过将DUPEFILTER_CLASS设置为'scrapy.dupefilters.BaseDupeFilter'来禁用对重复请求的过滤。 但是要非常小心,因为你可以进入爬行循环。 在不应过滤的特定请求上将dont_filter参数设置为True通常是个更好的主意。 ''' DUPEFILTER_CLASS = 'scrapy.dupefilters.RFPDupeFilter' # 用于使用edit命令编辑蜘蛛的编辑器。 此外,如果设置了EDITOR环境变量,编辑命令将优先于默认设置。 EDITOR = 'vi' if sys.platform == 'win32': EDITOR = '%s -m idlelib.idle' # 包含项目中启用的扩展名及其值的dict。 EXTENSIONS = {} # 包含Scrapy中默认可用扩展名的dict及其顺序。 此设置包含所有稳定的内置扩展。 请记住,其中一些需要通过设置启用。 EXTENSIONS_BASE = { 'scrapy.extensions.corestats.CoreStats': 0, 'scrapy.extensions.telnet.TelnetConsole': 0, 'scrapy.extensions.memusage.MemoryUsage': 0, 'scrapy.extensions.memdebug.MemoryDebugger': 0, 'scrapy.extensions.closespider.CloseSpider': 0, 'scrapy.extensions.feedexport.FeedExporter': 0, 'scrapy.extensions.logstats.LogStats': 0, 'scrapy.extensions.spiderstate.SpiderState': 0, 'scrapy.extensions.throttle.AutoThrottle': 0, } # Feed Temd dir允许您在使用FTP源存储和 Amazon S3上传之前设置自定义文件夹以保存搜寻器临时文件。 FEED_TEMPDIR = None FEED_URI = None FEED_URI_PARAMS = None # a function to extend uri arguments FEED_FORMAT = 'jsonlines' FEED_STORE_EMPTY = False FEED_EXPORT_ENCODING = None FEED_EXPORT_FIELDS = None FEED_STORAGES = {} FEED_STORAGES_BASE = { '': 'scrapy.extensions.feedexport.FileFeedStorage', 'file': 'scrapy.extensions.feedexport.FileFeedStorage', 'stdout': 'scrapy.extensions.feedexport.StdoutFeedStorage', 's3': 'scrapy.extensions.feedexport.S3FeedStorage', 'ftp': 'scrapy.extensions.feedexport.FTPFeedStorage', } FEED_EXPORTERS = {} FEED_EXPORTERS_BASE = { 'json': 'scrapy.exporters.JsonItemExporter', 'jsonlines': 'scrapy.exporters.JsonLinesItemExporter', 'jl': 'scrapy.exporters.JsonLinesItemExporter', 'csv': 'scrapy.exporters.CsvItemExporter', 'xml': 'scrapy.exporters.XmlItemExporter', 'marshal': 'scrapy.exporters.MarshalItemExporter', 'pickle': 'scrapy.exporters.PickleItemExporter', } FEED_EXPORT_INDENT = 0 FILES_STORE_S3_ACL = 'private' FILES_STORE_GCS_ACL = '' FTP_USER = 'anonymous' FTP_PASSWORD = 'guest' FTP_PASSIVE_MODE = True HTTPCACHE_ENABLED = False HTTPCACHE_DIR = 'httpcache' HTTPCACHE_IGNORE_MISSING = False HTTPCACHE_STORAGE = 'scrapy.extensions.httpcache.FilesystemCacheStorage' HTTPCACHE_EXPIRATION_SECS = 0 HTTPCACHE_ALWAYS_STORE = False HTTPCACHE_IGNORE_HTTP_CODES = [] HTTPCACHE_IGNORE_SCHEMES = ['file'] HTTPCACHE_IGNORE_RESPONSE_CACHE_CONTROLS = [] HTTPCACHE_DBM_MODULE = 'anydbm' if six.PY2 else 'dbm' HTTPCACHE_POLICY = 'scrapy.extensions.httpcache.DummyPolicy' HTTPCACHE_GZIP = False HTTPPROXY_ENABLED = True HTTPPROXY_AUTH_ENCODING = 'latin-1' IMAGES_STORE_S3_ACL = 'private' IMAGES_STORE_GCS_ACL = '' ITEM_PROCESSOR = 'scrapy.pipelines.ItemPipelineManager' # 包含要使用的项目管道及其顺序的字典。顺序值是任意的,但通常将它们定义在0-1000范围内。较低订单处理较高订单前。 ITEM_PIPELINES = {} # 包含Scrapy中默认启用的管道的dict。 您永远不应在项目中修改此设置,而是修改ITEM_PIPELINES。 ITEM_PIPELINES_BASE = {} LOG_ENABLED = True LOG_ENCODING = 'utf-8' LOG_FORMATTER = 'scrapy.logformatter.LogFormatter' LOG_FORMAT = '%(asctime)s [%(name)s] %(levelname)s: %(message)s' LOG_DATEFORMAT = '%Y-%m-%d %H:%M:%S' # 如果为True,则进程的所有标准输出(和错误)将重定向到日志。 例如,如果您打印('hello')它将出现在Scrapy日志中。 LOG_STDOUT = False LOG_LEVEL = 'DEBUG' # 用于记录输出的文件名。如果None,将使用标准误差。 LOG_FILE = None # 如果True,日志将仅包含根路径。如果设置为,False 则它显示负责日志输出的组件 LOG_SHORT_NAMES = False SCHEDULER_DEBUG = False LOGSTATS_INTERVAL = 60.0 MAIL_HOST = 'localhost' MAIL_PORT = 25 MAIL_FROM = 'scrapy@localhost' MAIL_PASS = None MAIL_USER = None # 是否启用内存调试。 MEMDEBUG_ENABLED = False # enable memory debugging # 当启用内存调试时,如果此设置不为空,则会将内存报告发送到指定的地址,否则报告将写入日志。 MEMDEBUG_NOTIFY = [] # send memory debugging report by mail at engine shutdown MEMUSAGE_CHECK_INTERVAL_SECONDS = 60.0 # 是否启用内存使用扩展,当超过内存限制时关闭Scrapy进程,并在发生这种情况时通过电子邮件通知。 MEMUSAGE_ENABLED = True # 在关闭Scrapy之前允许的最大内存量(以兆字节为单位)(如果MEMUSAGE_ENABLED为True)。如果为零,则不执行检查。 MEMUSAGE_LIMIT_MB = 0 # 要达到内存限制时通知的电子邮件列表。 MEMUSAGE_NOTIFY_MAIL = [] # 在发送警告电子邮件通知之前,要允许的最大内存量(以兆字节为单位)。如果为零,则不会产生警告。 MEMUSAGE_WARNING_MB = 0 METAREFRESH_ENABLED = True METAREFRESH_MAXDELAY = 100 # 使用genspider命令模块在哪里创建新的蜘蛛。 NEWSPIDER_MODULE = '' ''' 如果启用,Scrapy将在从同一网站获取请求时等待一段随机时间(介于0.5 * DOWNLOAD_DELAY和1.5 * DOWNLOAD_DELAY之间)。 这种随机化降低了爬行程序被分析请求的站点检测(并随后被阻止)的机会,这些站点在其请求之间的时间内寻找统计上显着的相似性。 随机化策略与wget --random-wait选项使用的策略相同。 如果DOWNLOAD_DELAY为零(默认),则此选项无效。 ''' RANDOMIZE_DOWNLOAD_DELAY = True ''' Twisted Reactor线程池大小的上限。这是各种Scrapy组件使用的常见多用途线程池。 线程DNS解析器,BlockingFeedStorage,S3FilesStore仅举几个例子。如果您遇到阻塞IO不足的问题,请增加此值。 ''' REACTOR_THREADPOOL_MAXSIZE = 10 REDIRECT_ENABLED = True # 定义请求可重定向的最长时间。在此最大值之后,请求的响应被原样返回。我们对同一个任务使用Firefox默认值。 REDIRECT_MAX_TIMES = 20 # uses Firefox default setting # 相对于原始请求调整重定向请求优先级: # 正优先级调整(默认)意味着更高的优先级。 # 负优先级调整意味着较低优先级。 REDIRECT_PRIORITY_ADJUST = +2 REFERER_ENABLED = True REFERRER_POLICY = 'scrapy.spidermiddlewares.referer.DefaultReferrerPolicy' RETRY_ENABLED = True # 最大重试次数 RETRY_TIMES = 2 # initial response + 2 retries = 3 requests # 重试状态码 RETRY_HTTP_CODES = [500, 502, 503, 504, 522, 524, 408] # 调整相对于原始请求的重试请求优先级: # 正优先级调整意味着更高的优先级。 # 负优先级调整(默认)表示较低优先级。 RETRY_PRIORITY_ADJUST = -1 ROBOTSTXT_OBEY = False # 用于爬网的调度程序。 SCHEDULER = 'scrapy.core.scheduler.Scheduler' SCHEDULER_DISK_QUEUE = 'scrapy.squeues.PickleLifoDiskQueue' SCHEDULER_MEMORY_QUEUE = 'scrapy.squeues.LifoMemoryQueue' SCHEDULER_PRIORITY_QUEUE = 'queuelib.PriorityQueue' SPIDER_LOADER_CLASS = 'scrapy.spiderloader.SpiderLoader' SPIDER_LOADER_WARN_ONLY = False # 包含在您的项目中启用的爬虫中间件的字典及其顺序。 SPIDER_MIDDLEWARES = {} # 包含在Scrapy中默认启用的爬虫中间件的字典及其顺序。值越低越靠近引擎,值越高越接近爬虫。 SPIDER_MIDDLEWARES_BASE = { # Engine side 'scrapy.spidermiddlewares.httperror.HttpErrorMiddleware': 50, 'scrapy.spidermiddlewares.offsite.OffsiteMiddleware': 500, 'scrapy.spidermiddlewares.referer.RefererMiddleware': 700, 'scrapy.spidermiddlewares.urllength.UrlLengthMiddleware': 800, 'scrapy.spidermiddlewares.depth.DepthMiddleware': 900, # Spider side } # Scrapy将寻找爬虫的模块列表。 SPIDER_MODULES = [] STATS_CLASS = 'scrapy.statscollectors.MemoryStatsCollector' STATS_DUMP = True # 在蜘蛛完成scraping后发送Scrapy统计数据。 STATSMAILER_RCPTS = [] # 使用startproject命令和新爬虫创建新项目时使用命令查找模板的目录 genspider 。 # 项目名称不得与子目录中的自定义文件或目录的名称冲突project。 TEMPLATES_DIR = abspath(join(dirname(__file__), '..', 'templates')) # 允许抓取网址的最大网址长度。 URLLENGTH_LIMIT = 2083 # 检索时使用的默认用户代理,除非被覆盖。 USER_AGENT = 'Scrapy/%s (+https://scrapy.org)' % import_module('scrapy').__version__ # 布尔值,指定是否 启用telnet控制台(如果其扩展名也启用)。 TELNETCONSOLE_ENABLED = 1 # 用于telnet控制台的端口范围。如果设置为None或0,则使用动态分配的端口。 TELNETCONSOLE_PORT = [6023, 6073] TELNETCONSOLE_HOST = '127.0.0.1' TELNETCONSOLE_USERNAME = 'scrapy' TELNETCONSOLE_PASSWORD = None SPIDER_CONTRACTS = {} SPIDER_CONTRACTS_BASE = { 'scrapy.contracts.default.UrlContract': 1, 'scrapy.contracts.default.ReturnsContract': 2, 'scrapy.contracts.default.ScrapesContract': 3, }
来源:https://www.cnblogs.com/Hubz131/p/10916046.html