python 反爬虫策略
1.限制IP地址单位时间的访问次数 : 分析:没有哪个常人一秒钟内能访问相同网站5次,除非是程序访问,而有这种喜好的,就剩下搜索引擎爬虫和讨厌的采集器了。 弊端:一刀切,这同样会阻止搜索引擎对网站的收录 适用网站:不太依靠搜索引擎的网站 采集器会怎么做:减少单位时间的访问次数,减低采集效率 2.屏蔽ip 分析:通过后台计数器,记录来访者ip和访问频率,人为分析来访记录,屏蔽可疑Ip。 弊端:似乎没什么弊端,就是站长忙了点 适用网站:所有网站,且站长能够知道哪些是google或者百度的机器人 采集器会怎么做:打游击战呗!利用ip代理采集一次换一次,不过会降低采集器的效率和网速(用代理嘛)。 3。利用js加密网页内容 Note:这个方法我没接触过,只是从别处看来 分析:不用分析了,搜索引擎爬虫和采集器通杀 适用网站:极度讨厌搜索引擎和采集器的网站 采集器会这么做:你那么牛,都豁出去了,他就不来采你了 4.网页里隐藏网站版权或者一些随机垃圾文字,这些文字风格写在css文件中 分析:虽然不能防止采集,但是会让采集后的内容充满了你网站的版权说明或者一些垃圾文字,因为一般采集器不会同时采集你的css文件,那些文字没了风格,就显示出来了。 适用网站:所有网站 采集器会怎么做:对于版权文字,好办,替换掉。对于随机的垃圾文字,没办法,勤快点了。 5.用户登录才能访问网站内容 * 分析