一、获取被采集的页面的内容 一、获取被采集的页面的内容 我目前所掌握的ASP常用获取被采集的页面的内容方法: 1、用serverXMLHTTP组件获取数据 Function GetBody(weburl) 调用方法:GetBody(文件的URLf地址) 2、或XMLHTTP组件获取数据 Function GetBody(weburl) 调用方法:GetBody(文件的URLf地址) 这样获取的数据内容还需要进行编码转换才可以使用 Function BytesToBstr(body,Cset) 调用方法:BytesToBstr(要转换的数据,编码)'编码常用为GB2312和UTF-8。 二、从获取代码中提取所有用的数据 1、用ASP内置的MID函数截取需要的数据 Function body(wstr,start,over) 调用方法:body(被采集的页面的内容,开始标记,结束标记) 2、用正则获取需要的数据 Function body(wstr,start,over) 调用方法:body(被采集的页面的内容,开始标记,结束标记) 采集程序祥细思路: 1、取得网站的分页列表页的每页地址 静态页 取得网站的分页列表页的每页地址,只需要用变量替代每页地址的变化的字符即可如:page_<%="&page&"%>.htm 2、获取被采集网站的分页列表页内容 3、从分页列表代码中提取被采集的内容页面的URL连接地址 用以下代码就可以获得一个URL连接集合
因为是动态生成的页面,大多数内容页面内都有相同的html标记,我们可以根据这些有规则的标记提取需要的各个部分的内容。如: 每个页面都有网页标题<title>网页标题</title>,用我上面写的MID截取函数就可以获得<title></title>之间的值,也可以用正则表达式来获得。 目前防采集的方法有很多种,先介绍一下常见防采集策略方法和它的弊端及采集对策: 一、判断一个IP在一定时间内对本站页面的访问次数,如果明显超过了正常人浏览速度,就拒绝此IP访问 弊端: 二、用javascript加密内容页面 弊端:此方法适用于静态页面,但会严重影响搜索引擎对其收录情况,搜索引擎收到到的内容,也都是加密后的内容 三、把内容页面里的特定标记替换为”特定标记+隐藏版权文字“ 弊端:此方法弊端不大,仅仅会增加一点点的页面文件大小,但容易反采集 四、只允许用户登陆后才可以浏览 弊端:此方法会严重影响搜索引擎蜘蛛对其收录 五、用javascript、vbscript脚本做分页 弊端:影响搜索引擎对其收录 六、只允许通过本站页面连接查看,如:Request.ServerVariables("HTTP_REFERER") 弊端:影响搜索引擎对其收录 从以上可以看出,目前常用的防采集方法,要么会对搜索引擎收录有较大影响,要么防采集效果不好,起不到防采集的效果。那么,还有没有一种有效防采集,而又不影响搜索引擎收录的方法呢?那就请继续往下看吧! 从前面的我讲的采集原理大家可以看出,绝大多数采集程序都是靠分析规则来进行采集的,如分析分页文件名规则、分析页面代码规则。 一、分页文件名规则防采集对策 大部分采集器都是靠分析分页文件名规则,进行批量、多页采集的。如果别人找不出你的分页文件的文件名规则,那么别人就无法对你的网站进行批量多页采集。 实现方法: 我认为用MD5加密分页文件名是一个比较好的方法,说到这里,有人会说,你用MD5加密分页文件名,别人根据此规则也可以模拟你的加密规则得到你的分页文件名。 我要指出的是我们加密分页文件名时,不要只加密文件名变化的部分 如果I代表分页的页码,那么我们不要这样加密:page_name=Md5(I,16)&".htm" 最好给要加密的页码上再跟进一个或多个字符,如:page_name=Md5(I&"任意一个或几个字母",16)&".htm" 因为MD5是无法反解密的,别人看到的会页字母是MD5加密后的结果,所以加人也无法知道你在 I 后面跟进的字母是什么,除非他用暴力****MD5,不过不太现实。 二、页面代码规则防采集对策 如果说我们的内容页面无代码规则,那么别人就无法从你的代码中提取他们所需要的一条条内容。所以我们要的这一步做到防采集,就要使代码无规则。 实现方法: 使对方需要提取的标记随机化 1、定制多个网页模板,每个网页模板里的重要HTML标记不同,呈现页面内容时,随机选取网页模板,有的页面用CSS+DIV布局,有的页面用table布局,此方法是麻烦了点,一个内容页面,要多做几个模板页面,不过防采集本身就是一件很烦琐的事情,多做一个模板,能起到防采集的作用,对很多人来说,都是值得的。 做的网页模板越多,html代码越是随机化,对方分析起内容代码时,就越麻烦,对方针对你的网站专门写采集策略时,难度就更大,在这个时候,绝大部分人,都会知难而退,因为这此人就是因为懒,才会采集别人网站数据嘛~~~再说一下,目前大部分人都是拿别人开发的采集程序去采集数据,自己开发采集程序去采集数据的人毕竟是少数。 还有些简单的思路提供给大家: 1、把对数据采集者重要,而对搜索引擎不重要的内容用客户端脚本显示 大多网站都是 首页----内容索引分页----内容页 <meta http-equiv="refresh" content="6;url=内容页(http://www.qzbskj.com)"> 其实,只要做好防采集的第一步(加密分页文件名规则),防采集的效果就已经不错了,还是建议两条反采集方法同时使用,给采集者增加采集难度,使得他们知难页退。 |
网页数据采集器
去年年底的时候曾经发过一个数据采集器《网页数据采集器》,那是专门针对某一个网站来进行采集的,如果需要采集新的网站内容,就需要修改代码并重新编译。
昨晚完成了一个带智能策略的采集系统。其实,这个策略的方案三年前就想好了,那时候打算用VB做,做了一半就搁置了。现在用C#才终于把这个方案实现了。
整个方案大概是这样的:
需要建立一个AC数据库,MSSQL也行,有四个表:PageType用于记录页面的种类,比如列表页和详细页两类;Url表用于记录要采集的网址,另外还有一个字段TypeID标明该网址属于哪一种页面类型,比如是列表页还是详细页;Rule表记录着各种规则,主要有三个字段,FromTypeID源页类型,ToTypeID目的页类型,Pattern规则;CjPage用于存储采集到的网页内容,还包含网址和页面种类。
采集策略的核心就在于规则库Rule。
工作过程大概这样:
1,采集线程从Url表抽取一个网址,并马上在表中将其删除,为了防止冲突,这个过程需要用多线程同步解决;
2,用WebClient请求该网址的页面内容;
3,取得内容后,给线程池的线程来分析处理,本线程回到1,继续去Url表取下一个网址;
4,线程池在有空闲线程时,会调用分析函数ParsePage去处理上次获得的页面内容;
5,先到Rule中取所有FromTypeID为当前网址TypeID;
6,如果没有取到任何规则Rule,则将本页内容写入到CjPage中;
7,如果取到规则,那么遍历规则,为每条规则执行ParseUrl方法;
8,ParseUrl根据规则的Pattern匹配到页面内容中的所有网址,并记录到Url中,规则的ToTypeID就是Url的TypeID。
文章出处:【博思工作室】是专业提供安溪网站建设,安溪网站设计,安溪做网站,安溪建网站,安溪茶叶网站制作,服务热线:15980898419,全力打造安溪最优秀的建站服务商.博思工作室是安溪网站建设,安溪网站设计,安溪网页制作,安溪网页设计,茶叶网站建设,公司建站的理想之选!http://www.qzbskj.com
来源:https://www.cnblogs.com/www-qzbskj-com/archive/2012/04/14/html.html