使用node写爬虫入门

匿名 (未验证) 提交于 2019-12-02 23:52:01

最近看了node能做爬虫,所以就试了一下,一下是整个过程的记录

1、新建文件夹baidunews

2、在上边新建的文件夹下输入npm init进行初始化

3、初始化完成后下载需要的依赖包

  npm install express

  npm install cheerio

  npm install superagent

4、在baidunews文件夹下新建index.js文件

5、在文件中加入一下代码

  

const express = require('express'); const app = express();  // ...  let server = app.listen(3000, function () {   let host = server.address().address;   let port = server.address().port;   console.log('Your App is running at http://%s:%s', host, port); });  /**  * [description] - 跟路由  */ // 当一个get请求 http://localhost:3000时,就会后面的async函数 app.get('/', async (req, res, next) => {     res.send(hotNews);   });    // 引入所需要的第三方包 const superagent= require('superagent');  let hotNews = [];                                // 热点新闻 let localNews = [];                              // 本地新闻  /**  * index.js  * [description] - 使用superagent.get()方法来访问百度新闻首页  */ superagent.get('http://news.baidu.com/').end((err, res) => {   if (err) {     // 如果访问失败或者出错,会这行这里     console.log(`热点新闻抓取失败 - ${err}`)   } else {    // 访问成功,请求http://news.baidu.com/页面所返回的数据会包含在res    // 抓取热点新闻数据    hotNews = getHotNews(res)   } });   /**  * index.js  * [description] - 抓取热点新闻页面  */ // 引入所需要的第三方包 const cheerio = require('cheerio');  let getHotNews = (res) => {   let hotNews = [];   // 访问成功,请求http://news.baidu.com/页面所返回的数据会包含在res.text中。      /* 使用cheerio模块的cherrio.load()方法,将HTMLdocument作为参数传入函数      以后就可以使用类似jQuery的$(selectior)的方式来获取页面元素    */   let $ = cheerio.load(res.text);    // 找到目标数据所在的页面元素,获取数据   $('div#pane-news ul li a').each((idx, ele) => {     // cherrio中$('selector').each()用来遍历所有匹配到的DOM元素     // 参数idx是当前遍历的元素的索引,ele就是当前便利的DOM元素     let news = {       title: $(ele).text(),        // 获取新闻标题       href: $(ele).attr('href')    // 获取新闻网页链接     };     hotNews.push(news)              // 存入最终结果数组   });   return hotNews };

6、在当前文件夹下中打开命令行,并在命令行中输入

  node index.js

7、在浏览器中访问localhost:3000

8、在页面中显示爬取的数据

标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!