舆情爬虫是网络爬虫一个比较重要的分支,舆情爬虫往往需要爬虫工程师爬取几百几千个新闻站点。比如一个新闻页面我们需要爬取其标题、正文、时间、作者等信息,如果用传统的方式来实现,每一个站点都要配置非常多的规则,如果要维护一个几百上千的站点,那人力成本简直太高了。
如果有一种方式可以在保证差不多的准确率的前提下,大幅提高提取效率的话,就需要用到智能文本提取了。
本文首先介绍一下智能文本提取的基本原理,让大家对智能提取有基本的了解。然后介绍几个比较基础的工具包,准确率并不是很高,可以尝试一用。最后再介绍几篇比较前沿的技术供大家参考。
智能文本提取
目前来说,智能文本提取可以分为三类:
基于网页文档内容的提取方法
基于 DOM 结构信息的提取方法
基于视觉信息的提取方法
基于网页文档的提取方法将 HTML 文档视为文本进行处理,适用于处理含有大量文本信息且结构简单易于处理的单记录网页,或者具有实时要求的在线分析网页应用。这种方式主要利用自然语言处理相关技术实现,通过理解 文本语义、分析上下文、设定提取规则等,实现对大段网页文档的快速处理。其中,较为知名的方法有TSIMMIS、Web-OQL、Serrano、FAR-SW 和 FOREST,但这些方法由于通常需要人工的参与,且存在耗时长、效率低的弊端。
基于 DOM 结构信息的方法将 HTML 文档解析为相应的 DOM 树,然后根据 DOM 树的语法结构创建提取规则, 相对于以前的方法而言有了更高的性能和准确率。W4F 和 XWRAP 将 HTML 文档解析成 DOM 树,然后通过组件化引导用户通过人工选择或者标记生成目标包装器代码。Omini、IEPAD 和 ITE 提取 DOM 树上的关键路径, 获取其中存在的重复模式。MDR 和 DEPTA 挖掘了页面中的数据区域,得到数据记录的模式。CECWS 通过聚类算法从数据库中提取出自同一网站的一组页面,并进行 DOM 树结构的对比,删除其中的静态部分,保留动态内容作为信息提取的结果。虽然此类方法相对于上一类方法 具有较高的提取精度,且克服了对大段连续文本的依赖, 但由于网页的 DOM 树通常较深,含有大量 DOM 节点, 因此基于 DOM 结构信息的方法具有较高的时间和空间消耗。目前来说,大部分原理还是基于 DOM 节点的文本密度、标点符号密度等计算的,其准确率还是比较可观的。今天所介绍的 Readability 和 Newspaper 的库的实现原理就是类似。
目前比较先进的是基于视觉信息的网页信息提取方法,通过浏览器接口或者内核对目标网页预渲染,然后基于网页的视觉规律提取网页数据记录。经典的 VIPS 算法首先从 DOM 树中提取出所有合适的页面区域,然后根据这些页面和分割条重新构建 Web 页面的语义结构。作为对 VIPS 的拓展,ViNT、ViPER、ViDE 也成功利用了网页的视觉特征来实现数据提取。CMDR 为通过神经网络学习多记录型页面中的特征,结合基于 DOM 结构信息的 MDR 方法,挖掘社区论坛页面的数据区域。与上述方法不同,VIBS 将图像领域的 CNN 卷积神经网络运用于网页的截图,同时通过类 VIPS 算法生成视觉块,最后结合两个阶段的结果识别网页的正文区域。另外还有最新的国内提出的 VBIE 方法,基于网页视觉的基础上改进,可以实现无监督的网页信息提取。
以上内容主要参考自论文:《王卫红等:基于可视块的多记录型复杂网页信息提取算法》,算法可从该论文参考文献查阅。
下面我们来介绍两个比较基础的工具包 Readability 和 Newspaper 的用法,这两个包经我测试其实准确率并不是很好,主要是让大家大致对智能解析有初步的理解。后面还会介绍一些更加强大的智能化解析算法。
Readability
Readability 实际上是一个算法,并不是一个针对某个语言的库。其主要原理就是计算了 DOM 的文本密度,另外根据一些常见的 DOM 属性如 id、class 等计算了一些 DOM 的权重,最后分析得到了对应的 DOM 区块,进而提取出具体的文本内容。
现在搜索 Readability 其实已经找不到了,取而代之的是一个 JavaScript 工具包,叫做 mercury-parser,据我所知应该是 Readability 不维护了,换成了 mercury-parser。后者现在也做成了一个 Chrome 插件,大家可以下载使用一下。
回归正题,这次主要介绍的是 Python 的 Readability 实现,现在其实有很多开源版本,本文选取的是 https://github.com/buriy/python-readability,是基于最早的 Python 版本的 Readability 库 https://github.com/timbertson/python-readability 二次开发的,现在已经发布到了 PyPi,大家可以直接下载安装使用。
安装很简单,通过 pip 安装即可:
pip3 install readability-lxml
安装好了之后便可以通过导入 readability 使用了,下面我们随便从网上找一个新闻页面,比如:https://tech.163.com/19/0909/08/EOKA3CFB00097U7S.html,其页面截图如下:
我们的目的就是它的正文、标题等内容。下面我们用 Readability 试一下,示例如下:
1 import requests 2 from readability import Document 3 4 url = 'https://tech.163.com/19/0909/08/EOKA3CFB00097U7S.html' 5 html = requests.get(url).content 6 doc = Document(html) 7 print('title:', doc.title()) 8 print('content:', doc.summary(html_partial=True))
在这里我们直接用 requests 库对网页进行了请求,获取了其 HTML 页面内容,赋值为 html。
然后引入了 readability 里的 Document 类,使用 html 变量对其进行初始化,然后我们分别调用了 title 方法和 summary 方法获得了其标题和正文内容。
这里 title 方法就是获取文章标题的,summary 就是获取文章正文的,但是它获取的正文可能包含一些 HTML 标签。这个 summary 方法可以接收一个 html_partial 参数,如果设置为 True,返回的结果则不会再带有 <html><body> 标签。
看下运行结果:
1 title: 今年iPhone只有小改进?分析师:还有其他亮点_网易科技 2 content: <div><div class="post_text" id="endText"> 3 <p class="otitle"> 4 (原标题:Apple Bets More Cameras Can Keep iPhone Humming) 5 </p> 6 <p class="f_center"><img alt="今年iPhone只有小改进?分析师:还有其他亮点" src="http://cms-bucket.ws.126.net/2019/09/09/d65ba32672934045a5bfadd27f704bc1.jpeg"/><span>图示:苹果首席执行官蒂姆·库克(Tim Cook)在6月份举行的苹果全球开发者大会上。</span></p><p>网易科技讯 9月9日消息,据国外媒体报道,和过去的12个年头一样,新款 7 ... 中间省略 ... 8 <p>苹果还即将推出包括电视节目和视频游戏等内容的新订阅服务。分析师表示,该公司最早可能在本周宣布TV+和Arcade等服务的价格和上线时间。</p><p>Strategy Analytics的尼尔·莫斯顿(Neil Mawston)表示,可穿戴设备和服务的结合将是苹果业务超越iPhone的关键。他说,上一家手机巨头诺基亚公司在试图进行类似业务转型时就陷入了困境之中。(辰辰)</p><p><b>相关报道:</b></p><p><a href="https://tech.163.com/19/0908/09/EOHS53RK000999LD.html" target="_self" urlmacroreplace="false">iPhone 11背部苹果Logo改为居中:为反向无线充电</a></p><p><a href="https://tech.163.com/19/0907/08/EOF60CBC00097U7S.html" target="_self" urlmacroreplace="false">2019年新iPhone传言汇总,你觉得哪些能成真</a> </p><p/> 9 <p/> 10 <div class="ep-source cDGray"> 11 <span class="left"><a href="http://tech.163.com/"><img src="https://static.ws.126.net/cnews/css13/img/end_tech.png" alt="王凤枝" class="icon"/></a> 本文来源:网易科技报道 </span> 12 <span class="ep-editor">责任编辑:王凤枝_NT2541</span> 13 </div> 14 </div> 15 </div>
可以看到,标题提取是正确的。正文其实也是正确的,不过这里还包含了一些 HTML 标签,比如 <img>
、<p>
等,我们可以进一步通过一些解析库来解析。
看下源码吧,比如提取标题的方法:
1 def normalize_entities(cur_title): 2 entities = { 3 u'\u2014':'-', 4 u'\u2013':'-', 5 u'—': '-', 6 u'–': '-', 7 u'\u00A0': ' ', 8 u'\u00AB': '"', 9 u'\u00BB': '"', 10 u'"': '"', 11 } 12 for c, r in entities.items(): 13 if c in cur_title: 14 cur_title = cur_title.replace(c, r) 15 16 return cur_title 17 18 def norm_title(title): 19 return normalize_entities(normalize_spaces(title)) 20 21 def get_title(doc): 22 title = doc.find('.//title') 23 if title is None or title.text is None or len(title.text) == 0: 24 return '[no-title]' 25 26 return norm_title(title.text) 27 28 def title(self): 29 """Returns document title""" 30 return get_title(self._html(True))
title 方法实际上就是调用了一个 get_title 方法,它怎么做的?实际上就是用了一个 XPath 只解析了 <title>
标签里面的内容,别的没了。如果没有,那就返回 [no-title]
。
1 def summary(self, html_partial=False): 2 ruthless = True 3 while True: 4 self._html(True) 5 for i in self.tags(self.html, 'script', 'style'): 6 i.drop_tree() 7 for i in self.tags(self.html, 'body'): 8 i.set('id', 'readabilityBody') 9 if ruthless: 10 self.remove_unlikely_candidates() 11 self.transform_misused_divs_into_paragraphs() 12 candidates = self.score_paragraphs() 13 14 best_candidate = self.select_best_candidate(candidates) 15 16 if best_candidate: 17 article = self.get_article(candidates, best_candidate, 18 html_partial=html_partial) 19 else: 20 if ruthless: 21 ruthless = False 22 continue 23 else: 24 article = self.html.find('body') 25 if article is None: 26 article = self.html 27 cleaned_article = self.sanitize(article, candidates) 28 article_length = len(cleaned_article or '') 29 retry_length = self.retry_length 30 of_acceptable_length = article_length >= retry_length 31 if ruthless and not of_acceptable_length: 32 ruthless = False 33 continue 34 else: 35 return cleaned_article
这里我删除了一些冗余的调试的代码,只保留了核心的代码,其核心实现就是先去除一些干扰内容,然后找出一些疑似正文的 candidates,然后再去寻找最佳匹配的 candidates 最后提取其内容返回即可。
然后再找到获取 candidates 方法里面的 score_paragraphs 方法,又追踪到一个 score_node 方法,就是为每一个节点打分的,其实现如下:
1 def score_node(self, elem): 2 content_score = self.class_weight(elem) 3 name = elem.tag.lower() 4 if name in ["div", "article"]: 5 content_score += 5 6 elif name in ["pre", "td", "blockquote"]: 7 content_score += 3 8 elif name in ["address", "ol", "ul", "dl", "dd", "dt", "li", "form", "aside"]: 9 content_score -= 3 10 elif name in ["h1", "h2", "h3", "h4", "h5", "h6", "th", "header", "footer", "nav"]: 11 content_score -= 5 12 return { 13 'content_score': content_score, 14 'elem': elem 15 }
这什么意思呢?你看如果这个节点标签是 div 或者 article 等可能表征正文区块的话,就加 5 分,如果是 aside 等表示侧栏的内容就减 3 分。这些打分也没有什么非常标准的依据,可能是根据经验累积的规则。
另外还有一些方法里面引用了一些正则匹配来进行打分或者替换,其定义如下:
1 REGEXES = { 2 'unlikelyCandidatesRe': re.compile('combx|comment|community|disqus|extra|foot|header|menu|remark|rss|shoutbox|sidebar|sponsor|ad-break|agegate|pagination|pager|popup|tweet|twitter', re.I), 3 'okMaybeItsACandidateRe': re.compile('and|article|body|column|main|shadow', re.I), 4 'positiveRe': re.compile('article|body|content|entry|hentry|main|page|pagination|post|text|blog|story', re.I), 5 'negativeRe': re.compile('combx|comment|com-|contact|foot|footer|footnote|masthead|media|meta|outbrain|promo|related|scroll|shoutbox|sidebar|sponsor|shopping|tags|tool|widget', re.I), 6 'divToPElementsRe': re.compile('<(a|blockquote|dl|div|img|ol|p|pre|table|ul)', re.I), 7 #'replaceBrsRe': re.compile('(<br[^>]*>[ \n\r\t]*){2,}',re.I), 8 #'replaceFontsRe': re.compile('<(\/?)font[^>]*>',re.I), 9 #'trimRe': re.compile('^\s+|\s+$/'), 10 #'normalizeRe': re.compile('\s{2,}/'), 11 #'killBreaksRe': re.compile('(<br\s*\/?>(\s| ?)*){1,}/'), 12 'videoRe': re.compile('https?:\/\/(www\.)?(youtube|vimeo)\.com', re.I), 13 #skipFootnoteLink: /^\s*(\[?[a-z0-9]{1,2}\]?|^|edit|citation needed)\s*$/i, 14 }
比如这里定义了 unlikelyCandidatesRe,就是不像 candidates 的 pattern,比如 foot、comment 等等,碰到这样的标签或 pattern 的话,在计算分数的时候都会减分,另外还有其他的 positiveRe、negativeRe 也是一样的原理,分别对匹配到的内容进行加分或者减分。
这就是 Readability 的原理,是基于一些规则匹配的打分模型,很多规则其实来源于经验的累积,分数的计算规则应该也是不断地调优得出来的。
另外其他的就没了,Readability 并没有提供提取时间、作者的方法,另外此种方法的准确率也是有限的,但多少还是省去了一些人工成本。
Newspaper
另外还有一个智能解析的库,叫做 Newspaper,提供的功能更强一些,但是准确率上个人感觉和 Readability 差不太多。
这个库分为 Python2 和 Python3 两个版本,Python2 下的版本叫做 newspaper,Python3 下的版本叫做 newspaper3k,这里我们使用 Python3 版本来进行测试。
其 GitHub 地址是:https://github.com/codelucas/newspaper,官方文档地址是:https://newspaper.readthedocs.io。
在安装之前需要安装一些依赖库,可以参考官方的说明:https://github.com/codelucas/newspaper#get-it-now。
安装好必要的依赖库之后,就可以使用 pip 安装了:
pip3 install newspaper3k
安装成功之后便可以导入使用了。
下面我们先用官方提供的实例来过一遍它的用法,官方提供的示例是使用了这个链接:https://fox13now.com/2013/12/30/new-year-new-laws-obamacare-pot-guns-and-drones/,其页面截图如下:
官方示例
下面用一个实例来感受一下:
1 from newspaper import Article 2 3 url = 'https://fox13now.com/2013/12/30/new-year-new-laws-obamacare-pot-guns-and-drones/' 4 article = Article(url) 5 article.download() 6 # print('html:', article.html) 7 8 article.parse() 9 print('authors:', article.authors) 10 print('date:', article.publish_date) 11 print('text:', article.text) 12 print('top image:', article.top_image) 13 print('movies:', article.movies) 14 15 article.nlp() 16 print('keywords:', article.keywords) 17 print('summary:', article.summary)
这里从 newspaper 库里面先导入了 Article 这个类,然后直接传入 url 即可,首先需要调用它的 download 方法,将网页爬取下来,否则直接进行解析会抛出错误的。
但我总感觉这个设计挺不友好的,parse 方法不能判断下,如果没执行 download 就自动执行 download 方法吗?如果不 download 其他的不什么都干不了吗?
好的,然后我们再执行 parse 方法进行网页的智能解析,这个功能就比较全了,能解析 authors、publish_date、text 等等,除了正文还能解析作者、发布时间等等。
另外这个库还提供了一些 NLP 的方法,比如获取关键词、获取文本摘要等等,在使用前需要先执行以下 nlp 方法。
最后运行结果如下:
1 authors: ['Cnn Wire'] 2 date: 2013-12-30 00:00:00 3 text: By Leigh Ann Caldwell 4 5 WASHINGTON (CNN) — Not everyone subscribes to a New Year’s resolution, but Americans will be required to follow new laws in 2014. 6 7 Some 40,000 measures taking effect range from sweeping, national mandates under Obamacare to marijuana legalization in Colorado, drone prohibition in Illinois and transgender protections in California. 8 9 Although many new laws are controversial, they made it through legislatures, public referendum or city councils and represent the shifting composition of American beliefs. 10 ... 11 ... 12 Colorado: Marijuana becomes legal in the state for buyers over 21 at a licensed retail dispensary. 13 14 (Sourcing: much of this list was obtained from the National Conference of State Legislatures). 15 top image: https://localtvkstu.files.wordpress.com/2012/04/national-news-e1486938949489.jpg?quality=85&strip=all 16 movies: [] 17 keywords: ['drones', 'national', 'guns', 'wage', 'law', 'pot', 'leave', 'family', 'states', 'state', 'latest', 'obamacare', 'minimum', 'laws'] 18 summary: Oregon: Family leave in Oregon has been expanded to allow eligible employees two weeks of paid leave to handle the death of a family member. 19 Arkansas: The state becomes the latest state requiring voters show a picture ID at the voting booth. 20 Minimum wage and former felon employmentWorkers in 13 states and four cities will see increases to the minimum wage. 21 New Jersey residents voted to raise the state’s minimum wage by $1 to $8.25 per hour. 22 California is also raising its minimum wage to $9 per hour, but workers must wait until July to see the addition.
这里省略了一些输出结果。
可以看到作者、日期、正文、关键词、标签、缩略图等信息都被打印出来了,还算是不错的。
但这个毕竟是官方的实例,肯定是好的,我们再测试一下刚才的例子,看看效果如何,网址还是:https://tech.163.com/19/0909/08/EOKA3CFB00097U7S.html,改写代码如下:
1 from newspaper import Article 2 3 url = 'https://tech.163.com/19/0909/08/EOKA3CFB00097U7S.html' 4 article = Article(url, language='zh') 5 article.download() 6 # print('html:', article.html) 7 8 article.parse() 9 print('authors:', article.authors) 10 print('title:', article.title) 11 print('date:', article.publish_date) 12 print('text:', article.text) 13 print('top image:', article.top_image) 14 print('movies:', article.movies) 15 16 article.nlp() 17 print('keywords:', article.keywords) 18 print('summary:', article.summary)
这里我们将链接换成了新闻的链接,另外在 Article 初始化的时候还加了一个参数 language,其值为 zh,代表中文。
然后我们看下运行结果:
1 Building prefix dict from /usr/local/lib/python3.7/site-packages/jieba/dict.txt ... 2 Dumping model to file cache /var/folders/1g/l2xlw12x6rncs2p9kh5swpmw0000gn/T/jieba.cache 3 Loading model cost 1.7178938388824463 seconds. 4 Prefix dict has been built succesfully. 5 authors: [] 6 title: 今年iPhone只有小改进?分析师:还有其他亮点 7 date: 2019-09-09 08:10:26+08:00 8 text: (原标题:Apple Bets More Cameras Can Keep iPhone Humming) 9 10 图示:苹果首席执行官蒂姆·库克(Tim Cook)在6月份举行的苹果全球开发者大会上。 11 12 网易科技讯 9月9日消息,据国外媒体报道,和过去的12个年头一样,新款iPhone将成为苹果公司本周所举行年度宣传活动的主角。但人们的注意力正转向需要推动增长的其他苹果产品和服务。 13 ... 14 ... 15 Strategy Analytics的尼尔·莫斯顿(Neil Mawston)表示,可穿戴设备和服务的结合将是苹果业务超越iPhone的关键。他说,上一家手机巨头诺基亚公司在试图进行类似业务转型时就陷入了困境之中。(辰辰) 16 17 相关报道: 18 19 iPhone 11背部苹果Logo改为居中:为反向无线充电 20 21 2019年新iPhone传言汇总,你觉得哪些能成真 22 top image: https://www.163.com/favicon.ico 23 movies: [] 24 keywords: ['trust高级投资组合经理丹摩根dan', 'iphone', 'mawston表示可穿戴设备和服务的结合将是苹果业务超越iphone的关键他说上一家手机巨头诺基亚公司在试图进行类似业务转型时就陷入了困境之中辰辰相关报道iphone', 'xs的销售疲软状况迫使苹果在1月份下调了业绩预期这是逾15年来的第一次据贸易公司susquehanna', 'xs机型发布后那种令人失望的业绩重演iphone', '今年iphone只有小改进分析师还有其他亮点', 'more', 'xr和iphone', 'morgan说他们现在没有任何真正深入的进展只是想继续让iphone这款业务继续转下去他乐观地认为今年发布的新款手机将有足够多的新功能为一个非常成熟的产品增加额外的功能让火车继续前进这种仅限于此的态度说明了苹果自2007年发布首款iphone以来所面临的挑战iphone销售占苹果公司总营收的一半以上这让苹果陷入了一个尴尬的境地既要维持核心产品的销量另一方面又需要减少对它的依赖瑞银ubs今年5月份对8000名智能手机用户进行了相关调查其发布的年度全球调查报告显示最近iphone在人脸识别技术等方面的进步并没有引起一些消费者的共鸣他们基本上都认为苹果产品没有过去几年那么独特或者惊艳品牌也没有过去几年那么有吸引力很多人使用老款手机的时间更长自己认为也没有必要升级到平均售价949美元的新款iphone苹果需要在明年销售足够多的iphone以避免像去年9月份iphone', 'keep', '原标题apple'] 25 summary: (原标题:Apple Bets More Cameras Can Keep iPhone Humming)图示:苹果首席执行官蒂姆·库克(Tim Cook)在6月份举行的苹果全球开发者大会上。网易科技讯 9月9日消息,据国外媒体报道,和过去的12个年头一样,新款iPhone将成为苹果公司本周所举行...亚公司在试图进行类似业务转型时就陷入了困境之中。(辰辰)相关报道:iPhone 11背部苹果Logo改为居中:为反向无线充电2019年新iPhone传言汇总,你觉得哪些能成真
中间正文很长省略了一部分,可以看到运行时首先加载了一些中文的库包,比如 jieba 所依赖的词表等等。
解析结果中,日期的确是解析对了,因为这个日期格式的的确比较规整,但这里还自动给我们加了东八区的时区,贴心了。作者没有提取出来,可能是没匹配到 来源 两个字吧,或者词库里面没有,标题、正文的提取还算比较正确,也或许这个案例的确是比较简单。
另外对于 NLP 部分,获取的关键词比较迷,长度有点太长了。summary 也有点冗余。
另外 Newspaper 还提供了一个较为强大的功能,就是 build 构建信息源。官方的介绍其功能就是构建一个新闻源,可以根据传入的 URL 来提取相关文章、分类、RSS 订阅信息等等。
我们用实例感受一下:
1 import newspaper 2 3 source = newspaper.build('http://www.sina.com.cn/', language='zh') 4 for category in source.category_urls(): 5 print(category) 6 7 for article in source.articles: 8 print(article.url) 9 print(article.title) 10 11 for feed_url in source.feed_urls(): 12 print(feed_url)
在这里我们传入了新浪的官网,调用了 build 方法,构建了一个 source,然后输出了相关的分类、文章、RSS 订阅等内容,运行结果如下:
1 http://cul.news.sina.com.cn 2 http://www.sina.com.cn/ 3 http://sc.sina.com.cn 4 http://jiangsu.sina.com.cn 5 http://gif.sina.com.cn 6 .... 7 http://tj.sina.com.cn 8 http://travel.sina.com.cn 9 http://jiaoyi.sina.com.cn 10 http://cul.sina.com.cn 11 https://finance.sina.com.cn/roll/2019-06-12/doc-ihvhiqay5022316.shtml 12 经参头版:激发微观主体活力加速国企改革 13 http://eladies.sina.com.cn/feel/xinli/2018-01-25/0722/doc-ifyqwiqk0463751.shtml 14 我们别再联系了 15 http://finance.sina.com.cn/roll/2018-05-13/doc-ihamfahx2958233.shtml 16 新违约时代到来!违约“常态化”下的市场出清与换血 17 http://sports.sina.com.cn/basketball/2019worldcup/2019-09-08/doc-iicezzrq4390554.shtml 18 罗健儿26分韩国收首胜 19 ... 20 http://travel.sina.com.cn/outbound/pages/2019-09-05/detail-iicezzrq3622449.shtml 21 菲律宾海滨大道 夜晚让人迷离 22 http://travel.sina.com.cn/outbound/pages/2016-08-19/detail-ifxvcnrv0334779.shtml 23 关岛 用双脚尽情享受阳光与海滩 24 http://travel.sina.com.cn/domestic/pages/2019-09-04/detail-iicezzrq3325092.shtml 25 秋行查干浩特草原 26 http://travel.sina.com.cn/outbound/pages/2019-09-03/detail-iicezueu3050710.shtml 27 白羊座的土豪之城迪拜 28 http://travel.sina.com.cn/video/baidang/2019-08-29/detail-ihytcitn2747327.shtml 29 肯辛顿宫藏着维多利亚的秘密 30 http://cd.auto.sina.com.cn/bdcs/2017-08-15/detail-ifyixias1051586.shtml
可以看到它输出了非常多的类别链接,另外还有很多文章列表,由于没有 RSS 订阅内容,这里没有显示。
下面把站点换成我的博客:https://cuiqingcai.com,博客截图如下:
博客截图
看看运行结果:
1 https://cuiqingcai.com2 https://cuiqingcai.com
似乎不太行啊,一篇文章都没有,RSS 也没有,可见其功能还有待优化。
Newspaper 的基本用法介绍到这里,更加详细的用法可以参考官方文档:https://newspaper.readthedocs.io。个人感觉其中的智能解析可以用用,不过据我的个人经验,感觉还是很多解析不对或者解析不全的,
以上便是 Readability 和 Newspaper 的介绍。
其他方案
另外除了这两个库其实还有一些比较优秀的算法,由于我们处理的大多为中文文档,所以一些在中文上面的研究是比较有效的,在这里列几个值得借鉴的中文论文供大家参考:
洪鸿辉等,基于文本及符号密度的网页正文提取方法
梁东等,基于支持向量机的网页正文内容提取方法
王卫红等,基于可视块的多记录型复杂网页信息提取算法
今天还看到一位大佬「青南」根据上面第一篇论文所实现的 GeneralNewsExtractor,GitHub 地址为:https://github.com/kingname/GeneralNewsExtractor,经测试准确率还不错,比 Readability 和 Newspaper 的解析效果要好。我也跟作者进行了交流,后续可能还会基于其他的 Feature 或依赖于视觉化的方法进行优化,大家可以关注下,谢谢!
HDC.Cloud 华为开发者大会2020 即将于2020年2月11日-12日在深圳举办,是一线开发者学习实践鲲鹏通用计算、昇腾AI计算、数据库、区块链、云原生、5G等ICT开放能力的最佳舞台。
欢迎报名参会(https://www.huaweicloud.com/HDC.Cloud.html?utm_source=&utm_medium=&utm_campaign=&utm_content=techcommunity)
来源:https://www.cnblogs.com/huaweicloud/p/12229494.html