【推荐】2019 Java 开发者跳槽指南.pdf(吐血整理) >>>
小爬怡情,中爬伤身,强爬灰灰。爬虫有风险,使用请谨慎,可能是这两天爬豆瓣电影爬多了,今天早上登录的时候提示号被封了(我用自己帐号爬的,是找死呢还是在找死呢 ...),好在后面发完短信后又解封了,^_^。
之前的文章中,已把电影短评数据装进了Mongo中,今天把数据取出来简单分析一下,当下最火的做法是进行词频统计并生成词云,今天说的就是这个。
读取Mongo中的短评数据,进行中文分词
不知道什么原因,我实际爬下来的短评数据只有1000条(不多不少,刚刚好),我总觉得有什么不对,但我重复爬了几次后,确实只有这么多。可能是我爬虫写的有什么不对吧,文末附源码链接,有兴趣的去看看, 欢迎拍砖(轻拍)。
import pymongo
import jieba
from jieba import analyse
# https://pypi.org/project/pymongo/
# http://github.com/mongodb/mongo-python-driver
from matplotlib import pyplot
from wordcloud import WordCloud
text = None
with pymongo.MongoClient(host='192.168.0.105', port=27017) as client:
# 获取集合
comments = client.douban.movie_26752088_comments
# 不知道为什么爬虫只取到了1000条评论~
print('count:', comments.estimated_document_count())
# pymongo.cursor.Cursor
cursor = comments.find()
# 遍历数据,这里只遍历短评数据(好在数据量并不太大)
text = ''.join(map(lambda doc: doc.get('comment'), cursor))
# 对短语数据文本进行分词
# 添加自定义分词
[jieba.add_word(k) for k in []]
# 取Top50的词生成词云
# https://github.com/fxsjy/jieba#基于-tf-idf-算法的关键词抽取
tags = analyse.extract_tags(text, topK=50, withWeight=False)
new_text = ' '.join(tags)
print(new_text)
中文分词部分,默认分词效果已经非常好了,我未添加自定义字典,这里感谢一下 结巴
的作者
对分词结果取Top50生成词云
也感谢一下 word_cloud
的作者,^_^
# 对分词文本生成词云
# 生成词云,需要指定支持中文的字体,否则无法生成中文词云
wc = WordCloud(
# 设置词云图片背景色,默认黑色
# background_color='white',
# 设置词云最大单词数
max_words=200,
# 设置词云中字号最大值
# max_font_size=80,
# 设置词云图片宽、高
width=768,
height=1024,
# 设置词云文字字体(美化和解决中文乱码问题)
font_path=r'../example/fonts/FZXingKai-S04S.TTF'
).generate(new_text)
# 绘图(标准长方形图)
pyplot.imshow(wc, interpolation='bilinear')
pyplot.figure()
pyplot.axis('off')
# 将图片输出到文件
wc.to_file(r'./images/wc.png')
生成词云效果
看来网上关于 我不是药神 vs 达拉斯 的争论很热啊。关于词频统计就这些,代码中也会完成一些其它的分析任务(其实都是一些很简单的任务,纯练手用),后续会持续更新。
其它分析任务
点赞数Top10
import pymongo
# 取点赞最多的前10条短评
with pymongo.MongoClient(host='192.168.0.105') as client:
comments = client.douban.movie_26752088_comments
for doc in comments.find().sort([('vote', -1)]).limit(10):
print('author = {}, date = {}, vote = {}, comment = {}'.format(
doc.get('author'),
doc.get('date'),
doc.get('vote'),
doc.get('comment')
))
- author = 忻钰坤, date = 2018-07-04 00:00:00, vote = 28129, comment = “你敢保证你一辈子不得病?”纯粹、直接、有力!常常感叹:电影只能是电影。但每看到这样的佳作,又感慨:电影不只是电影!由衷的希望这部电影大卖!成为话题!成为榜样!成为国产电影最该有的可能。
- author = 沐子荒, date = 2018-07-03 00:00:00, vote = 27237, comment = 王传君所有不被外人理解的坚持,都在这一刻得到了完美释放。他不是关谷神奇,他是王传君。 你看,即使依旧烂片如云,只要还有哪怕极少的人坚持,中国影视也终于还是从中生出了茁壮的根。 我不是药神,治不好这世界。但能改变一点,总归是会好的。
- author = 凌睿, date = 2018-06-30 00:00:00, vote = 18304, comment = 别说这是“中国版《达拉斯买家俱乐部》”了,这是中国的真实事件改编的中国电影,是属于我们自己的电影。不知道就去百度一下“陆勇”,他卖印度抗癌药的时候《达拉斯买家俱乐部》还没上映呢。所以别提《达拉斯买家俱乐部》了,只会显得你无知。(别私信我了,我800年前就知道《达拉斯》也是真事改编)
- author = 徐若风, date = 2018-06-06 00:00:00, vote = 16426, comment = 放豆瓣语境下,是部时至今日终于拍出来的国产“高分韩国电影”——拿现实题材拍商业类型片,社会性意义摆在那,群戏也处理得相当不错。对我们国家而言,这样的电影多一部是一部,走一步是一步。
- author = 桃桃淘电影, date = 2018-06-19 00:00:00, vote = 13337, comment = 最大的病,其实是穷病。真的被感动了,整体都很成熟,也有些许韩片的影子。几个演员表演都非常出色。可看性和内在的表达都不错。这个世界最荒诞在于,越贴近真实,真实越荒诞。人这一生,太不易了。最后,王传君,加油哦!
- author = 远世祖, date = 2018-06-30 00:00:00, vote = 9102, comment = 文牧野眼睛太毒了,观众的笑点、泪点、痛点被他牢牢抓住,徐峥现在不拼演技开始掏心炸肺放脱自我了,药物在中国绝对是个“不可说”,但这个电影说了它能说的,也不显山不漏水的说了它所不能说的,讲的是现实,但看过电影之后才会明白其实是超现实,2018最佳!
- author = 影志, date = 2018-06-19 00:00:00, vote = 7076, comment = “今后都会越来越好吧,希望这一天早点来”口罩成为符号,不是雾霾,而是人性的仪式,结尾竟然看到《辛德勒名单》一样的救赎。通俗感人,上海电影节首映哭倒一片,基于真实事件改编的社会意义加分,或许《我不是药神》之于中国,就像《摔跤吧爸爸》之于印度吧…能看到就不错。“其实只有一种病:穷病”
- author = Noodles, date = 2018-07-03 00:00:00, vote = 6926, comment = 人生建议:别买零食,吃不下的。
- author = 哪吒男, date = 2018-06-25 00:00:00, vote = 6211, comment = 最喜欢王传君的表演啊,几乎所有泪点都给他了!!而他曾经的同伴们,下月继续拿《爱情公寓》电影版面对观众。这个圈子里还是有不爱赚快钱的年轻演员,真好。
- author = 开开kergelen, date = 2018-07-04 00:00:00, vote = 5549, comment = 小时候路过一家药店,门口的对联写着“只愿世间无疾病,何愁架上药染尘”
15天评论量分布、走势
# 每日评论数,基于此生成日期评论走势图(用Excel生成的 ^_^)
from datetime import datetime
import pymongo
from bson import Code
# http://api.mongodb.com/python/current/
# http://api.mongodb.com/python/current/api/pymongo/collection.html#pymongo.collection.Collection.map_reduce
with pymongo.MongoClient(host='192.168.0.105') as client:
comments = client.douban.movie_26752088_comments
fn_map = Code("""
function () {
if (this.date != null) {
emit(this.date, 1);
}
}
""")
fn_reduce = Code("""
function (key, values) {
var total = 0;
for (var i = 0; i < values.length; i++) {
total += values[i];
}
return total;
}
""")
# pymongo.collection.Collection
results = comments.map_reduce(fn_map, fn_reduce, out="mr_results")
# 取最近15天数据
for col in results.find().sort([('_id', -1)]).limit(15):
# 格式化输出
print(col['_id'].strftime('%Y-%m-%d'), '\t', int(col['value']))
# 删除生成的结果集合
client.douban.mr_results.drop()
工程源码,欢迎 Star / Fork
- https://github.com/zlikun/python-crawler-douban-movie
- https://gitee.com/zlikun/python-crawler-douban-movie
来源:oschina
链接:https://my.oschina.net/u/1023355/blog/1845888