知乎

自己写了一个多行文本溢出文字补全的小库, 说不定你会用得到的

a 夏天 提交于 2019-12-03 10:23:18
本文转载于: 猿2048 网站➵ https://www.mk2048.com/blog/blog.php?id=i2ka1cji2j 有些时候产品会有这么个需求,希望给文章或者帖子给一个摘要,最多3行,或者其它行数,超出3行会补上'...'。当然这种很简单,用css可以搞定。但是遇上要求多点的产品,希望补上的是'...查看全文',这样的话就难办了。 我也在网上查了很多,至少我没发现有一个比较好的解决方案,也参考了微博和知乎的信息流,发现它们可能是根据文字的个数来算的,因为并没有看到有那种 刚好'阅读全文'这4个字就处于最后一行的末尾。 微博效果: 知乎效果: 因此自己也鼓捣了一番,终于勉强搞出了自己一个还算比较满意的小库。 整体的思路还是算每个字的宽度来计算出有多少行。因为web前端还是没有办法直接得到文本到底有多少行,所以这个计算还是比较麻烦。用的小技巧就是把每个字都包裹一个行内标签,计算这个行内标签的宽度。 我自己的项目效果: 项目已经放在github上了,npm上也已发布了,搜 text-overflow 即可 项目地址 demo地址 希望喜欢的同学,或者用的到的同学可以用起来,有问题也可以给我提issue,也别忘了给我的项目点star哦, 这样我会继续更新下去的。 来源: https://www.cnblogs.com/qianduanwriter/p/11790905

vue-知乎日志

匿名 (未验证) 提交于 2019-12-03 00:19:01
学了一段时间前端,今天终于做了个小玩意儿。 话不多说,直接入题。 1. 项目地址 2.截图 3.功能 首页 轮播图 动态消息 下拉刷新 动态消息详情页 侧边栏 侧边栏主题页 主题列表详情 + 一些小的交互效果 4.技术栈 5.总结 1)首先在制作的时候不要想着一开始就把某部分做的很完美,比如把什么标题栏做的非常好看了在继续做,因为谁也不能说一开始你想的就是多的,在后续制作过程中可能你就有了更好的灵感,最重要的是东西堆积的多了会给修改等方面带来问题,所以就和画画一样先找大的关系,大的框架,要做某一页,先把这一页划分块,然后在在那些块中去处理。 2)制作遇到的第一个问题是跨域问题,总结了几种解决的方案。详细请看 axios跨域问题 。 3)数据拉取了有个地方比较坑,就是图片显示不了,原因就是为了防盗。 知乎API返回的数据中的图片都是存储在知乎服务器上的url地址,直接请求会返回403,所以需要进行一些处理, 使用 Images.weserv.nl 进行缓存图片,并在需要使用图片url的地方进行相应的替换。 attachImageUrl: function (srcUrl) { if (srcUrl !== undefined) { return srcUrl.replace(/http\w{0,1}:\/\/p/g, 'https://images.weserv.nl/?url=p'

月薪30k的资深程序员用Python爬取了知乎百万用户!并数据分析!

匿名 (未验证) 提交于 2019-12-02 22:54:36
数据量:3,289,329 人。 数据采集工具:分布式 python 爬虫 分析工具:ElasticSearch + Kibana 分析角度:地理位置、男女比例、各类排名、所在高校、活跃程度等。 请各位注意: 以下所有分析结果都基于我抓取到的这300万用户的个人信息,非权威分析,仅供参考。 数据抓取时间为2017年7月份,用户数据会随着时间推移而变化,所以该报告具有一定时效性。 蓝色为男生,红色为女生。具体数据为: 男生:1,202,234 人,占 51.55%。 女生:1,129,874 人,占 48.45%。 知乎用户都是哪里人? 再来看看全国(全球?)都有哪些地方的人在玩知乎: 由上图可以看到,知乎用户中学生用户占据多数,其它的比如产品经理、程序员、运营、HR数量也不少。我们看一下具体的排名(前十名): 由上图可以看到,知乎用户中“学生”的比重独占鳌头,我们把“学生”去掉,来看看正经些的知乎职业排名: 知乎主流职业的性别分布: 上面这张饼图的内圈表示各主流职业在前十名中所占的比重,外圈表示该职业从业者中的男女比例,蓝色为男性,红色为女性。我们再用一张直方图来表示: 看完了知乎各职业的性别分布,我们再用一张热力图来观察知乎主流职业(前五名)在各个地区的分布情况,颜色越深,代表该职业在该地区的人数越多: 这里我为了展示方便,去掉了产品经理,你只需要知道产品经理在各地人数都是最多的

#xubuntu#字体丑的问题

余生颓废 提交于 2019-12-02 16:57:57
最近一直在找一个合适的虚拟机linux桌面做python开发,最后选择了xubuntu。 安装完整的中文字体后,发现pycharm和其他不少应用的字体都眼瞎,在知乎找到了解决方法 首先出现这个问题是因为ubuntu在更新语言包后,会安装ukai和uming两个字体,不知道为啥ubuntu要这样设计,反正挺烦人的,又丑又不清楚,把这两个卸掉就行了 sudo apt-get remove fonts-arphic-ukai fonts-arphic-uming 作者:张子兴 链接:https://www.zhihu.com/question/27815603/answer/38217450 来源:知乎 著作权归作者所有,转载请联系作者获得授权。 完美解决问题 lubuntu和ubuntu和deepin在vm中的表现都无法让人满意 来源: oschina 链接: https://my.oschina.net/u/987833/blog/716640

tmp 20191015

巧了我就是萌 提交于 2019-12-01 09:12:35
https://blog.csdn.net/kan_hui/article/details/100744280 python爬取知乎某个问题下所有图片 python的scrapy框架爬取知乎的源码地址:https://github.com/wt1024/zhihupic http://www.wangt.cc/2018/09/python-scrapy-pa-qu-zhi-hu-wen-ti-he-shou-cang-jia/ python scrapy爬取知乎问题和收藏夹下所有答案的内容和图片 来源: https://www.cnblogs.com/python-abc/p/11675054.html

爬虫---python爬取知乎数据并做简单分析

青春壹個敷衍的年華 提交于 2019-11-30 12:09:58
一、使用的技术栈: 爬虫:python27 +requests+json+bs4+time 分析工具: ELK套件 开发工具:pycharm 数据成果简单的可视化分析 1.性别分布 0 绿色代表的是男性 ^ . ^ 1 代表的是女性 -1 性别不确定 可见知乎的用户男性颇多。 二、粉丝最多的top30 粉丝最多的前三十名:依次是张佳玮、李开复、黄继新等等,去知乎上查这些人,也差不多这个排名,说明爬取的数据具有一定的说服力。 三、写文章最多的top30 四、爬虫架构 爬虫架构图如下: 说明: 选择一个活跃的用户(比如李开复)的url作为入口url.并将已爬取的url存在set中。 抓取内容,并解析该用户的关注的用户的列表url,添加这些url到另一个set中,并用已爬取的url作为过滤。 解析该用户的个人信息,并存取到本地磁盘。 logstash取实时的获取本地磁盘的用户数据,并给elsticsearchkibana和elasticsearch配合,将数据转换成用户友好的可视化图形。 五、编码 爬取一个url: 解析内容: 存本地文件: 代码说明: * 需要修改获取requests请求头的authorization。 * 需要修改你的文件存储路径。 源码下载:点击这里,记得star哦!https : // github . com/forezp/ZhihuSpiderMan 六

路人甲的 Python 总结

怎甘沉沦 提交于 2019-11-29 23:31:18
Python总结 目录 Python总结 1 前言 2 (一)如何学习Python 2 (二)一些Python免费课程推荐 3 (三)Python爬虫需要哪些知识? 4 (四)Python爬虫进阶 6 (五)Python爬虫面试指南 7 (六)推荐一些不错的Python博客 8 (七)Python如何进阶 9 (八)Python爬虫入门 10 (九)Python开发微信公众号 12 (十)Python面试概念和代码 15 (十一)Python书籍 23 前言 知乎:路人甲 微博:玩数据的路人甲 微信公众号:一个程序员的日常 在知乎分享已经有一年多了,之前一直有朋友说我的回答能整理成书籍了,一直偷懒没做,最近有空仔细整理了知乎上的回答和文章另外也添加了一些新的内容,完成了几本小小的电子书,这一本是有关于Python方面的。 还有另外几本包括我的一些数据分析方面的读书笔记、增长黑客的读书笔记、机器学习十大算法等等内容。将会在我的微信公众号:一个程序员的日常进行更新,同时也可以关注我的知乎账号:路人甲 及时关注我的最新分享用数据讲故事。 (一)如何学习Python 学习Python大致可以分为以下几个阶段: 1.刚上手的时候肯定是先过一遍Python最基本的知识,比如说:变量、数据结构、语法等,基础过的很快,基本上1~2周时间就能过完了,我当时是在这儿看的基础:Python 简介 |

scrapy抓取知乎话题v0.1

冷暖自知 提交于 2019-11-29 21:18:33
一、简介 抓取知乎某一子话题,赞同人数超过10的会被抓取。回答ID、赞同人数、回答时间、内容、提问被保存到mysql数据库中,支持更新(多次抓取时对于同一回答的ID只更新赞同人数)。 usage: scrapy crwal zhihu 二、效果: 抓了一个通宵将编程子话题全部抓完,抓取了13M的内容,下面是保存为json的数据。 但是,数据量一大用json来保存就很不方便了,文本格式化都会被卡住,查找更新操作更不用考虑了。 之后改进代码,用mysql来存储。 看效果吧。 三、下载地址 http://download.csdn.net/detail/wxq714586001/8832799 四、TODO 敬请期待v0.2。 来源: CSDN 作者: 牧羊人Full 链接: https://blog.csdn.net/wxq714586001/article/details/46611605

爬虫爬虫 - 知乎的爬虫 (Scrapy 框架)

天大地大妈咪最大 提交于 2019-11-29 21:17:51
背景: 前段时间适应了工作环境之后就寻思开始自己捣鼓点东西玩玩, 于是想啊既然网上这么多爬虫教程什么的,那咱也来凑凑热闹把,毕竟我也很喜欢搞点Data玩一玩。但是拖延了好久,这不趁着回来办签证这功夫赶紧把这个push了! 开发的环境: Mac OSX, Python 3.5, Scrapy 框架 Tips: 为什么使用 Python 3.5? Python 2.x 在不久的将来就不被维护了。 使用的工具: 给大家推荐一款mac上编写python的IDE - Pycharm , 目前我发现它的优点有:1. python intepreter 的版本控制做的很棒,可以随意切换python 版本,另外对每个版本下都安装了什么lib也一目了然。2. 对于不同版本的python,可以很简单的对其进行lib的增加和删除。减少了安装需要考虑路径等不必要的麻烦。3. 支持 自动填充 你打出一个function的开头它给你结尾这样。 项目的简介: 本次项目实现了模拟登录,并在登录之后爬取某个话题下面的所有问题信息。 项目代码: huazhe的github 项目的分析步骤: 什么是Scrapy? Scrapy 是一个爬虫的框架,它提供了很多方便的组件比如 item - 用一个用来存储下载下来的数据的类, itempipeline - 用来对下载下来的数据进行操作的类等等。

scrapy爬取知乎,分布式爬虫

耗尽温柔 提交于 2019-11-29 21:16:59
scrapy-redis 爬取知乎,构建分布式爬虫 此项目的功能是爬取知乎用户信息以及人际拓扑关系,爬虫框架使用scrapy-redis,数据存储使用mysql。 代码地址:https://github.com/affectalways/zhihu_distributed_by_scrapyRedis,欢迎各位大神指出问题 ^_^. 流程图 1. 请求 https://www.zhihu.com 获取页面中的_xsrf数据,知乎开启了跨站请求伪造功能,所有的POST请求都必须带上此参数。 2. 提交用户名,密码已经第一步解析的_xsrf参数到 https://www.zhihu.com/login/phone_num ,登陆获取cookies,同时解析到z_c0 3. 访问第一个用户主页,以我的主页为例 https://www.zhihu.com/people/affectalways.cn/followers 4. 获取第一个主页的关注人数,并通过json获取关注者信息(name,url,gender) 5. 将上一步获取到的url push进zhihu:start_urls 6. 若是用户的关注人信息全部获取完毕,继续获取另一个用户的关注者 注意:用户信息去重是利用redis中的set。 来源: CSDN 作者: 过河卒AF 链接: https://blog.csdn.net