小说

读书之乐 徐则臣

让人想犯罪 __ 提交于 2019-12-02 00:16:46
北京 徐则臣 十一岁之前,我住在一个村庄里,无法想象有地方比县城更远。从我家到县城,四十里,这是我理解的世界的半径。我看过外国人,在电视里,在这台从姑妈家借来的黑白电视里,他们头发卷曲,高鼻深眼,名字长得憋一口气都说不完,穿着可笑的礼服和长裙。看第一眼我就不喜欢,说中国话也不行。(他们的确都说中国话,每一集电视剧结束都会出现一长串配音演员的名字)——竟然还有人长这么丑。这不是我一个人的感受,围在十四英寸电视机前的一屋子的街坊邻居都不喜欢。这是20世纪80年代中期,四邻里只有我们家一台电视,一到阴天下雨和晚上,没活儿可干的邻居就聚过来。他们说,换台换台,外国人不好看。我就走到电视前,咔咔咔拧半圈转到另外一个频道。能收到节目的就两三个频道,我们宁愿看另一个频道里跟我们没有任何关系的广告。 十一岁,我去镇上念初中,一半好奇一半虚荣,我向念高中的朋友借来两本外国文学名著,《嘉莉妹妹》和《珍妮姑娘》。拿到书的时候,我能听见那些下雨的午后,因为不喜欢那些外国人我换频道的坚硬的咔咔声。可我已经是个中学生了,得做个有学问的人。《嘉莉妹妹》和《珍妮姑娘》是我最早读的外国小说。我几乎是硬着头皮翻开了第一页。读得出乎意料的顺,除了故事我可以完整地复述出来,所有那些稀奇古怪的外国人名我竟然也都记住了。当我说出那些复杂冗长的外国人名时,我觉得我的舌头正在跳传说中的芭蕾

《回到张家界》读后感作文3400字

断了今生、忘了曾经 提交于 2019-12-01 11:26:08
《回到张家界》读后感作文3400字: 《回到张家界:张家界市2017年度优秀文学作品选》(以下简称“《回到张家界》”)出版一年有余,去年写了《弥散着浓郁的张家界味道》一文作为散文篇的读后感,引来入选作者和作家老师们的关注,由此激发了我继续完成余下篇章的阅读与读后感的创作。 从篇幅上来说,散文、诗歌占据《回到张家界》三分之二的篇章,7篇小说未到全书体量的六分之一,虽然说与其他文学体裁有一定的差距,但在文字质量和情感的张力上却毫不逊色。作为“文学之王”的小说,在《回到张家界》中,处处跃动着“时代气息”。这些作品记录了时代的变化,歌颂了改革开放取得的巨大成绩,表达了作者们对中国的无比热爱之情。“时代的跃动”是小说篇的筋骨和鲜活主题,它们建构起了张家界文学界2017年度小说的文学大厦。 时代气息的彰显,每笔都是改革开放的注脚 总书记强调说:“我国作家艺术家应该成为时代风气的先觉者、先行者、先倡者。”张家界的作家在文学创作的过程中,紧紧握住时代脉搏,用如椽巨笔倾力打造的文学作品,都是改革开放的注脚,洋溢着真善美,充满着面向未来的蓬勃力量。 向延波的小说《美人痣》,从主人翁谷成泽主政乡镇期间以大无畏的勇气和壮士断腕的决心说起,大刀阔斧地发展乡镇经济,取得了显著成绩,最终“英雄难过美人关”,在政途上的结局令人扼腕,结局点明“美人痣”的“命中注定”。长焦关注主人翁的政途一生

小说美句摘抄

倖福魔咒の 提交于 2019-12-01 07:19:35
不知道为啥脑子一抽打算开个坑(反正咱是个不务正业的人) 大部分是网文里的,某些是轻小说里的,文学名著……咱也不像会看那个的人啊…… \(1.\) 即使万法门某些前辈的理论在今天仍然被证明是无用的,我们依然应当对他们表示敬意。因为他们曾经尽力求索过,这就够了。因为我知道,有很长一串名字,每一个都是那么伤心。 五万年前,几何魔君的弟子洛黎武前辈求出了全部的圆锥曲线,然后一千八百年前,玄星观星轨法王开谱乐才将其应用于行星轨道理论。 本门前辈伽罗华于穷困潦倒之际创立群论,近千年后年后获得物理应用。 白泽神君弟子完善的矩阵算法在六百年后才应用于缥缈之道。 罗切肤前辈创出非欧几何,而对这个体系实际应用的探求贯穿了算王高嗣最辉煌的岁月,但一无所获。直到闵可夫前辈将之教授给太一天尊后,这种毫无作用的理论以及由其展而来的张量分析才成为天物流转之道的核心部分…… 看,你沉默了。你也应该保持沉默。 《走进修仙》 \(2.\) 即使我们是笼中鸟,我们也与鸟笼的主人共享一套宇宙常数;即使我们是梦中花,我们也与做梦者共享一套底层逻辑。 《走进修仙》 \(3.\) 辫群主要涉及的理论与技术包括算器语言,飘渺算器、生灵源质结构、混沌动力系统、飘渺色动力学、超弦以及心上人的头发。 《走进修仙》 来源: https://www.cnblogs.com/yuanquming/p/11667964.html

星之小说下载器Android版

人盡茶涼 提交于 2019-12-01 02:47:24
原本是想在酷安上架的,然而审核不通过。。只能通过网页方式宣传了 一款使用Jsoup开源库网络爬虫的APP,将在线阅读的小说解析,把小说全本下载为txt文件 由于使用爬虫技术,所以下载的速度不是很理想,后期可能还得优化优化 下载保存的路径: 内置sd卡/星之小说下载器 PS:最近吃土了,觉得有用的,捐赠一波请我吃顿饭呗 更新日志 v2.0 1.重构界面,增加下载历史记录列表显示 2.增加历史记录清空功能 3.修复多任务下载的闪退bug 4.增加暂停功能 v1.0 1.实现基本的下载功能 开发计划: 1.自定义下载路径 2.主题换色 3.支持笔趣阁等更多书源 4.保存已下载列表(已完成) 5.暂停功能(已完成) 6.后台下载 7.通知进度 8.下载速度优化 9.暂时没有想到 书源支持 铅笔小说网 界面预览 下载地址 蓝奏云 来源: https://www.cnblogs.com/kexing/p/11646760.html

小说网站被攻击怎么办?云漫高防CDN加速修复

折月煮酒 提交于 2019-11-30 10:16:08
随着互联网对于日常生活便利化,电子书阅读也得到的广泛的使用,作为一种在网上阅读要比纸质阅读更方便便捷,伴随着近几年热门IP小说的带动下,小说网站数量相当乐观,但也避免不了被流量攻击的悲催命运。 当我们打开一个网站看小说,手机页面屡屡提示系统遭到病毒攻击,手机时不时的振动,出于畏惧心理,必然也会选择该网站的页面。 这时候该小说网站的站长要注意啦,不能轻易大事化小,小事化了,因为你已经逐渐流失流量,流失重要的客户啦。 一个网站的生存之本就是维持网站访问者的存在,如果没有访问者,网站空间建的再好,也是徒劳的。 所以小说网站在确认受到流量攻击类型之前,还要确认自己购买的域名是否“前科”。 一般小说类型的网站,刚运营一段时间,就会选择购买域名,但是对域名的历史并没有详细了解,导致网站运营不久后就会被攻击。 因为域名的上一任网站有可能存在一些错误而被搜索引擎Pass掉。对于这种情况最好是放弃这个域名就,因为继续使用对自己的网站负面影响大。 因此,在选择域名的时候,一定要做好域名的筛查工作,尤其是之前的历史记录。 一切网站的正常运营都离不开服务器背后的好帮手。 不知道你是否了解CDN,你的日常网络访问活动——浏览新闻、观看视频、好友聊天、发朋友圈和线上购物等都可能是CDN在背后默默支撑。 如果网站打开需要十多秒,很容易导致造成客户流失,要是网速很慢的话,可以考虑使用云漫网络旗下的TTCDN

爬虫:阿里小说网所有小说的内容爬取并保存到本地文件

随声附和 提交于 2019-11-30 09:28:25
1.我的目的 爬取阿里小说网所有小说的内容,每本小说保存进不同的txt文件,txt文件以小说名命名 2.分析过程 1.书库的请求是一个普通get请求,我们解析页面可以得到每本书的id,而页码通过url的page=?来控制(https://www.aliwx.com.cn/store?spm=aliwx.list_store.0.0.345d34d4zMOmk9&page=) 2.有了小说的id ,我们拼接一下就能得到小说的第一页url "https://www.aliwx.com.cn/reader?bid=" + str(bookID) 但是这个页面并没有返回小说的内容,不过可以发现这个网页会返回所有章节的名字以及很多字符 3.获取每章小说的内容 【1】找到返回章节内容的请求 返回的章节内容是被加密的 是一个get请求,请求中有很多参数(chapterID、ver、aut、sign、num、isFree、bookid、ut),这里的参数看起来很多而且传的都是一堆奇怪的字符,但是可以发现这些参数都在第一页返回的页面中包含了;需要的就是从第一页的返回中获取每一章的所需参数然后构造成请求url。 【2】参数的提取: [{"volumeId":"1","volumeName":"正文","volumeOrder":1,"volumeList":[{"chapterId":"1148895

爬虫:Scrapy之CrawlSpiader的使用

无人久伴 提交于 2019-11-30 09:28:12
1.我的目的 了解Scrapy的CrawlSpider并使用 2.例子 爬取豆瓣读书的所有小说的详情页面 每一页的url /tag/小说?start=7600 、 /tag/小说?start=60 正则匹配这些字符的话写法是 ” /tag/小说?start=[0-9]* “ 某一部小说的url https://book.douban.com/subject/1045818/ https://book.douban.com/subject/1046265/ 正则匹配这些字符的话写法是 " https://book.douban.com/subject/[0-9]*?/$ " (这里加$是为了结尾匹配,不匹配结尾的话能匹配到这种url ”https://book.douban.com/subject/1045818/buylinks/“ , 可能是不匹配结尾的话它会把用这个正则能匹配出数据的url都选取下来) 那么我们可以这样写 class CrawlDoubanSpider ( CrawlSpider ) : name = 'crawl_douban' allowed_domains = [ 'book.douban.com' ] start_urls = [ 'https://book.douban.com/tag/%E5%B0%8F%E8%AF%B4?start=0&type=T

爬取顶点小说网站小说

萝らか妹 提交于 2019-11-29 15:06:49
简单的爬取小说的脚本 1 ''' 2 爬取网站 顶点小说 3 网站地址 https://www.booktxt.net 4 本脚本只为学习 5 ''' 6 import requests 7 from bs4 import BeautifulSoup 8 import time,random 9 10 book_name = '5_5626' #小说名字的编号 11 book_url = 'https://www.booktxt.net' + '/' + book_name + '/' #拼接小说地址) 12 response = requests.get(url= book_url) 13 14 response.encoding = response.apparent_encoding #转码 15 soup = BeautifulSoup(response.text, features='html.parser') 16 a = soup.find(id='list') 17 dd_all = a.find_all('dd') 18 http_all = [] 19 20 for i in dd_all: 21 http_all.append(book_url + i.find('a').attrs.get('href')) 22 http_all = http_all[8:

scrapy两种方法爬取网站小说

徘徊边缘 提交于 2019-11-28 22:15:55
第一种,使用spider爬取 首先选择一个初始的小说链接,例如小说第一章的链接https://www.zwdu.com/book/11029/2297440.html 我爬去的是这个网站,链接中的小说 首先,创建一个项目 scrapy startproject novel 创建spider scrapy genspider spider https://www.zwdu.com/book/11029/2297440.html 然后开始分析网站,因为该网站小说的链接没有规律,所以我选择通过下一页链接爬取下一章节的内容,然后到了最后一个章节发现最后的下一页链接不包含.html,可以设置一个if语句,来结束爬取。 这是下一章节链接在的地方。可以通过xpath来提取链接 这里是最后一章,链接不包括.html,可以用来作为停止爬取的条件 这里是我爬取的源码 spider.py # -*- coding: utf-8 -*- from scrapy import Request,Spider import json class SpiderSpider(Spider): name = 'spider' #allowed_domains = ['www.zwdu.com'] start_urls = ['https://www.zwdu.com/book/26215/8210673.html']