周杰伦

web前端初步学习的自我总结

断了今生、忘了曾经 提交于 2019-12-06 12:12:57
谈到网页制作,作为一个大二的软件工程专业的学生,不得不惭愧得说一句自己是个菜鸟,不是一般的菜。前阵子完成一个15个html文件的网页都弄了好几天,折腾在HTML,CSS,Javascript三者之间。弄完这个网页后也没多想,正好今天趁这个机会总结一下自己的一些制作过程中的所思所想吧。 刚开始准备做网页时,说真的有些不知道从哪里下手,到底是用div搞许多模块出来还是先用iframe弄出个框架,好吧其实压根忘了先用iframe。于是我就用一个DIV+CSS的布局开始了我的第一个html文件编写(ps:其实回头想想,应该先用iframe构造框架才比较方便后面的制作)。没有记错的话我css代码和div刚开始全放在html文件里了,这样可以比较方便得看自己需要用的选择器,需要强调的是,标签选择器,类选择器,ID选择器的优先级一定要弄明白,不然作出的效果常常不是自己想要的,这个可以通过不断修改css代码里的内容和修改 里的属性来摸索出来。如果需要另外创建个css文件,则剪切粘贴上去然后再在html中别忘了用一段引用css文件的代码,比如: 后面用到js文件时也有类似引用代码,这里暂且不提js。 我制作网页是用Dreamweaver8,感觉这个软件好处就在于html中它给出的代码,拆分,设计比较方便新手检查自己代码和对应效果和“偷懒”,这里说下怎么偷懒,就是在设计一栏里面,可以用鼠标调整图片

周杰伦新歌《说好不哭》上线,程序员哭了......

馋奶兔 提交于 2019-12-06 09:58:16
前些天,场主的朋友圈被一首歌刷屏了。 数据有多牛逼?除了揽获各大新闻头条,新歌发售3小时,数字专辑就在QQ音乐卖了360万张。以单价3元计算,一首《说好不哭》已狂揽千万,无人匹敌。 结果因为访问量太大,不少网友反映“QQ音乐崩了。。。” 在大家眼里,好像只有微博服务器是“不堪一击”的。那天晚上,QQ音乐持续崩溃,杰伦以一己之力成为了干翻QQ音乐服务器的男人。 在这首新歌里,大家还意外看到“周五合体”。还原了经典场景,也掀起了一波关于青春的回忆杀。当回忆和回忆相撞,啪,泪花四溅。 歌迷有没有被感动哭场主不知道,但是QQ音乐的程序员估计是要哭了。不奋战个一天一夜,怎么对得起嗷嗷待哺的歌迷朋友们。 诸如双十一淘宝瘫痪,明星恋情导致微博宕机事件,说到底还是“高并发”的问题。 高并发带来的后果 服务端: 导致站点服务器/DB服务器资源被占满崩溃,数据的存储和更新结果和理想的设计是不一样的,比如:出现重复的数据记录,多次添加了用户积分等。 用户角度: 尼玛,这么卡,老子来参加活动的,刷新了还是这样,垃圾网站,再也不来了! 程序员的经历: 在做公司产品网站的过程中,经常会有多样需求,如果没有考虑到高并发下的数据处理,就会出现各种超出正常逻辑的现象,因为这些都是面向大量用户的,而不是像做ERP管理系统只是面向员工。 回归技术本身,面对如此大的高并发流量和屡次崩溃的系统,程序员们如何抵挡?

说好了不哭 | 周杰伦是最懂青春的人,CORNERSTONE只想成为最懂你的人

强颜欢笑 提交于 2019-12-04 21:35:14
80、90后的青春,一半是周杰伦,一半是五月天。这两天朋友圈最火的莫过于周杰伦的新歌《说好不哭》,方文山作词,周杰伦作曲,歌曲中还有周董、阿信的倾情合唱,依旧是熟悉的节奏和小清新的风格,中年人的青春记忆,又回来了! 大家都说,周杰伦是“最懂青春的人”。因此,周杰伦本身就代表着一种青春的情怀。这种“约定”与“成全”的情歌,直接把QQ音乐搞崩的,也只有周董能做到了。 9月16日11点周杰伦的新歌《说好不哭》首发,继微博超话“登顶”事件,粉丝“被迫营业”将周杰伦超话刷至榜首之后,周杰伦再一次霸屏,微博空降8条热搜,QQ音乐直接被搞崩溃…… 夕阳红粉丝团:过年了啊啊啊啊(破音) 程序员:啊啊啊啊又来?? 回顾这几年网上所见证的每一次平台崩溃事件,其他人都是靠官宣、结婚、离婚、周一见上热搜,让微博服务器崩溃,程序员加班。 而周杰伦,是靠才艺,让我们第一次知道QQ音乐也会因为挤爆而崩溃,QQ音乐的程序员多少年没加班了,晚上11点了还在加班。(这是音乐APP首次服务器崩溃) 运维:卧槽?怎么访问流量这么高?是出啥bug了吗? 运维:兄弟们,快醒醒!快加机器啊!系统要崩了! 开发:别催!再催自杀! leader:测试在扩容之后赶紧拉出来测测! 测试:人在家中躺,锅从天上来! 程序员内心戏:说好了不哭,呜呜呜! 下面我们来通过 CORNERSTONE 来复盘下QQ音乐崩溃事件,上线当晚

python基础(9):基本数据类型四(set集合)、基础数据类型补充、深浅拷贝

人走茶凉 提交于 2019-12-03 21:07:45
1. 基础数据类型补充 li = ["李嘉诚", "麻花藤", "⻩海峰", "刘嘉玲"] s = "_".join(li) print(s) li = "⻩花⼤闺⼥" s = "_".join(li) print(s) 列表: 循环删除列表中的每⼀个元素 li = [11, 22, 33, 44] for e in li:    li.remove(e) print(li) 结果: [22, 44] 分析原因: for的运⾏过程,会有⼀个指针来记录当前循环的元素是哪⼀个,⼀开始这个指针指向第0 个,然后获取到第0个元素,紧接着删除第0个。这个时候,原来是第⼀个的元素会⾃动的变成 第0个,然后指针向后移动⼀次,指向1元素,这时原来的1已经变成了0,也就不会被删除了。 ⽤pop删除试试看: li = [11, 22, 33, 44] for i in range(0, len(li)):   del li[i] print(li) 结果: 报错 # i= 0, 1, 2 删除的时候li[0] 被删除之后. 后⾯⼀个就变成了第0个. # 以此类推. 当i = 2的时候. list中只有⼀个元素. 但是这个时候删除的是第2个 肯定报错啊 经过分析发现,循环删除都不⾏。不论是⽤del还是⽤remove,都不能实现,那么pop呢? for el in li:    li.pop() #

18.07.05

匿名 (未验证) 提交于 2019-12-03 00:40:02
一.list列表 列表可以装大量的数据,不限制数据类型. 表达方式:[],方括号中的每项用","隔开. 列表和字符串一样,有索引和切片 1.列表的增删改查 (1).append("添加的元素")向列表中添加一个元素,默认元素添加到列表的末尾. 例: lst = [ "周杰伦" , "王力宏" , "周润发" ] lst . append ( "伍佰" ) print ( lst ) ==<[‘周杰伦‘, ‘王力宏‘, ‘周润发‘, ‘伍佰‘]> insert(指定位置,"添加的元素")把元素添加的指定的位置,原来在指定位置的元素往后移. 例: lst = [ "周杰伦" , "王力宏" , "周润发" ] lst . insert ( 1 , "马化腾" ) # 把元素插入到指定位置. 元素的移动 print ( lst ) ==<[‘周杰伦‘, ‘马化腾‘, ‘王力宏‘, ‘周润发‘]> exend(添加的元素)把元素添加到列表的最后 如果添加的元素是字符串最后列表添加的元素是字符串的每一个元. 迭代添加: 如果添加的是列表最后列表最后添加的是要添加的列表的元素. 例: lst = [ "周杰伦" , "王力宏" , "周润发" ] lst . extend ([ "马云" ]) print ( lst ) ==<[‘周杰伦‘, ‘王力宏‘, ‘周润发‘, ‘马云‘]> 例:

Python网络爬虫第三弹《爬取get请求的页面数据》

匿名 (未验证) 提交于 2019-12-02 22:11:45
一.urllib库   urllib是Python自带的一个用于爬虫的库,其主要作用就是可以通过代码模拟浏览器发送请求。其常被用到的子模块在Python3中的为urllib.request和urllib.parse,在Python2中是urllib和urllib2。 二.由易到难的爬虫程序:   1.爬取百度首页面所有数据值 1 #!/usr/bin/env python 2 # -*- coding:utf-8 -*- 3 #导包 4 import urllib.request 5 import urllib.parse 6 if __name__ == "__main__": 7 #指定爬取的网页url 8 url = 'http://www.baidu.com/' 9 #通过urlopen函数向指定的url发起请求,返回响应对象 10 reponse = urllib.request.urlopen(url=url) 11 #通过调用响应对象中的read函数,返回响应回客户端的数据值(爬取到的数据) 12 data = reponse.read()#返回的数据为byte类型,并非字符串 13 print(data)#打印显示爬取到的数据值。 #补充说明 urlopen函数原型:urllib.request.urlopen(url, data=None, timeout=

字典{}

雨燕双飞 提交于 2019-12-01 16:48:21
1. 什么是字典 dict. 以{}表示. 每一项用逗号隔开, 内部元素用key:value的形式来保存数据 {"jj":"林俊杰", "jay":"周杰伦"} 查询的效率非常高, 通过key来查找元素 内部使用key来计算一个内存地址(暂时),hash算法. key必须是不可变的数据类型(key 必须是可哈希的数据类型) 键值对数据 {key:value} 唯一性 键 都必须是可哈希的 不可变的数据类型就可以当做字典中的键 值 没有任何限制 2. 字典的增删改查 1. 字典的新增: dic[key] = valuedic.setdefault(key,value) 如果键在字典中存在不进行任何操作,否则就添加 可以通过key查询,没有这个key返回None # dic = {} # # 徐峥:人在囧途 # dic['徐峥'] = "人在囧途" # 直接用key往里面存数据即可 # dic['黄渤'] = "疯狂的石头" # dic["王宝强"] = "天下无贼" # dic["王宝强"] = "士兵突击" # 如果key已经存在。 那么会替换掉原来的value, 修改 # # dic.setdefault("黄秋生") # dic.setdefault("黄秋生", "无间道") # 如果存在了key, 不会执行新增 # # print(dic)    2. 删除 pop(key

ArrayList入门

♀尐吖头ヾ 提交于 2019-11-28 12:37:45
原文: http://blog.gqylpy.com/gqy/446 置顶:来自一名75后老程序员的武林秘籍——必读 (博主推荐) 来,先呈上武林秘籍链接: http://blog.gqylpy.com/gqy/401/ 你好,我是一名极客!一个 75 后的老工程师! 我将花两分钟,表述清楚我让你读这段文字的目的! 如果你看过武侠小说,你可以把这个经历理解为,你失足落入一个山洞遇到了一位垂暮的老者!而这位老者打算传你一套武功秘籍! 没错,我就是这个老者! 干研发 20 多年了!我也年轻过,奋斗过!我会画原理图,会画 PCB,会模拟,会数字!玩过 PLC,玩过单片机,会用汇编,会用 C!玩过 ARM,比如 PLC,STM32,和时下正在起飞的 NXP RT1052!搞过 DSP,比如 TMS320F28335!搞过 FPGA,不管 Xilinx 还是 Altera,也不管是 Verilog 还是 VHDL,或者直接画数字电路图!我懂嵌入式系统,比如 uCOS 和 Linux!我懂开源的硬件,比如 Arduino 和树莓派!我也搞软件,学了一堆上位机的语言C#,JAVA,Python,Kotlin,Swift!会写爬虫工具,又自学写APP,不管Android 还是 IOS! 可是这一切有什么用呢?土鸡瓦狗!不值一提!干技术的永远就是最苦逼的那个人! 我相信看到这里的你,应该是个 IT

周杰伦新歌《说好不哭》上线,程序员哭了......【华为云分享】

拜拜、爱过 提交于 2019-11-28 05:53:48
前些天,场主的朋友圈被一首歌刷屏了。 数据有多牛逼?除了揽获各大新闻头条,新歌发售3小时,数字专辑就在QQ音乐卖了360万张。以单价3元计算,一首《说好不哭》已狂揽千万,无人匹敌。 结果因为访问量太大,不少网友反映“QQ音乐崩了。。。” 在大家眼里,好像只有微博服务器是“不堪一击”的。那天晚上,QQ音乐持续崩溃,杰伦以一己之力成为了干翻QQ音乐服务器的男人。 在这首新歌里,大家还意外看到“周五合体”。还原了经典场景,也掀起了一波关于青春的回忆杀。当回忆和回忆相撞,啪,泪花四溅。 歌迷有没有被感动哭场主不知道,但是QQ音乐的程序员估计是要哭了。不奋战个一天一夜,怎么对得起嗷嗷待哺的歌迷朋友们。 诸如双十一淘宝瘫痪,明星恋情导致微博宕机事件,说到底还是“高并发”的问题。 高并发带来的后果 服务端: 导致站点服务器/DB服务器资源被占满崩溃,数据的存储和更新结果和理想的设计是不一样的,比如:出现重复的数据记录,多次添加了用户积分等。 用户角度: 尼玛,这么卡,老子来参加活动的,刷新了还是这样,垃圾网站,再也不来了! 程序员的经历: 在做公司产品网站的过程中,经常会有多样需求,如果没有考虑到高并发下的数据处理,就会出现各种超出正常逻辑的现象,因为这些都是面向大量用户的,而不是像做ERP管理系统只是面向员工。 回归技术本身,面对如此大的高并发流量和屡次崩溃的系统,程序员们如何抵挡?

爬虫基础知识

删除回忆录丶 提交于 2019-11-26 22:42:23
爬虫基础知识 一:urllib库   urllib是Python自带的一个用于爬虫的库,其主要作用就是可以通过代码模拟浏览器发送请求。其常被用到的子模块在Python3中的为urllib.request和urllib.parse,在Python2中是urllib和urllib2。 二:由易到难的爬虫程序:   1.爬取百度首页面所有数据值 1 #!/usr/bin/env python 2 # -*- coding:utf-8 -*- 3 #导包 4 import urllib.request 5 import urllib.parse 6 if __name__ == "__main__": 7 #指定爬取的网页url 8 url = 'http://www.baidu.com/' 9 #通过urlopen函数向指定的url发起请求,返回响应对象 10 reponse = urllib.request.urlopen(url=url) 11 #通过调用响应对象中的read函数,返回响应回客户端的数据值(爬取到的数据) 12 data = reponse.read()#返回的数据为byte类型,并非字符串 13 print(data)#打印显示爬取到的数据值。 #补充说明 urlopen函数原型:urllib.request.urlopen(url, data=None,