js获取url参数

(JAVASCRIPT篇)

时光怂恿深爱的人放手 提交于 2020-02-01 02:35:34
1, 判断字符串是否是这样组成的,第一个必须是字母,后面可以是字母、数字、下划线,总长度为5-20 var reg = /^[a-zA-Z][a-zA-Z_0-9]{4,19}$/; reg.test("a1a__a1a__a1a__a1a__"); 2 ,截取字符串abcdefg的efg var str = "abcdefg"; if (/efg/.test(str)) { var efg = str.substr(str.indexOf("efg"), 3); alert(efg); } 3 ,判断一个字符串中出现次数最多的字符,统计这个次数 //将字符串的字符保存在一个hash table中,key是字符,value是这个字符出现的次数 var str = "abcdefgaddda"; var obj = {}; for (var i = 0, l = str.length; i < l; i++) { var key = str[i]; if (!obj[key]) { obj[key] = 1; } else { obj[key]++; } } /*遍历这个hash table,获取value最大的key和value*/ var max = -1; var max_key = ""; var key; for (key in obj) { if (max < obj

web前端笔试题

亡梦爱人 提交于 2020-02-01 02:34:51
1, 判断字符串是否是这样组成的,第一个必须是字母,后面可以是字母、数字、下划线,总长度为5-20 var reg = /^[a-zA-Z][a-zA-Z_0-9]{4,19}$/; reg.test("a1a__a1a__a1a__a1a__"); 2 ,截取字符串abcdefg的efg var str = "abcdefg"; if (/efg/.test(str)) { var efg = str.substr(str.indexOf("efg"), 3); alert(efg); } 3 ,判断一个字符串中出现次数最多的字符,统计这个次数 //将字符串的字符保存在一个hash table中,key是字符,value是这个字符出现的次数 var str = "abcdefgaddda"; var obj = {}; for (var i = 0, l = str.length; i < l; i++) { var key = str[i]; if (!obj[key]) { obj[key] = 1; } else { obj[key]++; } } /*遍历这个hash table,获取value最大的key和value*/ var max = -1; var max_key = ""; var key; for (key in obj) { if (max < obj

Python——爬虫

送分小仙女□ 提交于 2020-02-01 00:14:58
参考资料 网络爬虫 (又被称为 网页蜘蛛,网络机器人 ,在FOAF社区中间,更经常的称为 网页追逐者 ),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。 其实通俗的讲就是通过程序去获取web页面上自己想要的数据,也就是自动抓取数据 爬虫的本质 :模拟浏览器打开网页,获取网页中我们想要的那部分数据 浏览器打开网页的过程: 当你在浏览器中输入地址后,经过DNS服务器找到服务器主机,向服务器发送一个请求,服务器经过解析后发送给用户浏览器结果,包括html,js,css等文件内容,浏览器解析出来最后呈现给用户在浏览器上看到的结果 用户看到的浏览器的结果就是由HTML代码构成的,我们爬虫就是为了获取这些内容,通过分析和过滤html代码,从中获取我们想要资源(文本,图片,视频.....) 爬虫就是请求网站并提取数据的自动化程序。其中 请求 , 提取 , 自动化 是爬虫的关键! 爬虫的基本流程 发起请求 通过HTTP库向目标站点发起请求,也就是发送一个 Request ,请求可以包含额外的 header 等信息,等待服务器响应 Response 获取响应内容 如果服务器能正常响应,会得到一个Response,Response的内容便是所要获取的页面内容,类型可能是HTML,Json字符串,二进制数据(图片或者视频)等类型

nodejs 路径处理

本小妞迷上赌 提交于 2020-01-31 09:14:50
https://blog.csdn.net/liudongdong19/article/details/81353159 获取 /路径/文件名/扩展名 获取路径:path.dirname(filepath) 获取文件名:path.basename(filename) 获取扩展名:path.extname(filepath) 获取所在路径 const path=require("path"); var filepath='/node/base/path/test.js'; console.log( path.dirname(filepath) ) //输出/node/base/path 获取文件名 path.basename(filepath)实际上是获取了路径的最后一部分, 而不是真正的获取到了文件名,但是在实际应用中最后的字符往往就是我们的文件名 const path = require("path"); console.log(path.basename("/node/base/path/test.js")); //输出 test.js console.log(path.basename("/node/base/path/test/")); //输出 test console.log(path.basename("/node/base/path/test")); //输出

Node.JS实战58:写一套反爬虫系统!

让人想犯罪 __ 提交于 2020-01-29 12:08:07
爬虫,网络安全最大的威胁之一! 根据爬取数据类型而分,爬虫有不少种类,比如爬取Email地址的、爬取商品价格的、爬取图片的,而最多的是爬取内容的,内容数据爬虫是为泛滥的! 爬虫让很多人对其深感苦恼,今天的Node.JS实战,将实现一种防护性能很强的反爬虫系统。 首先展示防护效果,然后付上完整代码,以了解实现方法。 防护效果展示 根据两个核心思路进行效果展示如下: 1、 字体加密 创建自定义字体库,将字体进行加密。 举一个最直白的例子: 比如要在网页中显示文字:“我是我,你是你,她是她”,在正常的情况下,网页中就是存在这几个字,爬虫当然可以爬取。 我们要实现的效果是,让这几个字不存在,网页源码中可能是: 但是在网页中可以正常显示: 但是却不可复制,复制后,全部或部分内容将不能正常显示: 2、 字体防破解 单纯的字体加密,是不太难被破解的,因为上述的“密文乱码符号”,其实也就是一种对应关系,例如:“A”对应“啊”,“B”对应“不”。只要获得足够的对应关系,替换就可以破解还原出原内容。 具体实施时,可以从网页中获取字体文件。 如TTF,通过格式转换,化为TTX,即可得到对应关系。 也可以手动记录对应关系。 那么对于这两种破解,我们也需要进行防护。 1、防止字体文件被下载; 动态字体路径: 注意以下两图,不同的字体路径: 即:每次访问都是不同的字体路径,而且,此动态路径文件是不可下载的:

Web框架本质

被刻印的时光 ゝ 提交于 2020-01-25 17:34:50
Web框架本质 1.本质   对于所有的Web应用,本质上其实就是一个socket服务端,用户的浏览器其实就是一个socket客户端。 2.原始版Web import socket sk = socket.socket() sk.bind(("127.0.0.1", 80)) sk.listen() while True: conn, addr = sk.accept() data = conn.recv(8096) conn.send(b"OK") conn.close()   我们在浏览器上输入:http://127.0.0.1/ 就可以看到服务端发来的"ok"了。可以说Web服务本质上都是在这十几行代码基础上扩展出来的。用户的浏览器一输入网址,会给服务端发送数据,那浏览器会发送什么数据?怎么发?这个谁来定? 这个规则就是HTTP协议,以后浏览器发送请求信息也好,服务器回复响应信息也罢,都要按照这个规则来。HTTP协议主要规定了客户端和服务器之间的通信格式,那HTTP协议是怎么规定消息格式的呢?让我们首先打印下我们在服务端接收到的消息是什么。    import socket sk = socket.socket() sk.bind(("127.0.0.1", 80)) sk.listen(5) while True: conn, addr = sk.accept() data

[开发笔记]-使用jquery获取url及url参数的方法

房东的猫 提交于 2020-01-25 10:38:12
使用 jquery获取url 以及使用 jquery获取url参数 是我们经常要用到的操作 1、jquery获取url很简单,代码如下: window.location.href; 其实只是用到了javascript的基础的window对象,并没有用 jquery 的知识。 2、jquery获取url参数比较复杂,要用到正则表达式,所以学好javascript正则式多么重要的事情 首先看看单纯的通过javascript是如何来获取url中的某个参数: //获取url中的参数 function getUrlParam(name) { var reg = new RegExp("(^|&)" + name + "=([^&]*)(&|$)"); //构造一个含有目标参数的正则表达式对象 var r = window.location.search.substr(1).match(reg); //匹配目标参数 if (r != null) return unescape(r[2]); return null; //返回参数值 } 通过这个函数传递url中的参数名就可以获取到参数的值,比如url为 http://localhost:33064/WebForm2.aspx?reurl=WebForm1.aspx 我们要获取reurl的值,可以这样写: var xx = getUrlParam

uniapp中使用微信jssdk

我与影子孤独终老i 提交于 2020-01-24 23:38:36
在做自定义分享时,用到了微信 jssdk ,记录一下。 声明:本文演示 uniapp 中使用 jssdk ,示例为网页自定义分享 npm 方式使用下方指令进行安装, 正文部分 为非 npm 方式。 npm install jweixin-module --save 1、下载导入jssdk文件 下载链接: https://www.lanzous.com/i8ujkvi 下载后放在项目中,具体放置位置可自行选择,比如直接放在根目录,或者放在 components 目录,如下是我的参考截图: 2、在项目中引用 为了方便使用,我们单独出一个微信相关的 js 文件,进行相关的初始化等操作。 wechat.js // 自己封装的 uni.request 工具类var request = require("./jsTools/request.js");var jweixin = require('./components/jweixin-module/index.js');export default { //判断是否在微信中 isWechat: function() { var ua = window.navigator.userAgent.toLowerCase(); if (ua.match(/micromessenger/i) == 'micromessenger') { //

转:获取网页URL地址及参数等的两种方法(js和C#)

孤者浪人 提交于 2020-01-24 07:27:36
转:获取网页URL地址及参数等的两种方法(js和C#) 一 js 先看一个示例 用javascript获取url网址信息 <script type="text/javascript"> document.write("location.host="+location.host+"<br>"); document.write("location.hostname="+location.hostname+"<br>"); document.write("location.href="+location.href+"<br>"); document.write("location.pathname="+location.pathname+"<br>"); document.write("location.protocol="+location.protocol+"<br>"); </script> 执行 用javascript获取url网址信息 代码效果如下 location.host= www.vnde.cn location.hostname= www.vnde.cn location.href= http://www.vnde.cn/bc/2008/0306/article_1860.html location.pathname= /bc/2008/0306/article

【nodeJS爬虫】前端爬虫系列

白昼怎懂夜的黑 提交于 2020-01-20 05:36:32
本文转自 http://www.cnblogs.com/coco1s/p/4954063.html 写这篇 blog 其实一开始我是拒绝的,因为爬虫爬的就是cnblog博客园。搞不好编辑看到了就把我的账号给封了:)。 言归正传,前端同学可能向来对爬虫不是很感冒,觉得爬虫需要用偏后端的语言,诸如 php , python 等。当然这是在 nodejs 前了,nodejs 的出现,使得 Javascript 也可以用来写爬虫了。由于 nodejs 强大的异步特性,让我们可以轻松以异步高并发去爬取网站,当然这里的轻松指的是 cpu 的开销。 要读懂本文,其实只需要有 能看懂 Javascript 及 JQuery 简单的nodejs基础 http 网络抓包 和 URL 基础 本文较长且图多,但如果能耐下心读完本文,你会发现,简单的一个爬虫实现并不难,并且能从中学到很多东西。 本文中的完整的爬虫代码,在 我的github上可以下载 。主要的逻辑代码在 server.js 中,建议边对照代码边往下看。 在详细说爬虫前,先来简单看看要达成的最终目标,入口为 http://www.cnblogs.com/ ,博客园文章列表页每页有20篇文章,最多可以翻到200页。我这个爬虫要做的就是异步并发去爬取这4000篇文章的具体内容,拿到一些我们想要的关键数据。 爬虫流程 看到了最终结果