分隔符

Python-day4 总结

安稳与你 提交于 2019-12-30 04:56:26
字符串加强 转义字符 什么是转义符: 定义:\就是转义符,转义符可以将有意义的字符转成无意义的字符. 也可以将无意义的字符转换为有意义的字符 (PS:无意义的字符就是一个普普通通的字符,例如: t n) 什么是转义字符: 定义:通过\可以将无意义的字符转换为具有指定功能的字符. \n: 代码换行 \t: 代表制表符(tab键) \: 代表\字符 字符串内容 定义: 1.字符串里面存储 字符类型 的 不可变的 序列 容器 2.字符串中的每一个字母或者数字以及符号被称为字符串中的值(字符) 访问字符: 语法: 字符 = 字符串[索引] while遍历字符 语法: 索引= 0; 长度 = len(字符串) while 索引 < 长度: 元素 = 字符串[索引] 索引+=1 for in 专业遍历 定义: for只能够通过从头到尾 依次 从 字符串 中取出 每⼀个字符并执⾏相同的操作 语法: for 字符 in 字符串: print(字符) 字符串常见操作 去除左右两边空格 语法: string.strip() 去除两边的空格 string.lstrip() 去除左边的空格 l==>left(左) string.rstrip() 去除右边的空格 r==>right(右) 默认的情况下strip去除空格, 但是也可以指定去除两边的字符 语法: string.rstrip(“要去除的字符”)

性能测试-JMeter参数化(1)CSV Data Set Config

 ̄綄美尐妖づ 提交于 2019-12-29 00:23:16
一、参数化的定义 所谓参数化,就是将客户端发送给服务器处理的数据预先保存到一个参数中的过程。 一般来说,对于功能测试,当用不同的数据测试相同的功能时,我们可以使用参数化来精简测试; 对于性能测试,为了真实模拟多个用户的操作行为或应对系统对多个用户同时操作的特殊限制(比如数据唯一性要求),需要使用参数化来解决这些问题。 JMeter提供了非常多的参数化的方式和手段,常见有: 1.配置元件 CSV_Data_Set_Config 2.内置参数化函数,比如__CSVRead() 这1节我们主要讲下CSV_Data_Set_Config参数化。 配置项 Configure the CSV Data Source: 1.Filename: 要读取的数据文件的路径或名称。可以使用绝对路径或相对路径。 当使用相对路径表示文件路径时,测试计划所在目录为当前目录。 当JMeter以分布式模式运行时,参数化的数据文件需要复制到每台Slave中,并且要设置相同的目录结构。 2.File Encoding: 若没有设置则以操作系统的字符编码去读取数据文件。可以指定以何种编码去读取数据文件,以防止出现乱码。 比如操作系统默认字符编码为GBK,而数据文件(CSV文件)的编码为UTF-8,则读出来的数据肯定为乱码,在此情况下要设置File Encoding为“UTF-8”才能读取成功。 3.Variable

MySQL存储过程简介

随声附和 提交于 2019-12-27 19:20:56
一、存储过程 存储过程是在大型数据库系统中一组为了完成特定功能的SQL语句集,存储在数据库中。存储过程经过第一次编译后,再次调用不需要编译,用户可以通过指定的存储过程名和给出一些存储过程定义的参数来使用它。存储过程就是为以后使用而保存的一条或多条SQL语句,个人理解跟函数类似,一般用的较少。 好处: 通过把处理封装在一个易用的单元中,可以简化复杂的操作。 2.不需要反复建立一系列的处理步骤,因而保证了数据的一致性。 3.简化了对变动的管理,这一点的延伸就是安全性。 4.存储过程通常以编译过的形式存储,所以DBMS处理命令所需的工作量少,提高了性能。 缺点: 1.可移植性差 2.对于简单的SQL语句,存储过程没什么优势 4.如果只有一个用户使用数据库,那么存储过程对安全也没什么影响 5.团队开发时需要先统一标准,否则后期维护成本大 6.在大并发量访问的情况下,不宜写过多涉及运算的存储过程 7.业务逻辑复杂时,特别是涉及到对很大的表进行操作的时候,不如在前端先简化业务逻辑 二、存储过程语法格式 一般形式 create procedure [过程名]([in|out|inout] [参数名] [参数类型],...) begin [SQL语句集;] end 在定义参数部分时in表示传入参数,读取外部变量值赋给内部参数,但内部参数的作用域仅限存储过程;out表示传出参数

awk 基础语法(2):awk变量

北城以北 提交于 2019-12-27 03:53:05
1. awk 变量 1.1. awk 内部变量 $0 当前处理行的所有记录 $1,$2,$3...$n 文件中每行以间隔符号分割的不同字段 NF 当前记录的字段数(列数) $NF 最后一列 FNR/NR 行号 FS 定义间隔符 OFS 定义输出字符分隔符,默认空格 RS 输入记录分隔符,默认换行 ORS 输出记录分隔符,默认换行 1.2. awk 内部变量举例 1.2.1. 案例数据 # chen @ localhost in ~/Shell [17:25:59] $ cat -n passwd 1 root:x:0:0:root:/root:/bin/zshi 2 cccccccccccccccccccbbbbbbbbbbbbbbb:aa 3 in:x:1:1:bin:/bin:/sbin/nologin 4 ddaemon:x:2:2:daemon:/sbin:/sbin/nologin 5 adm:x:3:4:adm:/var/adm:/sbin/nologin 6 sync:x:5:0:sync:/sbin:/bin/sync 7 shutdown:x:6:0:shutdown:/sbin:/sbin/shutdown 1.2.2. 输出 passwd 文件中所有行 # chen @ localhost in ~/Shell [17:51:07] $ awk '{print

斜杠/和反斜杠\\

六眼飞鱼酱① 提交于 2019-12-27 02:17:12
一. Unix使用斜杆/ 作为路径分隔符,而web应用最新使用在Unix系统上面,所以目前所有的网络地址都采用 斜杆/ 作为分隔符。 Windows由于使用 斜杆/ 作为DOS命令提示符的参数标志了,为了不混淆,所以采用 反斜杠\ 作为路径分隔符。所以目前windows系统上的文件浏览器都是用 反斜杠\ 作为路径分隔符。随着发展,DOS系统已经被淘汰了,命令提示符也用的很少,斜杆和反斜杠在大多数情况下可以互换,没有影响。 知道这个背景后,可以总结一下结论: (1)浏览器地址栏网址使用 斜杆/ ; (2)windows文件浏览器上使用 反斜杠\ ; (3)出现在html url() 属性中的路径,指定的路径是网络路径,所以必须用 斜杆/ ; <div style="background-image:url(/Image/Control/title.jpg); background-repeat:repeat-x; padding:10px 10px 10px 10px"></div> // 如果url后面用反斜杠,就不会显示任何背景 (4)出现在普通字符串中的路径,如果代表的是windows文件路径,则使用 斜杆/ 和 反斜杠\ 是一样的;如果代表的是网络文件路径,则必须使用 斜杆/ ; <img src=".\Image/Control/ding.jpg" /> // 本地文件路径

第十五章:文件操作

匆匆过客 提交于 2019-12-27 00:12:22
File类基本操作   在Java语言里面提供有对于文件操作系统操作的支持,而这个支持就在java.io.File类中进行了定义,也就是说在整个java.io包里面,File类是唯一一个与文件本身操作(创建、删除、重命名等等)有关的类,而如果要想进行File类的操作,必须要提供有完整的路径,而后可以调用相应的方法进行处理。 File类的基本使用   打开JDK文档可以发现,File类是Comparable接口的子类,所以File类的对象是可以进行排序处理的。(为什么要排序?在window里面对文件可以进行创建日期排序,大小排序,名称排序等等)。而在File类进行处理的时候需要为其设置访问路径,那么对于路径的配置主要通过File类的构造方法进行处理。   File类是与文件本身有关的,但是和文件内容是没有关系的,内容的操作不是File类的功能。   如果现在要想进行文件的基本操作,可以使用如下的方法: 创建新的文件:public boolean createNewFile() throw IOException 判断文件是否存在:public boolean exists(); 删除文件:public boolean delete();   通过代码可以发现,File类实现的就是文件本身的处理(构造重要,判断是否存在,删除重要,以后用的到)。 File类操作深入  

hive 学习

时间秒杀一切 提交于 2019-12-26 22:37:47
文章目录 1.概念: 2.HIVE架构 3.HIVE实操 3.1 Hive JDBC服务 4、Hive的DDL操作 4.1 hive的数据库DDL操作 4.1.1、创建数据库 4.1.2、显示数据库 4.1.3、查询数据库 4.1.4、查看数据库详情 4.1.5、显示数据库详细信息 4.1.6、切换当前数据库 4.1.7、删除数据库 4.2 hive的表DDL操作 4.2.1 、建表语法介绍 4.2.1.1、 4.2.1.2、 hive建表语法中的分隔符设定 4.2.1.4 查询出每个电影的第二个主演 4.2.1.5查询每部电影有几名主演 4.2.1.6 主演里面包含古天乐的电影 例题解析 4.2.2 、字段解释说明 4.2.3、 创建内部表 4.2.4、 创建外部表 4.2.5、 内部表与外部表的互相转换 4.2.6、 内部表与外部表的区别 例1:有以下格式的数据创建出合适的表结构,并将数据导入表中 1建表: 2导入数据 3 查询出每个人的id,名字,居住地址 例2 有以下格式的数据创建出合适的表结构,并将数据导入表中 1. 建表 2. 导入数据 例3 1.概念: Hive由Facebook开源,用于解决海量结构化日志的数据统计。 Hive是基于Hadoop的一个 数据仓库工具 ,可以将 结构化的数据文件映射为一张表 ,并提供类SQL查询功能。 本质是: 将Hive

awk使用入门

北慕城南 提交于 2019-12-26 19:09:24
1.基本用法 awk '{pattern + action}' {filenames} pattern 表示 AWK 在数据中查找的内容 action 是在找到匹配内容时所执行的一系列命令。 pattern就是要表示的正则表达式,用斜杠括起来。 2.调用 命令行方式 awk [-F field-separator] 'commands' input-file(s) 其中,commands 是真正awk命令,[-F域分隔符]是可选的。 input-file(s) 是待处理的文件。 在awk中,读取文件中以\n结束的一行,由域分隔符分开的每一项称为一个域。通常,在不指名-F域分隔符的情况下,默认的域分隔符是空格。 $0则表示所有域,$1表示第一个域,$n表示第n个域。默认域分隔符是"空白键" 或 "[tab]键" shell脚本方式 将所有的awk命令插入一个文件,并使awk程序可执行,然后awk命令解释器作为脚本的首行,通过键入脚本名称来调用。#!/bin/awk awk命令插入一个单独文件,调用:awk -f awk-script-file input-file(s) 3.内置变量 ARGC 命令行参数个数 ARGV 命令行参数排列 ENVIRON 支持队列中系统环境变量的使用 FILENAME awk浏览的文件名 FNR 浏览文件的记录数 FS 设置输入域分隔符,等价于命令行

Linux:cut命令详解

假装没事ソ 提交于 2019-12-26 16:32:00
Linux:cut命令详解 https://www.cnblogs.com/Spiro-K/p/6361646.html cut -f cut -f -d cut -c1-3 这三个命令好像最常见, 记录一下 感觉最近学东西 经常遇到.. 改天在看看 date 相关的函数 突破一下自己的弱点. cut 文件内容查看 显示行中的指定部分,删除文件中指定字段 显示文件的内容,类似于下的type命令。 说明 该命令有两项功能,其一是用来显示文件的内容,它依次读取由参数file所指明的文件,将它们的内容输出到标准输出上;其二是连接两个或多个文件,如cut fl f2 > f3将把文件fl和几的内容合并起来,然后通过输出重定向符“>”的作用,将它们放入文件f3中。 当文件较大时,文本在屏幕上迅速闪过(滚屏),用户往往看不清所显示的内容。因此,一般用more等命令分屏显示。     为了控制滚屏,可以按Ctrl+S键,停止滚屏;按Ctrl+Q键可以恢复滚屏。     按Ctrl+C(中断键可以终止该命令的执行,并且返回Shell提示符状态。 语法 cut(选项)(参数) 选项 -b:仅显示行中指定直接范围的内容; -c:仅显示行中指定范围的字符; -d:指定字段的分隔符,默认的字段分隔符为“TAB”; -f:显示指定字段的内容; -n:与“-b”选项连用,不分割多字节字符; -

hive导入导出数据案例

岁酱吖の 提交于 2019-12-25 13:06:19
查询数据: use ods;set /user.password=ODS-SH;select * from base_cdma_all limit 10; use tag_bonc;select * from dpi_http_userapp_statistics limit 100000; #设置显示当前使用的数据库 set hive.cli.print.current.db=true; #设置不优先使用MapReduce set hive.exec.mode.local.auto=true; ======================导出数据============================= #导出hive数据到本地(事先要建好文件夹) use myexec; insert overwrite local directory '/home/hadoop/res' row format delimited fields terminated by '\t' select column1,column2 from table1; #不显式指定分隔符将会以默认的分隔符来切割列 use myexec; insert overwrite local directory '/home/hadoop/res' select * from table1; #导出hive数据到HDFS