响应时间

ycsb 测试Hbase性能

陌路散爱 提交于 2019-12-04 20:47:46
下载 github: https://github.com/brianfrankcooper/YCSB/releases/tag/0.10.0 wget https://github.com/brianfrankcooper/YCSB/archive/0.10.0.tar.gz tar xvf 0.10.0.tar.gz 编译: cd YCSB-0.10.0/ 编译所有的nosql mvn clean package 只编译Hbase mvn -pl com.yahoo.ycsb:hbase10-binding -am clean package 安装成功。 cd hbase10/target/ tar xvf ycsb-hbase10-binding-0.10.0.tar.gz cd ycsb-hbase10-binding-0.10.0 测试: 1 hive中建表 hbase(main):01:0*> n_splits=120 => 120 hbase(main):02:0> create 'usertable','family',{SPLITS => (1...n_splits).map{|i| "user#{1000+i*(9999-1000)/n_splits}"}} 0 row(s) in 18.3610 seconds => Hbase::Table -

Jmeter测试安装及汉化

…衆ロ難τιáo~ 提交于 2019-12-04 13:26:26
参考文章: https://blog.csdn.net/u012111923/article/details/80705141 1.1 JDK安装 ··由于Jmeter是基于java开发,首先需要下载安装JDK (目前JMeter只支持到Java 8,尚不支持 Java 9) ··- 1. 官网下载地址: http://www.oracle.com/technetwork/java/javase/downloads/index.html ··- 2. 选择Java 8,下载 JMeter安装 官网下载地址: http://jmeter.apache.org/download_jmeter.cgi 下载最新JMeter 版本:apache-jmeter-*.zip; 下载后解压 -在bin目录下找到jmeter.bat即可快速启动 中文只需要在jmeter。properties中配置 language = zh_cn 即可 聚合报告参数详解: Label:每个 JMeter 的 element(例如 HTTP Request)都有一个 Name 属性,这里显示的就是 Name 属性的值 #Samples:请求数——表示这次测试中一共发出了多少个请求,如果模拟10个用户,每个用户迭代10次,那么这里显示100 Average:平均响应时间——默认情况下是单个 Request

Jmeter+Jenkins 搭配进行接口测试

狂风中的少年 提交于 2019-12-04 10:32:04
单纯通过Jmeter的界面进行Web的接口测试,效率低下。为此将Jmeter的接口测试与Jenkins联合,实现持续集成。配置完成后,只需修改运行的Jmeter脚本即可,运行结束后测试结果发送到指定邮箱,方便快捷,提高测试回归的效率。 A、Maven项目的建立与配置 1、新建Maven项目 2、添加 {basedir}src/test/jmeter 目录 3、将jmeter脚本放到{basedir}src/test/jmeter 目录中 4、修改POM文件,添加内容如下所示: POM文件添加配置: 5、上传代码到目标代码源 B、Jmeter和Jenkins配置 1、下载、安装Jmeter并配置环境变量 2、启动Jenkins并安装Performance plugin插件然后重启 3、新建Jenkins项目并进行相关配置 配置代码源 配置maven构建Goals为verif 配置构建后操作: 选择‘Add post-build action’–>‘Publish Performance test result report’选项。 在 ‘Performance report’ 下拉列表中选择 ‘JMeter’ 选项。 在‘Report files’填写‘**/*.jtl’。 选择‘Archive the artifacts’并在‘Files to archive’填写‘**/*jtl

架构设计思路

≡放荡痞女 提交于 2019-12-04 04:28:48
前言 我们一般在做架构设计的时候,会经历过三个阶段:需求分析、概要设计和详细设计。 需求分析阶段 : 主要梳理所有用例(Use case)和场景,并抽象出面向系统的用户与角色,梳理出需求提供哪些功能与非功能的需求给这些用户。 概要设计阶段 :根据需求分析的产物:核心需求,对整个系统进行模块划分,并定义好模块之间的交互关系。 详细设计阶段 :通过多个视图来描述系统的架构,包括但不局限于:逻辑系统、物理视图、数据视图、物理视图 非功能需求 非功能的需求主要体现在高性能、高可用、可伸缩、可扩展、安全性等维度。 非功能指标 描述 高性能 运行效率高、响应速度快、吞吐量高 可用性 缩短宕机时间、出错恢复、SLA 在线可用时间 可伸缩性 垂直伸缩、水平伸缩 可扩展性 可插拔、组件重用 安全性 数据安全、加密、防攻击 鲁棒性 容错性、可恢复性 非功能需求对应不同系统指标 非功能需求对应不同系统指标主要分为 4 部分: 应用服务器 数据库 缓存 消息队列 1. 应用服务器 应用服务器是请求的入口,所有流量都是通过应用服务器来转发的。主要关心 QPS 、RT 等指标。 容量与性能相关指标如下所示 1. 每天的请求量 2. 各接口的访问峰值 3. 平均响应时间 4. 最大响应时间 5. 请求大小 6. 网卡与磁盘 I/O 负责 7. 内存使用情况 8. CPU 使用情况 2. 数据库 部署结构相关指标

加速网站的最佳实践

人走茶凉 提交于 2019-12-04 03:25:24
Exceptional Performance团队已经确定了许多快速制作网页的最佳实践。 按类别筛选: Content Server Cookie CSS JavaScript Images Mobile All 最小化HTTP请求 tag: content 最终用户响应时间的80%用于前端。大部分时间都在下载页面中的所有组件:图像,样式表,脚本,Flash等。减少组件数量反过来减少了呈现页面所需的HTTP请求数量。这是更快页面的关键。 减少页面中组件数量的一种方法是简化页面设计。但有没有办法构建内容更丰富的页面,同时还能实现快速响应时间?以下是一些减少HTTP请求数量的技术,同时仍支持丰富的页面设计。 组合文件是一种通过将所有脚本组合到单个脚本中来减少HTTP请求数量的方法,并且类似地将所有CSS组合到单个样式表中。当脚本和样式表在不同页面之间变化时,组合文件更具挑战性,但使这部分发布过程可以缩短响应时间。 CSS Sprites是减少图像请求数量的首选方法。将背景图像合并为单个图像,并使用CSSbackground-image和background-position属性显示所需的图像片段。 图像地图将多个图像组合成单个图像。整体大小大致相同,但减少HTTP请求的数量会加快页面的速度。图像映射仅在图像在页面中是连续的时才起作用,例如导航栏。定义图像映射的坐标可能是乏味且容易出错的

性能测试相关(TPS/RT/PV等)

匆匆过客 提交于 2019-12-03 22:51:19
对于我们开发来说,我们日常最熟悉的工作就是把客户的需求实现并交付。但是,事情并不是往往就这样结束了,我们还需要后续对上线的系统进行跟踪调查,查看系统的运行情况。为什么呢?一方面,我们需要关注系统在运行过程中的健康问题,是否有异常等等;另一方面我们需要了解系统性能和容量是否能满足用户的日常访问。只有去了解线上系统的运行状况,才能让为后续项目提供参考,及早的调节以避免故障问题。 对于应用系统在线上出现的异常,我们可以通过监控系统的日志扫描或者一些监控api来进行异常监控。比如可以通过应用的监控系统来查看。对于性能方面,我们有哪些性能指标去关注呢,下面列出了几个在监控系统中最常用的性能指标。 PV PV是 Page View的缩写。用户通过浏览器访问页面,对应用服务器产生的每一次请求, 记为一个 PV。淘宝性能测试环境下,将这个概念做了延伸,系统真实处理的一个请求,视 为一个 PV。即,PV的概念也适用于接口。 PV的统计一般可以通过监控埋点或者统计访问日志统计得出。 说到PV还有个特殊的情况,叫PeakPV,指一天中 PV数达到的高峰PV值。 通过一些监控系统,也可以直观看到统计数据。 QPS/TPS QPS/TPS原本含义为:系统每秒能处理的请求/事务的数量,或者说吞吐量。在web应用我们更关注的是web应用每秒能处理的request数量。这个是衡量系统性能的重要指标。 QPS

Jmeter:实例(测试报告)

怎甘沉沦 提交于 2019-12-03 15:28:08
PX**APP 性能测试报告 V1.0 编写人: JLL 编写时间: 2018 年 2 月 10 日 审核人: 审核时间: 2018 年 月 日 PXZC管理有限公司(**运营中心) 二零一八年二月十日 修订记录 版本号 修订章节号 修订人 修订日期 V1.0 新建 JLL 2018.2.10 目 录 1 项目概述... 1 1.1 项目标识... 1 2 测试范围... 1 2.1 测试内容... 1 2.2 测试类型... 1 2.3 测试目标... 1 2.3.1 产品列表查询... 1 2.3.2 注册及实名认证... 2 2.3.3 查看产品详情及预约产品... 3 3 测试准备... 3 3.1 测试依据... 3 3.2 测试资源... 4 3.2.1 硬件配置... 4 3.2.2 软件配置... 5 3.2.3 网络配置... 5 3.3 测试工具... 5 3.4 人员配置... 5 3.5 人员分工... 6 3.6 测试执行... 6 4 执行结果... 6 4.1 产品列表... 6 4.1.1 并发用户数分析... 8 4.1.2 响应时间分析... 9 4.1.3 吞吐量分析... 10 4.2 注册及实名认证... 11 4.2.1 并发用户数分析... 12 4.2.2 响应时间分析... 14 4.2.3 吞吐量分析... 16 4.3 产品预约

Jmeter:实例(测试指标)

我的未来我决定 提交于 2019-12-03 15:26:24
常看指标 断言结果 查看结果树 聚合报告(测试报告中需使用该表,所有并发数结果的合并表) transactions per second:每秒处理响事务数,主要查看TPS的整体趋势,实时平均值走向,稳定性等。(测试报告中需使用,一般为无异常的最大并发数对应的结果,和有异常的最小并发数对应的结果) response times over time:事务响应时间,主要查看响应时间的实时平均值、整体响应时间走向,是否有过长的响应时间现象(测试报告中需使用,一般为无异常的最大并发数对应的结果,和有异常的最小并发数对应的结果) 来源: https://www.cnblogs.com/jxba/p/11802246.html

性能专题:一文搞懂性能测试常见指标

末鹿安然 提交于 2019-12-03 11:18:32
1. 前言 上周,对性能测试系列专题,在公号内发表了第一篇介绍: 【性能系列连载一】开篇:性能测试不可不知的“干货” ,但反响貌似并不太好,但既然此前已答应了部分读者要连载分享性能这块的知识,含着泪也得继续写。 性能测试的基础: 就是在确保功能实现正确的前提下,通过合适的性能测试加压方式和策略,并收集考察服务端应用程序的各项性能指标,以及服务器硬件资源的使用情况,来评估是否存在性能问题隐患。 那今天作为性能测试系列的第二篇,主要会为大家介绍在 服务端性能测试 中,常见的性能指标有哪些。 2. 性能指标分类 从性能测试分析度量的度角来看,可以从如下几个维度来收集考察各项性能指标: 系统性能指标 资源性能指标 中间件指标 数据库指标 稳定性指标 可扩展性指标 可靠性指标 下面将从如上这几个维度,分别从各自维度常见指标,以及指标含义、指标行业参考标准等方面进行介绍。 3. 系统性能指标 系统性能指标,常见的可从如下几类进行参考: 响应时间 系统处理能力 吞吐量 并发用户数 错误率 3.1 响应时间 定义和解释: 响应时间,简称RT。是指系统对请求作出响应的时间,可以理解为是指用户从客户端发起一个请求开始,到客户端接收到从服务器端返回的响应结束,整个过程所耗费的时间。直观上看,这个指标与人对软件性能的主观感受是非常一致的,因为它完整地记录了整个计算机系统处理请求的时间。

Jmeter聚合报告参数解析

匿名 (未验证) 提交于 2019-12-03 00:32:02
Label----每个请求的名称,比如HTTP请求等 #Samples---- 发给服务器的请求数量 Average---- 单个请求的平均响应时间 Median----50%请求的响应时间 90%Line----90%请求响应时间 95%Line----95%请求响应时间 99%Line----99%请求的响应时间 Min----最小的响应时间 Max----最大的响应时间 Error%----错误率=错误的请求的数量/请求的总数 Throughput----吞吐量即表示每秒完成的请求数 Received KB/sec----每秒从服务器端接收到的数据量 Sent KB/sec----每秒从客户端发送的请求的数量 文章来源: Jmeter聚合报告参数解析