jmeter的jmeter graph resultsport的偏差怎么看

查看: 8986|回复: 17
如何分析jmeter的监视器的结果?(活动奖励名单已公布)()
TA的每日心情奋斗3&小时前签到天数: 377 天连续签到: 3 天[LV.9]测试副司令
本周的问题为“如何分析jmeter的监视器的结果?”
此话题由会员提供,如果你也有问题想提出来和大家一起讨论,
如果你也有问题想提出来和大家一起讨论,
说不定下期讨论的问题就是由你提出的哦,请快快参与吧!
本次活动参与人数太少,所以没有获奖的选手,其中ID:“土土的豆豆”的会员参与活动的态度是非常认真的,但是回复的内容中讲述的太浅,并且只是一个工具的流程,所以故无法获奖。
本帖子中包含更多资源
才可以下载或查看,没有帐号?
TA的每日心情奋斗6&小时前签到天数: 604 天连续签到: 28 天[LV.9]测试副司令
奇怪 之前辛苦的回帖怎么木有了?
再来一遍吧
个人以简单的例子来说明一下,不知是否能回答到位。请后续朋友们补充。谢谢!
首先基本的Jmeter是不带服务器资源监控的,这就需要代码牛人自行开发和集成。
以51testing论坛为例。这里列出详细步骤,一起来探讨一下。
1. 新建一个Test Plan,设置Thread Group
我配了50个线程,单位1秒内递增,共计循环2次。
2. 设2个页面来模拟访问,如BBS homepage和每周一问活动页面
3. 添加几个关键**,如Aggregate Graph、Graph Results、Summary Report、View Results in Table、View Results Tree等
Aggregate Graph里主要反映了常用页面访问的信息,如请求数、响应时间、吞吐量等。
我们可以看到#Samples是100,就是50个线程迭代2次后 形成100个请求。Average/Median/Min/Max等其实就是事务的平均、中位、最小、最大响应时间。Throughout即每秒的网络吞吐量。
Graph以图表形式描述了监控信息。
我们可以看到总结数据。
当然也可以用表格方式一目了然来进行分析。
通过树形结构可以看出,随着事务的增长和进程的加剧,无论是事务响应时间或是网络吞吐量,均呈变大趋势。
以上都是基本的**,可以进行基本性能指标的分析。
请其他朋友指正和补充,谢谢!
本帖子中包含更多资源
才可以下载或查看,没有帐号?
综合技术指数 +30
TA的每日心情奋斗3&小时前签到天数: 377 天连续签到: 3 天[LV.9]测试副司令
土土的豆豆
& & 很详细啊!
TA的每日心情奋斗3&小时前签到天数: 377 天连续签到: 3 天[LV.9]测试副司令
看起来这期的题目难度很高啊!
TA的每日心情奋斗6&小时前签到天数: 604 天连续签到: 28 天[LV.9]测试副司令
呵呵 还行 就是简单先介绍下 工具的使用还是要靠实践呀 ~ 可能开源工具大伙儿用的不多 鄙人也是算新手学习中的说~
还是希望大神们多多探讨来着~
该用户从未签到
本帖最后由 zoeyhuang1213 于
15:38 编辑
TA的每日心情慵懒 10:32签到天数: 1 天连续签到: 1 天[LV.1]测试小兵
Jmeter亲密接触中~~~~~~~~~~~~
该用户从未签到
增加人气,呵呵 顶顶
该用户从未签到
学习当中呀,,
该用户从未签到
我在U盘后就不行了,再线等帮忙解决呀/就很简单 下载个XP的安装包 里面有个什么onekey的 打开选择Windows7GHO安装包 然后点击确定重启就安装了 但是文件千万别放到C
该用户从未签到
先学好自己的基础专业知识,然后一门开发语言,一门数据库。。加一个群,或经常到国内网论坛上晃悠。。
该用户从未签到
这个要看服务商提供的服务器的分配方式了,不同的服务商是不同的,你可以联系服务商咨询。
该用户从未签到
该用户从未签到
该用户从未签到
该用户从未签到
很详细啊!
该用户从未签到
论坛新人,学习了
该用户从未签到
此帖必火!
站长推荐 /4
了解自己的心里圈,学习不同的内容,让自己由内而外强大起来!
算法重要吗?对IT从业者有什么样的影响?
信息化潮流中算法承担什么样的角色?
硬件能力的不断提到,算法还重要吗?
赏金公告:悬赏任务已,小伙伴们赶紧行动起来,赚取,去积点商城获取奖励吧!
本期主题:系统测试流程概述
活动时间:7月7日14:00
Powered byGenerate Graphical JMeter Report at the End of Test Run
Reporting is one of the most crucial tasks in any project’s QA activities. And in load tests, your report is expected to be comprehensive enough for concerned stack holders. However, we have seen many JMeter users complain about lack of reporting capability in JMeter. This article therefore shows a simple trick to generate graphical JMeter report at the end of test run.
This JMeter report is generated in HTML format using
tool. So, make sure you have Apache Ant installed and configured properly in your system. After that perform below steps to generate the HMTL report.
Navigate to ‘extras’ directory in your JMeter setup.
Open build.xml file located there in choice of your editor.
Search for ‘style’ attribute in ‘xslt-report’ target of opened Ant file.
Set ‘style’ value to ‘C:/apache-jmeter-2.11/extras/jmeter-results-detail-report${style_version}.xsl’. Change JMeter directory value as per your installation.
Save build.xml file and close it.
Copy your JMeter script(JMX file) in ‘extras’ directory of JMeter.
Now, open Command Prompt and navigate to ‘extras’ directory.
Run following command to start load test.
ant –Dtest = &jmx file name without JMX extension&
ant –Dtest = &jmx file name without JMX extension&
For example if your script name is TestScript.jmx, your command should be as below.
ant –Dtest = TestScript
ant –Dtest = TestScript
After completion of test run, you should see HTML report in ‘extras’ directory. It should look like below.
As you can see in above screenshot, the HTML report contains essentials details such as failure cause, average response time, minimum and maximum times, failure rate etc. You can send this HTML file as part of your performance test result report.
Since JMeter’s capability to generate report out of the box is limited, above trick to generate graphical JMeter report may come in handy to you at some point. Do you know any other ways we can generate reports in JMeter? Share with us in comments.
Share this:
Related Posts
JMeter is highly scalable performance testing tool. It can be used to perform distributed
JMeter provides range of features to carry out effective performance testing. Apart from all
Categories
Send to Email Address
Your Email Address
Post was not sent - check your email addresses!
Email check failed, please try again
Sorry, your blog cannot share posts by email.How to save jmeter Summary Report and other graphs (eg. Response Time Graph ) automatically - Stack Overflow
to customize your list.
Stack Overflow is a community of 4.7 million programmers, just like you, helping each other.
J it only takes a minute:
Join the Stack Overflow community to:
Ask programming questions
Answer and help your peers
Get recognized for your expertise
Each time when I run Jmeter script I have to save the summary report and graphs manually.
I want them to be stored automatically.
I tried to write the Summary results to file as C:\JMeter\Summary${__time(ddMMyy HHmmss)}.csv.
But it comes out in XML format. I want in table format.
When I try to save the response graph as following C:\JMeter\ResponseGraph${__time(ddMMyy HHmmss)}.tif.
The graph is not stored. It comes out as invalid image.
Also, please tell me how to analyse the results which I obtain and how should I interpret them If I load test a website.
My website is like log in as a user, search and add products to the basket, process the order, pay for it and view the order which is processed recently.
7,56253064
Look into these answers for details about getting csv results both via GUI and CMD for jmeter's out-of-box components:
To switch between XML/CSV results storage formats for listeners use
either "Configure" dialog of the listener (Sample Result save Configuration: check / uncheck "Save as XML")
section in jmeter.properties file:
jmeter.save.saveservice.output_format=csv
jmeter.save.saveservice.assertion_results_failure_message=true
jmeter.save.saveservice.default_delimiter=|
You will possibly like this nice set of custom jmeter-plugins - , - especially Graph components and .
Concerning possibility to save generated graphs: I can successfully save created graphs both for
and , both in .tif and .png formats (Jmeter v.2.8).
Can assume that you are possibly using your path to store graph as image (C:\JMeter\ResponseGraph${__time(ddMMyy HHmmss)}.tif in question above) in Filename field of Write results to file / Read from file section of Response Time Graph / Aggregate Graph configuration. But this field is for jmeter's results file (.jtl / .csv) write to / read from, not the path to store graph as image.
I'm not sure that you can automatically store generated graphs from this 2 listener (e.g. during test-scenario execution in non-gui mode).
If you need this you can possibly better look into
which has option to generate PNG for selected listener (there is example in plugin's usage description).
For log analysis possibilities look into this recent question:
7,56253064
Your Answer
Sign up or
Sign up using Google
Sign up using Facebook
Sign up using Email and Password
Post as a guest
Post as a guest
By posting your answer, you agree to the
Not the answer you're looking for?
Browse other questions tagged
Stack Overflow works best with JavaScript enabled查看: 5323|回复: 9
jmeter中的事务响应时间什么概念?
该用户从未签到
在jmeter的脚本中设置了事务控制器,事务控制器中包含了若干个请求。
在summary report和聚合报告中显示的Average一栏里,事务的响应时间完全大于该事务所包含的所有请求的平均响应时间,这是什么原因?
事务响应时间是什么概念阿?是 samples的数量乘上每个sample的平均响应时间吗?
该用户从未签到
回复 1# 的帖子
不清楚是指哪个对不上号.
先说明一下,Aggregate Report 和Summary Report 关于时间的单位在没有特别标注的时候都是毫秒,不是秒.
个人感觉JMeter在中文本地化翻译中,有些描述的并贴近定义.
Aggregate Report 我更倾向与翻译成合计报告
该用户从未签到
JMeter明确指出,响应时间不包括浏览器渲染时间
该用户从未签到
什么叫浏览器渲染时间??
该用户从未签到
原帖由 liu_xp2003 于
21:39 发表
不清楚是指哪个对不上号.
先说明一下,Aggregate Report 和Summary Report 关于时间的单位在没有特别标注的时候都是毫秒,不是秒.
个人感觉JMeter在中文本地化翻译中,有些描述的并贴近定义.
Aggregate Repor ...
不是说Aggregate Report 和Summary Report 有区别,是说这2个报告结果中的数据:单个请求的响应时间和事务的响应时间的差距相差很大。
比如summary report中的数据:
Label& && && && &#Samples& &&&Average& && &Min& && &Max& &&&Throughput& && &KB/sec& &&&Avg Bytes
http://../1& && &&&50& && && && && && &14490 & && &12702& & 16246& & 3.1/sec& && && &60.31& && &20121.9
http://../2& && &&&50& && && && && && &10571 & && &3310& &&&12900& & 3.3/sec& && && &62.37& && &19070.5
http://../3& && &&&50& && && && && && &12426& && & 1874& &&&18327& & 1.7/sec& && && &95.18& && &56253.5
Transaction
Controller1& && &&&50& && && && &&&388443& && &371411& &39668& & 7.6/min& && && &12.01& && & 97552.8
就是这个粉色的数据和红色的数据的概念,我看粉色数据完全大于所有红色数据之和,而且大出好多。
每个请求中另外包含了正则表达提取器和Assertion,这些不会占用太多时间吧?
事务平均响应时间需要除以Sample的数量才会=各个请求响应时间之和吗?
该用户从未签到
回复 5# 的帖子
你在测试控制Transaction Controller 中只有3个不同类型请求吗?(是否还包含别的处理?)
从Transaction Controller1 的统计信息看最小值跟最大值都不能跟以上3个sample的合计匹配.貌似有什么额外处理时间被这个Transaction Controller统计进去了.
这种方式使用我验证过是正常的.包含在Transaction Controller 中的request总和略小于Transaction Controller 的对应值.(原因:统计舍入误差: 误差范围: (±0.4*N) % 1)
你先查查脚本吧.
该用户从未签到
回复 4# 的帖子
渲染时间是只客户端在接受到服务器响应数据后,呈现给用户界面的一个描绘过程.(该过程不属于服务器响应时间,做服务器性能测试的时候需要避免这些信息的统计.如果是测试用户使用体验的时候,就需要考虑这个渲染时间因素对用户使用产品的影响.在测试分类中可以将其放在单用户性能测试或者客户端响应测试.)
用越差的PC 来请求带复杂CSS,JS,和XML的内容的URL就能很容易体验到这个过程的漫长....
该用户从未签到
就是说JMeter计算的时候已经把渲染时间去掉了?所以不包含那些用户界面?
就是说如果其他工具把这个描绘出来,那它的时间就包含渲染时间了?
该用户从未签到
回复 8# 的帖子
JMeter没有做这个动作.所以他不包含渲染时间.
真实浏览器就有这个渲染时间.渲染过程的时间消耗跟代码质量和客户端PC性能有直接关系.
TA的每日心情开心 16:10签到天数: 31 天连续签到: 1 天[LV.5]测试团长
我用loadrunner测试出来的事务响应时间就比jmeter测试出来的大好多
站长推荐 /4
了解自己的心里圈,学习不同的内容,让自己由内而外强大起来!
算法重要吗?对IT从业者有什么样的影响?
信息化潮流中算法承担什么样的角色?
硬件能力的不断提到,算法还重要吗?
赏金公告:悬赏任务已,小伙伴们赶紧行动起来,赚取,去积点商城获取奖励吧!
本期主题:系统测试流程概述
活动时间:7月7日14:00
Powered byJmeter 学习笔记(二) - 这边走,那边走 - 51Testing软件测试网 51Testing软件测试网-中国软件测试人的精神家园
Jmeter 学习笔记(二)
& 19:01:33
/ 个人分类:
汗,大概字数有上限吧,居然吞了我一半的内容,幸好ctrl c过,这边就做二吧&5、XML Assertion(XML断言)&就目前的理解来看XML Assertion的作用是判断返回结果是否否和xml的格式即&&&/&成对出现。(不知这样理解对不对?如果是这样的话,这个在HTML中,设置Format为XML就可以实现了,为什么还需要这个呢?)XML Assertion控制面板截图如下:&&从控制面板上可以看出,XML Assertion不需要设置任何内容。在使用XML Assertion的过程中,遇到一个问题,弄不明白,问题贴在这里,希望路过的朋友,如果知道的话,帮忙解答一下:中添加xml assertion断言结果:Error on line 1: The element type "Detail" must be terminated by the matching end-tag "&/Detail&".但实际请求返回结果:&?xml version="1.0" encoding="UTF-8"?&&Info&&Country&中国&/Country&&Province&未知&/Province&&City&未知&/City&&Type&大学&/Type&&ISP&教育网&/ISP&&Detail&中国教育网&/Detail&&/Info&问题:&Detail&&/Detail&是成对的,断言那边怎么会过不去?comment:这篇是我看过比较全的对断言的解释了,就连官网上也没找到很详细的对每个断言的说明。。。不知道为啥还是我没找对地方分布式:作为一个纯&JAVA&的GUI应用,&对于CPU和内存的消耗还是很惊人的,所以当需要模拟数以千计的并发用户时,使用单台机器模拟所有的并发用户就有些力不从心,甚至还会引起内存溢出的错误。不过,&也可以像&LoadRunner&一样通过使用多台机器运行所谓的&Agent&来分担&Load Generator&自身的压力,并借此来获取更大的并发用户数。根据&官方文档的署名,你需要自己完成这个配置,不过不用担心,这将非常简单&^_^1.在所有期望运行&&作为&Load Generator&的机器上安装&,并确定其中一台机器作为&Controller,的机器作为Agent。然后运行所有&Agent&机器上的-server.bat文件——假定我们使用两台机器&192.168.0.1&和&192.168.0.2&作为Agent;2.在Controller&机器的&&安装目录下找到&bin&目录,再找到&.properties&这个文件,使用记事本或者其他文字编辑工具打开它;3.在打开的文件中查找“remote_hosts=”这个字符串,你可以找到这样一行“remote_hosts=127.0.0.1”。其中的&127.0..0.1表示运行&&Agent&的机器,这里需要修改为“remote_hosts=192.168.0.1:.0.2:1664”——其中的&1664为&&的&Controller&和&Agent&之间进行通讯的默认&RMI&端口号;4.保存文件,并重新启动&Controller&机器上的&.bat,并进入&Run -& Remote Start&菜单项。看到啥了?^_^comment:我自己试过了,基本上和这里说的差不多,不过端口用的是默认的1099不是他写的1664,另外官网上说用作分布式测试的机器出了jmeter版本要一致外,就连java的版本最好也一致。另外,下面是我自己试验分布式测试后的一些细节的记录:1. agent的jmeter不需要运行case,只要启动了jmeter和jmeter- .bat就可以了2. case是在controller上运行的,report也体现在controller上3. 根据资料,比方controller是设置了2次,共2个agent,那么一共是2*2=4次 (/jackei/archive//504638.html)4. 看起来control如果要执行的话需要另外启动,不知道该如何一起启动(直接在properties中设置127.0.0.1是不行的)结果分析(监听器):1.聚合报告Aggregate Report&是&&常用的一个&Listener,中文被翻译为“聚合报告”。今天再次有同行问到这个报告中的各项数据表示什么意思,顺便在这里公布一下,以备大家查阅。如果大家都是做应用的,例如只有一个登录的请求,那么在Aggregate Report中,会显示一行数据,共有10个字段,含义分别如下。Label:每个&JMeter&的&element(例如&HTTP Request)都有一个&Name&属性,这里显示的就是&Name&属性的值#Samples:表示你这次测试中一共发出了多少个请求,如果模拟10个用户,每个用户迭代10次,那么这里显示100Average:平均响应时间——默认情况下是单个&Request&的平均响应时间,当使用了&Transaction Controller&时,也可以以Transaction&为单位显示平均响应时间Median:中位数,也就是&50%&用户的响应时间90% Line:90%&用户的响应时间Note:关于&50%&和&90%&并发用户数的含义,请参考下文/jackei/archive//557972.htmlMin:最小响应时间Max:最大响应时间Error%:本次测试中出现错误的请求的数量/请求的总数Throughput:吞吐量——默认情况下表示每秒完成的请求数(Request per Second),当使用了&Transaction Controller&时,也可以表示类似&LoadRunner&的&Transaction per Second&数KB/Sec:每秒从服务器端接收到的数据量,相当于中的Throughput/Sec2. 图形报表图表底部参数的含义如下:样本数目是总共发送到服务器的请求数。最新样本是代表时间的数字,是服务器响应最后一个请求的时间。吞吐量是服务器每分钟处理的请求数。&平均值是总运行时间除以发送到服务器的请求数。&中间值是代表时间的数字,有一半的服务器响应时间低于该值而另一半高于该值。&偏离表示服务器响应时间变化、离散程度测量值的大小,或者,换句话说,就是数据的分布。3. 监视器结果“”(Monitor Result)是为Tomcat 5设计的,用来实时反映服务器的性能情况,如果你的AppServer不是Tomcat 5,使用“监视器结果”得不到结果,但是任何servlet container都可以移植status servelet并使用此monitor,如果需要对的AppServer使用该Monitor,需要移植Tomcat 5的status servelet。添加的“监视器结果”利用的是Tomcat本身的特性,就是直接访问Tomcat服务器的/manager/status,获得相应的服务器状态数据并进行呈现。因此,在JMeter中添加“监视器结果”来监视服务器状态的步骤如下:1.增加一个HTTP Request的Sampler;2.选中该新增的HTTP Request,修改其属性:修改“名称”为服务器状态(非必须)修改“路径”为manager/status,必要时给出服务器的IP地址和Port的值增加一个参数,该参数的名称为大写的XML,值为小写的true选中下方的“用作监视器”如下图所示:&&3.增加一个“http授权管理器”因为访问Tomcat的应用服务器的/manager/status需要给出用户名和口令。如下图所示&&4.添加一个“监视器结果”的节点执行后,会在监视器结果中的性能页面显示图。其中healthy/Warning/非活动”是根据服务器上的可用线程数/最大可用线程数得出,而Load用来衡量应用服务器的压力状况。comment:我知道经常用的还有“察看结果树”以及“用表格察看结果”,这篇监视器结果我觉得网上不太多吧,大部分都说聚合报告其他:1. 聚合报告的error代表没有响应率2. 每个测试不能一下子上1000,应该10 100 200 500 1000这样的走,看下错误的上升率3. 每个case要跑3次,取平均值,以排除外界干扰4. 例如通过量、响应时间、CPU负载、内存使用等来决定系统的性能5. 压力测试(Stress )是通过确定一个系统的瓶颈或者不能接收的性能点,来获得系统能提供的最大服务级别的测试。6. 并发性能测试的目的主要体现在三个方面:以真实的业务为依据,选择有代表性的、关键的业务操作设计测试案例,以评价系统的当前性能;7. 同时记录下每一事务处理的时间、中间件服务器峰值数据、状态等8. 主要的测试指标包括交易处理性能指标和UNIX资源监控。其中,交易处理性能指标包括交易结果、每分钟交易数、交易响应时间(Min:最小服务器响应时间;Mean:平均服务器响应时间;Max:最大服务器响应时间;StdDev:事务处理服务器响应的偏差,值越大,偏差越大;Median:中值响应时间;90%:90%事务处理的服务器响应时间)、虚拟并发用户数。9. 监测的测试指标包括交易处理性能以及UNIX()、、Apache资源等。10. 是否需要疲劳性测试?11. 基准测试可以在一个相对短的时间内收集可重复的结果。进行基准测试的最好方法是,每次测试改变一个且只改变一个参数。例如,如果想知道增加JVM内存是否会影响应用程序的性能,就逐次递增JVM内存(例如,从1024 MB增至1224 MB,然后是1524 MB,最后是2024 MB),在每个阶段收集结果和环境数据,记录信息,然后转到下一阶段。这样在分析测试结果时就有迹可循。下一小节我将介绍什么是基准测试,以及运行基准测试的最佳参数。12.  基准测试的关键是要获得一致的、可再现的结果。注意,吞吐量以稳定的速度增长,然后在某一个点上稳定下来。因为服务器上所有的线程都已投入使用,传入的请求不再被立即处理,而是放入队列中,当线程空闲时再处理。 当系统达到饱和点,服务器吞吐量保持稳定后,就达到了给定条件下的系统上限。 注意,在执行队列(图2)开始增长的同时,响应时间也开始以递增的速度增长。这是因为请求不能被及时处理。13. 对于一次给定的测试,应该取响应时间和吞吐量的平均值。精确地获得这些值的唯一方法是一次加载所有的用户,然后在预定的时间段内持续运行。14. 与此相对应的是“ramp-up”测试。  ramp-up测试中的用户是交错上升的(每几秒增加一些新用户)。ramp-up测试不能产生精确和可重现的平均值,这是因为由于用户的增加是每次一部分,系统的负载在不断地变化。因此,flat运行是获得基准测试数据的理想模式。15. 这不是在贬低ramp-up测试的价值。实际上,ramp-up测试对找出以后要运行的flat测试的范围非常有用。ramp-up测试的优点是,可以看出随着系统负载的改变,测量值是如何改变的。然后可以据此选择以后要运行的flat测试的范围。16.  当测试中所有的用户都同时执行几乎相同的操作时,就会发生这种现象。这将会产生非常不可靠和不精确的结果,所以必须采取一些措施防止这种情况的出现。有两种方法可以从这种类型的结果中获得精确的测量值。如果测试可以运行相当长的时间(有时是几个小时,取决于用户的操作持续的时间),最后由于随机事件的本性使然,服务器的吞吐量会被“拉平”。或者,可以只选取波形中两个平息点之间的测量值。该方法的缺点是可以捕获数据的时间非常短。17. 例如,首先使用ramp-up测试确定系统可以支持的用户范围。确定了范围之后,以该范围内不同的并发用户负载进行一系列的flat测试,更精确地确定系统的容量。18. 可行的方法是在这台服务器上使用不同级别的负载来进行测试,并根据测试数据获得系统在这种环境下的最佳负载和最大负载,并根据测试数据对负载和资源消耗的情况进行估算,找到它们之间的关系。19. 而对于可伸缩性测试,通常来说是要根据并发量、系统的性能表现以及软硬件资源的消耗情况来进行分析,并使用数学建模的方式获得一个容量模型。20. 可伸缩性测试(Scalability Testing) 对于一个系统来说,在一个给定的环境下,它的最佳并发用户数和最大并发用户数是客观存在的,但是系统所面临的压力却有可能随上线时间的延长而增大。例如,一个在线购物站点,注册用户数量不断增多,访问站点查询商品信息和购买商品的人也不断的增多,我们应该用一种什么样的方案,在不影响系统继续为用户提供服务的前提下来实现系统的扩容?21.&Jmeter的并发数是没有上限的(/thread--3.html)comment:上面其实主要是一些测试性能的指标,还有思路(不是光把jmeter跑起来就可以的,要知道怎么设定跑的次数以及check的点这些)好啦,基本上记录的差不多了,当然还有好多好多,不过没办法都记录在博客中,这边就作为一个大致的流程记录下来吧,如果以后再有什么好发现,我可以开一个二,呵呵btw,&http://shijianwu-/blog/507888&(这篇说的很细致,挺好的,记录这边)

我要回帖

更多关于 jmeter怎么看响应时间 的文章

 

随机推荐