webdevqa.jp.net

JMeterサマリーレポートの分析方法

負荷テストを実行すると、次の結果が得られます。レポートを読むのを手伝ってくれる人はいますか?

the number of thread = '500 '
ramp up period = '1'

Sample      =       '500'
Avg     =       '20917'
min         =       '820'
max         =       '48158'
Std Deviation   =       '10563.178194669255'
Error %     =       '0.046'
throughput      =       '10.375381295262601'
KB/Sec          =       `247.05023046315702` 
Avg. Bytes      =       '24382.664'
25
user3021346

短い説明は次のようになります。

  1. サンプル-送信されたリクエストの数
  2. Avg-すべての応答の算術平均(すべての時間の合計/カウント)
  3. 最小応答時間(ミリ秒)
  4. 最大応答時間(ミリ秒)
  5. 偏差- 標準偏差の記事 を参照
  6. エラー率-失敗したテストの割合
  7. スループット-サーバーが処理する1秒あたりのリクエスト数。大きいほど良い。
  8. KB/Sec-自己説明
  9. 平均バイト-平均応答サイズ

結果の解釈に問題がある場合は、 BM.Sense 結果分析サービスを試すことができます

37
Dmitri T

Sample:送信されたリクエストの数。

Throughput:は、テスト中にサーバーに送信される単位時間(秒、分、時間)あたりのリクエスト数です。

応答時間:指定されたリクエストがサーバーに送信されてから情報の最後のビットが返されるまでの経過時間クライアント。

throughputは、実行中にサーバーによって処理される実際の負荷ですが、この同じ実行中のサーバーのパフォーマンスについては何も伝えません。これが、実行中のサーバーのパフォーマンスに関する本当のアイデアを得るために両方の手段が必要な理由です。 応答時間は、サーバーが特定の負荷を処理する速度を示します。

Average:これは平均(算術平均μ= 1/n *Σi= 1…n xi)合計サンプルの応答時間です。

MinおよびMaxは最小および最大応答時間です。

重要なことは、平均値が非常に誤解を招く可能性があることです値が平均からどれだけ近い(または遠い)かを示していないため、この目的のためには、Deviation値が必要ですサンプルの異なる応答時間で同じである!!

偏差標準偏差(σ)は、平均値(μ)への値:平均値に対する測定値の分散または変動性の良いアイデアを提供します。

次の式は、標準偏差(σ)の計算方法を示しています。

σ= 1/n *√Σi= 1…n(xi-μ)2

詳細については、 こちら !!を参照してください

したがって、deviation値がlow比較値と平均値である場合、メジャーが分散していない(またはほとんど平均値に近い)こと、および平均値が有意であることを示します。

Kb/sec:キロバイト/秒で測定されるスループット。

エラー%:エラーのあるリクエストの割合。

例は常に理解した方が良いです!!!これは 記事 に役立つと思います。

7
Jahan

JMeterのドキュメントでは次のように書かれています

要約レポートは、テスト内の異なる名前のリクエストごとにテーブル行を作成します。これは、より少ないメモリを使用することを除いて、集計レポートに似ています。スループットは、サンプラーターゲット(HTTPサンプルの場合はリモートサーバーなど)の観点から計算されます。 JMeterは、リクエストが生成された合計時間を考慮します。他のサンプラーとタイマーが同じスレッドにある場合、これらは合計時間を増加させるため、スループット値が低下します。したがって、異なる名前の2つの同一のサンプラーは、同じ名前の2つのサンプラーのスループットの半分になります。サンプラーラベルを正しく選択して、レポートから最良の結果を得ることが重要です。

  • ラベル-サンプルのラベル。 「ラベルにグループ名を含める」場合が選択されると、スレッドグループの名前がプレフィックスとして追加されます。これにより、必要に応じて、異なるスレッドグループの同一のラベルを別々に照合できます。
  • #サンプル-同じラベルのサンプルの数
  • 平均-結果セットの平均経過時間
  • 最小-同じラベルのサンプルの最小経過時間
  • 最大-同じラベルのサンプルの最長経過時間
  • 標準開発者-サンプル経過時間の標準偏差
  • エラー%-エラーのあるリクエストの割合
  • スループット-スループットは、1秒/分/時間あたりのリクエストで測定されます。時間単位は、表示されるレートが少なくとも1.0になるように選択されます。スループットがCSVファイルに保存される場合、リクエスト/秒で表されます。つまり、30.0リクエスト/分は0.5として保存されます。
  • Kb /秒-キロバイト/秒で測定されるスループット
  • 平均バイト-サンプル応答の平均サイズ(バイト単位)。 (JMeter 2.2では、誤ってkBの値を示していました)

時間はミリ秒単位です。

6
Brad Parks

Jmeterの概要については多くの説明があります。関連するデータを含むパフォーマンステストレポートを生成するために、かなり以前からこのツールを使用しています。以下のリンクで利用可能な説明は、現場での経験からのものです。

Jmeter:概要レポートの理解

これは、負荷テストの結果を理解するためにJmeterによって生成される最も有用なレポートの1つです。

#ラベル:サーバーに送信するHTTPサンプルリクエストの名前

#サンプル:サーバーにプッシュされたサンプルの総数をキャプチャします。この特定の要求を5回実行するループコントローラーを配置し、2回の反復(スレッドグループ内の呼び出しループカウント)を設定し、負荷テストを100ユーザーに対して実行し、ここに表示されるカウントを想定すると.... 1 * 5 * 2 * 100 = 1000。合計=実行中にサーバーに送信されるサンプルの合計数。

#平均:特定のhttpリクエストの平均応答時間です。この応答時間はミリ秒単位で、100ユーザーの場合、2回の反復で5ループの平均です。合計=サンプルの合計平均の平均。すべてのサンプルのすべての平均を加算し、サンプル数で割ることを意味します

#Min:このラベルに送信するサンプルリクエストごとの最小時間。合計は、すべてのサンプルの最小時間に等しくなります。

#Max:このラベルに対して送信するサンプルリクエストごとの最大タイ費合計は、すべてのサンプルの最大時間に等しくなります。

#標準開発者:データセットの標準偏差を知ることは、データポイントが平均の周りにどれだけ密集しているかを示します。標準偏差が小さいほど、データの一貫性が高まります。標準偏差は、ラベルの平均時間の半分以下にする必要があります。それ以上の場合は、何かが間違っていることを意味します。問題を把握して修正する必要があります。 https://en.wikipedia.org/wiki/Standard_deviation 合計は、すべてのサンプルで最高の偏差に対するユーカリです。

#エラー:特定のサンプルリクエストで検出されたエラーの合計割合。 0.0%は、すべての要求が正常に完了したことを示します。合計は、すべてのサンプルのエラーサンプルの割合に等しい(合計サンプル)

#スループット:ヒット/秒、またはテスト中にサーバーに送信される単位時間(秒、分、時間)ごとのリクエストの総数。

endTime = lastSampleStartTime + lastSampleLoadTime
startTime = firstSampleStartTime
converstion = unit time conversion value
Throughput = Numrequests / ((endTime - startTime)*conversion)

#KB/sec:キロバイト/秒単位の測定スループットレート。

#平均バイト:サーバーからダウンロードされたデータの総バイト数の平均。合計は、すべてのサンプルの平均バイト数です。

3
Amit Vashistha

Jmeterテスト計画には、パフォーマンステストの実行結果を表示するリスナーが必要です。

  • リスナーは、Jmeterの実行中にサーバーから返される応答をキャプチャし、ツリー、テーブル、グラフ、ログファイルの形式で紹介します。

  • また、今後の参照用に結果をファイルに保存することもできます。 Jmeterが提供するリスナーには多くの種類があります。それらのいくつかは次のとおりです。要約レポート、集計レポート、集計グラフ、結果ツリーの表示、表内の結果の表示など。

概要レポートの各パラメーターの詳細を以下に示します。

図を参照して:

画像

Label:特定のHTTP要求の名前/ URLです。 「ラベルにグループ名を含める」オプションを選択した場合、スレッドグループの名前が各ラベルのプレフィックスとして適用されます。

Samples:これは、リクエストごとの仮想ユーザーの数を示します。

Average:すべてのサンプルが特定のラベルを実行するのにかかる平均時間です。この例では、ラベル1の平均時間は942ミリ秒であり、合計平均時間は584ミリ秒です。

Min:特定のラベルのサンプルにかかった最短時間。ラベル1の最小値を見ると、20個のサンプルのうち最短の応答時間のうち、サンプルの1つが584ミリ秒でした。

Max:特定のラベルのサンプルにかかった最長時間。ラベル1の最大値を見ると、20個のサンプルのうち最長の応答時間の1つが2867ミリ秒でした。

標準Dev。:これは、サンプル応答時間の平均値から逸脱していた例外的なケースのセットを示しています。この値が小さいほど、データの一貫性が高まります。標準偏差は、ラベルの平均時間の半分以下にする必要があります。

Error%:ラベルごとの失敗したリクエストの割合。

Throughput:スループットは、サーバーによって時間単位(秒、分、時間)ごとに処理される要求の数です。この時間は、最初のサンプルの開始から最後のサンプルの終了まで計算されます。スループットが大きいほど優れています。

KB/Sec:これは、パフォーマンステストの実行中にサーバーからダウンロードされたデータの量を示します。つまり、キロバイト/秒で測定されるスループットです。

詳細: http://www.testingjournals.com/understand-summary-report-jmeter/

3
NeeruSingh