Что такое дисперсия в нагрузочном тестировании и что она обозначает?

Добрый день всем.

Занялся изучением нагрузочного тестирования. И, есть термин “дисперсия”. Внятного для себя объяснения не нашел, понял, что это %, желательно не превышающий значение 5.

Запустил через JMeter простой скрипт (загрузка главной страницы сайта, 50 человек, Ramp-Up period 180 секунд). Получил следующие значения:
http://dl3.joxi.net/drive/0009/0673/590497/160217/3969257ac6.jpg

Мне кажется, что имеется ввиду что-то типа этого:
https://ru.wikipedia.org/wiki/%D0%94%D0%B8%D1%81%D0%BF%D0%B5%D1%80%D1%81%D0%B8%D1%8F_%D1%81%D0%BB%D1%83%D1%87%D0%B0%D0%B9%D0%BD%D0%BE%D0%B9_%D0%B2%D0%B5%D0%BB%D0%B8%D1%87%D0%B8%D0%BD%D1%8B

В контексте JMeter это показывает “качество” получаемых данных.

Так, например, как минимум в 95 % случаев случайная величина, имеющая нормальное распределение, удалена от её среднего не более чем на два стандартных отклонения, а в примерно 99,7 % — не более чем на три.

Upd. дополню ссылками на http://jmeter.apache.org/usermanual/glossary.html и https://en.wikipedia.org/wiki/Standard_deviation

Вики и курсы в универе проходил :wink:

Здесь больше имеется немного другое. Вроде говорилось о разнице запросов. “Вроде” не подходит. Поэтому точно для себя хочу знать 2 ответа:

  • что такое дисперсия и что она означает?
  • что с этим делать?

Что из приведенных выше ссылок осталось непонятным?
Если не понимаете смысла дисперсии, то можете её не брать в свои расчеты. И не указывать в отчетах. Любое измерение делается с некоторым допущением и точностью.