Использовать ли cloud решения, если нужно создать нагрузку с одновременной отправкой 500 запросов с файлами по 10+ мб?

Доброго времени суток. Появилась задача отправить на сервер одновременно 500 запросов с файлами ~10Мб.
В целом постановка задачи звучит следующим образом:

  • проверить как сервер себя поведет при 100, 200, 500 одновременных одинаковых запросах
  • найти максимум одинаковых одновременных запросов, которые сможет обработать данная конфигурация сервера
  • забить очередь на сервере
<?>

Сразу возник вопрос возможно ли это сделать не прибегая к облачным решениям, будет ли достаточно ширины канала для этой задачи?
Если да, то какой инструмент из перечисленных для этого лучше всего подойдет?
Если нет. то какой cloud-service можете посоветовать?

Скажу сразу - опыт в нагрузочном небольшой. Знаком с JMeter, Gattling, немного с Locust.

Мне кажется, что удобно было бы делать нагрузку на сервер с другого сервера в той же сети. Нет необходимости гонять трафик через интернет.
Если запросы одинаковые, то лучше всего использовать wrk.

в таком раскладе боттлнеком будет сетевой интерфейс - топик-стартеру надо 5 гиг нагрузки втопить.

Может да, а может и нет. Думаю, в этом и состоит задача автора, выяснить где слабое звено. Если узким местом будет сеть, то использование клауда тут не поможет. Толщина сетевого шнурка от этого не изменится.

В той же сети тестировать, к сожалению нет возможности

Решили все-таки грузить из облака, по результатам отпишусь. Спасибо за ответы)

Я бы попробовал задеплоить AWS лямбду которая отправляет один запрос, а потом затригеррить ее хоть 500 раз, хоть 50000 раз