Написал скрипт, который выдергивает все ссылки c главной страницы сайта и проверяет их метом 'HEAD', если ссылка не найдена(404 ответ) то, записывает ее в файл.
Этот скрипт необходимо запустить одновременно на 10 или более сайтов. Соответственно в скрипте есть два параметра, которые должны браться при запуске скрипта - url сайта и имя файла, в которое будет записываться неработающие ссылки. Url сайтов и имена файлов фиксированные и вынесены в отдельный файл(Settings.py).
Собсно я не знаю, как запустить данный скрипт на 10 сайтов одновременно, чтобы в каждом из запущенных скриптов были свои url сайта и имя файла.
Подскажите пожалуйста какой-нибудь метод, как это сделать и целесообразно это вообще?
Собирает урлы от разных поисков (это просто для проверки концепции). При этом каждый шаг начинается после того, как все браузеры отработали предыдущий.
Буду пробоать пока вариант, который попроще. Времени нет особо разбираться с мультипроцессингом. Но интересно конечно было бы попробовать вариант посложнее :) Спасибо за советы!