Хотим на основе тестов в jire (zephyr) генерировать автотесты.
Используем python + behave.
Думал так делать:
Писать тесты в синтаксисе behave
Через Python парсить страницы в jire и генерировать тесты. т.е. находить текст и генерировать тесты так примерно:
Затем выберии свойство ‘property’ – это будет тест самого шага в тесте.
poperty: 1, 2, f, a, c, g, r – это будут конкретные данные для шага выше.
Нормальный способ? Делали сами что-нибудь подобное? Есть способ лучше?
За ссылки на свой опыт, статьи, видео буду благодарен.
У зефира есть REST API. Боже упаси парсить джиру через UI.
Лично я реализовывал обратный процесс: создание зефир тестов по авто-скриптам.
Честно, лично я бы даже не брался за то, что вы затеяли. Не верю, что окупится.
Ну мануальщики у нас активно пользуются Зефиром. Мы в последствии по ним даже кое-что автоматизируем - что считаем целесообразным. А обратный процесс - создания зефирок из авто-тестов - нужен лишь для того, чтобы легче было трекать некоторые метрики автоматизации. В остальном от них пользы почти никакой нет.
Свои тесты мануальщики проходят конечно же. Атачат к стори, создают execution cycles per sprint, фейлят, заводят баги и т.п. Я имел ввиду тесты, созданные автоматически из скриптов. От них польза только статистическая. Во всяком случае до тех пор, пока люди не разработают AI для анализа причин падений, включая фильтрацию ложных срабатываний.
Посмотрите на Fitnesse - http://fitnesse.org/ - сделайте себе в зефире так же.
Данные теста и ожидаемый результат со спец.разметкой / в таблице / или с тегом.
Либо сразу используйте WiKi + Fitnesse - к тест-менеджер системе
GridDinamycs по фитнессу делали доклад на SQA14
Меня оч. впечатлило. Эту идею можно и нужно развивать.
Но пока внедрить нигде возможности не было.