Что такое тест скрипт
Перейти к содержимому

Что такое тест скрипт

  • автор:

Автоматизация тестирования программ

Автоматизированное тестирование программного обеспечения — основные понятия

Автоматизированное тестирование программного обеспечения (Software Automation Testing) — это процесс верификации программного обеспечения, при котором основные функции и шаги теста, такие как запуск, инициализация, выполнение, анализ и выдача результата, выполняются автоматически при помощи инструментов для автоматизированного тестирования.

Специалист по автоматизированному тестированию программного обеспечения (Software Automation Tester) — это технический специалист (тестировщик или разработчик программного обеспечения), обеспечивающий создание, отладку и поддержку работоспособного состояния тест скриптов, тестовых наборов и инструментов для автоматизированного тестирования.

Инструмент для автоматизированного тестирования (Automation Test Tool) — это программное обеспечение, посредством которого специалист по автоматизированному тестированию осуществляет создание, отладку, выполнение и анализ результатов прогона тест скриптов.

Тест Скрипт (Test Script) — это набор инструкций, для автоматической проверки определенной части программного обеспечения.

Тестовый набор (Test Suite) — это комбинация тест скриптов, для проверки определенной части программного обеспечения, объединенной общей функциональностью или целями, преследуемыми запуском данного набора.

Тесты для запуска (Test Run) — это комбинация тест скриптов или тестовых наборов для последующего совместного запуска (последовательного или параллельного, в зависимости от преследуемых целей и возможностей инструмента для автоматизированного тестирования).

Скрипты тестирования производительности

Помните, что контент на этой странице не поддерживается активно, и Atlassian не может гарантировать его поддержку. Кроме того, скрипты тестирования производительности, которые вы можете загрузить из общедоступного хранилища Maven из Atlassian (через ссылку на этой странице), больше не поддерживаются.

Эта страница предоставляется только для вашей информации, и ее использование осуществляется на ваш страх и риск. Вместо использования описанных выше сценариев мы рекомендуем наше тестирование производительности JIRA с помощью Grinder

Прежде чем пользователи получат доступ к новой установкеJIRA и ее настройке, полезно понять, как она будет работать под ожидаемой нагрузкой. Скрипты, которые генерируют загрузку запроса (‘request’) (или использования), предоставляются в нашем общедоступном репозитории Maven (ссылка ниже). Используя эти скрипты, вы можете узнать, где, возможно, вам нужно будет заранее улучшить настройку, чтобы устранить узкие места.

Хотя такой тип тестирования не является точной наукой, описанные здесь инструменты и процессы должны быть простыми и настраиваемыми, а также предоставлять вам расширяемый способ оценки нагрузочного тестирования.

В тестах производительности, описанных на этой странице, используется JMeter. Хотя нет острой необходимости в изучении JMeter, все же рекомендуется короткое чтение документации JMeter, так как это может помочь вам решить любые задачи, связанные с JMeter.

Редко бывает, что эти скрипты будут выполнять репрезентативное тестирование для вас «из коробки». Тем не менее, имеется возможность построить соответствующий тест нагрузки путем настройки или расширения их сценариев.

Нельзя использовать сценарии тестирования загрузки на производственной установке JIRA!

Хотя мы рекомендуем использовать копию ваших производственных данных для тестирования нагрузки на использование, сценарии тестирования нагрузки ниже будут изменять данные в рамках целевой установки JIRA! Следовательно, эти сценарии не должны использоваться на производственной установке JIRA. Вместо этого используйте копию ваших данных JIRA на тестовой установке JIRA.

Если вы запускаете эти тестовые скрипты в соответствии с вашей производственной установкой JIRA, вы будете нести персональную ответственность за потерю данных и восстановление резервной копии!

Аналогичным образом, при внесении изменений в установку JIRA для устранения узких мест производительности полезно оценить влияние этих изменений в тестовой установке JIRA перед их внедрением в производство.

Предпосылки

Вам понадобится следующее:

  • Установка JIRA, настройка и запуск с пользователем администратора. В сценариях предполагается, что комбинация имени пользователя и пароля этого пользователя — «admin» / «admin».
  • Рекомендуется протестировать базу данных качества производства, например, одну из них, указанную на странице Поддерживаемые платформы. Не используйте HSQLDB.
  • Apache JMeter (в настоящее время версия 2.3.4). Если вы собираетесь выполнять тестирование с высокой нагрузкой, используйте вместо этого нашу измененную версию JMeter (для которой требуется Java 1.6).
  • Скрипты тестирования нагрузки и ресурсы, доступные в нашем общедоступном хранилище Maven — выберите версию, которая наиболее точно соответствует вашей версии JIRA, и загрузите файл ZIP или Gzip в этом каталоге. Если есть сомнения, загрузите архив ZIP-архива.

Пользователи сообщили о проблемах с использованием встроенной утилиты распаковки Windows для извлечения этих архивов. Если вы столкнулись с такой же проблемой, воспользуйтесь программой архивирования и извлечения файлов сторонних производителей (например, 7-Zip), чтобы извлечь эти тесты производительности.

Быстро, просто скажите мне, как запускать эти тесты!

Если вы не хотите читать остальную часть этого документа, вот основные моменты:

  1. Создайте (Create) настройки testdata:
 /bin/jmeter -n -t jmeter-test-setup.jmx -Jadmin.user= -Jadmin.pass=
  1. Запустите (Run) тест с фиксированной нагрузкой (fixed load test):
 /bin/jmeter -n -t jmeter-test-fixedload.jmx 

Остальная часть этого документа — это просто разработка этих двух этапов.

Для получения информации о том, как использовать JMeter, обратитесь к документации JMeter.

Тесты производительности

Тесты производительности JIRA состоят из двух частей:

  • Тест установки — выполняется сначала и подготавливает установку JIRA для последующего теста с фиксированной нагрузкой (fixed load test)
  • Тест с фиксированной нагрузкой — имитирует ряд пользователей, обращающихся к установке JIRA.

Тест установки

Тест установки отвечает за:

  • Создание проектов
  • Создание пользователей
  • Создание и комментирование (и, возможно, решение) задач.

Выполнение теста установки:

После извлечения файла zip-теста производительности перейдите в каталог performanceTest. Из этого каталога запустите тест настройки производительности:

  / bin / jmeter -n -t jmeter-test-setup.jmx -Jadmin.user = -Jadmin.pass =

где является базовым каталогом JMeter

Если вы опустите ключ -n, JMeter будет работать как графический интерфейс. Затем вы можете запустить тест из GUI.

Как видно выше с параметрами admin.user и admin.pass, JMeter поддерживает -Jparameter = значение аргументов команды, чтобы контролировать выполнение. Следующие параметры контролируют выполнение теста установки:

Управление конфигурацией

Имя хоста или адрес установки JIRA.

Сетевой порт, на котором запущена установка JIRA.

Контекст веб-приложения JIRA

Расположение тестов производительности. Это следует устанавливать только в том случае, если вы запускаете тесты вне пределов каталога сценариев.

Запуск сценария с этим допуском приведет к удалению пользователей и проектов, созданных тестом.

Пользовательский контроль

Создайте пользователей в целевой установке JIRA. Используйте false, если у вас уже есть пользователи, созданные в другом месте.

Количество пользователей, которые будут созданы для просмотра установки JIRA (так называемые пользователи browseissue).

Количество пользователей, которые будут созданы для создания задач (например, пользователи «createissue»).

Количество пользователей, которые будут созданы для редактирования задач (например, пользователи «editissue»).

Количество пользователей, которые будут созданы для поиска задач (например, пользователей «поиска»).

Количество пользователей, которые будут созданы для просмотра пользовательской информации (так называемые пользователи useraction).

Группа, в которую будут помещаться пользователи «browseissue». Используйте none для группы.

Группа, в которую будут помещены пользователи «createissue». Используйте none для группы.

Группа, к которой будут добавлены пользователи «editissue». Используйте none для группы.

Группа, в которую будут помещаться пользователи поиска. Используйте none для группы.

Группа, к которой будут добавлены пользователи «useraction». Используйте none для группы.

Контроль проекта

Создавайте проекты. Используйте false, если вы хотите использовать существующие проекты (в существующих данных).

Количество проектов для создания в системе.

Контроль задач

Создает задачи в целевой установке JIRA. Используйте false, если вы не хотите, чтобы тест создавал примеры задач.

Количество задач, которые необходимо создать.

Контролирует, добавляются ли комментарии к задачам.

Если issue.comment.enable истинно, то количество фактических комментариев, созданных по задаче, выбирается случайным образом между 0 и этим значением.

Контролирует, хотите ли задачи автоматически закрываться после создания.

Если параметр issue.close включен, то это значение определяет процент закрытых задач.

Количество потоков, используемых для создания задач.

Количество времени (в миллисекундах), для которого имитируемый пользователь хочет «бездействовать» между каждым запросом(request) во время создания задачи.

Каталог, содержащий ресурсы данных CSV.

Вывод теста

После того, как вы выбрали целевые настройки, запустите JMeter, и вы должны получить примерно следующее:

 jmeter -n -t jmeter-test-setup.jmx Created the tree successfully using jmeter-test-setup.jmx Starting the test @ Mon Oct 26 23:53:28 CDT 2009 (1256619208435) Generate Summary Results + 931 in 31.3s = 29.7/s Avg: 26 Min: 13 Max: 3256 Err: 0 (0.00%) Generate Summary Results + 2948 in 180.0s = 16.4/s Avg: 31 Min: 8 Max: 1162 Err: 0 (0.00%) Generate Summary Results = 3879 in 211.4s = 18.3/s Avg: 29 Min: 8 Max: 3256 Err: 0 (0.00%) Generate Summary Results + 5048 in 179.9s = 28.1/s Avg: 44 Min: 7 Max: 936 Err: 0 (0.00%) Generate Summary Results = 8927 in 391.4s = 22.8/s Avg: 37 Min: 7 Max: 3256 Err: 0 (0.00%) Generate Summary Results + 3114 in 180.1s = 17.3/s Avg: 41 Min: 7 Max: 805 Err: 0 (0.00%) Generate Summary Results = 12041 in 571.3s = 21.1/s Avg: 38 Min: 7 Max: 3256 Err: 0 (0.00%) Generate Summary Results + 4956 in 179.8s = 27.6/s Avg: 45 Min: 7 Max: 1844 Err: 0 (0.00%) Generate Summary Results = 16997 in 751.4s = 22.6/s Avg: 40 Min: 7 Max: 3256 Err: 0 (0.00%) Generate Summary Results + 313 in 17.1s = 18.3/s Avg: 37 Min: 7 Max: 165 Err: 0 (0.00%) Generate Summary Results = 17310 in 768.5s = 22.5/s Avg: 40 Min: 7 Max: 3256 Err: 0 (0.00%) Tidying up . @ Tue Oct 27 00:06:17 CDT 2009 (1256619977181) . end of run 

Этот вывод данных будет обновляться каждые 3 минуты, показывая самую последнюю активность, а также резюме для всего теста.

Журналы результатов

В дополнение к этим итоговым данным, которые выводятся в командной строке, файлы журналов создаются как для успешных (jmeter-results-setup.jtl), так и для неудачных (jmeter-assertions-setup.jtl) результатов. Эти файлы журнала сохраняются в формате JTL (который основан на XML). Существует несколько парсеров ( синтаксических анализаторов), которые будут генерировать графики из этих файлов журнала. Для получения дополнительной информации см. страницу вики JMeter в журнале Analysis.

Тест с фиксированной нагрузкой

После успешного запуска теста установки может выполняться тест с фиксированной нагрузкой. Этот тест будет имитировать ряд пользователей, обращающихся к установке JIRA.

Этот тест имеет ряд параметров для настройки поведения. По умолчанию тест имеет следующее поведение и стратегию:

  • Несколько групп пользователей, все работают одновременно в течение фиксированного времени, каждый из которых имеет небольшую задержку между задачами.
    • Пользователи «Изменить задачу» (Edit Issue) (editissue) просматривают проект, а затем пытаются найти задачу. Они будут комментировать, редактировать или изменять рабочий процесс этой задачи.
    • Пользователи (User Action) (useraction) User Action создают фильтры, просматривают часы и голоса.
    • Пользователи «Обзор задач» (Browse Issue) (browseissue) просматривают проекты и проблемы.
    • Пользователи «RSS» просматривают проект, а затем периодически берут RSS-ленту для этого проекта.
    • Пользователи «Создать задачи» (Create Issues) (createissue) добавляют в экземпляр новые задачи.
    • Пользователи «Поиск задач» (Search Issues) (search) ищут задачи, используя текстовое поле быстрого поиска.

    Клиент JMeter не выполняет JavaScript. Производительность JavaScript зависит от нескольких факторов, таких как скорость вашего браузера и рабочей станции. JMeter не измеряет это.

    Выполнение теста с фиксированной нагрузкой:

     /bin/jmeter -n -t jmeter-test-fixedload.jmx 

    Как и в случае теста установки (выше), эта команда будет запускать тест с фиксированной нагрузкой со значениями по умолчанию. Аналогичным образом, можно управлять выполнением JMeter с параметрами -J. Тест с фиксированной нагрузкой имеет следующие доступные параметры:

    Управление конфигурацией

    Имя хоста или адрес установки JIRA.

    Сетевой порт, на котором запущена установка JIRA.

    JIRA контекст webapp.

    Расположение тестов производительности. Это должно только быть установлено, если Вы выполняете тесты снаружи каталога скриптов.

    Количество времени для запуска (в секундах).

    Подкаталог, содержащий файлы CSV ресурсов. Замените это, если вы хотите настроить внутренние данные.

    Редактировать задачу

    Количество одновременных пользователей «Редактировать задачу» для имитации.

    Пауза между каждым запросом(request) пользователя «Редактировать задачу» (в миллисекундах).

    (Закрыть | Разрешить) (Close | Resolve)

    Регулярное выражение для соответствия процессу рабочего процесса.

    Процент запросов(requests) пользователя «Редактировать задачу» (Edit Issue), которые будут пытаться изменить рабочий процесс задачи.

    Процент запросов (requests) пользователя «Редактировать задачу» (Edit Issue) который попытается добавить комментарий к задаче.

    Процент запросов (requests) пользователя «Редактировать задачу» (Edit Issue), который попытается редактировать задачу.

    Количество задач, которые тест пытается назначить пользователю «Редактировать задачу» (Edit Issue).

    Действия пользователя

    Количество одновременных пользователей «Действия пользователя» (User Action) для имитации.

    Пауза между каждым пользовательским запросом(request) «Действия пользователя» (User Action) (в миллисекундах).

    Процент запросов (requests) пользователя «Действия пользователя» (User Action) , который будет пытаться создать фильтр.

    Процент запросов(requests) пользователя «Действия пользователя» (User Action), который будет пытаться «просматривать часы».

    Процент запросов(requests) пользователя «Действия пользователя» (User Action), который будет пытаться просматривать голоса.

    Обзор задач и проектов

    Количество одновременных пользователей «Обзор задачи» (Browse Issue) для имитации.

    Пауза между каждым запросом (request) пользователя «Обзор задачи» (Browse Issue) (в миллисекундах).

    Процент запросов пользователя «Обзор задачи» (Browse Issue), который попытается просмотреть профиль пользователя.

    Процент запросов пользователя «Обзор задачи» (Browse Issue), который попытается просмотреть панель управления.

    Категория проекта для запросов(requests) гаджета статуса проекта.

    RSS – новостная лента

    Количество одновременных пользователей RSS для имитации.

    Пауза между каждым запросом (request) пользователя «RSS» (в миллисекундах).

    Создать задачи

    Количество одновременных пользователей «Создать задачу» (Create Issues) для имитации.

    Пауза между каждым запросом(request) пользователя «Создать задачу» (Create Issues) (в миллисекундах).

    Максимальное количество комментариев по задаче. Фактическое число выбирается случайным образом между 0 и этим значением.

    Поиск задач

    Количество одновременных пользователей «Поиск» (Search) для имитации.

    Пауза между каждым запросом (request) пользователя «Поиск» (Search) (в миллисекундах).

    Вывод теста

    После того, как вы выбрали целевые настройки, запустите JMeter, и вы получите результат, похожий на следующий:

     jmeter -n -t jmeter-test-fixedload.jmx Created the tree successfully using jmeter-test-fixedload.jmx Starting the test @ Wed Oct 28 01:13:22 CDT 2009 (1256710402435) Waiting for possible shutdown message on port 4445 Generate Summary Results + 568 in 97.9s = 5.8/s Avg: 62 Min: 1 Max: 1534 Err: 0 (0.00%) Generate Summary Results + 3861 in 179.4s = 21.5/s Avg: 39 Min: 0 Max: 494 Err: 0 (0.00%) Generate Summary Results = 4429 in 277.4s = 16.0/s Avg: 42 Min: 0 Max: 1534 Err: 0 (0.00%) Generate Summary Results + 7356 in 180.0s = 40.9/s Avg: 37 Min: 0 Max: 481 Err: 0 (0.00%) Generate Summary Results = 11785 in 457.3s = 25.8/s Avg: 39 Min: 0 Max: 1534 Err: 0 (0.00%) Generate Summary Results + 10841 in 180.1s = 60.2/s Avg: 38 Min: 0 Max: 995 Err: 0 (0.00%) Generate Summary Results = 22626 in 637.4s = 35.5/s Avg: 39 Min: 0 Max: 1534 Err: 0 (0.00%) Generate Summary Results + 11821 in 180.3s = 65.6/s Avg: 37 Min: 0 Max: 507 Err: 0 (0.00%) Generate Summary Results = 34447 in 817.3s = 42.1/s Avg: 38 Min: 0 Max: 1534 Err: 0 (0.00%) Generate Summary Results + 11904 in 180.9s = 65.8/s Avg: 38 Min: 0 Max: 658 Err: 0 (0.00%) Generate Summary Results = 46351 in 997.4s = 46.5/s Avg: 38 Min: 0 Max: 1534 Err: 0 (0.00%) Generate Summary Results + 11697 in 180.3s = 64.9/s Avg: 38 Min: 0 Max: 488 Err: 0 (0.00%) Generate Summary Results = 58048 in 1177.4s= 49.3/s Avg: 38 Min: 0 Max: 1534 Err: 0 (0.00%) Generate Summary Results + 11731 in 180.0s = 65.2/s Avg: 39 Min: 0 Max: 810 Err: 0 (0.00%) Generate Summary Results = 69779 in 1357.4s= 51.4/s Avg: 38 Min: 0 Max: 1534 Err: 0 (0.00%) Generate Summary Results + 11646 in 180.0s = 64.7/s Avg: 39 Min: 0 Max: 776 Err: 0 (0.00%) Generate Summary Results = 81425 in 1537.4s= 53.0/s Avg: 38 Min: 0 Max: 1534 Err: 0 (0.00%) Generate Summary Results + 11810 in 180.0s = 65.6/s Avg: 39 Min: 0 Max: 798 Err: 0 (0.00%) Generate Summary Results = 93235 in 1717.3s= 54.3/s Avg: 38 Min: 0 Max: 1534 Err: 0 (0.00%) Generate Summary Results + 5453 in 109.1s = 50.0/s Avg: 42 Min: 0 Max: 858 Err: 0 (0.00%) Generate Summary Results = 98688 in 1826.4s= 54.0/s Avg: 39 Min: 0 Max: 1534 Err: 0 (0.00%) Tidying up . @ Wed Oct 28 01:43:49 CDT 2009 (1256712229128) . end of run 

    Этот вывод текста будет обновляться каждые 3 минуты, показывая самую последнюю активность, а также резюме для всего теста.

    Журналы результатов

    Как и ранее, в командной строке будет отображаться вывод, а файлы журнала будут созданы как для успешных (jmeter-results-setup.jtl), так и для неудачных (jmeter-assertions-setup.jtl) результатов. Эти файлы журнала сохраняются в формате JTL (на основе XML). Существует несколько парсеров (синтаксических анализаторов), которые будут генерировать графики из этих файлов журналов. Для получения дополнительной информации см. страницу вики JMeter в анализе журнала.

    К вопросу о сертификации ISTQB

    Добрый день, уважаемый Habr. Мне кажется, что у большинства членов комьюнити сложилось довольно скептическое отношение к сертификации вообще и к ISTQB в частности, поэтому не хотелось бы сводить разговор к холивару на эту тему. А хотелось бы обсудить, некоторые моменты, которые лично меня ставят в этом вопросе в тупик, думаю, что похожие проблемы испытывают и другие русскоязычные тестировщики, перед которыми, в силу различных причин, стоит задача получения сертификата.

    Вопрос касается терминологии, на которую во многом завязан экзамен, а русскоязычных экзаменуемых я упомянул в том смысле, что кроме понимания терминов вообще, им еще предстоит как-то увязать их англоязычное и русскоязычное толкование.

    Дабы не распылять внимание уважаемого сообщества, в этой заметке, я хотел бы остановиться на терминах, так или иначе связанных с тест-кейсами, поскольку считаю это понинятие одним из самых важных среди задач, стоящих перед тестировщиком. Здесь мы попытаемся сравнить официальные русско-язычный и англо-язычный глоссарии, являющиееся альфа и омегой для испытуемых. Итак, вод ряд терминов, так или иначе связанных между собой:

    test procedure: See test procedure specification

    test procedure specification: A document specifying a sequence of actions for the execution
    of a test. Also known as test script or manual test script. [After IEEE 829] See also test
    specification

    test specification: A document that consists of a test design specification, test case
    specification and/or test procedure specification

    test script: Commonly used to refer to a test procedure specification, especially an automated one

    test case: A set of input values, execution preconditions, expected results and execution
    postconditions, developed for a particular objective or test condition, such as to exercise a
    particular program path or to verify compliance with a specific requirement. [After IEEE
    610]

    ******** Те же термины из русско-язычного глоссария ********

    процедура тестирования (test procedure): См. спецификация процедуры тестирования.

    спецификация процедуры тестирования (test procedure specification): Документ, описывающий последовательность действий при выполнении теста. Также известен как ручной сценарий тестирования. [IEEE 829] См. также спецификация теста

    спецификация теста (test specification): Документ, состоящий из спецификации проектирования теста, спецификации тестовых сценариев и/или спецификации процедуры тестирования.

    автоматизированный сценарий тестирования (test script): Обычно используется как синоним спецификации процедуры тестирования, как правило, автоматизированной.

    тестовый сценарий (test case): Набор входных значений, предусловий выполнения, ожидаемых результатов и постусловий выполнения, разработанный для определенной цели или тестового условия, таких как выполнения определенного пути программы или же для проверки
    соответствия определенному требованию. [IEEE 610]

    Начались мои мытарства с попытки разобраться, как между собой соотносятся тестовый скрипт и тестевый сценарий, в простонародье тест-кейс. В моем понимании тест скрипт всегда был из сферы автоматизации, что собственно и подтверждает русскоязычный глоссарий. Но как-то в англоязычной литературе это не всегда находит подтверждение по смыслу прочитанного.

    Ну что же, идем в англоязычный глоссарий, и видим, что несмотря на упоминание об автоматизации этот терми содержит и другой посыл «Commonly used to refer to a test procedure specification». Идем по указанному посылу где смысл начинает плавно меняться: «A document specifying a sequence of actions for the execution of a test. Also known as test script or manual test script».

    Опа, и нас переносит из области автоматизации в прямо противоположную ей область: «Also known as test script or manual test script». Таким образом, выходит, что тестовый скрипт это все же нечто иное, чем скрипт, написанный для автоматизации теста. Но тогда что же это? Буду весьма обязан, если кто-нибудь из специалистов возьмет на себя труд принять участие в обсуждении этой группы, связанных между собой терминов.

    По всему выходит, что центральной фигурой здесь выступает test specification на которую, в конечном итоге замыкаются все ссылки англоязычного глоссария: test specification: A document that consists of a test design specification, test case specification and/or test procedure specification. Как видите он собирает в себя вообще все, что можно, и вместо поставленной задачи разобраться в различии между терминами test script и test case, мы вдобавок, получаем кучу новых понятий никак не проясняющих, а лишь усугубляющих наше (ну мое по крайней мере) недоумение.

    Очень бы хотелось прильнуть к неиссякаемому источнику коллективного разума, чтобы найти объяснение всем вышеуказанным терминам и тому, как они соотносятся друг с другом. На экзамене и в учебнике, написанном авторами всей документации по ISTQB, идет постоянное жонглирование этими терминами и многие вопросы строятся на попытке подловить испытуемых на их толковании.

    • тестирование
    • сертификация
    • QA
    • ISTQB
    • автоматизация тестирования
    • ручное тестирование
    • тест-аналитика

    Тестовые скрипты

    Можно использовать Simulink ® Test™ программируемый интерфейс к:

    • Создайте тестовые скрипты и функции.
    • Запустите тесты из командной строки.
    • Настройте и стандартизируйте свою тестовую среду.

    Можно использовать скрипты и функции, чтобы повторить ту же стратегию тестирования относительно нескольких систем или выполнить регрессионное тестирование. Эти функции и классы покрывают тестовую авторскую разработку, выполнение и результаты в Simulink Test . Если вы хотите объединить существующие тесты Simulink с MATLAB ® тесты или запущенные тесты с непрерывным интегрированием, используют Среду Модульного теста MATLAB. Смотрите Непрерывное Интегрирование.

    Simulink Test обеспечивает графические интерфейсы пользователя, чтобы помочь вам создать и запустить тесты. Для получения дополнительной информации смотрите, что Тест Создает, Выполнение теста, и Отчеты и управление тестированием.

    Функции

    Тестовая авторская разработка

    Тестовые файлы
    sltest.testmanager.TestFile Создайте или измените тестовый файл
    sltest.testmanager.TestSuite Создайте или измените тестовый набор
    sltest.testmanager.TestCase Создайте или измените тест
    sltest.testmanager.createTestForComponent Создайте тест и тестовую обвязку для компонента модели или компонента модели
    sltest.testmanager.createTestsFromModel Сгенерируйте тесты из модели
    sltest.testmanager.copyTests Скопируйте тесты или тестовые наборы к другому местоположению
    sltest.testmanager.moveTests Переместите тесты или тестовые наборы к новому местоположению
    sltest.testmanager.load Загрузите тестовый файл в менеджере по Simulink Test
    sltest.testmanager.getTestFiles Получите тестовые файлы, открытые в менеджере по Тесту
    sltest.testmanager.clear Очистите тестовые файлы от менеджера по Тесту
    Входные параметры
    sltest.testmanager.TestInput Добавьте или измените тестовое воздействие
    sltest.import.sldvData Создайте тесты из результатов Simulink Design Verifier
    sltest.io.SimulinkTestSpreadsheet Считайте электронную таблицу в формате, используемом Simulink Test
    Выходные параметры
    sltest.testmanager.BaselineCriteria Добавьте или измените базовые критерии
    sltest.testmanager.EquivalenceCriteria Добавьте или измените эквивалентные критерии
    sltest.testmanager.SignalCriteria Добавьте или измените критерии сигнала
    sltest.testmanager.CustomCriteria Добавьте или измените пользовательские критерии
    sltest.testmanager.LoggedSignal Создайте или измените регистрируемые сигналы для использования в качестве симуляции выходные параметры
    sltest.testmanager.LoggedSignalSet Создайте или измените набор регистрируемых сигналов
    Итерации
    sltestiteration Создайте тестовую итерацию
    sltest.testmanager.TestIteration Создайте или измените тестовую итерацию
    sltest.testmanager.ParameterSet Добавьте или измените набор параметров
    sltest.testmanager.ParameterOverride Добавьте или измените переопределение параметра
    MATLAB-Based тесты Simulink
    sltest.TestCase Класс теста для основанных на MATLAB тестов Simulink , интегрированных с менеджером по Тесту
    loadSystem Модель загрузки для основанного на MATLAB теста Simulink
    simulate Симулируйте модель или Simulink.SimulationInput для основанного на MATLAB теста Simulink
    sltest.TestCase.forInteractiveUse Создайте тест для интерактивного использования
    createTemporaryFolder Создайте временную папку
    assumeSignalsMatch Примите, что два набора данных эквивалентны
    assertSignalsMatch Утверждайте, что два набора данных эквивалентны
    fatalAssertSignalsMatch Фатально утверждайте, что два набора данных эквивалентны
    verifySignalsMatch Проверьте, что два набора данных эквивалентны
    sltest.harness.SimulationInput Создайте вход симуляции тестовой обвязки для основанных на MATLAB тестов Simulink
    createSimulationInput Создайте входной объект симуляции
    addModelCoverage Включите собирают набор покрытия модели для тестов Simulink
    addSimulinkTestResults Позвольте продвинуть результаты испытаний менеджеру по Simulink Test
    sltest.plugins.MATLABTestCaseIntegrationPlugin Добавьте симуляцию и результаты испытаний для основанных на MATLAB тестов Simulink, чтобы Протестировать менеджера
    sltest.plugins.ToTestManagerLog Поток вывода, чтобы записать текст, чтобы Протестировать менеджера заканчивается Журналы для основанных на MATLAB тестов Simulink
    sltest.plugins.ModelCoveragePlugin Соберите покрытие модели с помощью среды Модульного теста MATLAB

    Операции и настройки

    sltest.testmanager.view Запустите менеджера по Simulink Test
    sltest.testmanager.setpref Установите менеджера по Тесту настройки
    sltest.testmanager.getpref Получите менеджера по Тесту настройки
    sltest.testmanager.Options Возвратите и задайте опции тестового файла
    sltest.testmanager.close Закройте менеджера по Simulink Test

    Выполнение теста

    sltest.testmanager.run Запустите тесты с менеджером по Тесту
    sltest.testmanager.CoverageSettings Измените настройки покрытия
    sltest.CodeImporter Импортируйте код C or C++ в Simulink для тестирования
    sltest.CodeImporter.SandboxSettings Поиграйте в песочнице настройки для тестирования кода С

    Результаты и отчеты

    sltest.testmanager.ResultSet Доступ к результатам установил данные
    sltest.testmanager.TestFileResult Доступ к данным о результатах тестового файла
    sltest.testmanager.TestSuiteResult Доступ к данным о результатах тестового набора
    sltest.testmanager.TestCaseResult Доступ к данным о результатах теста
    sltest.testmanager.TestIterationResult Доступ к тестовым данным о результате итерации
    sltest.testmanager.ComparisonRunResult Доступ к результату теста сравнения
    sltest.testmanager.ComparisonSignalResult Доступ к сравнению сигнала следует из базового или эквивалентного результата
    sltest.testmanager.CustomCriteriaResult Просмотрите пользовательский результат испытаний критериев
    sltest.testmanager.importResults Импортируйте менеджера по Тесту файл результатов
    sltest.testmanager.exportResults Экспортируйте набор результатов от менеджера по Тесту
    sltest.testmanager.getResultSets Возвращает объекты набора результатов в менеджере по Тесту
    sltest.testmanager.clearResults Очистите результаты менеджера по Тесту
    sltest.testmanager.report Сгенерируйте отчет результатов испытаний
    sltest.testmanager.TestResultReport Настройте сгенерированный отчет результатов
    sltest.testmanager.TestSpecReport Сгенерируйте отчет тестовых технических требований
    sltest.testmanager.DiagnosticRecord Просмотрите пользовательскую информацию о диагностике критериев

    Протестируйте последовательности

    Шаги, переходы и символы
    sltest.testsequence.addStep Добавьте тестовый шаг последовательности
    sltest.testsequence.addStepAfter Добавьте тестовый шаг последовательности после существующего шага
    sltest.testsequence.addStepBefore Добавьте тестовый шаг последовательности перед существующим шагом
    sltest.testsequence.addSymbol Добавьте символ, чтобы протестировать последовательность
    sltest.testsequence.addTransition Добавьте новый переход, чтобы протестировать шаг последовательности
    sltest.testsequence.deleteStep Удалите тестовый шаг последовательности
    sltest.testsequence.deleteSymbol Удалите тестовый символ блока последовательности
    sltest.testsequence.deleteTransition Удалите тестовый переход последовательности
    sltest.testsequence.editStep Отредактируйте тестовый шаг последовательности
    sltest.testsequence.editSymbol Отредактируйте символ в блоке Test Sequence
    sltest.testsequence.editTransition Отредактируйте тестовый переход шага последовательности
    sltest.testsequence.find Найдите Тестовые блоки Последовательности
    sltest.testsequence.findStep Найдите тестовые шаги последовательности
    sltest.testsequence.findSymbol Найдите символы блока Test Sequence
    sltest.testsequence.getProperty Получите свойства блока Test Sequence
    sltest.testsequence.newBlock Блок Create Test Sequence
    sltest.testsequence.readStep Шаги блока Read Test Sequence
    sltest.testsequence.readSymbol Свойства символа блока Read Test Sequence
    sltest.testsequence.readTransition Считайте свойства тестового перехода последовательности
    sltest.testsequence.setProperty Установите свойства блока Test Sequence
    Сценарии
    sltest.testsequence.activateScenario Установите сценарий блока Test Sequence как активный
    sltest.testsequence.addScenario Добавьте новый сценарий в блок Test Sequence
    sltest.testsequence.deleteScenario Удалите сценарий из блока Test Sequence
    sltest.testsequence.editScenario Отредактируйте Тестовые свойства сценария стендовых испытаний двигателя Последовательности
    sltest.testsequence.getActiveScenario Получите блок Test Sequence активный сценарий
    sltest.testsequence.getAllScenarios Получите имена всех сценариев блока Test Sequence
    sltest.testsequence.getScenarioControlSource Получите источник, который управляет Тестовой Последовательностью активный сценарий
    sltest.testsequence.isUsingScenarios Определите, использует ли блок Test Sequence сценарии
    sltest.testsequence.setScenarioControlSource Установите источник, управляющий Тестовой Последовательностью активный сценарий
    sltest.testsequence.useScenario Преобразуйте блок Test Sequence в режим сценария

    Протестируйте оценки

    sltest.getAssessments Возвращает тестовый объект набора оценки
    sltest.Assessment Доступ к оценке от набора
    sltest.AssessmentSet Доступ к набору оценок от симуляции

    Тестовые обвязки

    sltest.harness.check Сравните компонент под тестом между моделью тестовой обвязки и основной моделью
    sltest.harness.clone Скопируйте тестовую обвязку
    sltest.harness.close Закройте тестовую обвязку
    sltest.harness.convert Преобразуйте тестовые обвязки между внутренним и внешним устройством хранения данных
    sltest.harness.create Создайте тестовую обвязку
    sltest.harness.setHarnessCreateDefaults Настройте значения свойств по умолчанию для создания тестовой обвязки
    sltest.harness.getHarnessCreateDefaults Получите значения по умолчанию создания обвязки
    sltest.harness.delete Удалите тестовую обвязку
    sltest.harness.export Экспортируйте тестовую обвязку в модель Simulink
    sltest.harness.find Найдите тестовые обвязки в модели
    sltest.harness.import Импортируйте модель Simulink к тестовой обвязке
    sltest.harness.load Обвязка нагрузочного теста
    sltest.harness.move Переместите тестовую обвязку от соединенного экземпляра до библиотечного блока или различному владельцу обвязки
    sltest.harness.open Открытая тестовая обвязка
    sltest.harness.push Продвиньте записи рабочей области тестовой обвязки и конфигурацию модели к модели
    sltest.harness.rebuild Восстановите тестовую обвязку и обновите записи рабочей области и набор параметра конфигурации на основе основной модели
    sltest.harness.set Измените свойство тестовой обвязки
    sltest.harness.showDialog Покажите диалоговое окно тестовой обвязки

    Темы

    Примеры того, как создать и запустить тесты с помощью программируемого интерфейса.

    Файлы теста записи в MATLAB, который может использоваться в менеджере по Тесту.

    Используйте основанный на MATLAB тест Simulink, чтобы симулировать модель и проверить его по базовой линии.

    Добавьте сценарии тестирования в блок Test Sequence программно.

    Рекомендуемые примеры

    Programmatically Create a Test Sequence

    Программно создайте тестовую последовательность

    Создайте тестовую обвязку и протестируйте последовательность с помощью программируемого интерфейса. Вы создаете тестовую обвязку и блок Test Sequence, и создаете тестовую последовательность, чтобы проверить два функциональных атрибута системы круиз-контроля.

    Collect Coverage Using MATLAB-Based Simulink Tests

    Соберите покрытие Используя MATLAB-Based тесты Simulink

    Соберите покрытие модели с помощью тестовых скриптов и загрузки, чтобы Протестировать менеджера, использующего Среду тестирования MATLAB.

    Generating a Test Results Report

    Генерация отчета результатов испытаний

    Сообщите о результатах испытаний для базового теста.

    Append Code to a Test Report

    Добавьте код к протоколу испытаний

    Используйте класс индивидуальной настройки, чтобы распечатать интегрированный код в отчете результатов испытаний. Если вы тестовые модели, которые включают рукописный код, можно распечатать код к отчету, который будет рассмотрен с результатами испытаний.

    Документация Simulink Test

    • Примеры
    • Функции и другая ссылка
    • Информация о релизах
    • PDF-документация

    Поддержка

    • MATLAB Answers
    • Помощь в установке
    • Отчеты об ошибках
    • Требования к продукту
    • Загрузка программного обеспечения

    © 1994-2021 The MathWorks, Inc.

    • Условия использования
    • Патенты
    • Торговые марки
    • Список благодарностей

    Для просмотра документации необходимо авторизоваться на сайте
    Войти
    Памятка переводчика

    1. Если смысл перевода понятен, то лучше оставьте как есть и не придирайтесь к словам, синонимам и тому подобному. О вкусах не спорим.

    2. Не дополняйте перевод комментариями “от себя”. В исправлении не должно появляться дополнительных смыслов и комментариев, отсутствующих в оригинале. Такие правки не получится интегрировать в алгоритме автоматического перевода.

    3. Сохраняйте структуру оригинального текста — например, не разбивайте одно предложение на два.

    4. Не имеет смысла однотипное исправление перевода какого-то термина во всех предложениях. Исправляйте только в одном месте. Когда Вашу правку одобрят, это исправление будет алгоритмически распространено и на другие части документации.

    5. По иным вопросам, например если надо исправить заблокированное для перевода слово, обратитесь к редакторам через форму технической поддержки.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *