Interop или SMPTE | DCP
Многие сталкиваются с различными вопросами при создании DCP пакета, вот некоторые из них.
Вопрос: В каком формате изготавливать DCP пакет, в «Interop» или «SMPTE» формате?
Ответ: Interop считается более старым форматом, SMPTE более новым. В 99% случаев сработают два формата, если нет специфических требований от кинотеатра.
ВАЖНО: если кинотеатр использует старое оборудование или не обновленное программное обеспечение киносервера, видеоролик / фильм может не запуститься в стандарте SMPTE.
Вопрос: Какой fps использовать 24 или 25?
Ответ: Изначально стандартом в кинематографе считается 24 кадра в секунду. Формат Interop поддерживает только 24 и 48 кадров в секунду / FPS. Формат SMPTE 24, 25, 30, 48, 50, 60 кадров в секунду / FPS.
Вопрос: Что делать если фильм или видео ролик снят в 25 (или любом другом) fps, а кинотеатр требует 24 fps и формат Interop.
Ответ: Вам нужно самостоятельно изменить у исходника fps или c нашей помощью. Так же мы с вами обсудим различные моменты и варианты выхода из данной ситуации.
О нас
DCPCINEMA, студия постпродакшен, мы предлагаем следующие услуги:
Конвертация видео роликов, короткометражных и полнометражных фильмов в формат DCP (Digital Cinema Package), для показа на экранах кинотеатра и для отправки на кинофестивали.
Изготовление субтитров для инвалидов по звуку ГостР 57763-2017.
Перевод на различные языки, наложение (вшитие) субтитров в видео, формат SRT.
Изготовление монтажно-диалоговых листов.
Помощь в получении прокатных удостоверений (ПУ) и удостоверений национального фильма (УНФ).
Предоставляем услуги профессиональных сертифицированных тифлокомментаторов, составление текста и запись аудио дорожки.
Календарь
Пн | Вт | Ср | Чт | Пт | Сб | Вс |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
Время, вперед! Или как работает SMPTE
Одним из важных направлений деятельности компании gst.moscow является обучение. Множество пользователей светового и сценического оборудования уже неоднократно посетили семинары и мастер-классы в шоу-руме компании. Совместно с журналом «Шоу-Мастер» запускается серия обучающих статей по теме «синхронизация» — «Sync New Level of Show». Автор статей — художник по свету Роман Вакулюк, у которого за плечами большое количество проектов с использованием различных технологий синхронизации систем управления шоу.
В каждой статье будет рассмотрен один из проектов, где была применена та или иная технология синхронизации. Главная задача этих публикаций — дать теоретическую базу и понимание идей и принципов, которые существуют на данный момент. Данные материалы не сделают из вас инженера или специалиста по этому направлению. Чтобы научиться разбираться в этом, знания необходимо подкреплять практикой и опытом.
С чего все началось
Современное техническое обеспечение шоу включает в себя довольно сложный комплекс оборудования: звук, свет, видео, механика сцены, пиротехника, спецэффекты. Всем этим управляют контроллеры, пульты, а самое главное, люди.
Технология ручного управления шоу возникла в 1960-е годы. В те времена еще не существовало сложных систем управления, почти на каждом приборе, на каждом узле сидел отдельный человек, который отвечал за его функционирование, а главный стейдж-менеджер давал им голосовые команды. Один из американских стейдж-менеджеров вспоминает, как ставились мюзиклы на Бродвее: «В шоу было занято от 40 до 50 техников, бегающих за сценой, как сумасшедшие. Я использовал вспышки света, чтобы дать команду на запуск определенной сцены, давал команды операторам через головные гарнитуры и работал по сценарию, записанному на листке бумаги».
В настоящее время технология управления шоу — это целая индустрия со своими стандартами и протоколами. Приборы одного типа объединены в системы. Каждая система состоит из контроллера и конечных приборов. Эти системы сами по себе лишь отдельные составляющие шоу. Но только когда все звенья системы объединены в одну цепь, возникает полноценная система управления шоу.
Время, вперед! Или как работает SMPTE
Любое шоу или представление можно поделить на составные части, из которого оно состоит. На концерте это номера представления, в театре — эпизоды и акты. В любом случае каждая такая часть имеет начало и конец и длится определенное время. Внутри каждой части происходит ряд изменений со светом, звуком, механикой сцены и т.п. Один из вариантов синхронизации всех систем — это синхронизирование по времени.
К примеру, в световом пульте создают Cue и в его настройках прописывают конкретное время его старта. Как только на световой пульт приходит время, совпадающее со временем, которое содержит ключевое Cue, световая программа запускается. Чтобы все устройства «понимали», в каком моменте времени находится шоу, они принимают специальный адресно-временной код, или Time Code.
Time Code в шоу-индустрию пришел с телевидения. И называется он SMPTE. Аббревиатура расшифровывается как Society of Motion Picture and Television Engineer. Это ассоциация, которая приняла единый стандарт кодирования времени в 1971 г. Чуть позже к ним присоединился EBU (European Broadcasting Union).
Много лет назад звук на телевидении писался на магнитную ленту с несколькими звуковыми дорожками. Одну из этих аудиодорожек занимал Time Code, где в аналоговом формате был записан временной код. Это было необходимо, чтобы при монтаже синхронно сводить аудио и видео. Такой способ записи SMPTE называется Longitudinal Time Code (LTC), или линейный Time Code. Называется он так потому, что информация пишется в этом формате бит за битом последовательно.
SMPTE — это время, которое начинается с нуля. Так же как и в обычной жизни, в SMPTE есть часы, минуты и секунды. Максимальное значение SMPTE — 24 часа, как и в сутках. Но есть и отличие от привычного для нас измерения времени — это кадры. Терминология пришла с телевидения. Так как в одной секунде видео есть определенное количество кадров, то и временной код определяется видеокадрами.
Но количество кадров может быть разное в зависимости от формата видео. Все эти различия также применимы для SMPTE, поэтому он может быть разным. Есть несколько форматов SMPTE: 24fps (frames per second – кадров в секунду), 25 fps, 30 fps, 29.9 fps (он же 30 fps drop). Все эти значения были обусловлены форматом телевещания в конкретной стране: PAL, SECAM, NTSC, которые, в свою очередь, были обусловлены частотой электросети 50 Гц и 60 Гц.
Простейшей единицей информации в LTC является блок данных, передающей каждый кадр реального времени, поэтому он так и называется — кадр SMPTE. Для кодирования битов в LTC сигнале используется схема под названием Bi-Phase Mark: нули кодируются одиночным переворотом фазы на границе периода, единицы — двумя переворотами (один на границе периода, другой в половине периода). LTC-кадр имеет длину 80 бит. Структура кадра показана на рисунке.
Время SMPTE кодируется методом BCD (Binary Coded Decimal). В этом методе под каждую десятичную цифру отводятся четыре бита. В кадре на запись времени отводятся 26 бит, между ними присутствуют дополнительные данные, а завершается все синхрословом (последние 16 бит). Синхрослово используется для определения границы кадра, значение которого фиксировано: 0011 1111 1111 1101.
Время прошло, и на телевидение SMPTE стали писать уже в других форматах: VITC, CTL, BITC, Keykode. Но аналоговый формат по-прежнему остался.
Поговорим теперь о другом формате работы с SMPTE, следующий интерфейс пришел из мира музыки. Мы говорим о MIDI (Musical Instrument Digital Interface), используемом для работы с разными форматами данных. Но сейчас мы затронем только формат работы со временем. И называется он MTC (MIDI Time Code).
Первое отличие его от LTC в том, что этот формат полностью цифровой и кодируется в шестнадцатеричной системе исчисления.
Второе — этот формат нельзя записать на носитель как LTС, этот формат генерируется программно или аппаратно.
И третье — формат MTC отличается от формата LTC тем, что один кадр SMPTE поделен на восемь частей и в одном сообщении MTC передается, только четверть кадра(Quarter Frame).
Теперь подробнее затронем последнее отличие. Не будем углубляться в обширную теорию MIDI, рассмотрим лишь основы работы MTC.
Длина MIDI time codec составляет 32 бит, из которых используются только 24, а 8 оставшихся не используются или всегда равняются нулю. Каждый компонент Time Code кодируется одним байтом.
Byte 0
0rrhhhhh: Rate (0–3) and hour (0–23).
rr = 00: 24 fps
rr = 01: 25 fps
rr = 10: 29.99 fps
rr = 11: 30 fps
Byte 1
00mmmmmm: Minute (0–59)
Byte 2
00ssssss: Second (0–59)
Byte 3
000fffff: Frame (0–30)
Когда Time Code воспроизводится непрерывно, 32 бит временного кода делится на восемь четырехбитных частей, и одна часть передается каждую «четверть кадра» (Quarter Frame). Каждый Quarter Frame содержит статус байт 0xF1, за ним следует 7 бит информации, из которых 3 бит идентифицируют Quarter Frame и 4 бит кодируют часть сообщения времени.
Восемь MIDI time code сообщений одного кадра
Таким образом, на передачу информации об одном кадре SMPTE затрачивается время, равное двум кадрам (8 х 1/4). А значит, при преобразовании SMPTE в MTC только каждый второй кадр попадает в MIDI-таймкод. Это несколько снижает скорость реакции ведомого устройства — для того, чтобы среагировать, ему нужно «прочитать» восемь сообщений Quarter Frame. В реальном времени это может занять от двух до четырех кадров в зависимости от момента начала считывания. Теперь пара тонкостей. В SMPTE (в варианте LTC) приемник считает за начало кадра момент получения первого бит 80-битного пакета.
В MTC за начало кадра считается момент прихода первого и пятого сообщения Quarter Frame в серии, то есть 0xF1 0x0n и 0xF1 0x4n. Но время можно прочитать только после того, как будут получены все восемь сообщений серии. К этому моменту полученное значение времени устареет на два кадра. Для отображения на дисплее правильного времени приемное устройство прибавляет к считанному значению поправку в эти самые два кадра. И помимо этого принимающее устройство само генерирует недостающие кадры.
LTC и MTC – это основные форматы при работе с синхронизацией по времени. Time Code также можно передавать через ArtNet, MSC. Но на сегодняшней день практически нет устройств, которые работают с Time Code по этим протоколам.
Вышеизложенной информации вполне достаточно, чтобы грамотно разбираться в форматах и особенностях SMPTE.
В следующих главах мы более подробно расскажем о практических особенностях, проблемах и способах решения при работе с Time Code.
Как пример простейшей схемы синхронизации по времени можно рассмотреть проект gst.moscow Word of Drum & Basse 2016 в RayJustArena.
Все шоу проходило в Live режиме, но на первый трек каждого диджея было записано шоу. Когда начинал играть новый диджей, мы запускали его стартовый трек на QLab, который транслировал Time Code через внешнюю звуковую карту на световой пульт, на котором уже, в свою очередь, был написан CueList c привязкой к Time Code.
Словарь
Словарь компьютерных и технических терминов, глоссарий
ТВ, видео, графика
SMPTE [Society of Motion Picture and Television Engineers] — Стандарт SMPTE
С приходом видеоиндустрии и развитием телевидения появилась необходимость в протоколах синхронизации аудио и видео потоков, и они были созданы. В 1971 году Обществом Кино- и Видеоинженеров (Society of Motion Picture and Television Engineers, SMPTE) США был принят стандарт SMPTE (читается как «симпти»). Через некоторое время он был поддержан со стороны Европейского Союза Вещателей (European Broadcast Union, EBU) и в результате получившегося слияния принял статус мирового протокола. Поскольку SMPTE был разработан для видеомагнитофонов, то он нес в себе временную информацию, содержащую больше временную информацию, а именно часы (0… 23), минуты (0… 60), секунды (0… 60), кадры (0… 24, 25 или 30). Эта информация называется временным или тайм-кодом.
Хотя стандарт был и мировым, он расходился по синхронизации кадров. Если в кино все понятно — 24 кадра в секунду, то в видео — нет. Европейские стандарты используют системы PAL и SECAM, которые предусматривают частоту смены 25 кадров секунду, а американский вариант NTSC — 30. Эти стандарты имеют прямое отношение к разнице энергосистем и частотам переменного тока, применяемых на континентах. У нас используется 50Гц, в Америке — 60 Гц. Со временем у стандарта NTSC появились проблемы в реализации цветного вещания, поскольку реальная частота смены кадров при нем соотвествовала 29,97 кадров в секунду. В случае использования 30 накапливалось расхождение между кодом синхронизации и изображением с появлением «лишних» 128 кадров за один час. В результате было решено убирать некоторые кадры (создавать «выпадающие кадры» или «drop frames») для того чтобы минимизировать ошибку. Таким образом, мы сейчас имеем стандарты SMPTE, описанные в таблице:
Частота смены кадров (Frame Rate)
Описание
Стандарт видео в Европе (EBU)
Прямой стандарт 29,97 кадров в минуту
Прямой стандарт соотвествующий 30 кадрам в минуту. Используется только в аудио-производстве в основном на территории США.
Стандарт, предусматривающий выпадающие кадры (drop frames — df). Распространен на территории США для работы с цветным видео.
Очень редко используемый стандарт.
SMPTE удобен тем, что он подразумевает реальный устоявшийся стандарт. Если посмотреть внимательно на приведенную таблицу, то можно заметить, что ошибка сложившаяся с частотой смены кадров в NTSC никак не отразилась в звуковой индустрии. Этот стандарт до сих пор можно встретить в большинстве современного программного и аппаратного обеспечения. То есть, важно отметить, что это просто принятый стандарт — в изобретениях новых пока нет необходимости.
Другие термины
Осталные термины в данной категории
Что такое SMPTE 2110 и как его использовать в распределенном видео производстве?
Что такое SMPTE 2110 и как его использовать в распределенном видео производстве?
Yaraslau Abrazouski 2022-08-16T13:01:44+03:00
Опубликовал Yaraslau Abrazouski Потоковое онлайн-вещание, Разное
Кажется, что появление SMPTE ST 2110 наконец приведет к концу “Дикого Запада” в индустрии IP видеопроизводства и даст начало разработкам четких стандартов для вещательных компаний и поставщиков. Но что такое SMPTE 2110? И почему распределенное производство по IP так важно?
В связи с выходом последнего обновления для видеокодера компании Haivision, Makito X4, которое включает поддержку SMPTE 2110, расскажем о стандарте и осветим распределенное производство по IP для вещательных компаний.
Что такое SMPTE 2110?
SMPTE ST 2110, выпущенный обществом инженеров кино и телевидения (SMPTE), представляет собой набор стандартов для передачи мультимедиа, включая цифровое видео, аудио и метаданные по IP. Эти стандарты служат руководством для производителей, позволяя им разрабатывать новые продукты, которые могут быть совместимы с другими продуктами в рамках ST 2110. Выпуск стандартов SMPTE является важным моментом в производстве видео и вещания, поскольку эти стандарты не только указывают на то, что отрасль признает использование видео в IP среде, но и на то, что отрасль рассматривает потоковое видео как будущее вещания.
В стандарте SMPTE 2110 есть несколько частей, начиная с определения того, как должны обрабатываться несжатые видео- и аудиопотоки, заканчивая временем доставки и отображением метаданных. Одним из уникальных аспектов SMPTE 2110 по сравнению с предыдущими стандартами передачи видео, такими как SDI или SMPTE 2022, является то, что он позволяет распределять производственные рабочие процессы.
Какой подход лучше: «По элементам» или «Все в одном»?
Чтобы оценить распределенное производство организованное «по элементам», необходимо сначала понять подход «Все в одном». SDI, SMPTE 2022 и NDI маршрутизируют потоки попакетно, объединяя компоненты видео, аудио и метаданных в единый поток («Все в одном»).
С помощью SMPTE 2110 видео, аудио и элементы метаданных передаются отдельно, и все они могут быть перенаправлены в различные рабочие процессы. Отдельные элементы потока могут обрабатываться отдельно специализированными производственными командами и оборудованием, при этом все они могут попадать в одно и то же место назначения. Подход ST 2110 особенно полезен для вещательных компаний, которым требуется высокая степень гибкости и бескомпромиссное качество изображения.
SDI в прошлом?
Нет, не в прошлом. SMPTE 2110 включает в себя элементы для облегчения перехода путем включения определенных компонентов SDI, и многие вещательные компании постепенно внедряют ST 2110. Например, новые OBVan устанавливают камеры ST 2110 и оборудование для вещания, продолжая при этом работать со старыми OBVan построенными на базе SDI. Там, где ограничена пропускная способность, значимую роль играет NDI, который сжимает видео и аудио до 100 Мбит/с (или меньше). Для ST 2110 требуются IP-сети, способные поддерживать пропускную способность 10 Гбит/с или более, а поскольку это технология многоадресной рассылки, ее нельзя использовать через Интернет.
SRT, транспортный протокол с открытым исходным кодом, разработанный компанией Haivision, также используется для широковещательных рабочих процессов в дополнение к SMPTE 2110. Требования к пропускной способности SMPTE 2110 (~ 2-3 Гбит/с для HD-видео в зависимости от накладных расходов, сжатия без потерь и других ресурсов) означают, что он не всегда подходит в таких ситуациях, как удаленное производство (REMI) через Интернет, где битрейт должен быть намного ниже.
SRT не привязан к кодекам, поэтому он может передавать сжатые потоки в HEVC или H.264 в производственные рабочие процессы на базе ST 2110 и обратно. SMPTE 2110 со временем может заменить SDI, но по-прежнему будет существовать потребность в потоковой передаче видео с низкой задержкой и низкой пропускной способностью через Интернет, особенно при отправке видео из одной части мира в другую или на облачные платформы для дальнейшего производства видео.
Все больше и больше вещательных компаний переходят на использование IP из-за его гибкости и эффективности, что открывает двери для новых возможностей создания контента. SMPTE 2110 вместе с NDI и SRT помогают тем вещательным компаниям, которые хотят быть самыми прогрессивными в методах создания контента, внедряя производственные процессы на основе IP.
Видеокодер Makito X4
Узнайте больше о поддержке видеовходов SMPTE 2110 в нашем флагманском видеокодере.