Чтение метаданных в реальном времени в потоке Java HTTP Live Streaming

В мире Flash существует концепция объектов, представляющих потоковое потоковое соединение и поток (NetConnection и NetStream). Хотя Flash API эти объекты могут использоваться для ввода текстовых метаданных в прямой поток (NetStream.send ()). Затем эти данные можно прослушать в конце просмотра в приложении просмотра Flash с прослушивающими в коде ActionScript. Вы можете передавать вызовы функций через видеопоток через это и слушать их и выполнять их на стороне клиента.

Существует ли эта концепция в области Apple HTTP Live Streaming?

    Да, метаданные генерируются в файл с помощью id3taggenerator и встроены в видео с помощью mediafilesegmenter , оба включены в загрузку HTTP Live Streaming Tools . Пример:

     id3taggenerator -o camera1.id3 -text "Dolly camera" id3taggenerator -o camera2.id3 -text "Tracking camera" 

    Существует несколько видов метаданных, которые вы можете вставлять, включая двоичные объекты. Подробнее см. Справочную страницу. Теперь нам нужно ссылаться на сгенерированный файл из «мета-файла». Это простой текстовый файл со следующим форматом:

     60 id3 camera1.id3 120 id3 camera2.id3 

    Первое число – это секунды, прошедшие с начала видео, где вы хотите вставить уведомление. Я точно не помню команду mediafilesegmenter, вам нужно как минимум передать файл макроса, индекс и видеофайл.

    В результате видео содержит метаданные, которые отправляются MPMoviePlayerController качестве уведомлений. См. Эту страницу для получения дополнительной информации: http://jmacmullin.wordpress.com/2010/11/03/adding-meta-data-to-video-in-ios/