WWW.DOC.KNIGI-X.RU
БЕСПЛАТНАЯ  ИНТЕРНЕТ  БИБЛИОТЕКА - Различные документы
 

«Реализация Motion Tuned Spatio temporal Quality Assessment of Natural Videos Выполнил : Студент группы 819 Угаров Дмитрий Долгопрудный 2010 Оглавление Аннотация I. Введение II. Подготовка ...»

Реализация Motion Tuned Spatio temporal Quality Assessment

of Natural Videos

Выполнил :

Студент группы 819

Угаров Дмитрий

Долгопрудный 2010

Оглавление

Аннотация

I. Введение

II. Подготовка

III. Искажения в цифровом видео

А. Пространственные искажения

Б. Временные искажения

IV. MOTION TUNED SPATIO-TEMPORAL FRAMEWORK FOR VIDEO QUALITY ASSESSMENT

А. Линейные разложения

B. Пространственный коэффициент МOVIE

C. Motion Estimation

D. Временной коэффициент MOVIE

Е. Объединение стратегии

F. Детали Выполнения и Примеры

V. Связи с существующими моделями

А. Spatial MOVIE

B. Temporal MOVIE

VI. Производительность

VII. Выводы и будущие работы

Практическая часть

Список литературы

Об авторах

Аннотация Совсем недавно появился большой интерес к разработке алгоритмов, которые объективно измеряют целостность видеосигналов. Так как видеосигналы поставляются конечному пользователю во все более и более широком спектре приложений, важно чтобы были доступны автоматические методы оценки видео (VQA), которые могли бы помочь в управлении качеством видео, поставляемого для критически настроенной аудитории. Естественно, оценка качества представления движения в видео играет важную роль в восприятии. К сожалению, алгоритмы VQA предоставляют мало информации и являются малоэффективными.

Авторы данной метрики стремились улучшить это путем разработки общих, пространственно-спектральных локализованных разномасштабных структур для оценки динамической точности видео, которые объединяют пространственные и временные (и пространственно-временные) аспекты искажения оценки.

I. Введение Цифровое видео все чаще имеет место в повседневной жизни людей.

Доказательством этого является увеличение количества сетевых видео приложений, таких как видео по требованию, цифровое телевидение, видео организация телеконференций, потоковое видео в сети Интернет, видео по беспроводным сетям, на мобильных устройствах и так далее. В этих приложениях очень важен контроль качества видео получаемого с устройств захвата и доводимого до конечного пользователя.

Люди могут, почти мгновенно, судить о качестве изображения или видео, которое они рассматривают, используя полученные ранее знания при просмотре миллионов изображений. Правильным методом оценки изображения можно считать - опрос людей о его качестве. Такой метод оценки известен как «Субъективная оценка качества». Действительно, субъективная оценка должна рассматриваться как окончательный стандарт оценки качества изображения или видео (оценки качества изображения и видео – image (video) quality assessment, далее сокращенно IQA и VQA). В этом методе человека просят оценить увиденное в численном или качественном эквиваленте. Чтобы учесть возможные колебания во мнении человека, необходимо показать ему несколько роликов.

Далее подсчитывается средняя оценка от большинства мнений.

Хотя субъективные методы являются единственным и полностью надежным методом VQA, все же субъективные исследования являются громоздкими и требуют больших затрат. Субъективный VQA непрактичен почти любого приложения, кроме сопоставительного анализа автоматических или объективных алгоритмов VQA.

Существует множество различных алгоритмов VQA, но нет смысла рассматривать их в данном контексте. Для заинтересовавшихся данным вопросом в конце статьи будет дан список литературы и каждый читатель сможет ознакомиться с этим вопросом лично.

Стоить подчеркнуть тот факт, что хотя в настоящее время VQA алгоритмы включают возможности для измерения пространственных искажений в видеосигналах, все же очень мало усилий потрачено на непосредственное изучение временных искажений и артефактов при движении. Большинство существующих алгоритмов VQA не вычисляют информацию о движении в видеосигнале для прогнозирования качества.

Тем не менее, движение играет очень важную роль в восприятии человеком движущихся последовательностей изображений. Значительные ресурсы зрительной системы человека (Human Visual System, далее HVS) посвящены восприятию движения. HVS может точно оценить скорость и направление движения объектов в сцене, это навыки, которые необходимы для выживания.

Люди способны делать плавные движения глаз для отслеживания движущихся объектов.

Зрительное внимание, как известно, привлечено к движению в периферии видения, что позволяет людям и другим живым организмам, узнавать о приближающейся опасности. Кроме того, движение дает важную информацию о форме трехмерных объектов и помогает в идентификации объектов. Все эти свойства человеческого зрения свидетельствует о важной роли, которую играет движение в восприятии, и успех VQA алгоритмов зависит от того, насколько качественно будет смоделировано и объяснено восприятие движения в HVS.

Хотя видео сигналы действительно страдают от пространственных искажений, это далеко не единственная проблема. Они часто ухудшаются из-за тяжелых временных артефактов, таких как ghosting, несоответствие компенсации движения, колебание, смазывание, шум (среди многочисленных других типов).

Все это будет рассмотрено подробнее в следующих главах.

Авторы стремятся решить это путем разработки общей системы достижения пространственно-спектральной локализованной оценки разномасштабного динамического качества видео. Эта система включает и пространственные, и временные (и пространственно-временные) аспекты оценки искажения. Видео качество оценено не только в пространстве и времени, но также и в пространстве-времени, оценка качества движения вычисляется по траектории движения.

Используя эту основу, недавно был разработан VQA алгоритм, который авторы называли метрикой Motion-based Video Integrity Evaluation, или сокращенно метрика MOVIE. MOVIE интегрируется в процесс VQA путем отслеживания искажений вдоль траекторий движения, тем самым проводя измерения пространственных артефактов в видео. Такой подход к VQA представляет эволюцию, до него уже была предпринята попытка разработать принципы VQA, и разработчики использовали структурное сходство и теоретические подходы предложенные в IQA, (см. литературу [12], [13], [14], [15]). Метрики SSIM и Visual Information Fidelity (VIF),являются успешными и хорошо определяют качество изображения, это так же продемонстрировали обширных исследования [16].

Ранние подходы при создании метрики MOVIE были расширениями этих алгоритмов. Назывались они Video SSIM and Video Information Fidelity Criterion, где, грубо говоря, показатель качества вычислялся по траектории движения.

Нынешний подход, что привел к созданию метрики MOVIE, представляет собой значительный шаг вперед по сравнению с предыдущей работой, была разработана общая основа для измерения как пространственных и временных искажений видео. Производительность этого подхода очень конкурентоспособна с алгоритмами разработанными и подвергнувшимися VQEG FRTV Фаза 1.

Обзор существующей литературы по VQA будет в разделе II. Для обеспечения определенного понимания VQA, будут рассмотрены основные определения в разделе III. Разбор метрики MOVIE в разделе IV. Объяснение отношения между моделью MOVIE и восприятием движения в биологических системах системы технического зрения в Разделе V. Описание отношения между MOVIE и SSIM и VIF было произведено в том разделе. Производительность MOVIE оценивается в Разделе VI, с использованием публично доступного видео.

В разделе VII сделан вывод с обсуждением будущей работы.

II. Подготовка Математически простые индексы подсчета ошибок, такие как средне квадратичное отклонение (MSE) часто используются, чтобы оценить видео качество, главным образом из-за их простоты. Известно что MSE не коррелирует хорошо с визуальным качеством, поэтому в этом направлении постоянно ведутся исследовательские работы. Учеными было предложено несколько типов взвешенного MSE и Отношения Пикового Сигнала к Шуму (PSNR). Значительное количество исследований в IQA и VQA сосредоточено на использовании модели HVS. Основная идея этих подходов заключается в том, что лучший способ прогнозирования качества изображения или видео, в том, чтобы пытаться "увидеть" изображение с помощью системы, аналогичной HVS. Одной из задач обработки HVS является вычисление скорости, и направления движения объектов при использовании серии изменяющихся во времени снимков, сделанных на сетчатке.

В последнее время произошел сдвиг в сторону методов VQA, которые пытаются охарактеризовать особенности, того как у человеческого глаза происходит ассоциирование с потерей качества. Например, как распознается размытость, разделение на блоки, как оценивается точность края и передается информация о текстурах, цвете, контрасте, яркости и так далее. Одной из причин для этого сдвига в парадигме была сложность и неполнота модели HVS.

Существует необходимость в улучшении производительности объективных показателей качества для видео. Большинство индексов предложенные в литературе были простыми расширениями показателей качества изображений.

Разработчики MOVIE утверждают, что точное представление о движении в видеопоследовательности, а также временных искажений, имеют большой потенциал для продвижения прогнозирования видео качества. Далее будет приведен такой подход к VQA в настоящей статье.

III. Искажения в цифровом видео В этом разделе рассмотриваются виды искажений, которые обычно наблюдаются в видео последовательностях. Искажения в цифровом видео неизбежно показывают и пространственный и временный аспекты. Даже у процесса, такого как нерезкость от линзы есть временной аспект, так как размытые области видео имеют тенденцию перемещаться от кадра к кадру.

Однако, искажения, которые являются прежде всего пространственными, будем называть “пространственные искажения”( “spatial distortions”). Аналогично, если есть определенные искажения, которые являются прежде всего временными будем их называть как “временные искажения (“temporal distortions”).

А. Пространственные искажения Примеры обычно происходящих пространственных искажений в видео включают разделение на блоки, ореолы, мозаичные шаблоны, ложные контуры, нерезкость и искажение. Разделение на блоки эффектов следует из использования техники сжатия включающей дискретно косинусное преобразование. Блочность проявляется как периодические неоднородности в каждом кадре сжатого видео в блочных границах. Эти артефакты видимы вокруг краев или контуров в кадрах и появляются как легкое колебание, эффект движения направленный наружу от края к фону. Мозаичные Шаблоны видимы в блоке из-за применения грубого квантования. Ложное очерчивание происходит в гладко текстурируемой области кадра, содержащей постепенную деградацию значений пикселов в данной области. Нерезкость – потеря информации о высоких частотах и деталей в видео кадрах. Это может произойти из-за сжатия, или как побочный продукт получения изображений. Добавка искажений проявляет себя как зернистая текстура в видео кадрах.

Б. Временные искажения Примеры часто встречающихся временных артефактов видео включают несоответствие компенсации движения, москитные шумы, стационарные колебания области, ореолы, тряска и смазывание. Несоответствие компенсации движения происходит из-за предположения, что все непосредственные составляющие макроблока подвергаются идентичному движению, что не может быть истиной. Вокруг границ перемещения объектов, появляется как присутствие объектов так и пространственных особенностей, которые не коррелируют с изображенной сценой. Москито эффект - временной артефакт который проявляется прежде всего, как колебания в уровне освещенности в регионах видео окруженных по краям высоким контрастом или движущихся объектов. Постоянные колебания области напоминают эффект москита по внешности, но обычно видимы в текстурируемой постоянной области сцены. Эффект призрака проявляется как размытый остаток, тянущийся позади быстро двигающихся объектов в видео последовательности. Тряска следует из задержек во время передачи видео по сети, где получатель не обладает достаточной способностью буферизации, чтобы справиться с задержкой.

Смазывание является артефактом, связанным с немгновенным временем экспозиции на устройстве, где свет от различных точек движущегося объекта приходит в различные моменты времени.

Важно отметить, что временные артефакты, такие как несоответствие компенсации движения, дрожание или эффект призрака изменяют траектории движения точек в видеопоследовательности. Артефакты, такие как шум от комаров и стационарные колебаная области представляют ложные восприятия движения, вытекающие из временных частот.

Перцепционное раздражение этих искажений тесно связано с процессом восприятия движения и сегментации движения, которая происходит в человеческом мозге во время просмотра искаженного видео.

IV. MOTION TUNED SPATIO-TEMPORAL FRAMEWORK FOR VIDEO

QUALITY ASSESSMENT

Итак, для VQA отдельные компоненты для пространственной и временного качества определены. На рисунке 1 показана блок схема MOVIE index и каждой стадии обработки. Далее каждая стадия будет подробно рассмотрена.

Рис.1 Схема получения MOVIE index А. Линейные разложения Подходы в частотной области хорошо подходят для изучения человеческого восприятия видеоизображений и составляют основу для IQA и VQA систем.

Нейроны в зрительной коре и простые клетки в зрительной коре, как известно, действуют приблизительно как линейные фильтры (см литературу [51], [52], [53]).

Кроме того, большое число нейронов в коре содействуют восприятию движения, оно как известно, будет направленно избирательным, т.е. нейроны реагируют лучше на раздражитель, движущийся в определенном направлении. Таким образом, и пространственные характеристики и информация движения в видео последовательности зафиксированы линейной пространственно-временной декомпозицией.

В рамках нашего VQA, пространственно-временная последовательность фильтруется с использованием семьи полосовых фильтров Габора, и видео целостность оценивается на получающемся полосовом канале в пространственно-временной частотной области. Доказано, что восприятие простых клеток млекопитающих в зрительной коре хорошо моделируется с помощью фильтров Габора. В данной реализации идей, описанных здесь, используемый алгоритм описан в [60], в используются результаты фильтра Габора для оценки движения. Таким образом, фильтр Габора используется для оценки движения и отвечает за качество расчетов.

Фильтр Габора h(i) в трех измерениях является результатом Гауссова окна и комплексных экспонент:

Где i = (x, y, t) является вектором, обозначающим пространственно-временное место в видео последовательности и U0 = (U0, V0,W0) является центральной частотой фильтра Габора.

Фурье преобразование фильтра Габора является гауссовским с матрицей ковариации 1:

Здесь u = (u, v,w) обозначает пространственно-временную частоту координаты.

Данная реализация использует отделимые фильтры Габора, которые имеют равные среднеквадратичные отклонения вдоль обеих пространственных координат частоты и временной координаты. Таким образом, получается диагональная матрица с одинаковыми важным записи по диагонали.

Используемый фильтр очень похож на фильтры, используемые в [60]. Однако, используемые в данной метрике фильтры имеют более узкую полосу пропускания и являются многошкальными как будет описано ниже.

У всех используемых в данной работе фильтров Габора есть постоянная октава полосы пропускания. Разработчики используют P = 3 масштаба фильтров, с 35 фильтрами в каждый масштаб. Рис. 2 (а) показывает, контуры изоповерхности синус фазы компоненты фильтра настроенной на лучший масштаб в результате фильтр банка в частотной области. Фильтры в грубых масштабах представляются в виде концентрических сфер внутри сферы (рис. 2 (а)).

Рис. 2(а)

В работе используются фильтры с вращательной симметрией, и пространственное распространение фильтров Габора является тем же по всем осям. У фильтров есть полоса пропускания октавы в 0.5 октавы, измеренная в одном среднеквадратичном отклонении Габор частотной характеристики. Средние частоты самого лучшего масштаба из фильтров лежат на поверхности сферы в области частоты, чей радиус - 0.7 радиана за выборку. Каждый из этих фильтров имеет стандартное отклонение 2,65 пикселя по пространственным координатам и 2,65 кадров по временной оси. В нашем случае, Габор фильтры были выбраны к ширине из трех среднеквадратичных отклонений; таким образом поддержка ядер в самом лучшем масштабе составляет 15 пикселей и 15 кадров вдоль пространственной и временной осей соответственно. Средние частоты фильтры в самом грубом масштабе лежат на поверхности сферы радиуса 0.35, и имеется среднеквадратичное отклонение 5.30 пикселей (кадры) и поддержка 33 пикселей (кадры).

Девять фильтров настроены к временной частоте 0 радианов за выборку, не соответствующую никакому движению. Ориентации эти фильтров выбраны таким образом, чтобы смежные фильтры пересеклись в одно среднеквадратичное отклонение; следовательно, ориентации этих фильтров выбраны так, чтобы быть множителями 20° в диапазоне [0°, 180°). Семнадцать фильтров настроены к горизонтальным или вертикальным скоростям в = 1/3 пикселя за кадр и временную среднюю частоту из каждого из этих фильтров дан p* 2 радиан за +1 выборку, где радиус сферы, что фильтров лежит на [60]. Опять же ориентации этих фильтров выбраны таким образом, чтобы смежные фильтры пересеклись в одно среднеквадратичное отклонение; следовательно, ориентации этих фильтров выбраны так, чтобы быть множителями 22° в диапазоне [0°, 360°). Последнее 9 фильтры настроены на горизонтальной или вертикальной скорости в 3 пикселов на кадр. Ориентации этих фильтров кратны 40° в диапазоне [0°,360°).

Рис. 2 (b) показывает сектор компоненту фазы синуса фильтра Габора вдоль плоскости нулевой временной частоты (w = 0) и показывает три масштаба фильтров с постоянной полосы пропускания октавы. На рис. 2 (с) сектор фазы синуса компоненты фильтра Габора вдоль плоскости вертикальной нулевой пространственной частоты. Фильтры вдоль трех радиальных линий настроены на три разных скорости (0,1/3, 3) пикселей на кадр.

–  –  –

Наконец, фильтр Гаусса входит в центре Габор структуры для захвата низких частот в сигнале. Стандартное отклонение гауссова фильтра выбирается так, чтобы при самом грубом масштабе пересечение полосовых фильтров было в одном стандартном отклонении.

B. Пространственный коэффициент МOVIE Подход к захвату пространственных искажений в видео, о которых говорится в разделе III, основан на SSIM индексе и теории информации индексов, которые были разработаны для IQA (см. [13], [61], [14]). Тем не менее, здесь будут использоваться результаты пространственно-временных фильтров Габора для достижения этой цели. Таким образом, модель, описанная здесь, прежде всего захватывает пространственные искажения в видео, и в то же время, реагирует на временные искажения в ограниченных масштабах. Данную модель будем называть “Пространственным MOVIE index”, подчеркивая, что модель, прежде всего, фиксирует пространственные искажения. Объяснение, как пространственный MOVIE index улучшает предшествующие подходы, будет в Разделе V.

Пусть и обозначают информацию и искаженное видео r(i) d(i) соответственно, где i = (x, y, t) является вектором, обозначающим пространственно-временное место в видеопоследовательности. Информация и искаженное видео проходят через фильтрбанк (http://en.wikipedia.org/wiki/Filterbank) Габора для получения полосового отфильтрованного видео. Обозначим основное видео прошедшее через фильтр Габора как и прошедшее через Габор фильтр искаженное видео (сравниваемое) как, где индексы фильтров в фильтрбанке Габора. В частности, пусть и так далее. Все качественные соответствуют масштабу вычисления начинаются локально, используя окно B коэффициентов, извлеченных из каждой из подполос Габора, где окно B охватывает N пикселей.

Рассмотрим местоположение пикселя i0. Пусть f(k) вектор размерности N, где f(k) состоит из комплексной величины из N элементов заполненного окном B с центром в точке i0. Коэффициенты Габора комплексные, но векторы f(k) действительны и обозначают амплитуду Габор канала реакции. Обратите внимание, что была понижена зависимость от пространственно-временного местоположения i для удобства записи, рассматривая определенное местоположение i0. Если окно B задается множеством относительных индексов, то Аналогичные определения v.

применяются для g(k). Для индекса каждого элемента f(k), будем использовать обозначение.

Контрастная маскировка - свойство человеческой системы технического зрения, которое относится к снижению видимости сигнала, компоненты (цели) в связи с присутствием другого компоненты сигнала с одинаковой частотой и ориентации (помехи) в локально пространственной окрестности [62]. В контексте VQA, наличие большой энергии сигнала в изображение содержимого (помехи) маскирует видимость шума или искажений (цель) в этих регионах. Контрастность маскировки моделируется с помощью механизма регулировки усиления контраста, которые часто принимают форму аналитической нормализации [63], [25], [64]. Модели контрастного управления усиления, используют аналитическую нормализацию возникнувшую в психофизической литературе из исследований нелинейных свойств ответа нейронов в первичной зрительной коре [65], [66], [67] и было также показано, что они хорошо подходят для эффективного кодирования естественных сигналов зрительной системой [68].

Пространственный MOVIE index пытается фиксировать это свойство человеческого зрения и определить пространственную погрешность от каждого ответа подзоны с помощью:

где M(k) определено как :

C1 - константа, которая включена, чтобы предотвратить проблему, когда знаменатель (3) уходит в 0. Это может произойти в гладких регионах видео (например, гладкие фоны, небо, гладкие поверхности объекта и т. д.), где большинство полосовых выводов фильтра Габора близко к 0. Дополнительно, так как аналитическая нормализация моделируется в подзоне, то знаменатель в (3) может стремиться к нулю для некоторых подзон.

В целом, результаты работы фильтра Габора представляют собой разложение основного и тестируемого видео в полосовые каналы. Отдельные фильтры Габора реагируют на определенный диапазон пространственно-временных частот и направлений в видео, и любые искажения видео будут зафиксированы выводами Габор фильтра. Пространственный MOVIE тогда использует аналитический подход нормализации, для захвата отличий между основным и искаженным видео. (3) обнаруживает, прежде всего, пространственные искажения в видео, такие как нерезкость, звон, ложное очерчивание, блочность, искажение и так далее.

Показатель ошибки ограничен и лежит в пределах от 0 до 1:

–  –  –

определения M(k). Таким образом, лежит между 0 и 1. Заметим, что пространственная ошибка (3) равна нулю, если сравниваемые видео идентичны.

Фильтр Гаусса реагирует на среднюю интенсивность или на DC компоненту двух изображений. Пространственный коэффициент ошибки может быть определен с использованием результатов фильтра Гаусса, работающих на DC. Пусть f(DC) и g(DC) обозначают векторы размерности N соотнесенные с i0 из вывода Гауссова фильтра на основном и тестируемом видео соответственно, используя то же самое окно B.

В данных оценках estimated как среднее число от выведенного фильтром Гаусса:

Ошибка индекс DC подзоны затем вычисляется аналогичным образом, как и

Габор подзоны:

–  –  –

C2 – константа, которая добавляется, чтобы предотвратить проблему, когда знаменатель (8) уходит в 0. Это может произойти в гладких регионах изображения с DC подзоной близкой к постоянной этих регионах. Так же, легко проверить, что лежит между 0 и 1.

Пространственные коэффициенты ошибок, вычисленные от подполос Габора и Гаусса могут тогда быть объединены, чтобы получить коэффициент ошибки для местоположения i0 используя :

Наконец, преобразовываем коэффициент ошибки в коэффициент качества для местоположения i0 используя:

C. Motion Estimation Для вычисления временного качества видео, используется тот же набор Габор фильтров, которые использовались для расчета качества пространственных компонент нами ранее.Данная реализация использует успешный алгоритм Fleet и Jepson который использует комплексную фазу фильтра Габора для оценки движения. Заметьте, что используются только комплексные величины для оценки пространственного и временного качества. В дополнение в приложении будет кратко описан алгоритм Fleet и Jepson.

D. Временной коэффициент MOVIE Пространственно-временная декомпозиция Габора для основной и тестируемой видеопоследовательности, и оптическое вычисление поля потока от тестируемого видео, полученные из выводов фильтров Габора, могут использоваться, чтобы оценить временное качество видео.

При измерении качества видео по траектории движения, так же существует возможность учесть влияние искажений типы которых описаны в разделе IIIB. Модели описанные здесь, прежде всего отражают временные искажения видео, а пространственные искажения лишь частично. Следовательно, следует назвать этот этап нашей модели "Временный коэффициент MOVIE”.

Первое, что мы обсудим, это то как поступательное движение проявляется в частотной области. Пусть а(x,y) обозначает пятно изображения (image patch) а A(u,v) обозначает преобразование Фурье. Полагая, что это пятно перемещается со скоростью, где и обозначают скорости вдоль осей x и y соответственно, в результате получается видеоряд b(x, y, t) =.

Тогда B (U, V, W), преобразование Фурье b (x, у, t), целиком лежит в плоскости в частотной области [8].

Эта плоскость определяется по формуле:

Кроме того, величины пространственных частот не изменяются, а просто сдвигаются (sheared):

Пространственные частоты в видеосигнале предоставляют информацию о пространственных характеристиках объектов в видео последовательности, такие как ориентация, текстура, резкость и так далее. Поступательное движение сдвигает эти пространственные частоты, чтобы создать ориентацию вдоль временной размерности частоты без воздействия на величины пространственных частот. Поступательный движение легко представимо в частотной области, и эти идеи были использованы для создания алгоритмов оценки движения для видео (см.[8], [57], [58]). Предположим, что видео последовательности, без каких либо изменений сцен, состоят из пятен изображений претерпевающих смещение. Это вполне разумно и обычно используется в видео кодерах, которые используют компенсацию движения. Эта модель может быть использована нами, чтобы описать видео последовательности, последовательно переходя от линейной аппроксимации к более сложным типам движения. При этом предположении, основное и тестируемое видео r(i) и d(i) состоят из изображений пятен (например, (x, у) в приведенном выше примере), преобразовывается, чтобы создать пространственно-временные видео исправления (например, b(x, y, t)). Отметим, что (12) и (13) предполагают, бесконечные перемещение изображения пятна [8], что непрактично. Тем не менее, дальнейшие разработки основываются на этом, и это проблема не является существенной.

Предположим, что движение каждого пикселя в искаженной видео последовательности точно соответствует движению соответствующего пикселя в основной видеопоследовательности. Тогда мы ожидаем, что фильтры которые лежат вне спектральной плоскости полученной с помощью фильтров Габора пренебрежимо малы. Однако, когда присутствуют временные артефакты движение каждого пикселя в основной и искаженной видеопоследовательности не совпадают. Эта ситуация случается, например, при несоответствии компенсации движения, где фоновые пиксели, которые должны быть статичны перемещаются вместе с объектами в искаженном видео из-за блочной оценки движения. Другим примером является эффект призрака, где статические пиксели окружающие движущиеся объекты движутся в искаженном видео в связи с временной низкочастотной фильтрацией.

Векторы движения из основного видео могут быть использованы для получения результатов от основного и искаженного фильтрами габора вывода, которые настроены на скорость и направление движения в видео. Это достигается путем вычисления взвешенной суммы вывода фильтров Габора, где вес установленный для каждого отдельного фильтра определяется расстоянием от спектральной плоскости в видео. Фильтрам, которые находятся очень близко к спектральной плоскости, присваиваются положительные веса. Фильтрам, которые лежат вне плоскости присваиваются отрицательные веса. Это позволяет добиться двух целей. Во-первых, в результате ответ настроен на движение в основном видео. Иными словами, строгий ответ получается, когда входное видео равно исходному видеосигналу. Кроме того, любое отклонение от эталонного движения наказывается за счет отрицательного веса. Ошибка, вычисляемая между этими движениями, служит для оценки временной целостности видео. Процедуры взвешивания далее разобраны подробно.

Пусть размерности N, где в составе N элементов горизонтальной составляющей потока области основной видеопоследовательности, натянутой на окно B сосредоточены на i0. Аналогичным образом, представим вертикальную составляющую потока.

Тогда, Используя (12), спектр основного видео проходит по:

Определим последовательность векторов расстояния, к = 1, 2,... К размерности N. Каждый элемент этого вектора представляет собой расстояние от центральной частоты k-ого фильтра до плоскости, содержащей спектр основного видео в окне сосредоточенном на извлеченного использованием B. Пусть представляют собой центр частот всех фильтров Габора.

Тогда представляет собой перпендикулярное расстояние от точки до плоскости, определяемой (14) в 3-мерном пространстве, по формуле:

Мы в настоящее время создаем множество весов на основе этих расстояний.

Наша цель состоит в том, чтобы назначить фильтры, которые пересекают спектральную плоскость, чтобы иметь максимальный вес всех фильтров.

Расстояние средних частот этих фильтров от спектральной плоскости - минимум всех фильтров. Во-первых определим, к = 1, 2,...

К используя:

где обозначает радиус сферы, вдоль которой средняя частота k-ого фильтра находится в частотной области. Рисунок 3 иллюстрирует геометрическое вычисление, определенное в (16).

Рис.3 Горизонтальная ось обозначает горизонтальную пространственную частоту, и вертикальная ось обозначает временную частоту. Каждый круг представляет фильтр габора, и центры каждого фильтра также отмечены.

Поскольку мы хотим получить веса для возбуждения(положительные) и торможения(отрицательные), то сдвигаем все веса в каждом масштабе чтобы получить среднее нуль [58]. Наконец, чтобы сделать веса, нечувствительными к геометрии фильтра, которая была выбрана, мы нормализуем их так, чтобы максимальный вес был 1. Это гарантирует, что максимальный вес остается 1 независимо от того, пересекает ли спектральная плоскость точно средние частоты фильтров габора. Хотя веса являются инвариантными к геометрии фильтра, заметим, что из-за Гауссова спада в частотной характеристике фильтров габора, результат сам не является нечувствительным к геометрии фильтра. У нас следовательно есть вектор веса, к = 1, 2,...

К елементов:

где Подобное определение применимо и к другим масштабам.

Настройка результатов движения из основной и искаженной видеопоследовательности, может быть построена с помощью этих весов.

Определим N мерные векторы и используя:

Постоянная C3 добавлена, чтобы предотвратить числовую неустойчивость, когда знаменатели (19) или (20) уходят в 0. Это может случиться в гладких областях изображения.

Вектор представляет результат обработки основного видео Вектор представляет результат обработки искаженного.Таким образом, любое отклонение между основным и искаженным видео зафиксировано в (19) и (20).

Знаменатель условия в (19) и (20) обеспечивает, чтобы временные измерения качества являлись относительно нечувствительными к пространственным искажениям, что позволяет избежать избыточности в пространственных и временных измерениях качества. Например, в случае размытия, можно ожидать, что те же фильтры Габора активируются основным и искаженным видео. Однако даже результат для лучших фильтров масштаба затухают в искаженном видео по сравнению с исходным. Так как каждое видео нормализовано его собственной деятельностью через все фильтры, получающийся ответ не очень чувствителен к пространственным искажениям. Вместо этого временный механизм строго отвечает на искажения где ориентация из спектральных плоскостей справочной информации и искаженных последовательностей отличаются.

Определим индекс временной ошибки как:

Индекс ошибки в (21) будет именно 0, когда исходное и тестовое изображения совпадают.

Наконец, мы превращаем индекс ошибки в индекс качества с помощью:

Е. Объединение стратегии Вывод пространственных и временных качественных стадий вычисления - два видео - пространственное качественное видео QS (i), который представляет пространственное качество в каждом пикселе видео последовательности и подобное видео по временному качеству, обозначенному как QT (i).Индекс MOVIE комбинирует эти местные качественные индексы в единственную таблицу кадров для всего видео. Рассмотрим ряд определенных моментов времени,которые соответствуют кадрам в пространственном и временном качестве видео. Мы обращаемся к этим кадрам качества видео, QS (x, y, t0) и QT (x, y, t0) например, как “карты качества”.

Чтобы получить единственную таблицу кадров для всего видео, используя местные таблицы качества кадров, полученные в каждом пикселе, несколько подходов были предложены, такие как суммирование вероятности, использование психометрических функций [26], [24], среднее из карты качества [13], взвешенное суммирование [4], процентили [42] и так далее. Вообще, распределение таблиц кадров качества зависит по природе информационного наполнения сцены и искажений. Например, искажения, как правило, будут осуществляться в зоне более "высокой активности" видео последовательности, например, краев, текстур и границ движущихся объектов. Кроме того, определенные искажения, такие как аддитивный шум влияет на все видео, в то время как другие искажения, такие как сжатие или потери пакетов в сети передачи воздействуют на конкретные регионы видео. Выбор стратегии объединения является непростой задачей, поскольку стратегия, что люди используют для оценки качества, основанную на их восприятие всей последовательности видео не известна.

Мы исследовали различные стратегии объединения и обнаружили, что использование среднего MOVIE карты качества как показатель общего визуального качества видео страдает от некоторых недостатков. Качество оценки возложенных на видео, которые содержат много текстур, краев, движущихся объектов и т.д. на использовании среднего качества карте как предсказатель визуального качества неизменно ниже показателей качества вычисленных для видео, которые содержат гладкие регионы (фоны, объекты). Это потому, что многие искажения, такие как сжатие изменяют внешний вид текстур и других оживленных районов видео намного более значительно, чем гладких регионов видео. Однако, люди, как правило, назначать плохие оценки качества, даже если только часть видео будет искажена Дисперсия таблиц качества кадров также перцепционно относится к делу.

Действительно, более высокая дисперсия указывает более широкое распространение обеих высоких и низких качественных областей в видео. Так как более низкие качественные области затрагивают восприятие видео качества больше так, чем делают высококачественные области, большие дисперсии в таблицах качества кадров показательны для более низкого перцепционного качества. Это интуитивно похоже на объединение стратегий, основанных на процентили, в котором плохие процентиль показатели качества были использованы для определения общего качества [42]. Отношение стандартного отклонения к среднему часто используется в статистике и известно как коэффициент вариации. Мы нашли, что это соотношение является хорошим предсказанием ошибки восприятия между опорным и испытуемым видео.

Определим индекс ошибки уровня кадра, и для пространственных и для временных компонентов MOVIE в кадре используя:

Использование коэффициента вариации в объединении, со стандартным отклонением, входящих в числители (23), приводит к ошибочным индексам уровня кадра, в противоположность индексу качества уровня кадра. Однако, это гарантирует, что индексы MOVIE уровня кадра не страдают от числовых проблем неустойчивости из-за очень маленьких значений, появляющихся в знаменателе.

Индекс ошибки уровня кадра в (23) в точности нулю, когда основное и искаженное видео идентичны, так как QS (х, у, t) = 1 для всех х, у. Показатели ошибки увеличиваются, когда стандартное отклонение MOVIE повышает качество оценки или среднее MOVIE снижает качество оценки, что является желательным.

Обратите внимание, что термин среднеквадратичного отклонения в коэффициенте изменения фиксирует распространение по качеству, которое происходит, когда видео содержит гладкие области, таким образом избегая недостатка использования только среднего значения.

Видео качество довольно однородно по продолжительности видео последовательности в VQEG FRTV, которые мы используем, чтобы оценить MOVIE в разделе VI. Мы приняли простую стратегию объединения с использованием среднего уровня кадра дескрипторов для временного объединения, хотя и более продвинутые временные объединения стратегий могут быть исследованы в счет будущего улучшения MOVIE индекса. Пространственный индекс MOVIE определяется как среднее значение этих дескрипторов кадра уровне.

Диапазон значений временной оценки меньше, чем в пространственной оценки, из-за больших разногласий нормализации в (19) и (20). Чтобы компенсировать этот эффект, мы используем квадратный корень из временной оценки.

Мы принимаем простую стратегию определения индекса MOVIE, используя результаты пространственного и временного индекса. Это делает MOVIE относительно нечувствительным к диапазону значений которые принимают пространственный и временной индексы.

Индекс MOVIE определяется следующим образом:

F. Детали Выполнения и Примеры

Обсудим теперь некоторые подробности реализации MOVIE. Для уменьшения вычислений, вместо того, чтобы фильтровать всю видео последовательность с набором фильтров Габора, мы сосредоточили фильтры на каждом 16-ом кадре видео последовательности и вычисляли карту качества только для них. Мы выбрали кадры кратные 16, так как это обеспечивает разумные перекрытия при расчете по временному аспекту. Окно B было выбрано 7х7. Чтобы избежать блочных артефактов вызванных квадратным окном, мы использовали Гауссово окно стандартного отклонения 1 пробы размера 7х7.

Если мы обозначим гауссовское окно с помощью с тогда (3) и (4) примут вид:

Аналогичные изменения применятся для (7), (8) и (9). (21), они примут вид:

В MOVIE есть три параметра: C1, C2 и C3. Роль этих констант была описана подробно в [69]. Аналитическая природа модели в (3) и (19) делает их чрезвычайно чуткими к областям с низкой энергией сигнала в видео последовательностях. Константы служат, чтобы стабилизировать вычисление в этих областях, и включены в аналитические модели нормализации [65], [67], [24], [64], [68]. Мы выбрали параметры C1, C2 и C3, чтобы получить величины того же самого порядка в знаменателях (3), (8) и (19), они предназначены, для стабилизации. Мы задали значения константам: C1 = 0.1, C2 = 1 и C3 = 100. C1, C2 могут быть выбраны по-другому, так как Гауссовский фильтр – низкочастотный и дает большие значения, чем полосно-пропускающие фильтры Габора. C3 больше, потому что оно предназначено, чтобы стабилизировать (19) и (20), где знаменателю условия соответствуют суммы квадратов всех коэффициентов Габора. Мы обнаружили, что MOVIE не очень чувствителен к выбору постоянной до тех пор, пока используемая константа не слишком мала. Использование малых значений константы приводит к неправильным прогнозам качества в размытых регионах видео из-за неустойчивости аналитических моделей, которые не соответствуют зрительному восприятию.

Рисунок 4 иллюстрирует карты качества сгенерированные при вычислении MOVIE на одном из видеоклипов базы данных VQEG FRTV. Временная карта качества была логарифмически сжата для видимости. Прежде всего, очевидно, что виды искажений пространственной и временной карты различны. Тестовое видео страдает от значительного размытия, и пространственная карта качества четко отражает потери качества из-за размытия. Временная качественная карта, однако, показывает низкое качество по краям объектов, таких как арфа, где несоответствие компенсации движения очевидно. Конечно, пространственные и временные значения не полностью независимы. Это то, потому что пространственное вычисление использует результат пространственно временных фильтров Габора и константу C3 в (19) и (20) и это позволяет временным вычислениям реагировать на размытие.

Рис. 4. Иллюстрация выполнения MOVIE индекса. Вверху слева - кадр из основного видео, вверху справа - соответствующий кадр из искаженного видео. Внизу слева – логарифмически сжатая временная карта качества. Внизу справа – пространственные карты качества. Яркие области соответствуют регионам с низким качеством.

V. Связи с существующими моделями У коэффициента MOVIE есть некоторые интересные связи с пространственным индексом IQA и с визуальным восприятием.

А. Spatial MOVIE Пространственное качество в (3) близко связано, c моделью свойств ответа нейронов в первичной зрительной коре (см. [65], [67], [66].) Кроме того, пространственное качество (3) тесно связано с SSIM индексом и информационными теоретическими основами IQA [69]. Spatial MOVIE выпадает из нашего анализа [69] и представляется собой улучшенную версию этих метрик.

Также в [69] обсуждается связь обоих SSIM и IFC и отличие этих моделей от IQA системы.

Термин структуры индекса SSIM, примененного к коэффициентам подполосы (без стабилизации константы и принимающий нулевые коэффициенты подполосы), имеет вид [69]:

Основным отличием между разногласиями нормализации индекса SSIM в (30) и пространственным MOVIE индексом в (3) является тот факт, что мы решили использовать коэффициенты, как основного, так и искаженного видео для расчета маскирующих срок. Это описано, как "взаимная маскировка" в литературе [26].

B. Temporal MOVIE

Восприятие движения является сложным процессом с участием низкого и высокого уровней переработки. Хотя обработка движения начинается в полосатой коре (зона V1), района в MT/V5 экстра-полосатая кора как известно, играет значительную роль в обработке движения. Есть несколько статей в психофизике и наук

е по исследованию свойств нейронов в этих областях у приматов, таких как макаки. Свойства нейронов в Области V1, которые проектируют к МП Области, были хорошо изучены [35]. Это исследование показывает, что ячейки в V1, которые проектируют к МП, могут быть расценены как местные фильтры энергии движения, которые пространственно-временно отделимы и настроены к определенной частоте и ориентации (такие как фильтры Габора, используемые здесь). МП область получает направленную информацию от V1 и выполняет более сложные вычисления, используя предварительную информацию движения, вычисленную нейронами V1 [35]. Подмножество нейронов MT в районе показало, что скорость настройке нейронов не зависит от пространственной частоты стимула [39], [71]. Наше временное качественное вычисление имеет несколько общих черт с нейронной моделью МП в [58], [72].

Сходства включают процедуру взвешивания в зависимости от расстояния между линейными фильтрами и плоскостью движения. Модели в [58], [72] физиологически вероятные механизмы, разработанные, чтобы соответствовать свойствам зрительных нейронов. Наша модель разработана с технической точки зрения на захват искажений при воспроизведении видео. Различия между двумя моделями включают выбор линейного разложения и наш вывод аналитических выражений для весов на основе фильтра геометрии. Интересно отметить, что модели района MT строят нейроны, настроенные на разных скоростях и использовать эти результаты, чтобы определить скорость раздражителя. Наша модель вычисляет скорость движения с помощью алгоритма Fleet и Jepson, а затем настраивает скорость на основе расчетов движения.

Насколько нам известно, ни один из существующих алгоритмов VQA не моделирует свойств нейронов в районе MT, несмотря на наличие таких моделей в видении научного сообщества. Наша дискуссия показывает, что здесь предлагаемый нами в рамках VQA алгоритм может сравнивать зрительное восприятие видео лучше, так как он включает понятие восприятия движения.

VI. Производительность Тестирование данного алгоритма происходило с использованием базы данных VQEG FRTV 1 [73], так как это крупнейшая общедоступная VQA База данных на сегодняшний день. Хотя VQEG является завершенной, видео от этих последующих исследований не будут обнародованы из-за лицензирования и проблем авторского права [74]. Поскольку большая часть видео в VQEG базе с чересстрочной разверткой, наш алгоритм работает только с чересстрочным видео. Данный алгоритм был выполнен на временном поле для всех видеопоследовательностей. Данный алгоритм игнорирует цветовой компонент видеофрагмента, хотя цвет может представлять направление для дальнейших усовершенствований метрики MOVIE. VQEG база данных содержит порядка 320 видео. Два типа искажений в базе данных VQEG (HRC 8 и 9) содержат две различных субъективных оценки, присвоенные соответствующими субъектами, должны ли эти последовательности рассматриваться как "высокое" или "низкое" качество видео [73]. Авторы использовали таблицы кадров, обозначенные как "низкое" качество. Таблица I показывает эффективность MOVIE с точки зрения Spearman Rank Order Correlation Coefficient (SROCC), Linear Correlation Coefficient (LCC) after non-linear regression and the Outlier Ratio (OR). Авторы использовали тот же логистические функции, указанные в [73], чтобы соответствовать модели прогнозов для субъективных данных. PSNR обеспечивает основу для сравнения моделей VQA. Десять ведущих моделей VQA были протестированы в VQEG в, включая модели NTIA(который был предшественник VQM), а также модели из NASA, Sarnoff Corporation, KDD и EPFL [73]. Среднеквадратичная ошибка (RMSE) между субъективной оценкой и оценкой MOVIE после нелинейной регрессии по всей базе данных VQEG равна 8,76.

Выбросы определяются VQEG как точки, для которых абсолютная ошибка между DMOS оценкой и моделью прогнозирования больше чем в два раза стандартного отклонения оценки DMOS и коэффициент выброса определяется как отношение количества выброса видео к общему количеству видео [73]. Более стандартный способ определения выброса использует правило три сигма, где выбросы определяются как точки, для которых абсолютная ошибка между оценкой DMOS и моделью прогнозирования больше чем в три раза стандартного отклонения оценки DMOS [75]. Использование правила 3 сигма гарантирует, что вероятность того, что точка лежит вне диапазона от трех стандартных отклонений составляет 0,3% при предположении, что ошибки распределены нормально. Коэффициент выброса в MOVIE с использованием правила трех сигма равен 0,488 по всей базе данных VQEG.

База данных VQEG содержит 4 анимационные последовательности, (источники 4,6,16 и 17). Анимационные ролики весьма отличаются от естественных видео и часто содержат совершенно гладкие и постоянные области, совершенные края шага, текст и так далее. Это редко происходит в естественных изображениях. Естественные изображения имеют ряд характерных статистических свойств, таких как self-similarity across scales, heavy tailed wavelet marginal distributions и т. д. [70], [76], которые не встречаются в синтетических видео. Хотя наша модель явно не принимает никакой статистической модели для изображений или видео, наша пространственная качественная модель близко связана с IFC, которая предполагает что основное изображение – вывод естественной сцены статистической модели [69]. Некоторые аспекты нашей модели VQA, такие как выбор фильтров Габора, масштаб инвариантной обработки Габор подзон и разногласия по нормализации обстановки в пространственных и временных качественных вычислениях неявно ориентированы на природное видео. Действительно, было предположено, что аналитическая нормализация, которая является используемой и в пространственном и во временном MOVIE приводит к эффективному кодированию, так как это уменьшает статистические зависимости которые возникают при разложении естественного изображения с помощью линейных фильтров [68]. Следовательно, аналитическая нормализация в MOVIE может быть интерпретирована двумя способами для естественной сцены статистического моделирования. Дальнейшее обсуждение отношения между естественной статистикой сцены и SSIM и IFC IQA методики можно найти в [69]. Присутствие в тексте в трех из этих анимации является еще одной причиной для беспокойства, поскольку субъективное восприятие этих видео, возможно, под влиянием чтения текста в искаженном видео.

Мы также представляем индексы производительности нашей модели VQA только для 16 естественных видео и их искаженных версий (в общей сложности 256 видео) в базе данных VQEG в Таблице II. Мы представляем эти результаты в отдельной таблице, что бы данные можно было непосредственно сравнить с другими моделями оценки.

Таблица II также отражает производительность PSNR и SSIM (без взвешивания) на том же наборе естественных видео в VQEG базы данных. Для справедливого сравнения с MOVIE, мы использовали только яркостную компоненту видео для вычисления PSNR и SSIM (без взвешивания) на этих естественных видео. Обратите внимание, что выполнение PSNR и SSIM несколько хуже в таблице II, чем на всем наборе данных, как показано в таблице I. Коэффициент выброса в MOVIE только на естественных видео 0,461 в трех стандартных отклонениях.

Разброс участков модели прогнозирования и DMOS значений, наряду с наиболее подходящей логистической функцией для индекса MOVIE приведены на рис. 5 по всей базе данных и VQEG после опускания анимации.

Очевидно, что метрика MOVIE может конкурировать с другими ведущими алгоритмами на базе VQEG. Результат пространственного MOVIE хуже, чем временного MOVIE, который мощно иллюстрирует важность сбора и оценки временных искажений видео. Их совместное использование лучше, чем использование по отдельности. Также видно из таблицы II, что производительность MOVIE значительно лучше только на естественных видео в базе данных VQEG. Результат MOVIE в таблице особенно впечатляет, поскольку она не использует цветовую информацию, а использует только одно поле из чересстрочной видеопоследовательности.

VII. Выводы и будущие работы Мы представили новую основанную на движении парадигму VQA, которая успешно захватывает как временные искажения, так и пространственные. Сделанный в результате алгоритм, известен как MOVIE. Он подтверждает, что лежащие в основе идеи в восприятии искаженного видео, соответствуют физиологическим выводам. Очевидной возможностью для улучшения MOVIE, является включение информации о цвете. Кроме того, существует необходимость в большем количестве различных общедоступных баз данных видео, искаженных видео для обеспечения возможности улучшения контроля и тестирования из VQA алгоритмов. Такие базы данных будут иметь большое значение для научно-исследовательского сообщества VQA, в частности, в связи с тем фактом, что видео из недавних исследований VQEG не обнародуется [74]. С этой целью мы создаем такую базу данных видео, которая будет дополнять существующую LIVE Image Quality Database [77] и которая направлена на улучшение доступности и разнообразия таких данных. Предстоящая LIVE Video Quality Database будет описана в будущих докладах.

Наконец, естественно, остается большой простор для улучшения нынешних конкурентных алгоритмов VQA. Мы считаем, что это будет способствовать повышению эффективности разработки более совершенных моделей естественного видео и обработки движения, а также более глубокому пониманию природы восприятия искажения.

Важные темы в этом направлении это включение масштабируемости VQA, при использовании модели зрительного внимания и передвижения человеческого глаза в VQA ([78], [79], [80], [6]), и изучение объединения пространственных и временных стратегий для VQA [80]. Однако, на наш взгляд, наиболее важным событием в будущем как IQA и VQA является развертывание наиболее конкурентоспособных алгоритмов для таких разных и важных задач, как создание QoS в режиме реального времени для приложений; сравнение производительности конкурирующих изображений и видео алгоритмов обработки, такие как сжатие, восстановление и реконструкция. и оптимизация алгоритмов использующих IQA и VQA индексы, чтобы установить перцепционную цель функции [81]. Последняя задача является самой амбициозной из-за возникающих сложных аналитических проблем, которые предстоит преодолеть, но также может оказаться, что это приведет наиболее значительным результатам.

Практическая часть На основе данной статьи была реализована программа для вычисления метрики MOVIE. К статье прилагается проект, выполненный в среде visual studio. Для того чтобы скомпилировать проект вам потребуется подключить библиотеку GSL (GNU Scientific Library).

Скачать ее вы можете с http://gnuwin32.sourceforge.net/packages/gsl.htm или, воспользовавшись дистрибутивом, который прилагается к работе. После установки данного дистрибутива в проекте требуется прописать 2 пути.

1. Нажмите правой клавишей на открытый проект в solution explorer (справа сверху) и выберите properties

2. В открывшемся окне выберите Configuration Properties-C/C++/General И напротив Additional Include Directories напишите путь к include файлам, в случае установки из приложенного дистрибутива это будет C:\Program Files\GnuWin32\include\

3. Далее выберете в этом же окне в левом столбце закладку Linker-General И напротив Additional Library Directories напишите путь к lib файлам, в случае установки из приложенного дистрибутива это будет C:\Program Files\GnuWin32\lib\ Чтобы запустить полученную программу movie.exe надо воспользоваться командной строкой. Программу нужно запускать с 8 обязательными параметрами и дополнительными по желанию ( Если вы их забудете не обязательно обращаться к данной статье, просто включите программу без параметров и высветится подсказка )

Итак, основные параметры:

Reference file Distorted file Reference file stem Distorted file stem temp path output path video width video height

Дополнительные параметры:

-f filtered image path

-framestart interval (должно быть больше 17)

-framend interval

-frameint interval

-remove (удаляет все файлы из папки temp) Рекомендуется всегда использовать –remove т.к. программа требует достаточно большой объем памяти (сравнение двух 40мб видео с интервалом 10 кадров требует около 16гб) Пример запуска данной программы можно увидеть на прилагаемом видео (запуск MOVIE).

Программа использует видео формат YUV 4 : 2 : 0. Так же требуется от 2 гигабайт оперативной памяти ( если меньше то возможно сильное падение в скорости выполнения).

Эта программа выдает значение для MOVIE index в окно терминала для искаженного видео в конце выполнения (что может занять несколько часов из-за сложности алгоритма). Этот MOVIE index для искаженного видео, также хранится в текстовом файле distorted file stem_movie.txt который записан в output path.

Эта программа также дает на выходе два текстовых файлов distorted file stem_smovie.txt, distorted file stem_tmovie.txt – в output path. Эти файлы содержат пространственно-временные значения MOVIE для каждого кадра, на котором запускается MOVIE соответственно.

Кроме того, эта программа выводит бинарных файлов, содержащих пространственные и временные MOVIE карты - distorted file stem.smoviemap", "distorted file stem.tmoviemap"- для каждого кадра, на котором он запущен в output path. Сценарий MATLAB ("read_movie_maps.m") для чтения этих карт и их просмотр также предусмотрен.

Обратите внимание, что MOVIE оценки, как правило, охватывают узкий диапазон значений, поскольку модель не является линейной и использует разногласия нормализации. Рекомендуется умножать полученный коэффициент значения MOVIE на 100, тогда полученные значения будут лежать в интервале [0,100].

Проведенные вычисления коэффициента MOVIE для 4х “испорченных видео” дали следующие результаты (видео прилагаются к статье) :

–  –  –

[1] Z. Wang and A. C. Bovik, Image Quality Assessment. New York:

Morgan and Claypool Publishing Co., 2006.

[2] S. Winkler, Digital Video Quality. New York: Wiley and Sons, 2005.

[3] C. J. van den Branden Lambrecht, D. M. Costantini, G. L. Sicuranza, and M. Kunt, “Quality assessment of motion rendition in video coding,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 9, no. 5, pp. 766–782, 1999.

[4] Z. Wang, L. Lu, and A. C. Bovik, “Video quality assessment based on structural distortion measurement,” Signal Processing: Image Communication, vol. 19, no. 2, pp. 121–132, Feb. 2004.

[5] Z. Wang and Q. Li, “Video quality assessment using a statistical model

of human visual speed perception.” Journal Optical Society America A:

Optics Image Science Vision, vol. 24, no. 12, pp. B61–B69, Dec 2007.

[6] A. Ninassi, O. Le Meur, P. Le Callet, and D. Barba, “Considering temporal variations of spatial visual distortions in video quality assessment,” IEEE J. Sel. Topics Signal Process., vol. 3, no. 2, pp. 253–265, 2009.

[7] M. Barkowsky, J. Bialkowski, B. Eskofier, R. Bitto, and A. Kaup, “Temporal trajectory aware video quality measure,” IEEE J. Sel. Topics Signal Process., vol. 3, no. 2, pp. 266–279, 2009.

[8] A. B. Watson and J. Ahumada, A. J., “Model of human visual-motion sensing,” Journal Optical Society America A: Optics Image Science Vision, vol. 2, no. 2, pp. 322–342, 1985.

[9] K. Seshadrinathan and A. C. Bovik, “A structural similarity metric for video based on motion models,” in IEEE Intl. Conf. Acoustics, Speech, and Signal Processing, 2007.

[10] B. A. Wandell, Foundations of Vision. Sunderland, MA: Sinauer Associates Inc., 1995.

[11] L. Itti and C. Koch, “Computational modelling of visual attention,” Nature Reviews Neuroscience, vol. 2, no. 3, pp. 194–203, 2001.

[12] Z. Wang and A. Bovik, “A universal image quality index,” IEEE Signal Process. Lett., vol. 9, no. 3, pp. 81–84, 2002.

[13] Z. Wang, A. C. Bovik, H. R. Sheikh, and E. P. Simoncelli, “Image quality assessment: from error visibility to structural similarity,” IEEE Trans. Image Process., vol. 13, no. 4, pp. 600–612, April 2004.

[14] H. R. Sheikh and A. C. Bovik, “Image information and visual quality,” IEEE Trans. Image Process., vol. 15, no. 2, pp. 430–444, 2006.

[15] H. R. Sheikh, A. C. Bovik, and G. de Veciana, “An information fidelity criterion for image quality assessment using natural scene statistics,” IEEE Trans. Image Process., vol. 14, no. 12, pp. 2117–2128, 2005.

[16] H. R. Sheikh and A. C. Bovik, “An evaluation of recent full reference image quality assessment algorithms,” IEEE Trans. Image Process., vol. 15, no. 11, pp. 3440–3451, November 2006.

[17] K. Seshadrinathan and A. C. Bovik, “An information theoretic video quality metric based on motion models,” in Third Intl. Workshop Video Processing and Quality Metrics for Consumer Electronics, 2007.

[18] B. Girod, “What’s wrong with mean-squared error,” in Digital Images and Human Vision, A. B. Watson, Ed. The MIT Press, 1993, pp.

207–220.

[19] K. Seshadrinathan and A. C. Bovik, “Video quality assessment,” in The Essential Guide to Video Processing, A. C. Bovik, Ed. Elsevier, 2009.

[20] J. M. Libert, C. P. Fenimore, and P. Roitman, “Simulation of graded video impairment by weighted summation: validation of the methodology,” Proc. SPIE, vol. 3845, no. 1, pp. 254–265, Nov. 1999.

[21] C. Lee and O. Kwon, “Objective measurements of video quality using the wavelet transform,” Optical Engineering, vol. 42, no. 1, pp. 265–272, Jan. 2003.

[22] C. Taylor and S. Dey, “Run-time allocation of buffer resources for maximizing video clip quality in a wireless last-hop system,” in Proc.

IEEE Intl. Conf. Communications, 2004.

[23] J. Mannos and D. Sakrison, “The effects of a visual fidelity criterion of the encoding of images,” IEEE Trans. Inf. Theory, vol. 20, no. 4, pp.

525–536, 1974.

[24] J. Lubin, “The use of psychophysical data and models in the analysis of display system performance,” in Digital Images and Human Vision, A. B. Watson, Ed. The MIT Press, 1993, pp. 163–178.

[25] P. C. Teo and D. J. Heeger, “Perceptual image distortion,” in Proc. IEEE Intl. Conf. Image Processing, 1994.

[26] S. Daly, “The visible difference predictor: An algorithm for the assessment of image fidelity,” in Digital Images and Human Vision, A. B.

Watson, Ed. The MIT Press, 1993, pp. 176–206.

[27] D. M. Chandler, K. H. Lim, and S. S. Hemami, “Effects of spatial correlations and global precedence on the visual fidelity of distorted images,” Proc. SPIE, vol. 6057, no. 1, p. 60570F, Feb 2006.

[28] K. Seshadrinathan, T. N. Pappas, R. J. Safranek, J. Chen, Z. Wang, H. R.

Sheikh, and A. C. Bovik, “Image quality assessment,” in The Essential Guide to Image Processing, A. C. Bovik, Ed. Elsevier, 2008.

[29] G. E. Legge, “Sustained and transient mechanisms in human vision:

Temporal and spatial properties,” Vision Research, vol. 18, no. 1, pp.

69–81, 1978.

[30] J. J. Kulikowski and D. J. Tolhurst, “Psychophysical evidence for sustained and transient detectors in human vision.” Journal Physiology, vol. 232, no. 1, pp. 149–162, Jul 1973.

[31] C. J. van den Branden Lambrecht and O. Verscheure, “Perceptual quality measure using a spatiotemporal model of the human visual system,” Proc. SPIE, vol. 2668, no. 1, pp. 450–461, Mar 1996.

[32] S. Winkler, “Perceptual distortion metric for digital color video,” Proc.

SPIE, vol. 3644, no. 1, pp. 175–184, May 1999.

[33] A. B. Watson, J. Hu, and J. F. McGowan III, “Digital video quality metric based on human vision,” Journal Electronic Imaging, vol. 10, no. 1, pp. 20–29, Jan. 2001.

[34] M. Masry, S. S. Hemami, and Y. Sermadevi, “A scalable wavelet-based video distortion metric and applications,” IEEE Trans. Circuits Syst.

Video Technol., vol. 16, no. 2, pp. 260–273, 2006.

[35] J. A. Movshon and W. T. Newsome, “Visual Response Properties of Striate Cortical Neurons Projecting to Area MT in Macaque Monkeys,” Journal Neuroscience, vol. 16, no. 23, pp. 7733–7741, 1996.

[36] R. T. Born and D. C. Bradley, “Structure and function of visual area MT,” Annual Reviews Neuroscience, vol. 28, pp. 157–189, 2005.

[37] M. A. Smith, N. J. Majaj, and J. A. Movshon, “Dynamics of motion signaling by neurons in macaque area MT,” Nature Neuroscience, vol. 8, no. 2, pp. 220–228, Feb. 2005.

[38] J. A. Perrone, “A visual motion sensor based on the properties of V1 and MT neurons,” Vision Research, vol. 44, no. 15, pp. 1733–1755, Jul.

2004.

[39] N. J. Priebe, S. G. Lisberger, and J. A. Movshon, “Tuning for spatiotemporal frequency and speed in directionally selective neurons of macaque striate cortex.” Journal Neuroscience, vol. 26, no. 11, pp. 2941–2950, Mar 2006.

[40] J. Nachmias and R. V. Sansbury, “Grating contrast: Discrimination may be better than detection,” Vision Research, vol. 14, no. 10, pp. 1039– 1042, Oct. 1974.

[41] G. Legge and J. Foley, “Contrast masking in human vision,” Journal Optical Society America A: Optics Image Science Vision, vol. 70, no. 12, pp. 1458–1471, Dec. 1980.

[42] M. H. Pinson and S. Wolf, “A new standardized method for objectively measuring video quality,” IEEE Trans. Broadcast., vol. 50, no. 3, pp.

312–322, Sep. 2004.

[43] A. P. Hekstra, J. G. Beerends, D. Ledermann, F. E. de Caluwe, S. Kohler, R. H. Koenen, S. Rihs, M. Ehrsam, and D. Schlauss, “PVQM - A perceptual video quality measure,” Signal Processing: Image Communication, vol. 17, pp. 781–798, 2002.

[44] International Telecommunications Union, “Objective perceptual multimedia video quality measurement in the presence of a full reference,” ITU-T Rec. J. 247, Tech. Rep., 2008.

[45] NTT. (2008) NTT News Release. [Online]. Available: http://www.ntt.

co.jp/news/news08e/0808/080825a.html [46] Opticom. [Online]. Available: http://www.opticom.de/technology/pevq video-quality-testing.html [47] M. Malkowski and D. Claben, “Performance of video telephony services in UMTS using live measurements and network emulation,” Wireless Personal Communications, vol. 1, pp. 19–32, 2008.

[48] M. Barkowsky, J. Bialkowski, R. Bitto, and A. Kaup, “Temporal registration using 3D phase correlation and a maximum likelihood approach in the perceptual evaluation of video quality,” in IEEE Workshop Multimedia Signal Processing, 2007.

[49] M. Yuen and H. R. Wu, “A survey of hybrid MC/DPCM/DCT video coding distortions,” Signal Processing, vol. 70, no. 3, pp. 247–278, Nov.

1998.

[50] K. Seshadrinathan and A. C. Bovik, “Motion-based perceptual quality assessment of video,” in Proc. SPIE - Human Vision and Electronic Imaging, 2009.

[51] J. A. Movshon, I. D. Thompson, and D. J. Tolhurst, “Spatial summation in the receptive fields of simple cells in the cat’s striate cortex.” Journal Physiology, vol. 283, pp. 53–77, Oct 1978.

[52] J. G. Daugman, “Uncertainty relation for resolution in space, spatial frequency, and orientation optimized by two-dimensional visual cortical filters,” Journal Optical Society America A: Optics Image Science Vision, vol. 2, no. 7, pp. 1160–1169, 1985.

[53] A. C. Bovik, M. Clark, and W. S. Geisler, “Multichannel texture analysis using localized spatial filters,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 12, no. 1, pp. 55–73, Jan. 1990.

[54] D. J. Tolhurst and J. A. Movshon, “Spatial and temporal contrast sensitivity of striate cortical neurones,” Nature, vol. 257, no. 5528, pp.

674–675, Oct. 1975.

[55] S. M. Friend and C. L. Baker, “Spatio-temporal frequency separability in area 18 neurons of the cat.” Vision Research, vol. 33, no. 13, pp.

1765–1771, Sep 1993.

[56] M. C. Morrone, M. D. Stefano, and D. C. Burr, “Spatial and temporal properties of neurons of the lateral suprasylvian cortex of the cat.” Journal Neurophysiology, vol. 56, no. 4, pp. 969–986, Oct 1986.

[57] D. J. Heeger, “Optical flow using spatiotemporal filters,” Intl. Journal Computer Vision, vol. 1, no. 4, pp. 279–302, 1987.

[58] E. P. Simoncelli and D. J. Heeger, “A model of neuronal responses in visual area MT.” Vision Research, vol. 38, no. 5, pp. 743–761, Mar 1998.

[59] E. H. Adelson and J. R. Bergen, “Spatiotemporal energy models for the perception of motion.” Journal Optical Society America A: Optics Image Science Vision, vol. 2, no. 2, pp. 284–299, Feb 1985.

[60] D. Fleet and A. Jepson, “Computation of component image velocity from local phase information,” Intl. Journal Computer Vision, vol. 5, no. 1, pp. 77–104, 1990.

[61] H. R. Sheikh and A. C. Bovik, “A visual information fidelity approach to video quality assessment,” in First Intl. workshop video processing and quality metrics for consumer electronics, 2005.

[62] R. Fox, “Visual masking,” in Handbook of Sensory Physiology. VIII.

Perception, R. Held, H. W. Leibowitz, and H. L. Teuber, Eds. SpringerVerlag, 1978.

[63] J. Foley, “Human luminance pattern-vision mechanisms: masking experiments

require a new model,” Journal Optical Society America A:

Optics Image Science Vision, vol. 11, no. 6, pp. 1710–1719, Jun. 1994.

[64] A. Watson and J. Solomon, “Model of visual contrast gain control and pattern masking,” Journal Optical Society America A: Optics Image Science Vision, vol. 14, no. 9, pp. 2379–2391, Sep. 1997.

[65] D. J. Heeger, “Normalization of cell responses in cat striate cortex.” Visual Neuroscience, vol. 9, no. 2, pp. 181–197, Aug 1992.

[66] D. G. Albrecht and W. S. Geisler, “Motion selectivity and the contrastresponse function of simple cells in the visual cortex.” Visual Neuroscience, vol. 7, no. 6, pp. 531–546, Dec 1991.

[67] W. S. Geisler and D. G. Albrecht, “Cortical neurons: isolation of contrast gain control.” Vision Research, vol. 32, no. 8, pp. 1409–1410, Aug 1992.

[68] O. Schwartz and E. P. Simoncelli, “Natural signal statistics and sensory gain control.” Nature Neuroscience, vol. 4, no. 8, pp. 819–825, Aug 2001.

[69] K. Seshadrinathan and A. C. Bovik, “Unifying analysis of full reference image quality assessment,” in IEEE Intl. Conf. Image Processing, 2008.

[70] D. J. Field, “Relations between the statistics of natural images and the response properties of cortical cells.” Journal Optical Society America A: Optics Image Science Vision, vol. 4, no. 12, pp. 2379–2394, Dec 1987.

[71] J. A. Perrone and A. Thiele, “Speed skills: measuring the visual speed analyzing properties of primate MT neurons,” Nature Neuroscience, vol. 4, no. 5, pp. 526–532, May 2001.

[72] N. C. Rust, V. Mante, E. P. Simoncelli, and J. A. Movshon, “How MT cells analyze the motion of visual patterns.” Nature Neuroscience, vol. 9, no. 11, pp. 1421–1431, Nov 2006.

[73] (2000) Final report from the video quality experts group on the validation of objective quality metrics for video quality assessment. [Online].

Available: http://www.its.bldrdoc.gov/vqeg/projects/frtv phaseI [74] A. Webster, “Progress and future plans for VQEG,” in ETSI STQ Workshop Multimedia Quality of Service, 2008. [Online].

Available: http://portal.etsi.org/docbox/Workshop/2008/2008 06 STQWORKSHOP/VQEG ArthurWebster.pdf [75] S. H. Dai and M. O. Wang, Reliability analysis in engineering applications.

Van Nostrand Reinhold, 1993.

[76] E. P. Simoncelli, “Statistical modeling of photographic images,” in Handbook of Image and Video Processing, 2nd ed., A. C. Bovik, Ed.

Academic Press, 2005.

[77] (2003) LIVE image quality assessment database. [Online]. Available:

http://live.ece.utexas.edu/research/quality/subjective.htm [78] A. K. Moorthy and A. C. Bovik, “Perceptually significant spatial pooling strategies for image quality assessment,” in Proc. SPIE - Human Vision and Electronic Imaging, 2009.

[79] U. Rajashekar, I. van der Linde, A. C. Bovik, and L. K. Cormack, “GAFFE: A gaze-attentive fixation finding engine,” IEEE Trans. Image Process., vol. 17, no. 4, pp. 564–573, 2008.

[80] A. K. Moorthy and A. C. Bovik, “Visual importance pooling for image quality assessment,” IEEE J. Sel. Topics Signal Process., vol. 3, no. 2, pp. 193–201, 2009.

[81] S. S. Channappayya, A. C. Bovik, C. Caramanis, and R. W. Heath, Jr., “Design of linear equalizers optimized for the structural similarity index,” IEEE Trans. Image Process., vol. 17, no. 6, pp. 857–872, 2008.

[82] J. L. Barron, D. J. Fleet, and S. S. Beauchemin, “Performance of optical flow techniques,” Intl. Journal Computer Vision, vol. 12, no. 1, pp. 43– 77, Feb. 1994.

[83] E. P. Simoncelli, “Distributed analysis and representation of visual motion,” Ph.D. dissertation, MIT, 1993.

[84] P. Anandan, “A computational framework and an algorithm for the measurement of visual motion,” Intl. Journal Computer Vision, vol. 2, no. 3, pp. 283–310, Jan. 1989.

[85] B. D. Lucas and T. Kanade, “An iterative image registration technique with an application to stereo vision,” in Proc. Intl. Joint Conf. Artificial Intelligence, Vancouver, Canada, 1981.

Об авторах Kalpana Seshadrinathan Kalpana Seshadrinathan получила степень технолога в университете Керала (Индия). В 2002 году получила степень магистра и доктора наук в области электротехники в университете Техас в Остине(в 2004 и 2008, соответственно).

В настоящее время она системный инженер в корпорации Intel в Phoenix(штат Аризона). Ее исследовательские интересы включают оценку качества видео и изображений, вычислительные аспекты человеческого зрения, оценку движения и ее применение, статистическое моделирование изображений и видео. Имеет награды 2003 Texas Telecommunications Engineering Consortium Graduate Fellowship и 2007 Graduate Student Professional Development Award университета Техас в Остине. Так же она была заместителем директора Лаборатории Изображений и видео техники (LIVE) в университете штата Техас в Остине 2005-2008.Кроме того Kalpana является членом IEEE.

Alan Conrad Bovik

Alan Conrad Bovik директор Лаборатории изображений и видео техники (LIVE). Он является преподавателем в департаменте электротехники и вычислительной техники, на кафедре биомедицинской инженерии, а также в институте неврологии. Его научные интересы включают обработку изображений и видео, техническую сторону зрительного восприятия. Он опубликовал более 500 технических статей в этих областях, и имеет два патента в США. Так же получил ряд крупных наград от IEEE. Является зарегистрированным профессиональным инженером в штате Техас и является частым консультантом

Похожие работы:

«Вестник СПбГУ. Сер. 5. 2005. Вып. 1 А.В. Киселева НЕТРАДИЦИОННЫЕ ПОДХОДЫ К ОЦЕНКЕ ЭФФЕКТИВНОСТИ ДЕЯТЕЛЬНОСТИ ПРЕДПРИЯТИЯ На сегодняшний день концепции, развивающиеся в рамках определения эффективного собственника, а также эффективности деятельности п...»

«Документ предоставлен КонсультантПлюс КОНВЕНЦИЯ О ПРАВАХ РЕБЕНКА Преамбула Государства участники настоящей Конвенции, считая, что в соответствии с принципами, провозглашенными в Уставе Организации Объединенных Наций, признание присущего д...»

«УДК 65.013 Ю.А. Иваненко ИМИДЖ ОРГАНИЗАЦИИ КАК ФАКТОР ПОВЫШЕНИЯ ЕЕ КОНКУРЕНТОСПОСОБНОСТИ Проанализированы современные теоретические представления о корпоративном имидже. Определены цели, задачи, элементы имиджа...»

«География. 8 класс. Демонстрационный вариант № 1 (90 минут) 1 Диагностическая тематическая работа № 1 по подготовке к ОГЭ по ГЕОГРАФИИ по теме "Географическое пространство России"...»

«Сер. 12. 2009. Вып. 2. Ч. II ВеСТНИК СаНКТ-ПеТерБУрГСКоГо УНИВерСИТеТа С. Н. Костромина, В. В. Смирнова МоДеЛь ПСИхоЛоГИчеСКоГо СоПРовожДеНИя ПоДГотовКИ боРцов выСоКой КвАЛИфИКАцИИ характеристика современного состояния проблемы Современный спорт — это соревнов...»

«Руководство по эксплуатации az AMATRON 3 Терминал управления Перед первым вводом в эксMG4269 плуатацию обязательно проBAG0094.6 02.15 читайте настоящее руководPrinted in Germany ство по эксплуатации и в дальнейшем соблюдайте его указания!...»

«С.Л. Василенко Знак-символ золотого сечения Слово – не воробей, а. ряд символов алфавита Золотое сечение (ЗС) или гармоническая пропорция считается совершенным прототипом соразмерности. В определенной мере это кл...»

«Drill Site Программа создания трассы горизонтального бурения Руководство пользователя Drill Site – Программа создания трассы горизонтального бурения Содержание: Содержание: Введение Интерфейс программы Панель меню Стандартная...»

«Информационный бюллетень для клиентов GRATA – Март 2015 РЕГУЛИРОВАНИЕ ЕСТЕСТВЕННЫХ МОНОПОЛИЙ В КАЗАХСТАНЕ Значение так называемых естественных монополий в Казахстане подтверждается тем, что такие крупные казахстанские корпоративны...»

«Приложение 1 к приказу от 13 октября 2014 №46-ос Меры защиты информации, обрабатываемой в РС ЕГИСЗ Термины и определения РС ЕГИСЗ (Система) – региональный сегмент единой государственной информационной системы в сфере здравоохранении. Участники РС ЕГИСЗ (Участник...»

«Библейский хронотоп в "путевых поэмах" И. А. Бунина. 507 DOI 10.15393/j9.art.2015.2821 УДК 821.161.1.09“19“-3 Татьяна Николаевна Ковалёва Пятигорский государственный лингвистический университет (Пятигорск, Российска...»

«Арктика и Север. 2013. № 11 1 УДК [316.35+316.334+316.811+1:316](045) CЕМЕЙНЫЕ ЦЕННОСТИ И СОЦИАЛЬНОЕ ОБРАЗОВАНИЕ МОЛОДЫХ РОДИТЕЛЕЙ В СОВРЕМЕННОМ ОБЩЕСТВЕ FAMILY VALUES AND SOCIAL EDUCATION OF YOUNG PARENTS IN THE MODERN SOCIETY © Федулова Анна Борисовна, кандидат философских...»

«ЭКСПРЕСС-ОБЗОР РЫНКА УСЛУГ СВАДЕБНЫХ АГЕНТСТВ В Г. МОСКВА ДЕМОНСТРАЦИОННАЯ ВЕРСИЯ Дата выпуска отчета: декабрь 2007 г. Данное исследование подготовлено МА Step by Step исключительно в информационных целях. Информация, представленная в исследовании, получена из открытых...»

«e mail: ekis@vdmais.kiev.ua № 8, август 2006 ИНФОРМАЦИОННЫЙ БЮЛЛЕТЕНЬ КОМПАНИИ ANALOG DEVICES МИКРОСХЕМЫ АЦП Analog to Digital Converters ICs Информационный бюллетень компании Analog Devices Том 6, выпуск 5, 2006 Преобразователь данных для ввода/вывода В этом номере аналоговых сигналов Высококачествен...»

«Куликова Александра Владимировна ФУНКЦИИ РЕКЛАМЫ: СОЦИОЛОГИЧЕСКИЙ АСПЕКТ Адрес статьи: www.gramota.net/materials/1/2009/10-1/29.html Статья опубликована в авторской редакции и отражает точку зрения автора(ов) по рассматриваемому вопросу. Источник Альманах современной науки и образования Тамбов: Грамота, 2009. № 10 (29): в 2-х ч. Ч. I....»

«В.В. Калита, А.С. Гайдай УДК 159.9.072.3 ДЕТЕРМИНАНТЫ ЭФФЕКТА БАРНУМА: ОБЪЕКТИВНОСТЬ ХАРАКТЕРА ТРИВИАЛЬНЫХ ЛИЧНОСТНЫХ ОПИСАНИЙ В.В. Калита1, А.С. Гайдай2 Дальневосточный федеральный университет (Владивосток, Россия) Морской государственный университет имени адмирала Г.И. Невельского (Вла...»

«Б Ю Л Л Е Т Е Н Ь М. О -В А И С П. П Р И Р О Д Ы. О Т Д. Г Е О Л О Г И И, T. X L I (3 ), 1966 УДК 551.762.33 ВОЛЖСКИЙ ЯРУС НА СЕВЕРЕ ПРИВЕРХОЯНСКОГО ПРОГИБА1 Р. А. Биджиев, Н. П. М ихайлов С о д е р ж а н и е. В...»

«ЛАБОРАТОРНАЯ РАБОТА № 49 ИЗУЧЕНИЕ ПОЛЯРИЗАЦИИ СВЕТА. ОПРЕДЕЛЕНИЕ УГЛА БРЮСТЕРА Цель работы – изучение поляризации лазерного излучения; экспериментальное определение угла Брюстера и показателя преломления стекла.1. Теоретические основы работы О поперечны. Это Как известно, световые электромагнитные волны означает, что векторы напряженности электрическог...»

«СРЕДНЕЕ ПРОФЕССИОНАЛЬНОЕ ОБРАЗОВАНИЕ М.Ш.АМИРОВ,С.М.АМИРОВ ЕДИНАЯ ТРАНСПОРТНАЯ СИСТЕМА РекомендованоФГУ"ФИРО" вкачествеучебникадляиспользованиявучебномпроцессе образовательныхучреждений,реализующихпрограммы среднегопрофессиональногообразования поспециальности"Организацияперевоз...»

«2 СОДЕРЖАНИЕ 1. Перечень планируемых результатов обучения по дисциплине (модулю), соотнесенных с планируемыми результатами освоения образовательной программы.4 2. Место дисциплины в структуре ОПОП 3. Объем дисциплины (модуля) в зачетных единицах с указанием количества академических часов, выделенных н...»

«МЕТАЛЛОДЕТЕКТОРЫ Garrett Ace150 Ace 250 Руководство пользователя Ace150 * Ace 250 Металлодетекторы Garrett Благодарим Вас за то, что Вы выбрали металлодетекторы фирмы Garrett! Благодарим Вас за выбор металлодетектора серии ACE от компании Garrett. Этот улучшенный металлодетектор обладает возможностью поиск...»

«ОБЩАЯ ТЕОРИЯ ЦИКЛА ИЛИ ЕДИНСТВО МИРОВЫХ КОНСТАНТ Соколов Ю.Н Содержание Введение..5 1. Общая теория цикла..7 2. Единство мировых констант..18 Заключение..43 Литература..44 Этот космос, один и тот же для всего...»

«McKinsey Global Institute Эффективная Россия Производительность как фундамент роста McKinsey & Company McKinsey & Company – международная компания, лидер управленческого консалтинга. McKinsey помогает руководителям совершенствовать работу их органи...»

«4. Вселенская формула Любви ( Абсолютного Света ). Абсолютная энергия Бога, энергия Абсолютного Света, излучаемая Высшим Истоком Света Абсолютного Вселенского Сознания, Высшими Истоками Света Единства просветленных единичных Сознани...»

«Конвергенция мобильной и фиксированной связи (FMC) в мире и в России: текущее состояние и перспективы Определение FMC – это внутрикорпоративная сеть с единым планом нумерации и едиными правилами управления вызовами на офисных и мобильных телефонах. Одна из наиболее...»

«НАУЧНЫЕ ВЕДОМОСТИ Серия Гуманитарные науки. 2014. № 13 (184). Выпуск 22 369 _ УДК 159.99 КОГНИТИВНЫЙ КОМПОНЕНТ ОБРАЗА ФИЗИЧЕСКОГО Я ИСПЫТУЕМЫХ С РАЗНЫМИ ТИПАМИ ПРИВЯЗАННОСТИ К МАТЕРИ В. А. Цуркин В статье представлены результаты исследован...»

«Данков Михаил Юрьевич научный сотрудник Национального музея Республики Карелия, Действительный член Русского географического общества, член "Ассоциации работников музеев России" (СПб) Республика Ка...»







 
2017 www.doc.knigi-x.ru - «Бесплатная электронная библиотека - различные документы»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.