Show content

Миражи и мифы цифрового телевидения

Форум Системы безопасности / Форум Видеонаблюдение /

01.01.2014 20:49:35

компания Вокорд разработала программный MJPEG-энкодер/декодер,
компания Вокорд разработала программный MJPEG-энкодер/декодер,
компания Вокорд разработала программный MJPEG-энкодер/декодер,

Да, уж - википидия отдыхает, а вот объединенная группа фотографов-экспертов импенуемая англ. Joint Photographic Experts Group - JPEG ввидимо уже готовит исковую заяву в Страсбург! ;-))

05.01.2014 20:20:00

Твердотельные сенсоры изображения: как получается цвет

«Классические» ФПЗС и КМОП-сенсоры [1]

Сами по себе они не способны различать цвета: разница в длинах волн (а именно длиной волны и определяется цвет) падающих на них фотонов воспринимается как разница в энергиях (E ~ hv). Вариации как энергии фотона, так и их числа за время экспозиции приводят к изменению всего лишь одной величины — заряда в ячейке для ФПЗС или напряжения для КМОП. Поэтому на выходе мы имеем монохромное изображение, т.?е. градации серого.

Для обеспечения сенсору возможности различать цвета нужны дополнительные приспособления. А что же такое «цвет», вообще говоря? В физике у света есть спектр — набор длин волн излучения. Этим спектром однозначно определяется цвет — психофизиологическое ощущение. Обратное утверждение, кстати, неверно — несколько различных спектров могут давать одно и то же ощущение цвета.

Т.?к. с точки зрения колориметрии цвет — трехмерная векторная величина, то нужно неким образом выделить из падающего на сенсор светового потока три [2] составляющих. Возможность трехмерного описания цвета [3] объясняется не физическими свойствами самого света, а механизмами цветовосприятия глаза.

Суть «классического» сенсора: в одном пикселе за время экспозиции мы можем сделать только одно спектральное измерение (исключения — см. ниже).

В настоящее время существуют следующие подходы:

1. Расщеплять свет после объектива (например, системой призм) на три области — красную, зеленую и синюю, и подавать на три отдельных монохромных сенсора.

Такой подход часто используется в профессиональных фото и видеокамерах и называется 3CCD.

2. Установить светофильтры перед сенсором.

Если время получения изображения не критично, можно использовать последовательное экспонирование сенсора через барабан со светофильтрами. Минус — требуется в три раза больше времени. Поэтому для съемки движущихся объектов такой метод не подходит. Однако сохраняются все остальные плюсы предыдущего подхода, да и трех матриц с призмой не нужно.

3. Установить светофильтры непосредственно над каждым пикселем сенсора.

Если в сенсоре используются микролинзы [4], то светофильтры устанавливаются между микролинзой и ячейкой. Распределение таких светофильтров по поверхности сенсора — массив цветных фильтров (CFA = Color Filter Array) может быть различным.

3.1. Например, линейный (используется в некоторых планшетных сканерах — там как раз всего три строки для каждого из цветов):R R R R R G G G G G B B B B B

3.2. Наиболее популярный — байеровский, по цветовой модели Байера (B. Bayer [5]), предложенной в начале 70-х годов прошлого века. Иначе — RGBG-фильтр. Все массивы, построенные по принципу Байера называют мозаиками.

Выигрыш по скорости и стоимости варианта с массивом цветных фильтров, «компенсируется» проигрышем по пространственному и цветовому разрешению. Данные одного пикселя итогового изображения «размазываются» по нескольким ячейкам. Для того, чтобы получить RGB-значения каждого пикселя необходимо произвести цветовую интерполяцию. См. иллюстрацию: RGBG Элементарный узор массива получается из четырех ячеек с тремя типами светофильтров. В основе байеровского фильтра и большинства других лежит принцип дискретизации яркостного канала на большей частоте, нежели двух оставшихся цветовых. За яркостной канал был принят зеленый, т.?к. кривая яркостной чувствительности глаза человека имеет максимум около точки 550 нм, что соответствует зеленому цвету. Да и число зеленочувствительных рецепторов на сетчатке в два раза больше, чем красных или синих.

Наиболее заметные артефакты от такой цветовой интерполяции появляются при быстром изменении цвета относительно пространственных координат изображения (некий контрастный, ритмический рисунок в мелких деталях) — возникают искажения цветов и контуров, исчезновение мелких деталей, муар. Например, в нашей сцене есть небольшая белая точка на черном фоне. Она может попасть только на одну синюю ячейку. В таком случае на изображении она будет представлена синим пикселем. Описанный эффект называется алиайсингом. Устранить его можно только размытием изображения: посредством анти-алиайсинг фильтра или расфокусировкой. Анти-алиайсинг фильтрация (по сути, размытие наподобие blur-эффекта) дополнительно уменьшает пространственное разрешение. Поэтому сенсоры с CFA для профессиональной техники мало подходят, т.к. сам сенсор не может обеспечить разрешения, которое дает качественный объектив: в худшем варианте один итоговый пиксель интерполируется из 9 пикселей сенсора. Если мы будем увеличивать число пикселей сенсора, уменьшая их размеры, то упремся в собственные шумы сенсора, а если увеличивая размер сенсора — в технологический передел размера пластин или стоимости системы.

http://www.ixbt.com/digimage/sens.shtml


PS

А вот если доценты в кандидаты, перестанут выдумывать (т.е. интерполировать) и раздувать фотоэлементы матрицы до несуществующих (дутых) мего-субпикселов, то вполне возможно что к концу 2014 года у нас появится возможность, наконец то на экваранах CCTV мониторов, увидить картинку HD качества, но при одном условии картинку мы будем получать без сжатий т.е. по каналам - HD-SDI

- потому что:

Мегапиксели, мегапиксели...

Мы все неравнодушны к большим числам, подсознательно считая, что если процессор - то многогигагерцовый, а если матрица - то многомегапиксельная. И продолжается технологическая гонка за мегапикселями, гигагерцами, гигабитами... И звучат в форумах недоуменные вопросы типа: "А почему вы говорите, что камера А лучше камеры В, ведь у камеры В больше пикселей на матрице?!" Но всегда ли "больше" означает "лучше"? Давайте попробуем дать ответ на этот вопрос в конкретной сфере - сфере бытовых видеокамер, которые, кстати, более всех остальных видеокамер подвержены этой гонке за мегапикселями.

Начнем с того, что такой важный параметр как чувствительность матрицы определяется размером (площадью) пикселя - чем он больше, тем больше чувствительность, чем он меньше - тем, соответственно, чувствительность меньше. Уже из этого факта легко понять, что гонка за мегапикселями неизбежно будет вести к потере чувствительности видеокамеры, ведь размер матрицы ограничен и, увеличивая количество пикселей на ней, мы уменьшаем их размер, а значит и чувствительность камеры. Где тут оптимум? Для определенности будем говорить о стандарте DV, который в своей PAL-реализации имеет размер кадра 720х576 (это, кстати, относится и к большинству MPEG2 камер). А это значит, что для достижения оптимального результата нам необходимо всего 720 х 576 = 414720 пикселей! Так? Да, так, но только для 3CCD системы с оптическим стабилизатором, который не требует излишка пикселей для своей работы (далее мы еще вернемся к вопросу о стабилизаторах). Если же мы говорим об одноматричной системе, то, как вы помните, из 400000 пикселей на зеленый цвет придется всего 200000, а на синий с красным - по 100000 пикселей, что явно мало. То есть надо увеличить количество пикселей, чтобы обеспечить приемлемые условия для цветовой интерполяции. Если же стабилизатор на матрице электронный, то число пикселей на ней должно быть еще больше. Практика показывает, что оптимумом для одноматричной DV камеры с электронным стабилизатором является 1-1.3 Мп. на матрице. Ну а как тогда относиться к 2, 3, а последнее время и 4 мегапиксельным видеокамерам? Надо признать, что эти камеры - продукт этой самой "гонки за мегапикселями", не несущей ничего хорошего собственно качеству видео (про фоторежим я тут пока не говорю).

Хотя нельзя не сказать об одном интересном свойстве многомегапиксельных видеокамер, вернее, видеокамер у которых в видеорежиме (PAL) используется 720 х 576 х 4 = 1658880 и более пикселей (видеокамеры Canon с матрицей в 2.2 Мп., видеокамеры Sony с 3 Мп. матрицей). Дело в том, что на картинке с таких видеокамер каждая точка конечного 720 х 576 изображения приходится как раз на один Байеровский RGGB блок (4 пикселя) на матрице камеры. А это, в свою очередь означает, что каждая точка финальной картинки несет в себе законченную цветовую информацию (почти как в 3CCD системе)! То есть мы получаем, в некотором роде, "псевдотрехматричность", что благотворно сказывается на цветопередаче и разрешении таких камер. Ну а с недостатком чувствительности, обусловленным малым размером одной ячейки на такой матрице, можно отчасти бороться, усредняя сигналы с соседних пикселей (пикселей много и простора для такой обработки предостаточно). При этом можно заметно снизить уровень яркостных шумов ("зерна" на изображении, хорошо заметного при недостаточном освещении), что эквивалентно повышению чувствительности.

Но все же лучшей системой для съемки видео формата DV остается система 3CCD, с числом пикселей на каждой матрице около 400000 и оптическим стабилизатором. Только вот любительских камер, обладающих подобными характеристиками, уже не осталось...

http://www.videomax.ru/tests/camera_choosing/


А так же потому что -

Датчики изображения Sony IMX206CQC и IMX206HQC формата 1/2,3 дюйма имеют разрешение 16,35 Мп

Компания Sony представила датчики изображения IMX206CQC и IMX206HQC типа CMOS с обратной засветкой, предназначенные для потребительских фотокамер и видеокамер.

Размер пикселя равен 1,34 мкм. На активной области датчика формата 1/2,3 дюйма (7,77 мм по диагонали) помещается 16,35 млн. пикселей (матрица 4672 x 3500).

В числе достоинств датчиков производитель отмечает маленькие размеры и малое энергопотребление. По сравнению с существующими датчиками формата 1/2,3 дюйма удалось уменьшить объем изделия на 53%, а потребляемую мощность — на 33% (в режиме съемки видео Full HD 1080p). Габариты датчика равны 10,7 х 8,5 х 1,52 мм, потребляемая мощность в режиме съемки видео Full HD 1080p с кадровой частотой 60 к/с составляет 270 мВт.

http://www.ixbt.com/news/hard/index.shtml?17/49/61

05.01.2014 22:09:49

Давайте попробуем дать ответ на этот вопрос в конкретной сфере - сфере бытовых видеокамер, которые, кстати, более всех остальных видеокамер подвержены этой гонке за мегапикселями.

Вадим Викторович, а чего выбрали какую-то бытовую ширпотребовскую сферу? Её легко критиковать.

А как быть с монохромными камерами? Вот например, IP-видеокамера VOCORD NetCam K41M16SA с истинным разрешением 2336x1752 (4.1 МПиксел). Всю вашу критику и теорию на свалку?

05.01.2014 22:46:29

А как быть с монохромными камерами?
Вот, когда научитесь на компьютерных системах передачи, обработки и визуализации трех копонентного сигнала RGB, позволяющим обрабатывать, а самое главное визуализировать, до 16 милионов оттенков (ну а если не забыли то - серый это тоже оттенки цветов RGB и необязательно что r=g=b) - вот когда и приходите, вот тогда поговорим про - динамический диапазон в 120 дБ, то есть приходите после того как научитесь хотябы передавать не те жалкие 10-14 бит, которые вы и сейчас-то ужимаете до 8, да еще и с избыточностью в 16 (4:2:0) оттенков серого - вот только тогда и приходите, вот тогда поговорим ;-)) и про динамический диапазон цветного изображения и про динамический диапазон ЧБ в свете её визуализации на RGB дисплеях, а самое главное про никому не нужную избыточность передачи чернобелого изображения от финдиперсовой ЧБ камеры а-ля вокорд 10-14 бит, но через 4:2:0 mjpeg вкупе с методанными !

05.01.2014 23:58:15

Вот, когда научитесь на компьютерных системах передачи, обработки и визуализации трех копонентного сигнала RGB, позволяющим обрабатывать, а самое главное визуализировать, до 16 милионов оттенков (ну а если не забыли то - серый это тоже оттенки цветов RGB и необязательно что r=g=b)...

Вадим Викторович, ну нету в монохромной VOCORD NetCam K41M16SA световых схем RGB!

В RAW-потоке передаются либо выровненные по 16-битным словам 14-битные, либо нормализованные с помощью AHE и LUT до 8-битных слов, значения яркостей пикселов.

В MJPEG-потоке используется либо стандартный монохромный формат (SOF0.numOfComponents = 1), либо YUV 4:2:0, которые понимают все существующие на рынке декодировщики JPEG.

В МЕТА-потоке тоже, как и в RAW, передаются либо выровненные по 16-битным словам 14-битные, либо нормализованные с помощью AHE и LUT до 8-битных слов, значения яркостей пикселов.

Для визуализации используется стандартная процедура DirectX11, которая автоматически преобразует цифровое изображение из градаций серого в формат, необходимый для воспроизведения на цветном LCD-дисплее, используя ресурсы GPU.

Таким образом нигде ваш любимый RGB не возникает.

Так что, вашу теорию всё-таки на свалку, а?

Вот, когда научитесь ... вот когда и приходите, вот тогда поговорим ... - вот только тогда и приходите, вот тогда поговорим ...!

Ну а вообще, ваш текст некоторые могут воспринять как какую-то истерику. Как какой-то посленовогодний инегрет. Чего сказать-то хотели, дорогой Вадим Викторович? Не могли бы вы изложить свои мысли яснее?

06.01.2014 13:13:43

Для визуализации используется стандартная процедура DirectX11, которая автоматически преобразует цифровое изображение из градаций серого в формат, необходимый для воспроизведения на цветном LCD-дисплее, используя ресурсы GPU.

Ну а после такого заявления

ну нету в монохромной VOCORD*******световых схем RGB!

Ну и соответственно заявление что

Таким образом нигде ваш любимый RGB не возникает.

Вызывает только унылую улыбку, да к тому же еще и дает неоспоримое доказательство того что, - доценты в кандидаты, совершенно не знакомы с АЗАМИ телевидения, но упорно продолжают грызть кактус - продолжая демонстрировать свою полнейшую, так скажем по мягче - неосведомленность в вопросах понимания визуализации и обработки телевизионного сигнала (причем даже монохромного) ибо они:

В RAW-потоке передаются либо выровненные по 16-битным словам 14-битные, либо нормализованные с помощью AHE и LUT до 8-битных слов, значения яркостей пикселов. В MJPEG-потоке используется либо стандартный монохромный формат (SOF0.numOfComponents = 1), либо YUV 4:2:0, которые понимают все существующие на рынке декодировщики JPEG.

И вместо того чтобы понять, - что нет никаких проблем для визуализации 10 битных оттенков серого от ЧБ ВК - но на цветном устройстве визуализации.

Ну что же, для того чтобы бывшие жертвы ЕГЭ, и нынешний доценты в кандидаты перестали жевать этот несчастный 10 битный кактус в 8-ми битном представлении - придется видимо прибегнуть к очередным комиксам:

Вот так, представляют себе АЗЫ телевидения, ныне в него случайно попавшие IT-шники, причем пришедшие со своим бинарно-двоичным уставом и со своим пониманием в 256 уровней градаций серого:

Хотя в цветном телевидении, нет никаких проблем для визуализации и 768-ми и даже более градаций серого (т.е. 10 бит и более) и нет никаких препятствий для отображении подобного изображения на стандартных RGB системах, но с одним условием - воспринимать это изображение может адекватно - только пользователь системы - т.е. человек, с его физическими и физиологическими особенностями:

PS

Так что дорогие мои доценты в кандидаты: - это вам, перед тем как начинать истерИть:

Ну а вообще, ваш текст некоторые могут воспринять как какую-то истерику. Как какой-то посленовогодний инегрет.

необходимо не только матчасть выучить, но и неплохо б изучить АЗЫ телевидения и желательно по неким как вы выражовываетесь - древним манускриптам!

;-))

06.01.2014 17:02:46

нет никаких проблем для визуализации 10 битных оттенков серого от ЧБ ВК - но на цветном устройстве визуализации.

Ну, что можно доказать человеку, у которого явные проблемы с логикой?

Ему приводят доказательства, что существуют монохромные видеокамеры (например VOCORD NetCam K41M16SA ), которые при формировании, трансляции, обработке видеоданных нигде не используют цветовую схему RGB, а используют только яркостную компоненту. Из чего следует, что все объяснения, расписанные здесь В.В.Тюриным, что во всех мегапиксельных камерах "истинное" разрешение уменьшается за счет цветового фильтра Байера - неверно. А В.В.Тюрин в ответ возражает, что RGB использовать - можно. Ну и что, что можно? Следуя этой женской логике, ещё можно все видеоданные вообще занулить, и после этого рассуждать о резком уменьшении разрешения. Но это ничего не доказывает.

Это же азы математической логики: чтобы опрорергнуть обобщение достаточно привести один пример, нарушающий это обобщение; но чтобы доказать обобщение, нужно доказать, что не существует ни одного примера, его нарушающего.

Таким образом, обобщение В.В.Тюрина, что разрешение цифровых мегапиксельных видеокамер всегда уменьшается вследствие наличия фильтра байера - неверно.

06.01.2014 17:32:18

Ну, что можно доказать человеку, у которого явные проблемы с логикой?

А вы умеете-ль доказывать-то что-либо, дорогой мой кандидат в секретари референты?! ;-))

Всё что вы умеете, причем это видимо стало даже понятно некоторым особам, которых вы я так думаю опрометчиво дискриминировали по половому признаку, так это то что:

- все "доказательства" от вокорда, сводятся к простой пиар акции по рекламированию "чудо" камер, правда картинку с которых нет возможности ни то что визуализировать, а нет возможности даже отдать на растерзание ни одной из 13 пресловутых машинных ВА, если её перед этим не запоганить в угоду убогости бинарно-машинного объектно-ориентированного способа мышления авторов этих "чудо" камер, причем убогости мышления связанного именно с убогостью передачи и обработки оцифрованного ЧБ видиосигнала как такового!

:-))

08.01.2014 13:14:09

vocord.ru писало: -Таким образом, обобщение В.В.Тюрина, что разрешение цифровых мегапиксельных видеокамер всегда уменьшается вследствие наличия фильтра байера - неверно.

Диагональ 7.77 мм (тип 1/2.3) 16.35M-эффективных пикселей задней подсветкой Цвет CMOS-датчика изображения

Таблица 1 Структура устройства
ПунктIMX206CQC/HQC
Размер изображения Диагональ 7.77 мм (тип 1/2.3) 4:3
Процесс изготовления Вернуться подсветкой CMOS сенсор изображения
Выходной формат Цифровой 10 bit/12 бит 4 ч. Суб-LVDS, 576 Мбит последовательный выход
Общее количество пикселов 4768 (H) x 3516 (V), прибл. 16.76m
Количество эффективных пикселей 4672 (H) x 3500 (V), прибл. 16.35M
Количество активных пикселей 4632 (H) x 3492 (V), прибл. 16.17M
Размер элементарной ячейки 1,34 мкм (H) ? 1,34 мкм (V)
Оптические чернокожие Горизонтальный Спереди: 48 пикселей, задняя: 0 пикселей
Вертикальный Спереди: 16 пикселей, задняя: 0 пикселей
Питание характеристики Аналоговый 2.8 В
Цифровой 1,2 В
Ввода / вывода 1.8 В
PGA 24 дБ
Входная частота часы Выбирается из 72 MHz/36 MHz/24 МГц/12 МГц
Размер упаковки 10.7 мм (В) x 8,5 мм (V) ? 1,52 мм (т)
Таблица 3 Показания счетчика Режимы
Режим перевода кадровУправление с помощью Type 1/2.3, ок. 16.35M пикселей (4:3)
Количество рекомендованных записываемых пикселейЧастота кадров [кадров / с]Количество / D битов преобразования [немного]
Все пикселей сканирования (12 бит) 4608 (H) x 3456 (V) прибл. 15.92M пикселей 10 12
Все пикселей сканирования (10 бит) 4608 (H) x 3456 (V) прибл. 15.92M пикселей 12 10
Режим 1 * 1 * 2 2304 (H) x 1296 (V) прибл. 2.99m пикселей 60 10
Режим 2 * 1 * 2 2304 (H) x 1728 (V) прибл. 3.98m пикселей 30 10
Режим 3 * 1 * 2 1536 (H) x 1152 (V) прибл. 1.77m пикселей 60 10
Режим 4 * 1 * 2 1536 (H) x 384 (В) прибл. 0.59M пикселей 240 10
Режим 5 * 1 * 2 1536 (H) x 384 (В) прибл. 0.59M пикселей 30 10
Режим 6 * 1 * 2 1536 (H) x 180 (В) прибл. 0.27M пикселей 420 10
Режим 7 * 2 2304 (H) x 1296 (V) прибл. 2.99m пикселей 60 10
Режим 8 * 1 * 2 1536 (H) x 576 (В) прибл. 0.88m пикселей 120 10

* 1 С горизонтальной * 2 с вертикальным

И матрица с 4632 (H) x 3492 (V), прибл. 16.17M, и разрядность АЦП от 10 до 12 бит - но вот только основное предназначение данной матрицы :

Примечание: Это устройство было разработано для использования в бытовой цифровые фотоаппараты и видеокамеры и может не подходить для других приложений. Обратитесь к представителю Sony для консультаций при рассмотрении этот продукт для использования в других приложениях.

08.01.2014 21:46:52

Вернуться подсветкой CMOS сенсор изображения

Дорогой Вадим Викторович, некоторые могут подумать, что у вас со знаниями во всех других областях дела обстоят так же, как с английским языком. На всякий случай: Backside illumination CMOS image sensor переводится как "КМОП-датчик изображений с освещением с задней стороны".

А что сказать-то хотели? О чём месседж?