Зарегистрировано: 318




Помощь  Карта сайта

О чем пишут?

Оптические материалы и технологии

Дальше..

Я так вижу!

P1010354.JPG

P1010354.JPG

Текст в часовне на Савкиной горке


Тексты. Прозариум

Тексты на сайте могут публиковаться как в составе книг, по которым они "разложены", так и по отдельности. Тексты можно публиковать на странице их владельца, в блогах, клубах или рубриках сайта, а так же в виде статей и объявлений. Вы можете публиковать на сайте не только собственные тексты, но и те, которыми хотите поделиться с читателями, соблюдая авторские права их владельцев.
Prozarium CMS | Реклама, сотрудничество | Разработка, продажа сайтов

Для добавления вашего собственного контента, а также для загрузки текстов целиком, загрузки текстов без разбиения на страницы, загрузки книг без разбиения на тексты, необходима авторизация. Если вы зарегистрированы на сайте, введите свой логин и пароль. Если нет, пожалуйста, пройдите регистрацию



Опубликовано в: Клуб: Обработка астрофото. Cъемка, сложение, постобработка
<--Астрофото
<--Астрономия (ЛА)

0





Обработка астрофото в IRIS

12.07.2013



Источник: http://www.astrosurf.com/

Оглавление

1. Введение
2. Несколько необходимых замечаний
3. Немного теории
4. Установка программы
5. Подготовка к работе
6. Как быстро посмотреть содержащееся в RAW-файле изображение?
7. Первые этапы обработки
7.1. Преобразование группы изображений из формата
7.2. Получение карты тока смещения (master offset map)
7.3. Получение карты темнового тока (master dark frame)
7.4. Создание списка «горячих» пикселей
7.5. Получение карты плоского поля (master flat-field)
7.6. Что делать, если..
7.6.1. … не были сняты снимки тока смещения?
7.6.2. … не были сняты снимки плоского поля?
7.7. Предобработка
8. Завершающие этапы
8.1. Преобразование из CFA в RGB формат
8.2. Автоматическое совмещение 48-битных RGB изображений
8.3. Сложение изображений
8.4. Коррекция цветового баланса
9. Remove the gradient of the sky background
10. Wavelet analysis
11. Deconvolution
12. Color techniques

1. Введение

Программа IRIS представляет собой универсальный, свободно распространяемый, регулярно обновляемый автором программный продукт, предназначенный для обработки любительских астрономических снимков – как объектов солнечной системы, так и объектов дальнего космоса (deep-sky). Программу можно бесплатно загрузить воспользовавшись ссылкой – http://www.astrosurf.com/buil/us/iris/iris.htm. На этом же сайте можно найти описание методов работы с программой на французском и английском языках. Скорее всего, из-за того, что автор программы – француз, наиболее полно программа описана именно на французском языке. Одной из особенностей программы является то, что максимальное количество заложенных автором возможностей становятся доступными при работе во внутренней командной строке программы (список команд версии 5.00 можно найти по адресу
http://www.astrosurf.com/buil/iris/nav_pane/CommandsFrame.html)

Во время начала работы автора этого текста над данным описанием новейшей являлась версия 5.34. Именно на ее примере здесь будут изложены основы работы с программой.
Итак, вот какие возможности заложены в IRIS:

• Работа с графическими форматами FITS, BMP, JPEG, TIFF, PNG;
• Работа с RAW-форматами большинства цифровых фотоаппаратов (CRW, CR2, NEF, PEF, MRW, RAF, ORF, THM, X3F);
• Работа с несжатыми AVI-файлами;
• Управление некоторыми видами ПЗС-камер;
• Автогидирование;
• Геометрические преобразования изображений и подавление проявлений атмосферной турбулентности;
• Автоматическая и ручная обработка съемок планет и дальнего космоса (deep-sky);
• Автоматическая и ручная работа с dark frame и flat field;
• Оценка качества, сортировка, совмещение и сложение множества кадров, полученных во время съемок, как планет, так и звездных полей;
• Фурье-анализ и фильтрация;
• Вейвлет-обработка;
• Подавление шумов;
• Деконволюция (восстановление) изображения;
• Работа со звездными каталогами, астро и фотометрия;
• Картографирование планет.

IRIS можно рассматривать как неплохую альтернативу известной программе Registax в случае обработки снимков планет, а так же программам MaxIm DL, Registar и т.п. в случае обработки снимков объектов дальнего космоса.

2. Несколько необходимых замечаний

Данное описание основано на текстах-инструкциях, опубликованных автором программы на сайте – местами это перевод, местами интерпретация. Оно не претендует на всеобъемлющее описание программы, способов работы с ней, методов обработки астрономических изображений и принципов, лежащих в основе получения цифровых снимков. Основы работы с IRIS будут описаны на примере обработки снимков шарового скопления M4, полученных автором данного текста совместно с Александром Мереминским в Кемере (Турция) во время поездки с целью наблюдения солнечного затмения 29 марта 2006 г. Снимки сделаны фотоаппаратом Canon 300D через телескоп Synta SkyWatcher 80ED, установленном на монтировке Synta HEQ-5. Гидирование осуществлялось с помощью веб-камеры Philips TuCam 740 через телескоп Synta SkyWatcher 709 с помощью программы ProGuider 1.

3. Немного теории

Если цифровой фотоаппарат способен сохранять снимки в формате JPEG или TIFF и в формате RAW, то именно использование последнего позволит получить наилучшие фотографии астрономических объектов. Этому есть, по крайней мере, три основные причины:

1) снимки в формате RAW не подвергаются никаким серьезным преобразованиям, приводящим к потере информации. В то время как от формат JPEG является форматом сохранения данных с потерей мелких малоконтрастных деталей. В случае астрофотографии обычно приходится иметь дело именно с такими деталями.

2) Программное обеспечение цифровых фотоаппаратов при сохранении снимка в формате RAW отводят по 10, 12 или 14 бит на пиксель, в то время как при сохранении в форматы JPEG и TIFF ограничиваются только 8 битами динамического цветового пространства (хотя, формат TIFF позволяет отводить и 16 бит на цветовой канал на пиксель). Сохранение информации о цвете с помощью 8-ми бит, позволяет различить до 256 оттенков данного цвета. Использование же 12-ти бит, позволяет описать до 4096 оттенков.

3) Параметры съемки хорошо фиксируются в формате RAW, гарантируя получение воспроизводимых результатов, в то время как, при сохранении изображений в форматах JPEG или TIFF, процессоры цифровых камер делают большое количество преобразований данных, что сильно затрудняет дальнейшее серьезное их использование.

Во время длительных экспозиций на получаемый результат влияют следующие искажающие факторы:

1) во время экспозиции, к сигналу от наблюдаемого объекта добавляется сигнал, возникающий из-за тепловых эффектов в примесях и неоднородностях материалов, входящих в состав матрицы. Проявление этого темнового тока (назван так из-за того, что проявляется даже тогда, когда матрица находится в полной темноте) заключается в понижении отношения сигнал/шум на изображении. Темновой ток имеет сильную зависимость от температуры матрицы и чтобы свести к минимуму его влияние, ее нужно охладить. Охлаждение матрицы до -50°C позволяет практически полностью избежать его влияния. С темновым током связаны следующие два эффекта:

• Шум считывания – флуктуации считываемого из пикселей матрицы накопленного под действием фотонов заряда. Есть только один способ избавиться от влияния шума считывания – это сделать несколько экспозиций одного и того же объекта, а затем усреднить их.

• Пространственный шум – возникает из-за того, что каждый пиксель матрицы по-разному реагирует на темновой ток. Этот тип шума проявляется как неоднородность полученного с матрицы сырого изображения. Эта неодинаковая чувствительность к темновому току мало изменяется от экспозиции к экспозиции. Поэтому можно построить массив данных, корректирующих неоднородность. Такой массив данных в англоязычной литературе называется «картой темнового тока» (dark current map). Его можно получить из усреднения нескольких (обычно ~ 10) снимков, полученных с длительной экспозицией, в полной темноте, при постоянной температуре.

2) Также к полезному сигналу добавляется ток смещения, практически не зависящий от времени накопления сигнала и температуры матрицы. Ток смещения возникает из-за характеристик усилителей и прочих электронных компонентов, обеспечивающих работу камеры. Влияние тока смещения может быть легко исключено из рассмотрения путем вычитания массива данных, называемого в англоязычной литературе «картой тока смещения» (offset map). Карта тока смещения получается усреднением нескольких снимков, полученных в полной темноте с минимально возможной экспозицией.

3) Не все пиксели матрицы имеют одинаковую чувствительность к свету. Поэтому, даже если детектор освещен однородным светом, полученное камерой изображение не обязательно будет однородным. Так же как и в случае темнового тока, в этом случае понижается отношение сигнал/шум и затрудняется применение полученных данных для фотометрии.
Кроме этого, распределение освещенности в фокальной плоскости телескопа не бывает однородным из-за виньетирования или присутствия пыли на пути лучей света. Это также приводит к неоднородности получаемого изображения. Эти эффекты могут быть скорректированы путем деления полученного изображения на, так называемое, «плоское поле» (fla t-field image). Плоское поле можно получить, например, в сумерках, к огда небо все еще достаточно яркое для получения приемлемого по уровню сигнала в течение короткого времени экспозиции (~1 секунды). Не должно быть слишком темно, чтобы не пришлось делать длительных экспозиций, приводящих к нежелательной проработке звезд на снимке.

Описываемые далее первые этапы процесса обработки изображений призваны свести к минимуму влияние всех этих эффектов. Эти первые этапы названы пред-обработкой.

4. Установка программы

С домашней страницы программы нужно скачать архив в формате ZIP, содержащий все необходимые файлы для нормальной ее установки на компьютер. Этот архив нужно распаковать во временную директорию и запустить файл setup.exe. После чего на экране появится предложение пользователю указать, куда будет установлена программа
<Рис. 1>

По умолчанию программа будет установлена в директорию c:\iris. Нажав кнопку Browse, можно указать любую другую директорию (Рис. 2.). В появившемся окне с заголовком Choose Directory нет специальной кнопки для создания новой поддиректории внутри выбранной. Но, как показано на Рис. 2. в строку Path можно вписать любой сложности путь к директории, в которую нужно установить программу.

После того, как путь введен и нажата кнопка Ok, на экране появится сообщение (Рис. 3.) о том, что выбранная директория не существует, и вопросом, хочет ли пользователь ее создать? Нажатием кнопки Yes подтверждаем создание директории и продолжаем установку программы нажатием кнопки Next >. На экране появится окно, озаглавленное Select Program Folder (Рис. 4.). В этом окне можно выбрать, где в списке установленных программ появится иконка запуска IRIS (Рис. 5.).

Когда выбрано, где появится иконка программы, нажимаем Next > и продолжаем процесс. Когда все файлы скопированы, на экране появится сообщение об успешном окончании установки (Рис. 6.)

<Рис. 1. Начало установки программы, Рис. 2. Программа будет установлена в директо-рию c:\program files\astronomy\iris, Рис. 3. Нужно ли создавать несуществующую директорию?, Рис. 4. Приглашение выбрать, куда поместить иконку запуска программы, Рис. 5. Иконка запуска программы будет поме-щена в списке программ в каталог Astronomy в подкаталог IRIS, Рис. 6. Установка успешно завершена, Рис. 7. Вид основного окна программы сразу после запуска>

5. Подготовка к работе

После запуска программы на экране появится ее основное окно (Рис. 7.). Перед началом работы необходимо произвести некоторые настройки. Для этого в меню программы выбираем File, далее Settings (Рис. 8.). Появится окно, примерный вид которого показан на Рис. 9. Здесь есть только два важных для обработки съемок планет момента – выбор рабочей директории и типа файлов, с которыми будет работать программа.

Во время работы программа активно использует файловый ввод/вывод для хранения промежуточных результатов. Поэтому нужно выбрать отдельную директорию, откуда будут считываться, и куда будут сохраняться файлы с изображениями. Для этого нажимаем кнопку с троеточием (...) и в открывшемся диалоговом окне Select Directory выбираем одну из существующих директорий в качестве рабочей.

Теперь нужно выбрать тип промежуточных файлов, с которыми будет работать программа. Можно выбрать между хорошо известным форматом FITS для хранения астрономических изображений и собственным форматом программы PIC. Автор программы рекомендует использовать формат PIC с точки зрения более эффективной работы. Только при работе с этим форматом можно обрабатывать цветные изображения. Результат обработки можно будет сохранить в любом графическом формате из довольно обширного списка. Поэтому будем использовать формат PIC.

Когда эти настройки сделаны, закрываем окно нажатием кнопки OK и переходим к следующему этапу настройки программы. На панели инструментов нажимаем кнопку , после чего появится показанное на Рис. 10 окно. Здесь нужно выбрать из списка тип используемой цифровой фотокамеры. В нашем случае это CANON (10D/300D/Rebel).

<Рис. 8. Открываем окно основных настроек программы, Рис. 9. Основные настройки программы, Рис. 10. Различные настройки, связанные камерами>

Затем нужно выбрать один из алгоритмов, который IRIS будет использовать для преобразования снимков в формате RAW в цветные изображения. Это алгоритмы, по которым делается интерполяция данных между соседними пикселями, покрытыми красными, зелеными и синими фильтрами. Иногда эту операцию называют дебайеризацией (см. часть 6).

В результате получается изображение в котором каждому цветовому слою в пространстве RGB отведено 16 бит (в общей сложности 48 бит на пиксель). Билинейный алгоритм интерполяции самый быстрый, но дает не лучшее пространственное разрешение. Однако, этот метод остается жизнеспособным во множестве случаев, т.к. при совмещении последовательности снимков разрешение уменьшается в той же мере.

Алгоритм, использующий медианный фильтр, сохраняет разрешение, но искажает естественный вид звезд на снимках deep-sky. Поэтому данный метод автором IRIS не рекомендуется для снимков звезд. Градиентный алгоритм хорошо сохраняет разрешение. Хотя он и работает дольше, но дает лучший результат с точки зрения детализации, даже если на снимке имеются дефекты.

Результат применения этих алгоритмов к небольшой части снимка шарового скопления M4 показан на Рис. 11. Для большей наглядности каждый фрагмент увеличен в три раза по сравнению с исходным изображением. Можно заметить, что применение градиентного алгоритма дает хороший результат, свободный от артефактов. Этим алгоритмом и будем пользоваться в дальнейшем (Рис. 10).

6. Как быстро посмотреть содержащееся в RAW-файле изображение?

В меню File выберите Load… и в открывшемся окне выберите тип файлов “Photo(*.crw,…”, как показано на Рис. 12. Затем, используя это окно, перейдите в директорию, содержащую нужный RAW-файл, и откройте его, нажав кнопку Open.

При открытии RAW-файла программа выполнит значительный объем вычислений. Прежде всего, IRIS преобразует содержащуюся в файле информацию в CFA-формат.

CFA - сокращение от английского Color Filter Array. Изображение в этом формате – черно-белая картинка, представляющая уровень сигнала, полученный каждым физическим пикселем матрицы. Каждый из этих пикселей покрыт красным, зеленым или синим фильтром, и отвечает за по-лучение информации в соответствующем диапазоне длин волн света.

Например, если сфотографировать однородно светящуюся красную поверхность, то на изображении в CFA-формате только пиксели, покрытые красными фильтрами, будут иметь некоторый уровень сигнала, в то время как в пикселях, покрытых зелеными и синими фильтрами, уровень сигнала будет близок к нулю. Такой способ кодирования цветного изображения называется байеровским, а информацию в формате CFA называют байеровским массивом.

Типичное расположение пикселей, покрытых цветными фильтрами показан на Рис. 13.
Затем с помощью одного из алгоритмов интерполяции (см. часть 5), IRIS преобразует изображение из CFA-формата в три отдельных изображения, хранящих информацию, полученную в красном, зеленом и синем диапазоне спектра, от наблюдаемого объекта. Точное восстановление деталей изображения в каждом цветовом слое очень деликатная операция, требующая значительных вычислений.

В результате выполнения всех этих операций, в главном окне программы будет показано полноцветное изображение. В качестве примера, на Рис. 14 показан фрагмент снимка в формате CFA, а на Рис. 15 – фрагмент того же снимка после применения градиентного интерполяционного алгоритма для преобразования снимка в RGB-формат.

<Рис. 11. Сравнение результатов преобразования снимков из формата RAW в RGB формат с помощью трех алгоритмов, реализованных в IRIS. Красный, зеленый и синий каналы (перечислены сверху вниз) показаны отдельно, Рис. 12, Рис. 13. Типичный вид байеровского массива. Обратите внимание на то, что пикселей, чувствительных к зеленому диапазону спектра, в два раза больше, чем «красных» и «синих», Рис. 14. Фрагмент ночного панорамного снимка в формате CFA, Рис. 15. Фрагмент того же ночного панорамного снимка после преобразования в RGB-формат>

7. Первые этапы обработки

7.1. Преобразование группы изображений из фо рмата RAW

IRIS может работать только с изображениями, сохраненными либо в формате PIC (собственные формат программы), либо в стандартном астрономическом формате FITS. Кроме этого, использование IRIS для пред-обработки снимков, сделанных с помощью цифровых фотоаппаратов, предполагает работу с форматом CFA. Этот формат хранит данные, наиболее близкие к получаемым с матрицы данным.

Такой подход позволяет производить пред-обработку изображений, полученных с помощью цифровых фотоаппаратов, точно так же, как и изображений, полученных продвинутыми монохромными ПЗС-камерами. Поэтому обязательным начальным этапом является преобразование данных из RAW в один из только что перечисленных форматов. Для выполнения этой операции, программа имеет достаточно эффективный интерактивный инструмент.

В меню Digital Photo выберете Decode RAW file… (Рис. 16). Это приведет к тому, что основное окно IRIS пропадет, чтобы освободить место диалоговому окну инструмента преобразования названному Decode RAW files (Рис. 17). Если окно не видно, возможно, что оно оказалось «под» окнами других приложений, тогда попробуйте их закрыть или переместить, или нажать мышкой на иконку IRIS на системной панели задач. После этого нужно открыть Windows Explorer (Проводник), зайти в директорий, где лежат снимки, выделить нужные RAW-файлы и перетащить в окно Decode RAW files (Рис. 18).

Можно выбирать и перетаскивать сразу множество файлов (как в случае, показанном на Рис. 18). Программа сама выберет только файлы, соответствующие RAW-файлам от цифровых фотокамер. В поле Name нужно ввести название, которое автоматически будет присвоено всем получающимся в результате преобразования файлам (в данном примере это «offset»). К этому названию IRIS будет добавлять номер файла в последовательности, начиная с 1. Затем нужно нажать кнопку ->CFA. В результате в рабочей директории появятся восемь файлов: offset1.pic, offset2.pic, … offset8.pic. Это изображения, преобразованные из формата RAW в формат CFA. Теперь нужно нажать кнопку Done и вернуться в основное окно программы.

Посмотреть содержащееся в любом из полученных файлов изображение можно двумя способами:
1) через пункт Load… в меню File;
2) нажав на панели инструментов кнопку , вызываем окно командной консоли IRIS (окно Command). Открыть файл в формате PIC можно, введя команду LOAD … и нажав на клавиатуре Enter. Например, ввод команды load offset1 приведет к открытию в главном окне программы изображения, хранящегося в файле offset1.pic в рабочей ди-ректории.

<Рис. 16, Рис. 17, Рис. 18.>

7.2. Получение карты тока смещения (master offset map)

Сейчас мы имеем восемь снимков, характеризующих ток смещения камеры (снимки сделанные в полной темноте с наиболее короткой экспозицией). Все они преобразованы в CFA-формат и сохранены в PIC-файлах с именами, начинающимися с префикс offset. Карта тока смещения создается в результате медианного сложения этих снимков. Получить ее можно, выбрав пункт Make an offset… в меню Digital photo. На экране появится окно, показанное на Рис. 19.

В поле Generic name нужно ввести префикс offset, в случае необходимости правильно указать количество файлов и нажать кнопку OK. После окончания вычислений, результат будет показан в основном окне программы. Его нужно сохранить, например, с именем offset. Сделать это можно через пункт Save в меню File или введя в окно консоли Command команду save offset.

Замечания от автора IRIS:

1) применение медианного сложения вместо арифметического вызвано стремлением наилучшим образом избежать влияния сбойных пикселей матрицы. Следует складывать несколько снимков, чтобы минимизировать влияния шума на результат. Хорошим выбором является обработка 5 – 15 снимков.

2) Относительно выбора чувствительности цифровой фотокамеры в единицах ISO. Изменение ISO аналогично изменению электрического усиления сигнала в камере и аналогично влияет на ток смещения, темновой ток, … Можно рекомендовать всегда выбирать одно и то же значение чувствительности ISO (например, 400 или 800).

Это позволит избежать смешивания при обработке снимков, сделанных с разной чувствительностью. Выбор наибольшего ISO весьма заманчив. С точки зрения регистрации деталей самым важным параметром является отношение сигнал/шум. Однако, при увеличении ISO сигнал усиливается так же, как и шум, а отношение сигнал/шум остается примерно постоянным (примечание: выбор оптимальной чувствительности весьма сложный и еще малоизученный вопрос. На этот выбор оказывают влияние такие параметры, как температура, степень светового загрязнения неба, планируемая продолжительность экспозиции и пр.

Например, хорошее исследование данного вопроса было сделано Павлом Бахтиновым и изложено здесь: http://www.astronomy.ru/forum/index.php/topic,20017.0/all.html).

Избегайте использовать максимальную величину ISO поскольку при этом уменьшается динамический диапазон камеры.

<Рис. 19, Рис. 20>

7.3. Получение карты темнового тока (master dark frame)

Кадры темнового тока можно получить просто полностью перекрыв доступ света на матрицу (например, закрыв объектив телескопа крышкой) и сделав несколько снимков с экспозицией, близкой к той, что использовалась для съемки выбранного небесного объекта. Также нужно следить за тем, чтобы температура не изменилась сильно между съемкой выбранного объекта и получением темновых кадров. Величина ISO должна быть постоянной.

В случае описываемого примера обработки съемки шарового скопления M 4, имеется четыре кадра темнового тока в формате RAW (этого количества кадров мало, при больших ISO нужно делать 10 – 20 кадров). Их нужно преобразовать в формат CFA и сохранить в виде PIC-файлов. Сделать это можно так. Воспользовавшись способом, описанном ранее, преобразуем кадры темнового тока из RAW в CFA. В результате получим последовательность из четырех файлов: dark1.pic, dark2.pic, dark3.pic, dark4.pic. Затем, в меню Digital photo выберем пункт Make a dark… Откроется диалоговое окно, показанное на Рис. 20.

В поле Generic name нужно ввести префикс имен файлов – dark. А в поле Offset image – имя файла, в котором записана полученная на предыдущем этапе карта тока смещения (в нашем примере, это – offset). Оно нужно потому, что карта тока смещения должна быть вычтена из каждого кадра темнового тока.

Существует несколько способов получить карту темнового тока. Наиболее подходящий из них – медианное суммирование. Этим методом можно пользоваться лишь в том случае, если все кадры темнового тока получены в одинаковых условиях и при одинаковой экспозиции. Для управления длительностью экспозиции можно использовать электронную схему управления, управляющий компьютер и т.п. Но этим методом лучше не пользоваться, если экспозиции контролировались от руки. В таком случае лучше пользоваться усреднением или даже просто суммированием.

<Рис. 21. Карта темнового тока (Canon EOS 300D, ISO 400, экспозиция ~180 с, температура окружающего воздуха около +15°C)>

Во время съемки кадров темнового тока, автор этого руководства управлял затвором фотоаппарата от руки, что привело к разбросу продолжительности экспозиции около ±10 секунд. Поэтому и был выбран метод усреднения кадров (Рис. 20), а не медианное сложение. Полученный результат (Рис. 21) сохраним, введя в консоль команду save dark. После чего в рабочей директории появится файл dark.pic.

7.4. Создание списка «горячих» пикселей

На изображениях, полученных с помощью практически любой камеры, всегда имеется некоторое количество пикселей, интенсивность которых значительно больше интенсивности соседних при прочих равных условиях. Иногда такие пиксели называют горячими, а их присутствие искажает изображение. IRIS предлагает простой способ борьбы с ними (косметическую коррекцию): на основе карты темнового тока программа создает список координат пикселей с интенсивностью выше заданной пользователем, а потом, при обработке отснятых изображений интерполирует интенсивность этих пикселей из соседних.

Создать список «горячих» пикселей можно с помощью команды find_hot. У этой команды два параметра: имя файла, в который будет записан список координат «горячих» пикселей и численная величина, характеризующая критический уровень интенсивности пиксел ей. Это уровень пикселей, выше которого пиксели будут засчитаны как «горячие», и подбирается опытным путем так, чтобы «горячими» не считалось очень большое количество пикселей. Можно рекомендовать выбирать критический уровень таким, чтобы было найдено 50 – 300 «горячих» пикселей.

Загрузим карту темнового тока и узнаем статистические свойства всех пикселей изображения:

load dark
stat

В результате в главном окне программы откроется изображение карты темнового тока, а в окне Output будут показаны статистические свойства пикселей, например:

Mean: 127.1 Median: 127
Sigma: 8.6
Maxi.: 3996.0 Mini.: 109.0

В данном примере в качестве первого пробного значения критического уровня интенсивности можно выбрать величину средней интенсивности всех пикселей 127. Список координат горячих пикселей будем сохранять в файл с названием cosme. Введем команду:

find_hot cosme 127

В программе есть внутреннее ограничение на количество найденных «горячих» пикселей. Если как «горячие» засчитано более 10000 пикселей, то IRIS выдаст сообщение об ошибке: «Too many hot pixels (limit to 10000)». Если так и происходит, увеличиваем значение критического уровня интенсивности и повторяем команду:

find_hot cosme 200

В результате выполнения команды в рабочей директории появится файл cosme.lst, а в окне Output появится сообщение о количестве найденных «горячих» пикселей:

Hot pixels number: 593

Значение 200 в качестве критического уровня интенсивности слишком мало. Попробуем, например, 220:

find_hot cosme 220

Теперь найдено 340 «горячих» пикселей. Это приемлемое количество для 6-ти мегапиксельной камеры Canon 300D.

7.5. Получение карты плоского поля (master flat-field)

Есть два достаточно простых способа получить кадры плоского поля:

1) навести телескоп на белый экран, расположенный на расстоянии нескольких десятков сантиметров от апертуры инструмента. Этот экран должен быть равномерно освещен белой лампой, может подойти бытовая галогенная лампа.

2) Не меняя расположения камеры, соединенной с телескопом, дождаться сумерек и сделать несколько кадров равномерно светящегося неяркого неба, на котором или еще не проступили звезды, или их уже нет. Нужно внимательно следить за тем, чтобы в поле зрения телескопа не попадали детали пейзажа, растительность и облака.

В обоих случаях длительность экспозиции должна быть такой, чтобы фон хорошо проработался, но не возникло пересвеченных участков.

Вернемся к примеру. Было сделано четыре кадра плоского поля в формате RAW (лучше делать более 5). Их нужно преобразовать в формат CFA и сохранить в виде PIC-файлов. Сделать это можно так. Снова воспользовавшись способом, описанном ранее, преобразуем кадры плоского поля из RAW в CFA. В результате получим последовательность из четырех файлов:

flat1.pic, flat2.pic, flat3.pic, flat4.pic.

Затем, в меню Digital photo выберем пункт Make a flat-field… Откроется диалоговое окно Make a flat-field, показанное на Рис. 22. В поле Generic name нужно ввести префикс названий файлов – flat. В поле Offset image – имя файла, в котором записана полученная ранее карта тока смещения (в нашем примере, это – offset).

В поле Normalization value нужно ввести величину, к которой будет приведена медиана полученной карты плоского поля. Это произвольная величина, но она должна быть выбрана так, чтобы избежать проблем переполнения (в IRIS максимальная интенсивность пикселя ограничена величиной 32767, а минимальная не может быть меньше -32768).

После нажатия кнопки OK будет получена карта плоского поля. Введя в консоль команду stat, можно получить данные о статистических свойствах пикселей изображения. Эти данные будут выведены в окно Output программы. Как было показано на Рис. 22, Normalization value была задана равной 16000. В результате получена карта плоского поля, статистические свойства которой следующие:

Mean: 14669.3 Median: 16045 (􀃅 Среднее: 14669.3 Медиана: 16045 )
Sigma: 4116.1 (􀃅 Статистическое отклонение σ: 4116.1 )
Maxi.: 20969.0 Mini.: 1882.0 (􀃅 Максимум: 20969.0 Минимум: 1882.0 )

Если максимальная интенсивность какого-либо пикселя равна 32767 или минимальная интенсивность равна 0, то нужно, воспользовавшись диалоговым окном Make a flat-field повторить создание карты плоского поля, но с другим значением в поле Normalization value.

Сохранить полученный результат можно, введя в консоль команду save flat.

<Рис. 22>

7.6. Что делать, если…

7.6.1. … не были сняты снимки тока смещения?
Есть два простых решения проблемы:

Первый метод. Загрузите в программу один из снятых в рамках текущей серии снимков, например, снимок небесного объекта. Снимок должен быть уже преобразован в формат CFA. Это можно сделать, например введя в консоль команду:

load m4_1

Теперь нужно привести все пиксели к одной интенсивности, равной типичной интенсивности тока смещения используемой камеры. Если эта интенсивность неизвестна, то лучше обнулить интенсивности всех пикселей:

fill 0

После этого нужно сохранить полученную искусственную карту тока смещения:

save offset

Второй метод. Аналогично тому, как это было сделано в первом способе, загрузите в программу снимок:

load m4_1

Узнайте свойства изображения, введя:

info

В окне Output будет показана общая информация о снимке:

Format: 3088x2056 (􀃅 Размер изображения в пикселях )
(0,0)-(0,0) - Binning: 1x1
01/04/2006 - 03:22:16 - IT: 0.00 (􀃅 Дата и время получения снимка )
Date (D/M/Y): 1.1405 / 4 / 2006
Julian day: 2453826.6405

Создаем новое пустое изображение:

new 3088 2056

Если известна типичная интенсивность тока смещения используемой камеры, то нужно привести все пиксели к этой величине. Если эта интенсивность неизвестна, то лучше оставить обнуленными интенсивности всех пикселей.
Полученную искусственную карту тока смещения нужно сохранить:

save offset

7.6.2. … не были сняты снимки плоского поля?

Просто нужно создать равномерную карту плоского поля и использовать ее в дальнейшем. Сделать это можно, например, следующим набором консольных команд:

load m4_1
fill 10000
save flat

Здесь все интенсивности всех пикселей карты плоского поля приравнены 10000.

7.7. Пред-обработка

Теперь можно перейти к описанию процесса пред-обработки отснятого материала. Пред-обработка предусматривает вычитание вклада тока смещения и темнового тока, а также коррекцию - деление на карту плоского поля.

Было сделано пятнадцать снимков в формате RAW шарового скопления M 4. Их нужно преобразовать в формат CFA и сохранить в виде PIC-файлов. И снова воспользовавшись описанным ранее способом, преобразуем кадры из RAW в CFA. В результате получим последовательность из пятнадцати файлов, например, с префиксом “m4_”:

m4_1.pic, m4_2.pic, …, m4_15.pic.

Небольшое отступление – про вычитание темнового тока. В IRIS можно сделать вычитание темнового тока оптимальным образом, т.е. так, чтобы остатки были минимальны. Для этого, программа вычтет из каждого кадра карту темнового тока, умноженную коэффициент, позволяющий получить оптимальный результат.

Причем процедура нахождения этого коэффициента при работе с данными в формате CFA отличается от процедуры, применяемой при работе с обычными черно-белыми изображениями. Использование такого оптимального вычитания позволяет компенсировать, например, легкие вариации температуры камеры, произошедшие между съемками небесного объекта и получением снимков темнового тока.

Еще одно отступление – про деление на карту плоского поля. Перед тем как произвести деление изображения на карту плоского поля, IRIS производит нормирование интенсивности всех пикселей этой карты. В результате получается, что красные, зеленые и синие пиксели имеют один и тот же вес, т.е. так, как будто бы свет, вошедший в телескоп при съемке кадров плоского поля, был абсолютно белый и чувствительность пикселей к разным участкам спектра была одинаковой.

Итак, перейдем к пред-обработке автоматическим методом. В начале откроем первый файл с изображением, например с помощью команды load m4_1. С помощью мыши на изображении нужно выделить прямоугольный участок шириной 50 – 300 пикселей. Следует выбирать место с м инимальным количеством звезд или ярких «горячих» пикселей. Затем в меню Digital photo выберем пункт Preprocessing. Результат всех этих действий показан на Рис. 23.

В этом окне нужно правильно ввести префикс названия последовательности исходных изображений (поле Input generic name), названия файлов, содержащих карту тока смещения (поле Offset), карту темнового тока (поле Dark), карту плоского поля (поле Flat-field) и список «горячих» пикселей (поле Cosmetic file). Еще нужно отметить поле Optimize, ввести префикс названия файлов, в которых будет сохраняться изображения прошедшие пред-обработку (поле Output generic name), например, proc и ввести правильное количество исходных изображений (поле Number). После чего, нажав кнопку OK, начинаем процесс пред-обработки.

Скорость работы программы зависит от быстродействия процессора компьютера, свободного объема физической памяти и размера обрабатываемых изображений. Процесс пред-обработки может длиться от нескольких секунд до часов. В течение всего этого времени интерфейс программы не отвечает на действия пользователя.

<Рис. 23>

Посмотреть первое из полученных в результате изображений, можно введя команду:

load proc1

Изменения по сравнению с исходным изображением может не бросаться в глаза. Но при внимательном изучении всего изображения будет заметно, что исчезли «горячие» пиксели и следы пыли на матрице.

8. Завершающие этапы

8.1. Преобразование из CFA в RGB формат

Следующие этапы обработки производятся уже с изображениями в формате RGB с 48-битами на пиксель (16 бит на пиксель для представления каждого из трех основных цветов).

Преобразование одного изображения из формата CFA в RGB совершается путем выбора в меню Digital photo пункта Convert a CFA image. Последовательность изображений в формате CFA можно преобразовать в 48-битный RGB формат, выбрав в меню Digital photo пункт Sequence CFA conversion... и воспользовавшись открывшимся диалоговым окном (Рис. 24).

В поле Generic input name нужно ввести префикс названия последовательности изображений, полученных после пред-обработки. В поле Generic output name – префикс названия последовательности файлов, в которые будут записаны изображения в 48-битном формате RGB (например, это - rgb). Если в поле Output files type выбрано Black & White, то IRIS будет сохранять 16-битные черно-белые изображения (получаемые, как сумма красного, зеленого и синего каналов).

<Рис. 24., Рис. 25.>

8.2. Автоматическое совмещение 48-битных RGB изображений

Следующим важным этапом является совмещение изображений. В программе реализовано несколько алгоритмов, служащих этой цели. Все они работают как с черно-белыми изображениями (16 бит на пиксель), так и с цветными (48 бит на пиксель).

В начале надо загрузить первое изображение из последовательности:

load rgb1

Теперь вызовем диалоговое окно программы, в котором можно выбрать метод совмещения кадров и задать необходимые параметры. Для этого в меню Processing выберем пункт Stellar registration....

На экране появится показанное на Рис. 25 окно. Как обычно, в поле Input generic name нужно вписать префикс имени файлов последовательности изображений. В нашем примере это “rgb”. В поле Output generic name нужно вписать префикс имени файлов последовательности совмещенных изображений. Пусть это будет “reg”. В поле Number нужно ввести количество изображений в обрабатываемой последовательности кадров (в рассматриваемом примере это 15). В нижней части окна можно выбрать алгоритм, с помощью которого программа будет совмещать изображения и указать параметры, необходимые для работы выбранного алгоритма.

Поговорим немного об алгоритмах совмещения изображений, реализованных в программе. Наиболее простой и быстрый метод основан на выборе всего одной отдельной звезды, присутствующей на всех снимках. Этот метод позволяет быстро совместить изображения лишь слегка сдвинутые в горизонтальном и/или вертикальном направлении друг по отношению к другу и не подверженные каким-либо искажениям. Его можно выбрать, отметив One star в списке Method на диалоговом окне, показанном на Рис. 25.

Перед тем как воспользоваться этим методом, на загруженном изображении с помощью мыши нужно выбрать прямоугольную область вокруг одиночной звезды. Выбирать следует достаточно яркую звезду, но такую, чтобы ее изображение не было “пересвечено” на снимке. Все снимки будут совмещены так, чтобы положение выбранной звезды не изменялось при переходе от снимка к снимку. Размер выбираемой прямоугольной области вокруг звезды должен быть достаточно большим для того, чтобы в него попадали все смещения звезды между соседними экспозициями. В противном случае, IRIS может по ошибке захватить другую звезду, что приведет к неправильному совмещению снимков.

Нажатие кнопки OK, если все параметры заданы правильно, приведет к запуску процедуры совмещения. По завершению, в рабочей директории появится последовательность совмещенных изображений и файл shift.lst, в котором содержится информация в смещении каждого изображения по отношению к первому (эта же ин-формация будет выведена в окно Output).

Следующий метод, по словам автора IRIS, больше подходит для совмещения богатых звездами снимков. Перед тем как им воспользоваться, на первом изображении из обрабатываемой последовательности снимков, с помощью мыши нужно выбрать область, содержащую несколько звезд. Затем открыть диалоговое окно Stellar registration, выбрать в нем One matching zone (linear transformation) в списке Method и отметить опцию Select a zone.

Данный алгоритм основан на распознавании на всех изображениях нескольких опорных звезд, попавших в выбранную на первом снимке область. Так же как и в первом случае, совмещение осуществляется простым переносом изображений вдоль горизонтальной и/или вертикальной оси снимка. Если опция Select a zone не выбрана, то перед вызовом диалогового окна можно не выбирать область на первом изображении и алгоритм при работе будет использовать все достаточно яркие звезды.

Если на снимках наблюдается не только смещение, но и, например, вращение поля, то при совмещении необходимо применять аффинные преобразования. Программа автоматически найдет наилучшие сдвиги, повороты и линейное масштабирование, приводящие к совмещению снимков. Наиболее быструю процедуру, позволяющую это сделать, можно выбрать, отметив Three matching zone (affine transformation) в диалоговом окне Stellar registration

<Рис. 26>

Для нахождения наилучших параметров преобразования изображений, этот алгоритм основывается на опорных звездах, попавших в три автоматически выбираемые области на первом снимке из последовательности. Размер областей в пикселях задается параметром Zone size в диалоговом окне Stellar registration, их положение на изображении показано на Рис. 28. Автор IRIS отмечает, что этот алгоритм оптимизирован для работы с большими снимками, сделанными с помощью цифровых зеркальных фотоаппаратов.

Следующий алгоритм можно выбрать, отметив на диалоговом окне Global matching (Рис. 27). Как и предыдущий, он основывается на таком же поиске опорных звезд в трех автоматически выбираемых областях (Рис. 28). При этом, по заказу пользователя, алгоритм может совмещать снимки, используя как аффинные преобразования изображений, так и преобразования второго и третьего порядков. Преобразования второго и третьего порядков позволяют совмещать изображения, подверженные, например, значительным искажениям из-за оптических аберраций, или, даже, полученные на разных телескопах.

<Рис. 26., Рис. 27., Рис. 28.>

8.3. Сложение изображений

Теперь можно приступать к сложению совмещенных изображений. В начале рассмотрим работу через командную консоль программы, а затем – с помощью диалогового окна.
Наиболее простой метод – попиксельное арифметическое сложение. Его можно выполнить, введя в консоль команду:

add2 reg 15

Недостаток этой команды состоит в том, что если в результате сложения исходных изображений интенсивности каких-то пикселей превышает предельный допустимый в программе уровень, равный 32767, то интенсивности таких пикселей обрезаются до величины 32767. Т.е. при сложении большого количества исходных изображений может получиться сильно пересвеченное изображение. Чтобы этого избежать, лучше воспользоваться командой add_norm, выполняющей сложение с нормировкой результата:

add_norm reg 15

Эта команда выполняет попиксельное сложение изображений, а полученный результат нормирует так, чтобы максимальная интенсивность пикселей не превышала 32767.
С помощью команды add_mean можно получить среднее арифметическое изображение.
Попиксельное медианное сложение производится с помощью команды smedian. Интенсивность каждого пикселя изображения, полученного в результате выполнения этой команды, вычисляется как медиана интенсивностей соответствующих пикселей исходных изображений:

smedian reg 15

Напомним определение термина «медиана». Пусть есть следующее множество чисел:

5, 9, 1, 0, 3

Отсортированное в порядке возрастания это множество примет вид:

0, 1, 3, 5, 9

Медиана этого множества есть число 3, в то время как среднее арифметическое равно 3.6. Команда smedian реализована так, что она не может обработать более 19 исходных изображений. Этого ограничения не имеет команда smedian2.

Обе эти команды имеют две области применения. Первая – это получение карты плоского поля из последовательности изображений, содержащих звезды. При этом поле зрения на исходных изображениях обязательно должно быть по-разному сдвинуто, чтобы изображения звезд не попадали в одни и те же пиксели на матрице. Если в медианном сложении участвуют более 5 изображений, то в результате звезды пропадут, поскольку вероятность того, что на большинстве снимков звезды попадут в один пиксель, мала.

Другая область применения – обработка снимков объектов дальнего космоса. В результате выполнения одной из этих команд, получится изображение с практически тем же отношением сигнал/шум, что и исходные снимки, но лишенное большинства дефектов (горячие пиксели, следы космических лучей, треки самолетов и спутников и т.п.).

В IRIS реализованы еще несколько мощных алгоритмов сложения изображений, предназначенных для борьбы с дефектами изображения.

Команда composit выполняет сложение данных с помощью алгоритма, известного как sigma-clipping. В отличие от нахождения результата, как медианы исходных данных, этот алгоритм отбрасывает из рассмотрения только наиболее отклоняющиеся от среднего значения, что приводит к улучшению отношения сигнал/шум полученного результата. Данный метод работает наилучшим образом, если количество исходных изображений велико (более 10) причем в программе отсутствует какое-либо внутреннее ограничение на максимальное количество. Синтаксис команды следующий:

composit [NAME] [COEF. SIGMA] [# ITER] [FLAG MAX] [NUMBER]

или в случае рассматриваемого примера:

composit reg 3 2 1 15

Для каждого пикселя программа вычисляет среднее значение интенсивности по всей совокупности исходных изображений, затем для каждого исходного изображения находит отклонение интенсивности этого пикселя от среднего значения и выполняет сравнение найденного отклонения с константой, заданной с помощью параметра [coef. sigma].

Рассматриваемый пиксель данного исходного изображения считается “плохим” и отбрасывается из дальнейшего рассмотрения, если найденное отклонение превышает в [coef. sigma] раз (в три раза в рассматриваемом примере) величину среднеквадратичного отклонения интенсивности этого пикселя, найденную по всей совокупности исходных изображений.

После того как описанная процедура будет произведена для всех пикселей, средние значения и стандартные отклонения интенсивностей вычисляются еще раз уже без участия отброшенных значений, и выполняется следующая итерация процедуры. Количество итераций задано параметром [# iter] (две в рассматриваемом примере). Автор IRIS рекомендует следующие типичные значения параметров: [coef. sigma] = 3 – 4 и [# iter] = 2.

Однако, отмечает, что необходимы тесты для нахождения оптимальных параметров для обработки данного набора исходных изображений. Чтобы избежать потери реальных данных не рекомендуется использовать [coef. sigma] < 1.5. После выполнения всех итераций, во время которых были отброшены все сильно отличающиеся значения интенсивностей пикселей, происходит финальное сложение данных.

Вычисляется простая сумма интенсивностей в каждом пикселе, если параметр [flag_max] = 0. Если же [flag_max] = 1, то все полученные в результате сложения интенсивности пикселей итогового изображения нормируются так, чтобы максимальная интенсивность не превышала 32767 (аналогично тому, как это происходит при выполнении команды add_norm).

Еще один реализованный в программе алгоритм – адаптивное взвешивание, причем веса получаются из самих данных (за деталями автор IRIS отсылает к описанию “Artificial Skepticism Stacking algorithm”, Stetson 1989, V Advanced School of Astrophysics [Univerisidade de Sao Paulo], p.1, и к двум англоязычным ресурсам:

http://archive.stsci.edu/hst/wfpc2/pipeline.html, http://archive.eso.org/archive/hst/wfpc2_asn/3sites/WFPC2_Newsletter.pdf).

Сложить исходные изображения по этому алгоритму можно, воспользовавшись командой:

composit2 [NAME] [FLAG. MAX] [NUMBER]

или в случае рассматриваемого примера

composit2 reg 1 15

Параметры команды – префикс имен файлов [NAME], флаг нормировки результата (аналогичен флагу [flag_max] команды composit) и не ограниченное количество исходных изображений [NUMBER].

Интенсивности каждого i–го пикселя каждого изображения присваивается статистический вес wi, вычисляемый по формуле:
<22111⎟⎟⎠⎞⎜⎜⎝⎛+=iiiirwσσ,>
где σi – стандартное отклонение интенсивностей данного пикселя по всей совокупности исходных изображений, найденное с учетом шума считывания и усиления сигнала в камере.

“Естественный” вес интенсивности пикселей 21iσ модифицируется с помощью лоренце-подобной функции, которая приводит к уменьшению веса подозрительных значений интенсивности, таких как следы попадания в пиксель космических лучей и т.п., но при этом не приводя к полному исключению из рассмотрения каких бы то ни было значений. Величина ri есть разница между средней интенсивностью данного i–го пикселя в текущей итерации и интенсивностью данного i–го пикселя в данном изображении. Эта величина вычисляется заново для каждой итерации.

Автор IRIS утверждает, что реализованная в программе команда composit2 использует классические закодированные внутри программы значения величин шума считывания с ПЗС и усиления сигнала (средне-квадратическое значение уровня шума в 15 электронов и усиление 2 e–/ADU). Не смотря на то, что эти величины несколько отличаются от соответствующих величин для современных зеркальных цифровых фотоаппаратов, функция composit2 – простая в использовании и очень эффективная функция для удаления “плохих” пикселей.

Очень важно, что перед использованием команд smedian, composit и composit2 необходимо добиться одного и того же уровня фона неба для всех исходных изображений последовательности. Для этого можно воспользоваться командой noffset (или noffset2, если нужно выбрать эталонную область для нормализации уровня фона неба).

Если же исходные снимки сделаны с разной экспозицией, то нужно использовать команду ngain2. Команда noffset2 нормирует уровень медианы каждого из изображений последовательности на заданную величину путем прибавления константы. Команда ngain2 нормирует уровень медианы каждого из изображений последовательности на заданную величину путем умножения каждого изображения на специально подобранную константу.

Выбор оптимального алгоритма сложения данных зависит от их свойств и способа получения. Для получения карты плоского поля или карты темнового тока лучше всего подходит команда smedian (или smedian2). Для получения изображения звездного неба классический алгоритм sigma-clipping является хорошим выбором для получения наилучшего отношения сигнал/шум. В то же время команда composit2 является весьма качественной альтернативой алгоритму sigma-clipping.

Все перечисленные алгоритмы сложения исходных снимков объединены в одно диалоговое окно Add a sequence... из пункта меню Processing (Рис. 29). В поле Input generic name нужно ввести префикс имен файлов, которые будут использовании для сложения. В рассматриваемом примере – это “ reg”, префикс имен файлов, содержащих с овмещенные изображения.

В поле Number вводится количество этих файлов (15 в данном примере). Поле Normalize if overflow нужно отметить, если максимальную интенсивность пикселей результата нужно нормировать на максимально возможную в IRIS яркость (32767) во избежание потери информации в ярких участках изображения. Ниже в диалоговом окне перечислены шесть методов, которыми можно воспользоваться для получения результата:

• Режим “Arithmetic” позволяет произвести простое арифметическое попиксельное сложение изображений. Эквивалентом этого режима сложения является команда add_norm.

• Режим “Median” можно использовать, когда некоторые пиксели имеют значительные отклонения интенсивности (следы попадания космических лучей(треков) в матрицу, “горячие” пиксели). Но отношение сигнал/шум полученного изображения будет ниже, чем в случае арифметического сложения. Эквивалентом этого режима сложения является команды smedian (обрабатывает не более 19 изображений) и smedian2.

• Режим “Min-Max rejection” основан на исключении из суммирования минимальных и максимальных значений интенсивности каждого пикселя в последовательности складываемых изображений.

• Режим “Adaptative weighting” (адаптивное взвешивание) – мощный метод, позволяющий избавиться от “плохих” пикселей. Эквивалентом этого режима сложения является команда composit2. Этот итеративный метод подробно описан выше. Для получения хорошего результата обычно достаточно 2 – 5 итераций.

• Режим “Sigma clipping” также применяется для борьбы с пикселями, интенсивность которых значительно отличаются от средней по совокупности складываемых изображений (например, “горячие” пиксели). Эквивалентом этого режима сложения является команда composit, описанная выше.

• Режим “Sigma median” похож на предыдущий, но вместо того, чтобы отбросить “плохой” пиксель, его интенсивность заменяется средним значением интенсивности данного пикселя по всей совокупности изображений.

В зависимости от выбранного алгоритма сложения в диалоговом окне ниже списка алгоритмов появляются одно – два поля ввода.

Первое из них – Sigma coefficient появляется в случае выбора алгоритмов “Sigma clipping” и “Sigma median”. В него вводится значение параметра [coef. sigma] (см. выше описание команды composit).

Второе – Number of iteration появляется еще и в случае выбора алгоритма “Adaptative weighting”. В это поле вводится количество итераций для всех трех алгоритмов (см. выше описание команд composit и composit2).

Как уже было сказано, иногда можно заметить, что интенсивность фона не одинакова на изображениях последовательности. В этом случае перед суммированием любым из перечисленных выше методов, необходимо нормировать интенсивность фона всех изображений на одну и ту же величину. Уровень фона загруженного и отображаемого в главном окне программы изображения можно узнать, введя команду bg в командную консоль программы.

Нормировать интенсивность фона всех изображений можно с помощью команд noffset2 и ngain2. Если уровень фона на изображениях менялся из-за изменения внешней освещенности, то нужно пользоваться командой noffset2. Если же уровень фона менялся, например, из-за изменения от кадра к кадру времени экспозиции или значительно менялась температура камеры, то нужно пользоваться командой ngain2.

Нормировать уровень фона всех изображений последовательности можно, воспользовавшись диалоговым окном Offset normali-zation of a sequence из меню Processing (Рис. 30) (либо диалоговым окном Gain normalization of a sequence).

Здесь в поле Input generic name нужно ввести префикс имен файлов, содержащих исходные изображения, в поле Normalization value – уровень, к которому будут приведены уровни интенсивности фона всех изображений, в поле Output generic name – префикс имен файлов, в которые будут сохранены полученные изображения, в поле Number – количество файлов.

При обработке снимков рассматриваемого примера было замечено, что не все “горячие” пиксели были удалены во время предварительной обработки снимков. Поэтому снимки нужно было складывать с помощью либо алгоритма sigma-clipping, либо алгоритма адаптивного взвешивания.

Сложение с помощью либо алгоритма sigma-clipping со следующими параметрами Sigma coefficient = 2.0 и Number of iteration = 3 привели к получению удовлетворительного результата. Полученное в результате изображение показано на Рис. 31 (отображенное в окне программы изображение уменьшено в два раза). Теперь можно переходить к корректированию цветового баланса полученного изображения.

<Рис. 30., Рис. 29.,Рис. 31.>

8.4. Коррекция цветового баланса

Итак, на предыдущем этапе было получено изображение, являющееся суммой всех исходных кадров. Если в диалоговом окне, показанном на Рис. 10, в группе полей White balance не были введены параметры настройки цветового баланса камеры, то полученное в результате сложения изображение, скорее всего, будет выглядеть несколько странно.

Например, снимки, сделанные камерами фирмы Canon выглядят зелеными (в той или иной степени это относится и к камерам других производителей). Это связано с тем, что эквивалентная чувствительность матрицы камер различна для лучей с разной длиной волны.

Конечно, можно в диалоговом окне, показанном на Рис. 10, ввести соответствующие коэффициенты, но трудность в том, что их нужно измерять. Сделать это можно, например, так: снять белый лист бумаги в ясную солнечную погоду, открыть полученный RAW-файл в IRIS, преобразовать открытое изображение в формат RGB, выделить произвольный фрагмент изображения, вы-полнить команду white, в окне Output считать коэффициенты (например, R=1.205 - G=1.000 - B=1.036) и ввести их в поля R, G и B диалогового окна предварительно отметив поле Apply.

Этот метод дает не очень стабильные результаты. Поэтому можно воспользоваться другим методом, основанным на использовании команд black и white (или white2).

Метод заключается в следующем. На изображении, полученном в результате обработки и сложения исходных данных, нужно с помощью мыши выделить область размером не менее 50*50 пикселей, в которую не попадают звезды. После этого необходимо выполнить команду black. В результате, в окне Output будет показана средняя величина уровня фона неба в выделенной области для каждого цветового канала.

Найденные уровни будут автоматически вычтены из соответствующего цветового канала всего изображения, что приведет к получению черного цвета фона, по крайней мере, в выделенном фрагменте изображения. Теперь, когда черный цвет на изображении получен, перейдем к получению белого цвета там, где он должен быть. Для этого в IRIS реализованы две команды: white и white2.

Теперь нужно с помощью мыши выделить область, цвет внутри которой должен быть белым, и выполнить команду white. Для каждого цветового канала программа вычислит медиану интенсивности внутри заданной области, найдет и выведет в окно Output множители, приводящие к выравниванию медиан интенсивностей в каналах.

Аналогичным образом работает команда white2 с той лишь разницей, что на изображении нужно выделить средней яркости одиночную звезду белого цвета (желательно спектрального класса G5 или близкую к этому). В каждом цветовом канале IRIS выполнит моделирование изображения выбранной звезды с помощью гауссова распределения и подберет множители, приводящие найденные распределения к одному виду.

В результате умножения интенсивности каждого пикселя в данном цветовом канале на соответствующий множитель, цвет в выделенной области будет приведен к белому. После всех этих операций в главном окне программы будет показано изображение с исправленным цветовым балансом.

Основной недостаток данного метода заключается в том, что для его корректной работы необходимо присутствие на изображении белого объекта, например, полярной шапки на Марсе или звезды спектрального класса G0 – G9.

Результат коррекции цветового баланса изображения, полученного в рассматриваемом примере, показан на Рис. 32.

9. Remove the gradient of the sky background http://www.astrosurf.com/buil/iris/tutorial4/doc14_us.htm)
Deep-sky gradient removal procedures (polynomial method)

Manual procedure

Load image to be pr ocessed (here an image of comet C/2004 Q2 - Machholz obtained on January 11, 2005 with a Canon EOS 20D camera and a telephoto lens Canon 400 mm f/5.6). You can download demonstration image COMET.PIC here (800 kb). Then type command POINTON (it does not have a parameter).

>POINTON

The mouse pointer aspect changes when it passes on the image. You have to select manually many points in the sky background. To carry out pointings make right click with the mouse. Avoid stars and comet. You can enter up to 3500 manual pointings.

Result of the manual pointing. Each cross mark the position of pointing.

When the points are considered distributed uniformly and in a sufficient number, you can synthesize an artificial sky background, i.e. a synthetic polynom. But before, you must indicate to the software the degree of this polynom with command POLY. For example a 3rd degree, generally a good choice:

>POLY 3

To calculate the synthetic sky, run command SYNTHE (it does not have parameters):

>SYNTHE



Save this background image in a temporary file, for example:

>SAVE SKY

Reload the image to be processed and subtract the synthetic fitted sky (we also add a constant of 500 to all the pixels for facilitate the visualization of faintest parts of the image):

>LOAD COMET
>SUB SKY 500



To leave the pointing mode, type command POINTOFF:

>POINTOFF

For better appreciate the quality of correction of the sky background, compare the image before and after sky flatening on a very high contrast and negative display (the images are first converted into black and white frames with the function 48 bits to 16 bits of Digital photo menu):

Left, before the correction of the sky background. Right, after correction. The flattening of sky has well on an aesthetic interest, but it is also significant to carry out precise photometric measurements. The oval spot on the left of the coma is the diffuse nebula NGC1333.

Automatic procedure.

See also an example here.


Image of comet C/2004 Q2 Machholz taken in urban condition (see here for details). The light pollution produce a significant and unpleasant large-scale gradients. Do not mistake this default with a flat-field error (i.e.sensibility variation along image). We correct here only additive errors (light added by the pollution for example).

Step 1

Load the image and compute a mask for isolate the sky. The appropriate command for this is BIN_DOWN. The only one parameter of this command is the typical value of the sky background (use the mouse or the BG command for a first estimate). At this stage, try some values. For example

>LOAD COMET
>BIN_DOWN 620

A large part of the image is not used for the gradient calculation (dark part of the mask). The background noise is also in excess.

Try higher value for the sky level

LOAD COMET
BN_DOWN 750

Now, the threshold is too high because faint stars and faint extension of the coma faint are included in the computation of the synthetic sky. The final tuning value for the mask...

>LOAD COMET
>BIN_DOWN 660

The background selection is optimal at this stage. Save the binary mask image on the disk. Example

>SAVE MASK

Step 2

Load image to process and open the Remove gradient dialog box (Processing menu). Select the Use a mask option and enter the mask name:

The procedure now ignore the null values of the mask image during the computation of the synthetic background.

The Background detection parameter define the degree of differentiation between he sky region and the objets of the images. A low value correspond to a less sensitivity to subtle gradients near bright objects. But a low value reduce also the risk that a local feature, such as a faint arm of the galaxy or faint nebulae, will be flattened by the mathematical function (a 2D polynom). A high value can detect discrete gradients, but the algorithm can also include faint extension of a galaxies during the process, not selected by the mask. At this stage it is recommended to choose the medium value.

The Fit precision parameter define the precision of the fit of the sky (i.e. the degree of the polynomial function). For a first estimation, it is recommended to select the medium value (3rd degree polynomial function). So, only medium scale gradient are corrected.

Check Balance background color option: if the porcessed image is of 48-bits type, this option adjust each color channel so that the background is an even neutral tone (by adding or subtracting a constant value to each pixels in the image and for each color layer).
Click OK. After computation modify visualisation threshold if necessary

Now the gradients have mostly been corrected. But if some residuals are present it is possible to run a second passes. This new passes is potentially more precise because it is more easy to define a representative and detailed mask of the sky background. First, save the first stage comet processing and compute a new mask image

>SAVE COMET2
>BIN_DOWN 655

Save the new mask, for example

>SAVE MASK2*

Reload the first passes image

>LOAD COMET2

We're ready to run gradient function again. Setting the Background detection to high for detect faint gradient variation. Setting the Fit precision to high ensures that small-scale gradients will be corrected. Click OK

This image shows the automatiquely selected points for background computation (2000 points). The rejection of the comet and stars is now correct. Modify the visualisation threshold value for see the final result. The background is now a flat, neutral and faints details are much more visibles. Click here for another example.

Gradient removal on very wide field images

The image to process

>LOAD IMAGE



Step 1: Blur the image

Run the Wavelet command of Processing menu, and set to unity value only the largest wavelet scale:

Click OK

Save this image:

>SAVE BLUR

Step 2: Make the synthetic background

>LOAD BLUR
>SUBSKY
>SYNTHE
>SAVE SKY

Or, run the Remove gradient function of the Processing menu. Ignore the displayed image and execute the console commands

>SYNTHE
>SAVE SKY

Aspect of the sky.pic image.

Step 3: Remove the synthetic sky

>LOAD IMAGE
>SUB SKY 100
>VISU 180 50



Manual method

For the present situation, a better method for fit the complex sky is the manual strategy

>LOAD BLUR
>POINTON

and select some points with the mouse (skip the Milky Way and house umbra):

Then:

>SYNTHE 3
>SAVE SKY2
>POINTOFF

>LOAD IMAGE
>SUB SKY2 100
>VISU 180 50

The final result. Tips: For make a larger blur of an image you can also use the commands MEDIANF ot RING_MEDIAN for example. Below, successively, the start image and final image at original scale. The start image. The final image.

Tip: The command BIN_DOWN is useful for generate a mask image. The symetric command exist, i.e. BIN_UP command. The syntax is BIN_UP [VALUE]: The pixels having an intensity higher than [value] take value 255. The other pixels take value 0.

A scientific application of BIN_DOWN: Evaluation of the area of the sunspots (tip: for a precise result, do not hesitate to flatness the photosphere image by use the command SUBSKY if necessary).

A sunspot group (image Valerie Desnoux, click here for more informations). The group after command BIN_DOWN 165 (select umbra + penumbra). Reload the original. The command COUNT_DOWN 165 give the area of isophotal selection (here 29470 pixels).

Deep-sky gradient removal procedures (local method)

Full moon, light pollution, amplifier glow, vignetting in the optical system, ... can cause a large variation in the background across the image. Iris can use a classical polynomial fit of the gradient (up to 5th order). An intelligent search of background areas is implemented, and also the possibility to use a selection mask for identify only pertinent parts of the image (outside stars, nebulae, galaxies, etc). The created artificial image contain only the smooth background. T his artificial image is subtracted from your image and the gradient is eliminated.

The polynomial fit is very efficient but in some situation the method fail. It is the case when the variations of the sky are brutal and of great amplitude. For these situations Iris v5.41 introduces a new method using a local estimator of the sky background. A mask is necessary for identify bright objects and large nebulae because it is not easy for the software to determine areas containing only background.

The new flatten background command name is SUBSKY3 :

SUBSKY3 [SIZE] [MASK NAME]

The function is also accessible from Processing menu and command Remove gradient (local estimator)...

The syntax is simple. Two parameters should be provided. The first is the size of the local zone for the calculation of background. It is necessary to choose a dimension larger than the size of the objects present in the image. For example, if the typical dimension of a galaxy is of 60 pixels, you will choose a zone of nearly 100 pixels. The second parameter is the name of the mask for the selection of the background areas.

For example, the image below is the sum of 7 exposures exposed each one 2 minutes with a Canon EOS 350D camera (Baader filter) and equipped with a Canon lens 50 mm f/1.2 stopped to f/1.8. The lights of Toulouse town illuminates the horizon and affect the image severely. The constellation of Orion was not very high in the sky at the time of the observation, which does not arrange anything.

The state of art of preprocessing of RAW Images is applied (offset dark, flat-field) but the gradient is always severe.

First, create the mask for isolate bright objects. Use the command BIN_DOWN. Starting with the image to process in memory

> BIN_DOWN 3800

The result is a binarized image in which all the initial intensities lower than 3800 are put at zero, and other values take the level 256. Here a satisfactory mask, in which the real objects are correctly insulated:

Now try

> BIN_DOWN 3500

The masked zones (in black) take a too large importance. In particular, the sky background is not defined in the lower part of the image. This mask is not valid. Save a good mask in the working directory

> SAVE MASK

Note: to obtain a mask which selects all the pixels of image run the command > FILL 256.

Reload in memory the image to be process, then:

> SUBSKY3 180 MASK

or from the dialog window

Remember, the first parameter is the characteristic size of the largest objects of the image. Successive tests are necessary to select the value which does not create a artifacts around the bright and large objects. If a problem appears, increase the calculation zone size.

The size is here a square of 50 pixels.
Notes edge effects around the Orion nebula (locally the image is darker than the sky background). The aesthetic and photometric qualities of the image are poor.

The calculation zone is here a square of 180 pixels. The artifacts disappeared.

Next image, the result of the processing. The gradient removal success reveals weak objects of the image. Moreover, the white balance of the background is obtained simultaneously. The only other processing carried out here is a slight gamma stretching (see Gamma adjustment... command of View menu). Improvement compared to the starting document is considerable.

A side effect of the algorithm used is a black border around the processed image (the wide of the border is nearly equal to the size of the calculation zone divided by two). Use commands like WINDOW, WIN, ... for crop the image.

Another example, also starting from images taken with a 50 mm lens (Perseus double cluster region) . Left, the starting image, right, the adopted mask. The image after gradient removal procedure (local estimator method).

The polynomial fit method (nearly a global method) is not very efficient here because the density of stars is too significant for find the correct sky background level.

10. Wavelet analysis
The wavelet analysis decomposes the current image into images that each show details of increasing scales (click here for additional informations). For example, open the Wavelet dialog box from the Processing menu, and
In this example, Iirs add 1.4x the scale 1, 3.3x the scale 2, and so on. Finaly, the residual image is added (remain coef. 1x).

The individual components of the wavelet transform can be extracted by using the console command WAVELET. The syntax is: WAVELET [OUT1] [OUT2] [SCALE]

The parameter [OUT1] contains the generic name of the approximated images with increasing scales. The number of scales is contained in the variable [scale]. The image with the smallest scale has the index 1, the following 2, and so on.

The parameter [OUT2] contains the generic name of the images corresponding to the difference between two successive approximations (namely the wavelet coefficients). These images contain the details that disappear from one scale to the next.

The number of scales analyzed is defined by [SCALE] parameter. Typical values are between 3 and 5.

Example:

>LOAD M51
>WAVELET I J 4

The images I1...I4 contain the successive approximations of the image sorted by increasing scales. The images J1...J4 are the successive wavelet coefficients. The first wavelet coefficient contains contains mostly noise and the finest details of the images:

>LOAD J1
>VISU 50 -50

Wavelet coefficient #1

The last wavelet coefficient contain the most smoothed details (low frequency details):

>LOAD J4
>VISU 100 -100

Wavelet coefficient #4

The decomposition of the image into structures with distinct scales allows the reconstruction of the initial image so that only the pertinent details remain. It is the base of a very precise selective filtering (note that the unsharp masking filtering is a special case of wavelet analysis).. For reconstrtuct the initial image, add the set of wavelet coefficients and the residual:

>LOAD J1
>ADD J2
>ADD J3
>ADD J4>ADD I6
>VISU 800 40
or

>ADD2 J 4
>ADD I4
However, since we have seen that the coefficients of the first scale only correspond to noise, it is wise to eliminate the details of this scale from the reconstruction. For example:

>LOAD J2
>MULT 2
>SAVE K
>LOAD J3
>MULT 1.5
>ADD K
>ADD J4
>ADD I4
The images show another example of multiscale analysis (Hale-Bopp comet image (scale 1 to 5 + residual image).

Jets and concentrics wave structures can be clearly see at scale 1 and 2 of the wavelet transform.

False-colors images of the Hale-bop comet. The Ramp command (View menu) is used for display the right image.. The animation shows the coefficient 1 to 5 + the residual image. Jets and concentrics wave structures can be clearly see at scale 1 and 2.

Below, a close look of Hyakutake comet the 28 March 1996. Takahashi FS128 refractor at f/8 and KAF-1600 CCD camera. The spatial sampling is 1.8 arc-second, and the field of view is 6.04 x 6.04 arc-minute. Addition of wavelet coefficients 1 and 2 reveal fine structures in inner nuclear region.



Consider the field of galaxies NGC 7824 and UGC 36 below. The animation shows the noisy original image and the noise-cleaned version. Note an important point:The spatial resolution of the filtered image is fully preserved. Command set used for the image filtering is:

>LOAD FIELD
>WAVELET_FILTER 53.2 3 5

The first parameter (value 53.2) is the background noise of the image (RMS noise) - can be determined with the Statistics command of the contextual menu (left click of the mouse). The second parameter is the rejection facteur of the noise, here at 3 sigma. If you increase this factor, the noise filtrering is more active - reload the image and test some value (1.5, 2, 4, ...). The third parameter is the number of wavelet plane for the internal processing (5 coefifficient is a typical value). WAVELET_FILTER is one of the better tools available for gaussien noise reduction (readout noise of a detector for example). Note: The functi on is only compatible with B&W, for process a 48-bits images, split the RGB componants.

11. Deconvolution

Iris includes some deconvolution algorithms, for example the Richardson-Lucy algorithm, known to be used for the Hubble Space Telescope. For example apply the RL deconvolution to this severely blurred image (tracking problem):

Define a small rectangle (with the mouse) just around an unsaturated and isolated star. The shape of this star define the so called PSF (or Point Spread Function) of the instrument. The goal of the deconvolution is to sharpen this star and finally, all the image.

A rectangle is defined around a high signal to noise ratio star, but it is important to select a unsatured star. Then, enter the following console command:

>RL 15 0

The first parameter defines the number of iterations to be done. Here Iris execute 15 iterations of the RL algorithm. The second parameter corresponds to the relaxation factor of the algorithm, which is a means to reduce the noise in the final image. If the value is 0, the original Lucy algorithm is used. For a value greater than 0 (typically 1), a relaxation method is used, that will decrease the strength of the algorithm in noisy areas. Note that this algorithm requires a large number of mathematical operations (including several Fourier transforms at each iteration), so process times may be long and memory consuming if the image is large. RL command can only process 16 bits images. Finaly, suppress some noise and compare with the start image...

>GAUSS2 .7

The result of Richardson-Lucy deconvolution. Important considerations: (1) It is mandatory that the image has a square size and that this size is a power of 2 (ie: 128 x 128 pixels, 256x256 pixels, 512x512 pixels, ...). The WINDOW3 command is very usefull for respect this condition (example: WINDOW3 256 generate a 256x256 pixels image centered around the mouse selected region of the image.

(2) It is also important that the background level is close to 0 (use the OFFSET or NOFFSET commands for example).

Modified version of the Richardson-Lucy deconvolution algorithm exist in the form of RL2 command. The difference with command RL comes from the reduction of granular structure and ringing effect around the bright point-like objects. Just like RL, RL2 command use Fourier transforms and it is recommended to crop the image so that these with dimensions has a size equal to a power of 2 (128, 256, 512 pixels). Use for that WINDOW3 command, especially designed to isolate a squared part of an image. RL2 is used like RL (select with the mouse an unsaturated star before run it). The syntax is: RL2 [ NB ITER ] [ COEF ]
The example below shows an important reduction of both granularity and ringing effects. Original test image (note the selected star for the PSF ref.)

Command : RL 12 0
Command : RL2 60 0

Iris implement also the Maximum Entropy method, a sophisticated tool. We want to process a blurred Mars image. The telescope used for that image was not well collimated (!), which resulted in coma and astigmatism. Just after the planet observation, a star was observed close to Mars in the sky. The star image has been added to the Mars image (just using the ADD command) so that it becomes possible to obtain a PSF reference. Draw a rectangle around the star and run the deconvolution MEM:

Note the star added artificially. The image of the star is a long exposure for fix the atmospheric turbulence.

>LOAD BLUR2
>MEM 12

The argument of MEM command is the number of iteration. The result before and after 12 Maximum Entropy iterations.
Here another example. The burred image and the selected star. Result after 15 iterations (MEM 15). And an exemple concerning Jupiter planet observed in an IR methane band.

Image of Jupiter in the methane band (7800 A). SL9 impacts are visible in the upper part of the disk. A satellite transit is in the lower part. Red Spot is in the right side limb. A galilean satellite is used for define the PSF. Rigth, 20 iterations of maximum entropy algorithm.

The VanCittert deconvolution algorithm is also available. The implementation of Iris allows a fast processing of the images, effective, but of which it is necessary to moderate the effects also!. Syntax is

VANCITTERT [ FWHM ] [ A NUMBER OF ITERATION ]

In the image to process measure the width of a typical star (the FWHM). For that, to surround a star with a small selection box and run PSF command of the contextual menu. If the noted FWHM is for example of 2.6 pixels, run

>VANCITTERT 2.6 5

Choose the number of calculation loop and judge the effect. The command can also be employed on planetary images.

12. Color techniques

How to combine colors channel in a true colors image? First, remember to select PIC format (Settings dialog box of File menu)! Consider the grey level images of Jupiter planet taken through a red filter, a green filter and a blue filter respectively:



Open the dialog box (L)RGB of View menu. Enter the name of the three grey level layer of Jupiter image. Click the Apply button. Clearly, the three layers are not registered (i.e. not aligned)... Select the Red option, enter a step of one pixel and click the paddle arrow:

For each click on an arrow the red layer is translated by one pixel along the corresponding direction relatively the green and blue layers (note, you can enter a fractional value for the step). Align the red layer by using this method. To help you, you can perfectly modify the visualization thresholds during the operation.

Now, select the Blue channel and align interactively relatively to the red and green images/ Click OK and save the aligned true colors images (48-bits pixel coding):

>SAVE JUPITER

Now, make a dark sky. Define a region of the sky and run the BLACK command:

>BLACK

Now, adjust the white balance on a supposed white area of Jupiter, then run the WHITE command:

>WHITE



The aligned and white balanced image of Jupiter. For white balance you can use the ring of Saturn, the polar cap of Mars or predefined values (RGB balance command of Digital photo). Now you can increase the contrast of some parts of the image. Open the Wavelet commannd of Processing menu) and act on the finest sliders. Click OK for finish and for example export your image:

>SAVEJPG JUPITER 1

The file JUPITER.JPG is now present in your working directory. You can also export a 48 bits images (PNG of TIFF) from the Save doialog box of the File menu or enter a console command like:

>SAVEPNG JUPITER

Of course the (L)RGB dialog box can perform registration of the color plane for deep-sky images, compensate differential atmospheric refraction, etc.


How to extract the RGB layers from a 48-bits image?



Run the RGB separation command of Digital photo menu. The command produce the files R.PIC, G.PIC and B.PIC for respectively the Red, the Green and the Blue layers.



You can also run the equivalent console command SPLIT_RGB, for example:

>SPLIT_RGB R G B

For split a set of images, use the SPLIT_RGB2 command. The syntax is

SPLIT_RGB2 [IN] [R] [G] [B] [NUMBER]

For example for split the sequence M45_1, M45_2, M45_3, run the command:

>SPLIT_RGB M45_ R G B 3

The produced set of images is R1, R2, R3, G1, G2, G3, B1, B2, B3. For recombine a 48-bits image you can use the (L)RGB command of View menu, or the console commande TRICHRO. For example:

>TRICHRO R G B

or more compact form:

>TR R G B

HSI transformation

The RGB2HSI command convert the traditional RGB representation of a true colors image to the HSI space (Hue, Saturation, Intensity space). This convertion produce three images. The hue image correspond to the dominant colors (color tone), the saturation image correspond to the purity of colors and the intensity correspond to the magnitude of the signal in the colored image.

More precisely:

I) In the hue image, pixels that are pre dominantly red in the trichromatic image will be represented by high levels, pixels that are predominantly green will be represented by intermediate levels, and pixels that are predominantly blue will be represented by low intensity levels. If the levels are represented by the angles from 0° to 360°, red corresponds to 0°, green to 120°, blue to 240°, red again to 360°.

II) In the saturation image the areas of the tri-colors image where the colors are purest will be represented by the high levels. Low saturation results in a gray aspect images, middle saturation produces pastels and high saturation results in vivid colors.

III) The intensity image is the one that most resembles each of the monochromatic components of the tri-colors image. This image expresses the average intensity of the three fundamental colors component in a grey form.

The coordinate system for HSI model is cylindrical. The value of S is a ratio ranging from 0 to 1 on the side of the color circle. A point at the apex (R=G=B=0) is black. The point S=0 and I=1 (situated on the chromatic axis) is white. Intermediate value values of I for S=0 are the grays. Note that when S=0, the value of H is undefined. For exemple, pure red is at H=0, S=1 and I=1, pure blue is has H=240°, S=1 and I=1. So, changing H corresponds to selecting a pure color than S=I=1. Adding white color to a pure color correspond to decreasing S without changing I. Tones are created by decreasing both S and I. Shades are created by decreasing I and fixing S at unity.

Colorimetric transformation is a powerful tool that can profoundly modify the appearance of color images. In particular, the HSI representation is often used in science to enhance specific colored details in an image. If they are properly used, transformations between the HSI and the RGB systems allow you to reveal subtle colored characteristics in images and thus make them easier to interpret.

For example, consider this image of the horse nebula:

EOS350D + 50 mm lens

Extract the R, G and B components:

>SPLIT_RGB R G B



Now compute the H, S and I transform. The syntax of RGB2HSI command is:

RGB2HSI [R layer] [G layer] [Bleu layer] [H layer] [S layer] [I layer]

Here

>RGB2HSI R G B H S I



The inverse of RGB2HSI command is HSI2RGB command

Example, increase the saturation of the horse nébula. For this multiply, the saturation image by a coefficient and return to the RGB space:

>LOAD S
>MULT 1.5
>SAVE S
>HSI2RGB H S I RR GG BB
>TR RR GG BB

The method used for increase saturation on image processing software. Here another example of HSI transform concerning the Messier 27 nebula. True colors image of M27 (Takasahi Epsilon 160 telescope + Audine KAF-0400 camera).



Below, some Moon images carried through interference filters. Instrumentation: Takahashi 5-inch refractor at f/10 + KAF-1600 directly at the focus.



True colors image taken with 400, 560 and 910 nm interference filters. Contrast and hue are accentuated considerably by using the mathematical property of the HSI space. Yes, the Moon is a colored object ! That gives an unique very useful frame to study the Moon geology.

Tip: You can also invoque the Saturation adsjustement command of View menu, the algorithm is very similar.

The following strategy should be used for compute an albedo image for science. Suppose a couple of color images (R&G or R&B, etc):
1. Calculate the spectral ratio of the two images (one is divided by the other). The result is the image H.
2. The I component is one of the monochromatic images (or mean of the two images),
3. The S component is set to a constant level (1, for example),
4. Transform from HSI to RGB, then visualize the resulting tricolor images.
The result of this later processing is an image whose level represents the albedo of the object, and whose color represents the spectral signature (here a spectral ratio).

More generaly, the hue and saturation components defines the chromaticity of a color. It is important to note that chromaticity and intensity of a color can be considered independently. The very interest of HSI space is that it decorelate color tone and hue from brightness. This is why we can replace in HSI space the I component by a new high quality "Luminance" image. While returning then in the RGB domain, we preserve the original colors, but with a boost in the details, a much cleaner image and a much high SNR comparatively has the initial true colors image. It is the basic principle of the popular LRGB techniques.Click here for an Iris tutorial about LRGB.

Principal component analysis

The Principal Component Analysis (PCA) corresponds to a coordinate transformation of a color image that is represented in the space of fundamental colors (Red, Green, Blue). After the transformation, the axes are the eigenvectors of the covariance matrix of the three input images. The three resulting images are obtained by projecting the three starting axes (R,G,B) onto the three resulting axes. Without going into the mathematical details, it is interesting to choose this coordinate system because it defines three new images that are as uncorrelated from each other as possible, from the chromatic point of view.

The first axis, also called the principal axis, corresponds to the largest eigenvalue of the covariance matrix. Generally, this axis is very close to (but not coincident with) the "achromatic axis" (which is the axis of the "Intensity" image in the HSI transform). This axis contains most of the intensity information and is often close to the average of the input images..

The two other axes (ordered in decreasing eigenvalues) can thus be interpreted as linear combinations of the input images that lead to information that is not correlated to the first axis or to each other. The two corresponding images generally have much weaker dynamics, and are centered around zero. These images thus have a rather low signal to noise ratio, especially for deep sky images, and sometimes require a low pass filter (median type, for example) in order to be correctly visualized.

The interest in this transformation is:

(1) First, visualizing the three images in principal components allows a hierarchical classification of the information contained in the starting trichromatic image. This visualization can be done independently, or trichromatically (by putting the image of the first eigenvector in red, the second in green, and the third in blue). In this case, it is clear that the resulting image is not at all representative of the "true" colors of the image, nor is it very aesthetic, but it is the representation that gives the optimal visualization of the chromatic information in the image.

(2) Second, processing can be done in the space of principal components (filtering) and the results can then be brought back to the starting space (R, G, B) (with the PCA2RGB command) to obtain a visual improvement in the original trichromatic image. The transform is generally reserved for images with a good signal to noise ratio (for example, planetary images or bright planetary nebulae).

Application on a Jupiter planet image: The color image, The R component, The G component, The B component

Run the console command:

>RGB2PCA R G B C1 C2 C3
>LOAD C2
>VISU 300 -300

(note the use of a negative threshold because the C2 image is signed).


Very subtle colored details of the Jupiter atmosphere's are now highlighted. The inverse function exist: PCA2RGB.

Bicolor images
If only two colors images of an object are available it is easy to interpolate the data for synthetize a tricolor image. For example if R and B are the only available channels, compute the mean for create an artificial G channel. The operation has a value i f there is some correlation between the R and B channels, which is often the case.


Perform OBS_G = (OBS_R + OBS_B) / 2

>LOAD OBS_R
>ADD OBS_B
>MULT 0.5
>SAVE OBS_G