Od szarości do koloru.docx

(1175 KB) Pobierz

Od szarości do koloru
Jak już wspomnieliśmy, pojedyncze elementy matrycy światłoczułej rejestrują jedynie natężenie padającego na nie światła. W jaki sposób uzyskiwany jest zatem obraz kolorowy? W najpowszechniej spotykanym rozwiązaniu przed każdym elementem przetwornika umieszczony jest filtr barwny w jednym z trzech kolorów podstawowych: czerwonym (R), zielonym (G) lub niebieskim (B). Powoduje on, że dany element rejestruje natężenie światła jedynie o ściśle określonej barwie. Tak otrzymany obraz nie nadaje się co prawda do oglądania, jednak w dalszym ciągu zawiera pełną informację o luminancji dla całej powierzchni zdjęcia, a ponadto wyrywkowe dane o barwie.

Dzięki zastosowaniu filtrów RGB możliwe jest rejestrowane informacji o barwie światła padającego na matrycę.


Można by się jednak zapytać, dlaczego obrazu odczytanego z tak skonstruowanej matrycy nie można bez dalszego przetwarzania oglądać? Zobrazujemy to na przykładzie. Gdy przyjrzymy się dokładniej zdjęciu, zobaczymy na nim drobny wzorek, który jest jeszcze bardziej widoczny na powiększonym fragmencie zdjęcia.

Fragment zdjęcia w postaci nieprzetworzonego zapisu danych z matrycy światłoczułej.


Duże powiększenie wyraźnie pokazuje, iż "surowy" obraz zapisany przez matrycę aparatu nosi wyraźne "ślady" układu filtrów w postaci dość regularnego wzoru.

Na powiększonym fragmencie zdjęcia wyraźnie widać, iż filtry składowych RGB mają różną siłę oddziaływania.


Skąd bierze się ten wzór? Filtry barw podstawowych (czerwony, zielony i niebieski) nałożone na fotoelementy "zabierają" różną ilość światła, a czerwony zatrzymuje go najwięcej. Dlatego nawet do odtworzenia czarno-białego zdjęcia monochromatycznego konieczne jest wyrównanie tych różnic. Nie jest to trudne, gdyż elektronika aparatu "wie", jaką siłę oddziaływania mają poszczególne filtry RGB.

 

Wracamy więc do pytania skąd zatem biorą się kolory na zdjęciach? Jak się okazuje, zarejestrowane informacje w wystarczają, by poprzez interpolację odtworzyć informację o chrominancji (barwie) danego punktu obrazu. By tego dokonać, procesor aparatu uwzględnia informację o luminancji i barwie punktów sąsiednich. Ponieważ szachownicy fotoelementów nie da się w równomierny sposób podzielić pomiędzy trzy kolory składowe, punktów odpowiedzialnych za rejestrację zieleni (G) jest dwa razy więcej niż dla koloru niebieskiego (B) i czerwonego (R). Taki układ filtrów barwnych opracowany został w roku 1976 przez pracującego w laboratoriach Kodaka naukowca Bryce'a Bayera i stosowany jest w większości aparatów cyfrowych do dziś. Nie jest to jednak jedyny możliwy układ filtrów. Zdarzają się również zestawy filtrów o innej charakterystyce. Przykładowo firma Sony wiele lat temu proponowała sensory z zestawem filtrów RGBE, gdzie połowa z filtrów zielonych zastąpiona została szmaragdowymi (E od ang. emerald). Rozwiązanie to nie przyjęło się jednak na rynku.

Informacja o barwie pojedynczego punktu obrazu jest interpolowana na podstawie danych pochodzących z sąsiednich komórek matrycy


Jak widać, liczba otrzymanych przez interpolację punktów obrazu jest nieco mniejsza, niż liczba elementów światłoczułych, które tworzą matrycę. Stąd bierze się różnica pomiędzy dwiema wartościami, które łatwo można znaleźć w specyfikacji każdego aparatu cyfrowego - mianowicie pomiędzy liczbą punktów (pikseli) przetwornika, a efektywną liczbą punktów obrazu.

 

Za interpolację informacji o kolorze zazwyczaj odpowiedzialny jest procesor obrazu wbudowany w aparat, tak się dzieje w przypadku rejestrowania zdjęć w formatach JPEG bądź TIFF. Inaczej jest, gdy zdjęcie zapisujemy w postaci plików RAW. Zbiór taki jest surowym zapisem informacji odczytanej przez matrycę aparatu, zaś całe jej przetwarzanie do czytelnej dla nas postaci odbywa się podczas obróbki takiego pliku na komputerze.

...
Zgłoś jeśli naruszono regulamin