1 Ćwiczenie nr 11 Cyfrowa kamera fotograficzna Pytania kontrolne: 1. Schemat blokowy aparatu fotograficznego. 2. Co to jest liczba przesłony i jaki związek ma z jasnością obiektywu? Która liczba przesłony (2,8 czy 5,6) gwarantuje większy strumień światła i ilokrotnie? 3. Cechy odwzorowania wiernego, wzór soczewkowy, powiększenie liniowe i kątowe. Na czym polega zoom optyczny i zoom cyfrowy? 4. Jak realizowana jest migawka w aparacie cyfrowym? Co to jest efekt czerwonych oczu? 5. Jak definiuje się rozdzielczość? Co to jest kompresja? LABORATORIUM OPTOELEKTRONIKI OBRAZOWEJ
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
1
Ćwiczenie nr 11
Cyfrowa kamera fotograficzna
Pytania kontrolne:
1. Schemat blokowy aparatu fotograficznego.
2. Co to jest liczba przesłony i jaki związek ma z jasnością obiektywu? Która
liczba przesłony (2,8 czy 5,6) gwarantuje większy strumień światła i ilokrotnie?
3. Cechy odwzorowania wiernego, wzór soczewkowy, powiększenie liniowe i
kątowe. Na czym polega zoom optyczny i zoom cyfrowy?
4. Jak realizowana jest migawka w aparacie cyfrowym? Co to jest efekt
czerwonych oczu?
5. Jak definiuje się rozdzielczość? Co to jest kompresja?
LABORATORIUM OPTOELEKTRONIKI OBRAZOWEJ
2
11. Cyfrowa kamera fotograficzna
11.1. Budowa i zasada działania aparatu fotograficznego
Cyfrowy aparat fotograficzny jest urządzeniem niewielkich rozmiarów pozwalającym na
fotografowanie obrazów, wykorzystując jako materiał światłoczuły czujniki, obecnie
najczęściej CCD lub CMOS. Obraz wędruje do pamięci aparatu, skąd zazwyczaj
transmitowany jest do wyświetlacza LCD oraz na nośnik pamięci, którym może być karta
CompactFlash, SmartMedia, MemoryStick itp.. Są także inne sposoby magazynowania
danych – dyskietka, mała płyta CD-R lub rozpowszechniony głównie w kamerach wideo
nośnik MultiMediaCard.
Podstawową różnicą pomiędzy aparatami fotograficznymi, a ich cyfrowymi odpowiednikami,
jest element światłoczuły. W aparacie analogowym światło padające przez obiektyw aparatu
na film wywołuje na jego światłoczułej powierzchni nieodwracalną reakcję chemiczną.
f/11, f/16, f/22, f/32, itp. Wartości są zaokrąglone w celu uproszczenia zapisu.
f/1,4 f/2 f/2,8 f/4 f/5,6 f/8
Rys. 9.5. Sposób oznaczania apertury obiektywu za pomocą ‘liczby F’
Jak już wspomniano, zmiana jasności obiektywu od danej wartości liczby F do sąsiedniej
wartości z szeregu powoduje dwukrotną zmianę ilości padającego na sensor światła. W
fotografii mówi się wtedy o zmianie o „1 EV – jedną wartość ekspozycji” (z ang. exposure
value).
(9.3)
(9.2)
11
9.2.2. Migawka
W każdej kamerze konieczna jest możliwość kontrolowania czasu ekspozycji. W przypadku
aparatów fotograficznych z wyższej półki migawka jest mechaniczna i ma postać kurtyny
przesuwającej się w płaszczyźnie obrazowej nad powierzchnią sensora, pozwalając
precyzyjnie kontrolować czas naświetlania. W przypadku kamer cyfrowych migawka jest
najczęściej elektroniczna. Czas otwarcia migawki wyraża się w normalny sposób – w
sekundach, jednak wartości zapisuje się w postaci ułamków zwykłych; 1/25s, 1/320s,
1/4000s. W przypadku aparatów fotograficznych czas ten dobiera się indywidualnie przed
każdą ekspozycją. Kamera cyfrowa natomiast musi rejestrować sekwencje obrazów
utrzymując odpowiednie tempo – np. 25 klatek na sekundę. Czas otwarcia migawki nie może
w tym przypadku przekroczyć 1/25 sekundy. Układ automatycznej ekspozycji kamery dobiera
pozostałe parametry (aperturę obiektywu i czułość ISO sensora) w taki sposób, aby warunek
ten był spełniony.
W sensorach CMOS elektroniczna migawka działa w sposób następujący: kolejne wiersze
sensora są resetowane jeden po drugim począwszy od góry. Gdy proces obejmie kilka wierszy
(ich liczba zależy od czasu ekspozycji) rozpoczyna się odczyt w jednakowy sposób – wiersze
odczytywane są kolejno począwszy od góry z taką samą szybkością z jaką przebiega
resetowanie. Okres integracji (akumulacji ładunków) stanowi czas ekspozycji i jest równy
opóźnieniu między resetem oraz odczytem danego wiersza zatem zmieniając te dwie wartości
można sterować czasem ekspozycji. Z racji tego że proces integracji przesuwa się po sensorze
przez pewien okres czasu (podobnie jak dla migawki szczelinowej aparatu fotograficznego),
na obrazie pojawiają się charakterystyczne zniekształcenia:
Rys. 9.6. Skoszenie – efekt uboczny działania opadającej migawki
Jeśli pojazd porusza się podczas ekspozycji z dużą prędkością to jego dach może podlegać
odczytowi wcześniej niż koła, co daje efekt widoczny na rysunku powyżej.
9.2.3. Sensor kamery i matryca Bayera
Sensor znajdujący się w kamerze wideo, wykonany jest w jednej z dwóch technologii: CMOS
lub CCD. Oba typy sensorów bazują obecnie na komórkach MOS (choć spotykane są również
sensory CCD oparte na tranzystorach bipolarnych). Akumulują one w pikselach pewną ilość
ładunku proporcjonalną do natężenia oświetlenia dokonując w ten sposób próbkowania
obrazu. Gdy ekspozycja dobiegnie końca, w przypadku najprostszych sensorów CCD ładunek
zgromadzony w danym pikselu jest przesuwany wzdłuż rejestru, do sąsiedniego piksela w
następnym wierszu. Zawartość kolejnych wierszy trafia do rejestru przesuwnego tzw.
wyjściowego, na wyjściu którego dokonywana jest konwersja ładunku na napięcie. W
12
przypadku sensora CMOS konwersja odbywa się wewnątrz każdego piksela co stanowi
podstawową różnicą między obiema technologiami.
CCD CMOS
konwersja fotonówna elektrony
konwersja ładunku
na napięcie
9.7. Porównanie sensorów CMOS i CCD
Siatka Bayera
Aby uzyskać obraz barwny na matrycę sensorów nakładany jest
dyskretny filtr optyczny (DFO) w formie siatki filtrów RGB.
Siatka Bayera (od nazwiska wynalazcy - dr. Bryce'a E. Bayera z
firmy Kodak) przedstawiona została na rys. 9.8. Często nazywana
jest siatką GRGB lub RGGB albo też siatką typu „zielona
szachownica” ponieważ zawiera 50% zielonych, 25% czerwonych
i 25% niebieskich filtrów elementarnych. Filtry te pokrywają całą
powierzchnię aktywną sensora. Jej konstrukcja wynika z faktu, że
ludzkie oko jest bardziej czułe i widzi z lepszą rozdzielczością
kolor zielony. Zorganizowanie siatki w ten sposób sprawia że
obraz jest bardziej szczegółowy i mniej podatny na szum. Obraz ‘prosto’ z sensora z siatką
Bayera różni się znacznie od obrazu ostatecznego. Fakt że każdy piksel jest przykryty filtrem
przepuszczającym tylko fragment spektrum oznacza, że znaczna część energii światła nie
dochodzi do sensora. Ponadto, każdy piksel zawiera tylko część informacji o kolorze w
danym punkcie. Resztę informacji uzyskuje się przez analizę sąsiednich pikseli. Służą do tego
tzw. algorytmy demozaikujące.
Rys. 9.9. a) obraz nieprzetworzony z sensora z siatką Bayera,
b) obraz ostateczny po procesie demozaikowania.
Rys. 9.8. Siatka Bayera
a) b)
13
Istnieje wiele typów algorytmów demozaikujących; najbliższego sąsiada, interpolacji
dwuliniowej, interpolacji dwusześciennej itd. . Różnią się one szybkością działania, jakością i
zastosowaniem (np. dany algorytm może być zoptymalizowany pod kątem lepszej jakości
wydruku).
9.2.4. Układ automatycznego ustawiania ostrości (ang. AF – autofocus) Dużym udogodnieniem dla operatora kamery jest układ automatycznej regulacji ostrości..
Rys. 9.10a. Schemat ultradźwiękowego układu Auto Focus. Stosowane są trzy rodzaje takiego układu: ultradźwiękowe, z wiązką promieniowania podczerwonego i z czujnikiem CCD. W układzie ultradźwiękowym, przedstawionym na rys. 9.10a, AF korzysta z typowych rozwiązań stosowanych w echosondach. Z przetwornika piezoelektrycznego, umieszczonego w małym tubusie obok obiektywu kamery, jest wysyłana skupiona wiązka fal ultradźwiękowych w środek obszaru obserwowanego przez kamerę. Fala ultradźwiękowa odbita od przedmiotu wraca z opóźnieniem do odbiornika, którym jest ten sam przetwornik. Odpowiedni układ elektryczny określa czas opóźnienia i zmienia tę informację na sygnał sterujący silnik ostrości obiektywu. Wadą tego systemu jest błędne ustawianie ostrości przy obserwacji przedmiotów znajdujących się np. za szybą, od której odbija się fala ultradźwiękowa lub też w przypadku filmowania obiektu umieszczonego nie w centralnej, ale w bocznej części kadru. Układ AF z wiązką promieniowania podczerwonego „Infrared Auto-Focus" wykorzystujący zjawisko odbicia fal podczerwonych przedstawiono na rys. 9.10b.
Wiązka promieniowania podczerwonego emitowana przez diodę LED Jest skierowana wzdłuż osi obiektywu kamery do przedmiotu. Po odbiciu od przedmiotu jest odbierana przez drugi obiektyw należący do odbiornika podczerwieni znajdującego się pod obiektywem kamery. Odbita wiązka pada następnie na zespół fotodiod A i B (ang. Split Photodiode). Zespół ten może przesuwać się w górę i w dół, przy czym jest mechanicznie sprzężony z pierścieniem ostrości obiektywu. Jeśli wiązka odbierana pada na jedną tylko fotodiodę, to silnik ostrości przesuwa zespół fotodiod aż do osiągnięcia jednakowego podziału tej wiązki w obu diodach A i B. Następuje zrównanie sygnałów elektrycznych z obu fotodiod i silnik zatrzymuje się. Do wzmocnienia sygnałów z fotodiod i sterowania silnika służą: wzmacniacz, komparator amplitudy oraz układ sterujący. Zaletą układu z wiązką promieniowania podczerwonego jest jego niezależność od stopnia oświetlenia przedmiotów. Pracuje on poprawnie nawet w ciemności.
CCD
silnik
ostrości
układ sterowania
silnika
nadajnik
odbiornik
układ pomiaru
czasu
opóźnienia
ultradźwiękowy
przetwornik
piezoelektryczny
obiektyw
14
Rys. 9.10b. Schemat układu Auto Focus z wiązką promieniowania podczerwonego. Układ AF z czujnikiem CCD zawiera 24 pary fotodiod działających na zasadzie przesuwania ładunku elektrycznego. Fotodiody są rozmieszczone szeregowo i tworzą liniowy czujnik świetlny CCD o długości 5mm. Strumień świetlny z obiektywu kamery zostaje rozdzielony na dwie części przez półprzeźroczyste lusterko, przy czym 70% strumienia dochodzi do przetwornika, a 30% do czujnika CCD rys. 9.10c.
Rys. 9.10c. Układ Auto Focus z czujnikiem CCD.
CCD
silnik
ostrości
układ sterowania
silnika
odbiornik
podczerwieni
(fotodiody A i B)
nadajnik
podczerwieni
(dioda LED)
komparator
amplitudy
CCD
silnik
ostrości
układ sterowania
silnika
mikroprocesor
czujnik
CCD
półprzeźroczyste lustro
lustro
70%
30%
15
Każda para diod jest wyposażona w mikroskopijną soczewkę skupiającą. Wyjścia fotodiod są odpowiednio połączone tworząc dwie grupy A i B (rys. 9.10d).
Rys. 9.10d. Zespół fotodiod A i B.
Rys. 9.11. Zasada działania dalmierza z dwiema grupami fotodiod CCD. Działanie takiego układu jest podobne do działania optycznego dalmierza w aparatach fotograficznych, zawierającego dwa, odwrotnie ułożone względem siebie, pryzmaty. Obraz widziany w wizjerze aparatu jest przecięty na pół i przy regulacji ostrości obiektywu obie połówki obrazu schodzą się aż do zaniku przecięcia. Funkcję dwóch pryzmatów spełniają w opisywanym układzie CCD dwie grupy fotodiod (rys. 9.11.). Strumień świetlny z obiektywu pada na mikrosoczewki, a stąd na fotodiody. Przy dobrze ustawionej ostrości płaszczyzna zogniskowania obrazu leży dokładnie na powierzchni czujnika CCD i fotodiody obu grup A i B dają identyczne sygnały wizyjne powodujące w efekcie wynik zerowy na wyjściu układu (rys. 9.11a.). Przy źle ustawionej ostrości płaszczyzna zogniskowania obrazu wypada przed
A
B
A
B
A
B
X
X
X
X
X
X
U
U
U
t
t
t
A B
B A
a).
b).
c).
A1B1 A10B10
Fotodiody czujnika CCD
16
lub za czujnikiem CCD. Powstają wówczas sygnały błędu A i B jak na rys. 9.11.b i c. Sygnały te dochodzą do mikroprocesora wytwarzającego odpowiednie sygnały sterujące silnik ostrości obiektywu, który dopóty obraca pierścień ostrości, dopóki nie nastąpi zrównanie sygnałów A i B. Układ AF z czujnikiem CCD nie działa niestety prawidłowo lub w ogóle przestaje działać, jeżeli obserwowany obiekt nie zawiera żadnych szczegółów, np. gdy kamerę skieruje się na białą ścianę lub kontrastowe poziome pasy lub gdy oświetlenie jest zbyt słabe. W tych przypadkach należy przejść na ręczne sterowanie ostrością. Zaletą układu CCD jest możność stosowania go przy dowolnym obiektywie, również przy teleobiektywie. Zarówno układ AF z wiązką promieniowania podczerwonego, jak i z czujnikiem CCD działają bezpośrednio przez obiektyw kamery, stąd też spotyka się dla nich określenia TTL (ang. Through The Lens) lub TCL (ang. Through The Camera Lens). Ostatnim osiągnięciem jest układ Piezo Auto Focus CCD, w którym czujnik CCD zamocowano na płytce piezoelektrycznej. W przypadku nieostrego obrazu mikroprocesor wytwarza odpowiednie napięcie na tej płytce powodując natychmiastowe ustawienie czujnika CCD w płaszczyźnie zogniskowania. Jednocześnie mikroprocesor ustala, o jaki kąt należy obrócić pierścień ostrości obiektywu kamery, i wysyła odpowiednie napięcie sterujące do silnika ostrości, który po chwili ustawia prawidłową ostrość obrazu w kamerze. W układzie Piezo AF zamiast poszukiwania optimum, jak to było w poprzednim układzie AF z CCD, następuje jednorazowy, docelowy obrót pierścienia do położenia ustalonego przez mikroprocesor. Zwiększa to precyzję i szybkość osiągnięcia ostrości obrazu. 9.2.5. Temperatura barwowa i balans bieli Czystość bieli jest parametrem kolorowego obrazu telewizyjnego, na który wyjątkowo uczulony jest wzrok człowieka. Nawet niewielki dodatek jakiegokolwiek koloru zanie-czyszczającego biel jest dostrzegalny przez obserwatora. Bardzo krytycznie jest oceniany
Tabela 9.2. Temperatury barwowe typowych źródeł światła
Oznaczenie Temperatura
barwowa [K] Źródło światła
10000 Czyste niebieskie niebo
9000
8000
Zachmurzone niebo
7000
6000 Letni dzień, południe. Lampy błyskowe.
5000 Ranek lub wieczór
4000 Świetlówka fluorescencyjna
3000 Żarówki halogenowe i wolframowe
2000 Ogień, świece
1000
także kolor skóry na twarzy, rękach itp. Prawidłowe odtwarzanie bieli przez kamerę telewizyjną daje równocześnie poprawne odtwarzanie wszystkich kolorów. Główny zatem wpływ na czystość bieli w kamerze ma wyrównanie poziomów u trzech składowych sygnałów RGB. Stąd też pochodzi określenie równowaga bieli (ang. White Balance). Podobnie jak w kolorowej fotografii, uzyskanie wiernego odtworzenia kolorów oraz prawidłowej bieli zależy od zabarwienia światła oświetlającego filmowaną scenę. Parametrem charakteryzującym to zabarwienie jest temperatura barwowa. Temperatura barwowa określa odcień bieli i jest wyrażana w Kelvinach. Odpowiada ona temperaturze do której należy
17
podgrzać ('do białości') ciało doskonale czarne aby emitowało białe światło o danym odcieniu. Nieco na przekór intuicji; wyższe temperatury barwowe (>5000K) reprezentują kolory 'chłodne', niższe natomiast (2700-3000K) – ciepłe. Im jest ona niższa, tym światło pozornie białe jest bardziej zabarwione kolorem czerwonym, a im wyższa - kolorem niebieskim. Dla porównania w Tab. 9.2 podano temperatury barwowe kilku znanych ogólnie źródeł światła.
Z przytoczonych przykładów widać, z jak dużą rozpiętością temperatury barwowej może spotkać się kamera telewizyjna. Aby dobrać w kamerze właściwą równowagę bieli przy aktualnym oświetleniu, stosuje się układy ręcznej lub automatycznej regulacji. Dawniej, w tanich kamerach, dla uproszczenia, używany był przełącznik np. dla 4 różnych warunków: oświetlenie żarowe, świetlówka, słońce, niebo zachmurzone. Rozwiązanie takie dawało tylko przybliżone wyniki i nie zapewniało prawidłowej równowagi bieli dla dowolnego oświetlenia. Zwiększenie dokładności ustawienia równowagi bieli zapewnia układ automatyki, który samoczynnie dobiera tę równowagę po skierowaniu kamery na białą powierzchnię, np. ścianę, kartkę papieru itp. i naciśnięciu przycisku układu automatyki równowagi bieli w kamerze. Aby zwolnić operatora kamery z obowiązku pamiętania o konieczności korygowania równowagi bieli, wprowadzono układ ACT (ang. Auto Colour Tracking) przedstawiony na rys. 9.12. Działa on w sposób ciągły, nawet bez konieczności przerywania nagrań przy przechodzeniu z oświetlenia np. słonecznego na elektryczne. Półprzewodnikowy czujnik kolorów ma dwie fotodiody, jedną czułą na światło o odcieniu niebieskim, a drugą, o odcieniu czerwonym. Czujnik ten analizuje nieustannie dochodzące do niego światło i przenosi dane do układu macierzowego RGB, który automatycznie koryguje równowagę bieli. Układ ACT działa podobnie jak zmysł wzroku, dzięki któremu można rozpoznawać kolory przedmiotów przy różnym zabarwieniu oświetlenia.
Rys. 9.12. Automatyczny układ równowagi bieli ACT.
CCD
UY
układ
macierzy
RGB
koder
sygnału
UY
UR
UB
UR-Y UB-Y
Uwy
filtr R
Filtr B fotodiody
sygnały
równowagi
bieli
mleczna
szyba
obiektyw
18
9.2.6. Czułość ISO i szum
Czułość sensora kamery to miara tego jak wrażliwy jest on na światło. Skrót 'ISO' pochodzi
od nazwy specyfikacji; ISO 12232:1998 opracowanej przez Międzynarodową Organizację
Normalizacyjną. Pojęcie to funkcjonowało przez długi czas w fotografii analogowej jako
‘szybkość filmu’. Mało czułe (wolne) klisze, o małym ISO wymagają większej ekspozycji
(dłuższego czasu otwarcia migawki lub większej apertury) niż klisze szybkie żeby w tych
samych warunkach zarejestrować jednakowo jasny obraz. Typowe wartości ISO to: 64, 100,
200, 400, 800, 1600 itp. Podczas gdy kiedyś wymagało to wymiany rolki filmu, współczesne
kamery cyfrowe potrafią zmieniać czułość sensora na bieżąco poprzez regulację wzmocnienia
sygnału z sensora. Niestety ze wzrostem czułości rośnie też ilość szumu widocznego na
obrazie.
W przypadku klisz fotograficznych obecność szumu wynikała z faktu, że ziarna srebra
musiały być większe dla klisz o większej czułości. Natomiast w przypadku kamer i aparatów
cyfrowych można wyróżnić dwa rodzaje szumu:
Typ I (szum stały): wynikający z różnych odpowiedzi poszczególnych pikseli,
Typ II (szum losowy): wynikający z fluktuacji czułości danego piksela w czasie.
ISO 100 ISO 400
R G B R G B
Rys. 9.13. Wpływ czułości ISO na szum w składowych R,G i B obrazu cyfrowego
Szum stały
Wynika z różnej czułości poszczególnych pikseli na światło. Jest najbardziej widoczny przy
dłuższym czasie ekspozycji i dużym wzmocnieniu (wysokim ISO), dlatego też przeszkadza w
filmowaniu scen nocnych. Ten rodzaj szumu jest superpozycją dwóch składowych; jedna
przypomina ziarno kliszy fotograficznej i posiada stosunkowo małą amplitudę, druga składa
się z jasnych, rozproszonych 'pików' określanych mianem 'gorących pikseli'. Nie należy ich
mylić z ‘martwymi pikselami’, które są defektami sensora i występują niezależnie od czasu
ekspozycji. W fotografii szum stały jest zwalczany przez odjęcie 'czarnej klatki' (utworzonej
bezpośrednio po właściwej ekspozycji przy zamkniętej migawce) od właściwego zdjęcia. Nie
jest to możliwe w przypadku kamery cyfrowej gdzie ekspozycje następują jedna po drugiej.
19
Szum losowy Szum losowy jest obecny zawsze, niezależnie od czasu ekspozycji czy czułości. Polega na
tym, że ten sam piksel może daje nieco inną odpowiedź za każdym razem gdy wystawiony
jest na działanie takiego samego światła. Czynniki które mają wpływ na szum losowy to:
Fluktuacja ilości fotonów padających na obszar aktywny piksela Np,
Fluktuacja ilości wygenerowanych elektronów Ne,
Losowe efekty w procesie wzmocnienia i przetwarzania C/A sygnału.
Pierwsze dwa z efektów opisuje rozkład Poisson'a i dlatego nazywane są wspólnie szumem
Poisson'a. Zgodnie z tym rozkładem; jeśli piksel jest oświetlony tak, aby wygenerować 1000
fotoelektronów to fluktuacje wyniosą 10001/2
=31e- (3,1%), natomiast przy dziesięciokrotnie
słabszym oświetleniu (100 fotoelektronów) będzie to 1001/2
=10e- (aż 10%). Amplituda szumu
losowego zwiększa się ze wzrostem wzmocnienia. Istnieje wiele algorytmów służących do
jego usuwania, jednak każdy z nich prowadzi do utraty szczegółowości obrazu, ponieważ
wszystkie polegają na uśrednianiu wartości sąsiednich pikseli.
9.3. Rozdzielczość
9.3.1. Podstawowe pojęcia
Kamera wideo jest przykładem systemu analizującego obraz. Dokonuje ona próbkowania
rejestrowanej sceny w czasie (w tempie np. 25 klatek na sekundę) oraz w przestrzeni. Ta
druga operacja polega na przyporządkowywaniu poszczególnym punktom obrazowym –
pikselom (znajdującym się w płaszczyźnie obrazowej, na powierzchni sensora) odpowiednich
punktów przedmiotowych.
Zdolność rozdzielcza analizatora obrazu to jego zdolność do rozróżniania (rozdzielania)
szczegółów przedmiotu, innymi słowy zdolność do mierzenia kątowej separacji punktów
przedmiotowych.
Rozdzielczość jest to minimalna odległość pomiędzy dwoma rozróżnialnymi elementami
obrazu. Nie należy jej utożsamiać z liczbą pikseli sensora, ponieważ rzadko kiedy jest on
‘najwęższym gardłem’ całego systemu.
9.3.2. Dyfrakcja – zjawisko ograniczające rozdzielczość
Jakość obiektywu ma kluczowe znaczenie dla rozdzielczości całego systemu. Dla dużych
apertur (np. f/1, f/1.8, itp...) maksymalna rozdzielczość obiektywu ograniczają aberracje. W
przypadku mniejszych apertur i obiektywów bardzo wysokiej jakości (takich gdzie aberracje
są kompensowane np. z pomocą soczewek asferycznych i/lub s. o niskiej dyspersji)
ograniczenie rozdzielczości wynika z dyfrakcji.
Równoległe promienie światła przechodzące przez aperturę rozchodzą się i interferują ze
sobą, ponieważ w drodze do ekranu przebywają różne odległości i występują między nimi
przesunięcia fazowe.
Zjawisko to jest tym silniejsze im mniejsza jest średnica apertury w stosunku do długości
światła. W efekcie interferencji, obrazem pojedynczego punktu przedmiotowego jest obraz
dyfrakcyjny zwany dyskiem Airy'ego. Jego średnica (mierzona od środka do pierwszego
minimum) służy do określenia maksymalnej teoretycznej rozdzielczości obiektywu.
20
0.0
0.2
0.4
0.6
0.8
1.0
Rys. 9.14. Dysk Airy'ego
Kryterium Rayleigh'a określa limit rozdzielczości obiektywu. Obrazy dwóch sąsiadujących
punktów przedmiotowych uznaje się za rozdzielone gdy maksimum główne (dysku Airy'ego)
pierwszego obrazu pokrywa się z pierwszym minimum drugiego obrazu, stąd:
D
fxoraz
f
x
D
22,1,22,1sin
gdzie: – rozdzielczość kątowa, x - odległość dwóch dysków Airy’ego na ekranie, f –
odległość ogniskowa, D – apertura (średnica przesłony). Odległość ‘x’ odpowiada rozmiarowi najmniejszego przedmiotu który obiektyw jest w
stanie odwzorować. Jest to również średnica najmniejszego punktu do którego obiektyw jest w
stanie zogniskować skolimowaną wiązkę światła. Wielkość ta jest proporcjonalna do długości fali
λ, zatem niebieskie światło może zostać zogniskowane do mniejszego punktu niż czerwone. Dyfrakcja ogranicza rozdzielczość obiektywu (a więc i całego systemu), gdy:
- średnica maksimum głównego dysku Airy'ego jest porównywalna z rozmiarem piksela
sensora,
- dwa dyski Airy'ego znajdują się wzajemnie w odległości bliższej niż ta wynikająca z
kryterium Rayleigh'a.
Rys. 9.15. Trzy przypadki wzajemnego położenia dysków Airy'ego.
9.3.2. Funkcja przenoszenia modulacji MTF
Funkcja MTF służy do opisu rozdzielczości przestrzennej systemu lub któregoś z jego
komponentów. Przedstawia ona zmianę współczynnika modulacji (który opisuje kontrast) w
dziedzinie częstotliwości przestrzennych. Częstotliwość przestrzenna szczegółów obrazu jest
odpowiednikiem częstotliwości (w dziedzinie czasowej) dźwięku. Wysoki ton (dźwięk o
(9.4)
21
dużej częstotliwości, powodujący szybkie drgania membrany głośnika) można porównać do
układu prążków o dużej częstotliwości przestrzennej.
MTF
1
częstotliwść przestrzenna
0,1
0,5
MTF10
częstotliwośćNyquista
aliasing
wyostrzanie,artefakty
MTF50
granicarozdzielczości
dobra ostrośći kontrast
Rys. 9.16a. Przykładowa krzywa MTF
Standardową jednostką służącą do opisu rozdzielczości w systemach telewizyjnych jest
[LW/PH], czyli liczba linii na wysokość obrazu (ang. line widths per picture height). Dla
wygody przyjęło się nazywać tą jednostkę ‘liczbą linii telewizyjnych’ (np. 200 linii TV).
Współczynnik modulacji jest to wartość funkcji MTF dla danej częstotliwości przestrzennej
i wyraża kontrast. Może być bezwymiarowy (np. 0,5) lub wyrażony w procentach (np. 50%).
Na rysunku 9.16b przedstawiono sinusoidę o rosnącej częstotliwości przestrzennej. Górna
połówka posiada stały kontrast (to przypadek wyidealizowany). Dolna połówka ilustruje efekt
przejścia sygnału przez system optyczny (opisany pewną funkcją MTF). Jak widać kontrast
dolnej sinusoidy maleje ze wzrostem częstotliwości przestrzennej.
Rys. 9.16b. Przykład wpływu systemu optycznego na kontrast
9.3.4. Interpretacja wykresów MTF
Poniższe zestawienie zawiera wielkości które można odczytać z wykresu MTF i służące do
oceny jakości systemu optycznego pod kątem rozdzielczości:
MTF10 - Kryterium Rayleigh'a - jest to częstotliwość przestrzenna dla której kontrast
obrazu spada do poziomu 10% swojej początkowej wartości. W przypadku większości
obiektywów ten spadek kontrastu wynika z względnie słabej jakości szkła i
występujących w nim aberracji. W przypadku obiektywów ograniczonych dyfrakcją
odpowiada wynika on z kryterium Rayleigh’a.
22
MTF50 – jest to częstotliwość przestrzenna dla której kontrast obrazu spada o połowę.
Wielkość tą uznaje się za wyznacznik ostrości obrazu. Niekiedy zamiast MTF50 używa
się wielkości MTF50P (p-peak) w przypadku kamer i aparatów w których zastosowano
agresywny algorytm cyfrowego wyostrzania obrazu. Krzywe MTF takich urządzeń
posiadają charakterystyczne maksimum widoczne na rysunku 9.15.
Częstotliwość Nyquist'a – Według twierdzenia o próbkowaniu Nyquist'a sygnał ciągły
może być wiernie odtworzony z sygnału dyskretnego wtedy, gdy był próbkowany z
częstotliwością co najmniej dwa razy większą od granicznej częstotliwości swojego
widma. Jak już wspomniano, kamera cyfrowa dokonuje próbkowania rejestrowanej sceny.
Częstotliwość graniczną próbkowania nazywa się częstotliwością Nyquist'a i oznacza fn.
Jest to największa częstotliwość przestrzenna szczegółów, które matryca kamery zdolna
jest zarejestrować.
pikselcyklupikselarozmiarfn /5,02
1
Sensor cyfrowy potrzebuje minimum 2 pikseli do zarejstrowania jednej pary linii (jednego
cyklu). Odpowiada to maksymalnej częstotliwości równej ½ cyklu/piksel. Wartość ta
stanowi teoretyczny limit rozdzielczości sensora.
Rys. 9.17. Próbkowanie
Ponieważ maksymalna częstotliwość przestrzenna dla sensora wynosi 0,5 cyklu/piksel, to
rozdzielczość kamery może być opisana ilością pikseli sensora tylko w przypadku, gdy
wartość MTF10 występuje przy częstotliwości wyższej niż fn.
Aliasing
Jeśli sygnał próbkowany zawiera składowe o częstotliwości większej od fn , to każda z nich
wystąpi w zrekonstruowanym sygnale jako tzw. 'alias' o częstotliwości niższej niż fn.
Przykładowo, jeśli sygnał audio próbkowany jest z częstotliwością 8000 próbek na sekundę,
poprawne odwzorowane będą wszystkie jego składowe o f<4000 Hz. Jeśli próbkowany
sygnał zawiera składową o częstotliwości 4900 Hz, będzie ona obecna w zrekonstruowanym
sygnale jako niechciany alias o f=3100Hz. Analogicznie - w rejestrowanym obrazie szczegóły
(informacje) o częstotliwościach większych niż fn są aliasowane do niższych częstotliwości
przyczyniając się do powstawania moiry (Rysunek 9.18). Aby zapobiec powstawaniu takich
zniekształceń obrazu należy odfiltrować niechciane częstotliwości za pomocą filtru
antyaliasingowego zanim trafią na sensor. Filtr jest elementem którego MTF spada
(9.20)
23
gwałtownie w pobliżu częstotliwości Nyquist'a. Zwykle znajduje się on za obiektywem, tuż
przed sensorem kamery.
Rys. 9.18 a) poprawne próbkowanie, b) aliasing przestrzenny w postaci mory
Aliasing jest jednym z głównych czynników ograniczających rozdzielczość kamer cyfrowych,
ponieważ uzyskanie filtrów antyaliasingowych o stromej charakterystyce (dużej dobroci Q) w
systemach optycznych jest bardzo trudne.
a) b)
24
11.5 Stanowisko pomiarowe i metodyka pomiarów
Pomiar parametrów cyfrowego aparatu fotograficznego możliwy jest na stanowisku
pokazanym na rysunku 11.8. Na ławie optycznej umieszczono w odpowiednich uchwytach
aparat cyfrowy, test rozdzielczości (rys. 11.9.) z możliwością zmiany położenia względem
aparatu oraz lampę oświetlającą test.
Test oświetlony jest od tyłu przez mleczną płytę pleksi, co zapobiega powstawaniu cieni.
Badając rozdzielczość w funkcji różnych parametrów wybraną planszę odsuwamy zawsze na
taka odległość, aby wypełniała cały kadr obrazu.
Rys. 11.8. Stanowisko pomiarowe do testowania kamer cyfrowych.
300
400
500
600
700
200
200
300
400
500
600
700
200
200
700
200
300
400
500
600
750
800
900
1000
1100
1200
1300
300
400
500
600
700
200
200
300
400
500
600
700
200
200
200
200
300
400
500
600
7001300
1200
1100
1000
900
800
750
1300
1200
1100
1000
900
800
750
200
300
400
500
600
700
1300
1200
1100
1000
900
800
750
200
300
400
500
600
700
Rys.11.9. Test rozdzielczości kamer cyfrowych
25
Program ćwiczenia 11
Porównanie rozdzielczości zdjęć wykonanych aparatami C200, M525, PS945 i Sony
H9: - zamocować aparat do statywu fotograficznego,
- ustawić statyw jak najbliżej stołu naprzeciwko ławy optycznej (aparat powinien
znajdować się na wysokości plansz testowych,
- umieścić test 4 w widełkach, w razie potrzeby przykręcić test odpowiednimi
śrubami, załączyć lampę oświetlającą test od tyłu,
- włączyć aparat i usytuować test w takiej odległości, aby wypełniał cały kadr w
pionie,
- wykonać zdjęcie testu aparatem M525 przy najlepszej jakości obrazu i bez lampy
błyskowej, z autofokusem (AF), w trybie macro,
- zgrać zdjęcia na komputer i odczytać rozdzielczość.
Wyznaczenie zależności rozdzielczości aparatu M525 w funkcji odległości od testu
pomiarowego, przy trybie macro i auto:
- zamocować aparat M525 do statywu fotograficznego,
- ustawienia aparatu: jakość 6MP (normal), bez lampy błyskowej, AF, tryb macro
lub auto, inne domyślne.
- wykonać zdjęcia kolejno testów 2, 3, 4 i 5 pamiętając, żeby test wypełniał cały
kadr w pionie, a lampa oświetlała test od tyłu (test 5 na przedpokoju sfotografować
ze statywu, fotografowanie testu nr 5 należy wykonać na koniec ćwiczenia,
wcześniej wykonując wszystkie ćwiczenia przy stole pomiarowym).
Pomiar wpływu jakości obrazu na rozdzielczość zdjęć (aparat M525):
- zamocować aparat M525 do statywu fotograficznego,
- umieścić test 4 w widełkach i załączyć lampę oświetlającą test od tyłu,
- wykonać zdjęcia kolejno dla pięciu ustawień rozdzielczości: 6MP Best, 6MP
(normal), 4MP, 2MP i VGA,
- ustawienia: bez lampy błyskowej, AF, tryb macro, inne domyślne.
Pomiar wpływu zoomu na rozdzielczość zdjęć (aparat M525): - zamocować aparat M525 do statywu fotograficznego,
- wykonać zdjęcia dla czterech ustawień zoomu optycznego (test 4) i pięciu
ustawień zoomu cyfrowego (test 5)
- ustawienia: bez lampy błyskowej, AF, tryb macro do 40cm, powyżej tryb auto,
inne domyślne.
Uwaga! Podobnie jak w pozostałych ćwiczeniach, wyznaczenia rozdzielczości obrazów dokonuje
się za pomocą plansz testowych. Plansze podobne do stosowanych w telewizji, pozwalają na określenie
rozdzielczości pionowej LV i poziomej LH, w liniach (telewizyjnych) na kadr, umownie o szerokości
równej wysokości (kwadratowy). W związku z tym wysokość obrazu planszy w wizjerze powinna
dokładnie odpowiadać rozmiarowi pionowemu ekranu LCD. Dopasowanie uzyskuje się przed dobór
właściwej odległości planszy od obiektywu.
W przypadku gdy trzeba określić liczbę linii rozdzielanych w poziomie dla pełnej szerokości kadru,
LHF., rozdzielczość poziomą LH należy pomnożyć przez współczynnik kształtu ekranu F = H/V, gdzie
H i V są odpowiednio szerokością i wysokością ekranu. Dzięki takiej formule określania
rozdzielczości, można stosować te same plansze testowe dla przetworników o różnych formatach.
26
Ocena zniekształceń geometrycznych: - zamocować aparat M525 do statywu fotograficznego,
- umieścić test 1 w widełkach i obrócić go by stała się widzialna plansza na jego
rewersie, nie podświetlać lampą od tyłu,
- ustawienia: z lampą błyskową, AF, tryb macro, inne domyślne,
- usytuować obraz tak, by strzałki wskazywały granice kadru na wyświetlaczu
(niebieska ramka powinna obejmować krawędź kadru w aparacie),
- odczytać rodzaj i wartość (w mm) zniekształcenia.
Pomiar minimalnej odległości dla trybu Auto i Macro:
- dla ustawień z poprzedniego punktu zmierzyć minimalną odległość, dla której
działa autofocus w modzie Auto i Macro.
Ze względu na czytelność zalecane jest załączenie do sprawozdania wniosków w formie drukowanej