2D-Systemtheorie: Unterschied zwischen den Versionen
Zur Navigation springen
Zur Suche springen
Sonne (Diskussion | Beiträge) K (→13. Aufgabe) |
Pale (Diskussion | Beiträge) (→8. Aufgabe: Anmerkung zum 3x3-Boxoperator) |
||
(18 dazwischenliegende Versionen von 5 Benutzern werden nicht angezeigt) | |||
Zeile 162: | Zeile 162: | ||
: <math> f(x,y) = f_1 (x) \cdot f_2 (y) </math> | : <math> f(x,y) = f_1 (x) \cdot f_2 (y) </math> | ||
: <math> f_1(x) = \operatorname{rect} \left( \frac{x}{\Delta x} \right) \otimes \sum_{i} \delta (x - \Delta xi) \cdot (-1)^i </math> | : <math> f_1(x) = \operatorname{rect} \left( \frac{x}{\Delta x} \right) \otimes \sum_{i} \delta (x - \Delta xi) \cdot (-1)^i </math> | ||
− | : <math> f_2(y) = \operatorname{rect} \left( \frac{ | + | : <math> f_2(y) = \operatorname{rect} \left( \frac{y}{\Delta x} \right) \otimes \sum_{j} \delta (y - \Delta xj) \cdot (-1)^j </math> |
//Bild | //Bild | ||
Zeile 191: | Zeile 191: | ||
:* die Gesammtappertur ergibt sich aus der Pixelappratur gefaltet mit einem Rechteck in y-Richtung der Länge <math> v \cdot t_{int} </math> | :* die Gesammtappertur ergibt sich aus der Pixelappratur gefaltet mit einem Rechteck in y-Richtung der Länge <math> v \cdot t_{int} </math> | ||
+ | :* in x-Richtung habe ich also weiterhin ein Rechteck als Pixelappertur (PA) | ||
+ | :* in y-Richtung ergibt sich ein Trapez (Faltung von PA und Rechteck <math> v \cdot t_{int} </math>) | ||
+ | ::* in 3D quasi ein Prisma | ||
== 6. Aufgabe == | == 6. Aufgabe == | ||
Zeile 237: | Zeile 240: | ||
:'''Wie kann man das Abtastverhalten von Einchip-Farbsensoren erfassen? Überlegen Sie eine Beschreibung für das Y-Signal bei Streifensensoren ( R G B R G B ... ), wenn ein unbuntes Bild angeboten wird? Wie wird eine Objektszene, die nur Rot-Anteile enthält, abgebildet?''' | :'''Wie kann man das Abtastverhalten von Einchip-Farbsensoren erfassen? Überlegen Sie eine Beschreibung für das Y-Signal bei Streifensensoren ( R G B R G B ... ), wenn ein unbuntes Bild angeboten wird? Wie wird eine Objektszene, die nur Rot-Anteile enthält, abgebildet?''' | ||
+ | |||
+ | :* Abtastverhalten des Streifensensors: | ||
+ | :<math>f_R(i,j) = f(x,y) \otimes \sum_{i} \sum_j \delta (x - 3 i\Delta x, y - j \Delta y)</math> | ||
+ | :<math>f_G(i,j) = f(x,y) \otimes \sum_{i} \sum_j \delta (x - 3 i\Delta x - \Delta x, y - j \Delta y)</math> | ||
+ | :<math>f_B(i,j) = f(x,y) \otimes \sum_{i} \sum_j \delta (x - 3 i\Delta x - 2 \Delta x, y - j \Delta y)</math> | ||
+ | |||
+ | :*das Y-Signal ist das Helligkeitssignal = Summe der Farbwerte | ||
= Digitale Filter = | = Digitale Filter = | ||
Zeile 243: | Zeile 253: | ||
:'''Beschreiben Sie im Orts- und im Ortsfrequenzbereich die Wirkung eines 3 * 3 Boxoperators, der auf dem im Speicher abgelegten Bild arbeitet. Vergleichen Sie mit einem theoretischen Boxoperator im Originalbild (z.B. unscharfe Abbildung bei quadratischer Blende).''' | :'''Beschreiben Sie im Orts- und im Ortsfrequenzbereich die Wirkung eines 3 * 3 Boxoperators, der auf dem im Speicher abgelegten Bild arbeitet. Vergleichen Sie mit einem theoretischen Boxoperator im Originalbild (z.B. unscharfe Abbildung bei quadratischer Blende).''' | ||
+ | |||
+ | :Als Beispiel zur Erklärung soll dieser Tiefpassoperator herhalten: | ||
+ | :[1 1 1] | ||
+ | :[1 1 1] | ||
+ | :[1 1 1] | ||
+ | |||
+ | : Dieser wirkt als Weichzeichner auf ein Bild im Speicher. Sprich von einem 3x3 Pixelraster werden alle Werte addiert und bilden den Mittelwert (mit 1/9 Faktor) für das Pixel in der Mitte. | ||
+ | |||
+ | : Der Operator ist in x und in y in [1 1 1] separierbar und kann durch 3 Dirac-Stöße beschrieben werden. ( ___|_|_|___, der Mittlere entsprich Position x=0) | ||
+ | : Diese Stöße lassen sich im Frequenzbereich als Kosinus darstellen, der um 1/3 nach oben verschoben ist (Verschiebung durch Dirac-Stoß on der Mitte = Mittelwer) | ||
+ | : Dieser nach oben verschobene Kosinus ähnelt einer Sinc-Funktion, die bei der Fouriertransformation eines idealen Rechtecks ([1 1 1]x[1 1 1] Boxoperator) entstehen würden | ||
+ | :: Na eben nicht. Genau das ist ja der Unterschied, bzw. das Problem von dem Boxoperator. Ein mit Offset versehener Kosinus ist deutlich anders als ein Sinc. Der Kosinus lässt theoretisch beliebig hohe Frequenzanteile ohne Dämpfung durch, während diese durch die Sinc-Funktion schon längst auf Null gedämpft worden wären. Praktisch ist die maximale Frequenz in einem Bild natürlich durch die Rasterung begrenzt. Als Übung kannste ja zum Beispiel mal für diese maximale Frequenz den Unterschied bestimmen. [[Benutzer:Pale|Pale]] 22:55, 21. Sep. 2010 (UTC) | ||
+ | |||
+ | : Im Ortsbereich werden die Dirakstöße mit den Spekturm des Bildes gefaltet. Im Frequenzbereich wird die Kosinus-Funktion (~Sinc-Funktion) mit dem Bildspektrum multiplitiert. | ||
+ | : ''(so etwa hat der Prof. mir es erklärt)'' | ||
== 9. Aufgabe == | == 9. Aufgabe == | ||
Zeile 344: | Zeile 369: | ||
:* TP-Verhalten: ist meist bei Transferineffektivität mit drin, wird sonst in ähnlicher Weise behandelt | :* TP-Verhalten: ist meist bei Transferineffektivität mit drin, wird sonst in ähnlicher Weise behandelt | ||
:* Smear: durch Filter beseitigen | :* Smear: durch Filter beseitigen | ||
+ | |||
+ | :* bei CCD-Matrizen im Konsumerbereich ist Photonenrauschen bestimmende Größe | ||
+ | :* wenn bessere SNR erreicht werden sollen, muss ich Photonenrauschen vermindern | ||
+ | :** wird durch Zusammenhang zwischen Sättigungselektronenzahl und Rauschen <math>(\sigma = \sqrt n)</math> ermöglicht | ||
+ | :** benötigt werden also größere Pixelflächen und insgesamt mehr Si-Fläche | ||
+ | :** bisher nur in wisschenschaftlichen CCD's | ||
== 14. Aufgabe == | == 14. Aufgabe == | ||
Zeile 358: | Zeile 389: | ||
:'''Wie wirkt ein Tiefpaß im 1-D-Signalweg auf das Spektrum des abgetasteten, übertragenen und im Speicher abgelegten Bildes?''' | :'''Wie wirkt ein Tiefpaß im 1-D-Signalweg auf das Spektrum des abgetasteten, übertragenen und im Speicher abgelegten Bildes?''' | ||
+ | |||
+ | : 2D-Bildinformationen werden Zeilenweise über den 1D-Signalweg übertragen. Dabei entsteht ein kontinuierlier Fluss von Intensitätswerten (Unter Vernachlässigung des Dunkelsignales und der Zeilenpause). | ||
+ | : Ein Tiefpass würde also hohe Frequenzen unterdrücken und somit alle großen Intensitätsunterschiede auf dem 1D-Signalweg Dämpfen. | ||
= Reale CCD-Bauelemente - CCD-Kamera = | = Reale CCD-Bauelemente - CCD-Kamera = | ||
== 17. Aufgabe == | == 17. Aufgabe == | ||
+ | <!-- | ||
+ | ############################################### | ||
+ | # Für die Autoren: # | ||
+ | ############################################### | ||
+ | # # | ||
+ | # Fourierzeichen: {\;\circ\!\!-\!\!\bullet\;} # | ||
+ | # # | ||
+ | # Schlange: \overset{\sim}{f} # | ||
+ | # # | ||
+ | ############################################### | ||
+ | --> | ||
+ | :'''Nennen Sie Abweichungen vom idealen Verhalten bei realen CCD-Bauelelementen bzw. CCD-Kameras. Wie kann man diese Effekte erfassen und wie kann man sie korrigieren?''' | ||
+ | |||
+ | :'''Sample & Hold Schaltung:''' | ||
+ | |||
+ | ::* Abtast- und Haltestufen führen zu einer charakteristischen Signalbeeinflussung | ||
+ | ::* CCD-Signal ist durch Taktsteuerung korreliert | ||
+ | :::* es entsteht Signalpegel der Pixelinformation enthält | ||
+ | :::* Rauschen welches bei der Ladungsgenerierung wirkt, ist auch korreliert zum Takt | ||
+ | ::* thermisches Rauschen verursacht zufällige Signalanteile unkorreliert zum Takt (auch 1/f-Rauschen genannt) | ||
+ | ::* unkorrelierte Anteile werden durch CDS (Correlated Duopple Sampling) wesentlich beeinflusst | ||
+ | ::* <math>f(t) - f(t- \Delta t) {\;\circ\!\!-\!\!\bullet\;} \overset{\sim}{f} (f) - \overset{\sim}{f} /f) \cdot e^{j2 \pi f \Delta t} = \overset{\sim}{f} (f) \cdot 2je^{j \pi f \Delta t} \sin (\pi f \Delta t)</math> | ||
+ | ::[[Bild:2D-ST-S&H.png]] | ||
+ | |||
− | :''' | + | :'''Idealer ADU:''' |
+ | |||
+ | ::* <math> U_e = U_a \cdot \frac{U_o - U_u}{2^n} + U_u</math> | ||
+ | ::* Fehler im Intervall gleichverteilt von <math>-\frac 1 2 LSB \cdots \frac 1 2 LSB</math> | ||
+ | ::* Signalleistung ergibt sich aus Moment zweiter Ordnung: <math> \sigma_S ^2 = \int p(x) \cdot (x-\mu)^2 dx</math> | ||
+ | :::* führt zu: <math>\sigma_S ^2 = \frac{(U_o -U_u)^2}{12}</math> | ||
+ | ::* Rauschleistung: <math>\sigma_N ^2 = \frac{(U_o -U_u)^2}{12 \cdot 2^{2n}}</math> | ||
+ | ::* <math>SNR = \frac{\sigma_S^2}{\sigma_N^2} = 2^{2n}</math> | ||
+ | |||
+ | :'''Realer ADU:''' | ||
+ | |||
+ | ::* zusätzliche Effekte die SNR verschlechtern: | ||
+ | :::* Nichtlinearität der globalen Kennlinie | ||
+ | :::* differentielle Nichtlinearität (DNL) | ||
+ | ::::* ist Maß für unterschiedliche Breite der einzelnen Code-Stufen | ||
+ | ::::* <math>dq_z = \frac{h_z}{h_0} - 1</math> mit <math>h_0 = \frac{\text {Anzahl der Abtastwerte}}{2^n}</math> | ||
+ | ::::* DNL führt zu einer integralen NL (Wanderkennlinie): <math>d_z = \sum_{j=1}^z dq_j </math> | ||
+ | :::* Sprünge in der Kennlinie | ||
+ | ::* zur Beschreibung des Verhaltens, tatsächliches SNR bestimmen und effektiv auflösbare Bitbreite berechnen | ||
+ | |||
+ | ::* Tests durchführen um Kennlinie zu erhalten: sollten statisch und dynamisch sein | ||
+ | :::* bei statischen Testsignalen separate Spannungsquelle verwenden (Batterie) | ||
+ | :::* bei dynamischen Test auf statistische Auswertung stützen | ||
+ | |||
+ | ::* reale Auflösung: <math>n'=n-\frac{\Delta SNR_{dB}}{6,02}</math> | ||
== 18. Aufgabe == | == 18. Aufgabe == | ||
:'''Welcher Zusammenhang besteht zwischen den in Aufg. 17 gefundenen relevanten Parametern und einer sinnvollen Auflösung eines ADU in einer Kamera ?''' | :'''Welcher Zusammenhang besteht zwischen den in Aufg. 17 gefundenen relevanten Parametern und einer sinnvollen Auflösung eines ADU in einer Kamera ?''' | ||
+ | |||
+ | :* reale Auflösung: <math>n'=n-\frac{\Delta SNR_{dB}}{6,02}</math> | ||
== 19. Aufgabe == | == 19. Aufgabe == | ||
Zeile 405: | Zeile 489: | ||
:Bild: Abbildungssystem zur Vermessung von Gitterstrukturen | :Bild: Abbildungssystem zur Vermessung von Gitterstrukturen | ||
:'''Die CCD-Matrix mit 752 * 582 Pixel hat einen Pixelabstand von 11 µm * 11 µm. Zur Erfassung der Ergebnisstruktur sollen die Peakabstände d > 20 Pixel und d < 200 Pixel sein.''' | :'''Die CCD-Matrix mit 752 * 582 Pixel hat einen Pixelabstand von 11 µm * 11 µm. Zur Erfassung der Ergebnisstruktur sollen die Peakabstände d > 20 Pixel und d < 200 Pixel sein.''' | ||
+ | :'''Die Beleuchtung erfolgt mit <math> \lambda = 550 nm </math> ''' | ||
:'''Welche Gitterkonstanten (Bereich von - bis) können vermessen werden ?''' | :'''Welche Gitterkonstanten (Bereich von - bis) können vermessen werden ?''' | ||
+ | |||
+ | * Es gilt: <math>h(x,y)=|\iint f_{\mathit{Blende}}(\xi ,\nu )\cdot e^{\frac{j2\pi }{\lambda d_{1}}\left(x\cdot \xi +y\cdot \nu \right)}d\xi d\nu |^{2}</math> | ||
+ | * Die Transmission des Gitters wird der einfachheit halber als einfache Cos-Funktion angenommen. Ausserdem ist es ausreichend wenn man das Gitter nur in eine Dimension betrachtet, da die andere Dimension analog zu berechnen ist und das Gitter in X und in Y Richtung seperierbar ist. Damit gilt für das Gitter als Blendenfunktion: <math> f_{\mathit{Blende}}(\xi )=\cos 2\pi \frac{1}{D}\cdot \xi</math> | ||
+ | ** D ... Gitterkonstante | ||
+ | ** <math>\xi</math> ... eine Dimension des Gitters | ||
+ | * Eingesetzt in die obige Formel gibt das: <math>h(x) = \int \cos 2\pi \frac{1}{D}\cdot \xi \cdot e^{\frac{j2\pi }{\lambda d_{1}}x\cdot \xi }d\xi </math> | ||
+ | * Durch Substitution von <math>k_{x}=\frac{x}{\lambda d_{1}}</math> kann das Integral in das Fourierintegral überführt werden | ||
+ | * Damit ergibt sich: <math> h(k_x) = \int \cos 2\pi \frac{1}{D}\cdot \xi \cdot e^{j2\pi k_{x}\cdot \xi }d\xi </math> | ||
+ | * Dieses Integral liefert nur für Werte von <math> k_x = \frac{1}{D}</math>, <math> k_x = 0</math> (Gleichanteil ist in unserer Formel nicht erfasst, muss aber mit betrachtet werden, da dieser in der Realität auftritt) und <math> k_x = \frac{-1}{D}</math> Werte | ||
+ | * Damit die Ergebnisstruktur erfasst werden kann muss zwischen diesen Werten aussreichend Platz sein. Daher folgt: <math> k_x = \frac{1}{D}</math> | ||
+ | * Nach Rückgängigmachen der Substitution und umstellen erhält man: <math> D=\frac{\lambda d_{1}}{x}</math> | ||
+ | ** <math> \lambda </math> ... Wellenlänge | ||
+ | ** <math> d_1 </math> ... Brennweite der Linse | ||
+ | ** <math> x </math> ... Abstand in m (Pixelanzahl * Pixelbreite) | ||
+ | * Damit ergibt sich für das Größte Gitter: <math> D = \frac{550 nm \cdot 100 mm}{20*11 \mu m} = 0.25 mm</math> | ||
+ | * und für das kleinste Gitter: <math> D = \frac{550 nm \cdot 100 mm}{200*11 \mu m} = 25 \mu m</math> | ||
+ | * Damit ergibt sich als Ergebnis: 0.025mm < D < 0.25 mm | ||
= Andere Abbildungssysteme = | = Andere Abbildungssysteme = | ||
Zeile 413: | Zeile 515: | ||
:'''Geben Sie die Abbildungseigenschaften bei Röntgenabbildung (Abbildungsmaßstab, Schwächung) an !''' | :'''Geben Sie die Abbildungseigenschaften bei Röntgenabbildung (Abbildungsmaßstab, Schwächung) an !''' | ||
− | |||
:[[Bild:2D-ST-Abbildung-Röntgen.png|framed|left| Definition Abbildungsmaßstab]] | :[[Bild:2D-ST-Abbildung-Röntgen.png|framed|left| Definition Abbildungsmaßstab]] | ||
+ | :[[Bild:2D-ST-Intensität-Röntgen.png|framed|none|Schwächung beim Materialdurchgang]] | ||
+ | :<math> S = \tau = e^{- \mu \cdot d} </math> | ||
− | + | :<math> \begin{align} | |
− | |||
− | |||
− | <math> \begin{align} | ||
I & = I_0 \cdot S_1 \cdot S_2 \cdot S_3 \cdots \\ | I & = I_0 \cdot S_1 \cdot S_2 \cdot S_3 \cdots \\ | ||
& = I_0 \cdot e^{- \int_0^d \mu (\lambda , s) ds} | & = I_0 \cdot e^{- \int_0^d \mu (\lambda , s) ds} | ||
Zeile 426: | Zeile 526: | ||
</math> | </math> | ||
− | * <math> \mu (x) </math> ist material- und wellenlängenabhängig | + | :* <math> \mu (x) </math> ist material- und wellenlängenabhängig |
− | * zurückgelegter Weg d und damit die Schwächung sind winkelabhängig | + | :* zurückgelegter Weg d und damit die Schwächung sind winkelabhängig |
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
+ | :* Ausbreitung der Röntgenstrahlung in Materie und Vakuum geradlinig | ||
+ | :* kann deshalb durch Zentralprojektion beschrieben werden | ||
+ | :* Abbildungsmaßstab: <math> \beta ' = \frac{z_q}{z_q - z_0} </math> | ||
+ | :* <math> \beta ' > 1 </math> gilt damit immer | ||
== 27. Aufgabe == | == 27. Aufgabe == | ||
Zeile 460: | Zeile 539: | ||
:[[Bild:2D-ST-Tomographie.png|framed|left|Aufbau Tomographieverfahren]] | :[[Bild:2D-ST-Tomographie.png|framed|left|Aufbau Tomographieverfahren]] | ||
− | :[[Bild:2D-ST-Spektrum Tomographie.png|framed| | + | :[[Bild:2D-ST-Spektrum Tomographie.png|framed|none|Prinzip Tomographieverfahren]] |
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
+ | :* Röntgenstrahlen werden beim Durchgang durch Materie gedämpft (Gleichung siehe Aufgabe 26) | ||
+ | :* logarithmiertes Verhältnis, stellt Projketion der Materialeigenschaften längs des Weges dar: <math> \ln \left( \frac{I(x,y)}{I_0} \right) = \int_{(x_0,y_0,z_0)}^{(x,y,z)} \mu (\lambda , x,y,z) ds </math> | ||
+ | :* Tomographieverfahren bietet Möglichkeit Information über Materialeigenschaften in <math> (x,y,z) </math> bereit zu stellen | ||
+ | :* Vereinfachungen: | ||
+ | :** Strahlungsquellen mit paralleler Ausstrahlung | ||
+ | :** Strahlungsquellen und Empfänger parallel zu einander | ||
+ | :** Strahlungsquellen und Empfänger mehrfach vorhanden oder gemeinsam um Objekt gedreht | ||
+ | :** ausgesendete Strahlung <math>I_0</math> soll auf <math> x' </math> konstant sein | ||
+ | :* Logarithmus der empfangenen Strahlung entspricht Projektion der Materialeigenschaften entlang des Weges <math> y' </math> | ||
+ | :* heißt soviel wie, das eine Projektion im Ortsbereich einem Schnitt durch den Ortsfrequenzbereich entspricht | ||
+ | :* Verteilung <math> \mu (x,y) </math> kann somit aus vielen Projektionen/Schnitten gewonnen werden: <math> f_{proj} (x') = \ln \left( \frac{I(x')}{I_0} \right) = \int \mu (x',y') dy' </math> | ||
+ | :* Projektionen werden jeweils um den Winkel <math>\alpha</math> gedreht und im Ortsfrequenzbereich eingetragen | ||
+ | :* solange durchführen bis Ortsfrequenzbereich hinreichend dicht belegt ist | ||
+ | :* 2D-Rücktransformation liefert dann gewünschte Verteilung in <math>(x,y)-</math> Ebene | ||
+ | :* 3D-Abbildung durch Hinzunahme der <math>z-</math> Koordinate | ||
− | + | [[Kategorie:Studium]] | |
− | |||
− | |||
− | |||
− | |||
− | |||
− |
Aktuelle Version vom 21. September 2010, 23:55 Uhr
Anmerkung: Er meinte ja das dies nur eine Auswahl alter Fragen ist, und wir mehr behandelt haben, deswegen stehen ab und zu mal noch ein paar ausgedachte Fragen. ^^
Grundlagen Fouriertransformation, Abtastung
Allgemeines zur Fouriertransformation
- periodisches Signal: diskrete Verteilung der Signalenergie über der Frequenz (Fourierreihe)
- aperiodisches Signal: kontinuirliches Frequenzspektrum (Fourierintegral)
1-Dimensional
Fourierreihe
Fourierintegral
Rücktransformation:
2-Dimensional
Fourierreihe
Fourierintegral
Eigenschaften der Fouriertransformation
jegliche Herleitungen zu diesem Abschnitt sind in der Vorlesung oder im Skript zu finden
Linearität:
- es gilt das Superpositionsprinzip
- daraus ergibt sich das nur lineare Zusammenhänge beschreibbar sind
Faltung:
Verschiebung:
Drehung:
- Drehe ich das Signal im Zeitbereich, dreht sich in gleicher Weise das Spektrum mit
Ähnlichkeit:
Parselval'sches Theorem:
Separierbarkeit:
- wenn sich eine Funktion in ihren Abhängigkeiten separieren lässt, kann die Transformierte ebenfalls separat ermittelt werden
Wichtige Funktionen
Dirac-Stoß:
- Ausblendeigenschaft:
- Foriertransformierte:
Liniensingularitäten:
- als Liniensingularität wird eine Linie in x- oder y-Richtung definiert
- Transformierte dazu sind:
Projektions-Schnitt-Theorem:
- Ein Schnitt durch ein 2D-Signal kann durch Multiplikation mit einer Liniensingularität erfolgen:
- Schnitt entlang der y-Achse:
- für jedes fest erfolgt eine Integration in -Richtung, d.h. eine Projektion auf die die -Achse
1. Aufgabe
- Ermitteln Sie die Ergebnisse der folgenden Faltung !
2. Aufgabe
- Beschreiben Sie das resultierende Spektrum einer Gitterstruktur (20 µm helle, 20 µm dunkle Streifen im Bild, die um 45 ° zu den Koordinatenachsen gedreht sind) bei Abtastung mit einer CCD-Matrix mit quadratischem Pixelraster von 11 µm * 11 µm Pixelabstand und einer Pixelappertur von 8 µm * 8 µm.
- ist schwer zu transformieren, deswegen nutzt man ein Abtastgitter
3. Aufgabe
- Wie kann man ein Schachbrettmuster mathematisch beschreiben? Wie sieht das zugehörige 2-D-Ortsfrequenzspektrum aus?
- Bei einem Schachbrettmuster ist die Separierbarkeit anwendbar
- mit als Breite eines Feldes ergibt sich:
//Bild
4. Aufgabe
- Beschreiben Sie die Pixelapertur und ihre Wirkung auf das abgetastete Bild bei Interline-Transfer-Matrizen, die im Frame- bzw. Field-Mode betrieben werden!
- Pixelraster 11 µm * 11 µm; Pixelapertur = 1 in einem Rechteck H = 6 µm * B = 10 µm außerhalb = 0.
- im Frame Integration Mode werden abwechseln gerade und ungerade Zeilen ausgelesen
- im Filed Integration Mode werden immer zwei übereinander liegende Pixel in einen Registerplatz geschoben
- beachte auch interlaced und non-interlaced Variante
- ändert aber nichts am Ergebnis
- im Frame Integration Mode bleibt die Pixelappertur (PA) wie gewohnt
- im Field Integration Mode ensteht durch das ausschieben zweier Pixel in ein Register eine unterbrochene PA
- diese entspricht einem Rechteck, gefaltet mit zwei Dirac-Stößen
- im Frequenzbereich entspricht das einer si-Funktion multipliziert mit einer cos-Funktion
- die si-Funktion bildet hierbei die Einhüllende für den Cosinus
5. Aufgabe
- Beschreiben Sie die resultierende Pixelapertur bei einem Zeilenscanner (Bewegter Zeilensensor v = 1 m/s)! Pixelabstand 18 µm, Pixelapertur 12 µm * 12 µm, Abtastraster ta=20 µs; Integrationszeit=10 µs.
- die Gesammtappertur ergibt sich aus der Pixelappratur gefaltet mit einem Rechteck in y-Richtung der Länge
- in x-Richtung habe ich also weiterhin ein Rechteck als Pixelappertur (PA)
- in y-Richtung ergibt sich ein Trapez (Faltung von PA und Rechteck )
- in 3D quasi ein Prisma
6. Aufgabe
- Wie kann man ein Sechseckabtastraster systemtheoretisch beschreiben?
- Abtastgitter wird im folgenden mit AG abgekürzt
- mit und ergibt sich:
7. Aufgabe
- Wie kann man das Abtastverhalten von Einchip-Farbsensoren erfassen? Überlegen Sie eine Beschreibung für das Y-Signal bei Streifensensoren ( R G B R G B ... ), wenn ein unbuntes Bild angeboten wird? Wie wird eine Objektszene, die nur Rot-Anteile enthält, abgebildet?
- Abtastverhalten des Streifensensors:
- das Y-Signal ist das Helligkeitssignal = Summe der Farbwerte
Digitale Filter
8. Aufgabe
- Beschreiben Sie im Orts- und im Ortsfrequenzbereich die Wirkung eines 3 * 3 Boxoperators, der auf dem im Speicher abgelegten Bild arbeitet. Vergleichen Sie mit einem theoretischen Boxoperator im Originalbild (z.B. unscharfe Abbildung bei quadratischer Blende).
- Als Beispiel zur Erklärung soll dieser Tiefpassoperator herhalten:
- [1 1 1]
- [1 1 1]
- [1 1 1]
- Dieser wirkt als Weichzeichner auf ein Bild im Speicher. Sprich von einem 3x3 Pixelraster werden alle Werte addiert und bilden den Mittelwert (mit 1/9 Faktor) für das Pixel in der Mitte.
- Der Operator ist in x und in y in [1 1 1] separierbar und kann durch 3 Dirac-Stöße beschrieben werden. ( ___|_|_|___, der Mittlere entsprich Position x=0)
- Diese Stöße lassen sich im Frequenzbereich als Kosinus darstellen, der um 1/3 nach oben verschoben ist (Verschiebung durch Dirac-Stoß on der Mitte = Mittelwer)
- Dieser nach oben verschobene Kosinus ähnelt einer Sinc-Funktion, die bei der Fouriertransformation eines idealen Rechtecks ([1 1 1]x[1 1 1] Boxoperator) entstehen würden
- Na eben nicht. Genau das ist ja der Unterschied, bzw. das Problem von dem Boxoperator. Ein mit Offset versehener Kosinus ist deutlich anders als ein Sinc. Der Kosinus lässt theoretisch beliebig hohe Frequenzanteile ohne Dämpfung durch, während diese durch die Sinc-Funktion schon längst auf Null gedämpft worden wären. Praktisch ist die maximale Frequenz in einem Bild natürlich durch die Rasterung begrenzt. Als Übung kannste ja zum Beispiel mal für diese maximale Frequenz den Unterschied bestimmen. Pale 22:55, 21. Sep. 2010 (UTC)
- Im Ortsbereich werden die Dirakstöße mit den Spekturm des Bildes gefaltet. Im Frequenzbereich wird die Kosinus-Funktion (~Sinc-Funktion) mit dem Bildspektrum multiplitiert.
- (so etwa hat der Prof. mir es erklärt)
9. Aufgabe
- Beschreiben Sie die Wirkung eines mehrfach angewandten Boxoperators (2*, 3*, 4*, 5*,...) im Orts- und im Ortsfrequenzbereich !
- Die Anwendung eines Boxoperators kann durch eine Faltung im Ortsbereich beschrieben werden. Da die Faltung die Eigenschaft der Assoziativität aufweist, können mehrfache Faltungen auch ausgerechnet werden bevor sie Auf das Bild angewendert werden.
- Im Ortsbereich: Rechteck, Dreieck, ..., x-mal so breites gaußänliches Filter
- Im Frequenzbereich: Si, Si^2, ..., Si^x sehr schmaler Gauß
10. Aufgabe
- Beschreiben Sie im Orts- und im Ortsfrequenzbereich die Wirkung eines Gradientenoperators
1 0 -1 1 0 -1 1 0 -1
- Da der Operator separierbar ist lassen sich die Wirkeungen in die verschiedenen Richtungen einzeln betrachten
- Im Orstbereich:
- Gradient in x-Richtung [1 0 -1]
- Summe in y-Richtung [1 1 1]'
- Im Frequenzbereich:
- Hochpass in Kx-Richtung
- Tiefpass in Ky-Richtung
11. Aufgabe
- Beschreiben Sie die Wirkung des Gradientenoperators (1 0 -1) auf einem Bild mit hellem Quadrat (=1) auf dunklem Untergrund (=0) !
Bild = 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 0 0 0 0 0 0 1 1 1 0 0 0 0 0 0 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 OP_Grad = 1 0 -1 >> convn(Bild,OP_Grad,'valid') ans = x 0 0 0 0 0 0 0 x x 0 0 0 0 0 0 0 x x 0 0 0 0 0 0 0 x x 0 -1 -1 0 1 1 0 x x 0 -1 -1 0 1 1 0 x x 0 -1 -1 0 1 1 0 x x 0 0 0 0 0 0 0 x x 0 0 0 0 0 0 0 x x 0 0 0 0 0 0 0 x
Rauschen
12. Aufgabe
- Erläutern Sie die wichtigsten Rauschquellen bei CCD-Bildaufnahmesystemen!
Rauschart | Ort | Verteilung | Zusammenhang |
---|---|---|---|
Photonenrauschen | Silizium | Binomial- | |
Dunkelsignalrauschen | Silizium | Poisson- | |
Transferrauschen | Silizium | Poisson- | |
thermisches Rauschen der FET | Ausgangsverstärker der CCD-Matrix | Gauß- | |
thermisches Rauschen der Elektronik | Analog-Elektronik | Gauß- | |
Taktdurchgriffe, Phasenjitter, Klemmfehler, Netzbrummen | Analog-Elektronik | Gauß- | |
Digitalisierungsrauschen | ADU | Gleich- |
- Festmusterrauschen
- Lichtdurchlässigkeit der Optik -> Staub
- Inhomogeneitäten im Halbleiter
- optische elemente auf dem Pixel
- Zeilenklemmrauschen
13. Aufgabe
- Wie kann man Rauschen vermindern? Für welche Rauschanteile greift Ihr Vorschlag?
- thermisches Rauschen: niedrige Temperatur
- Photonenrauschen, Dunkelsignalrauschen: lässt sich wegmitteln
- Festmusterrauschen: wenn Muster bekannt ist, kann es abgezogen werden
- Shading: für jedes Pixel einen Faktor bestimmen, mit dem multipliziert wird. Korrekturbild kann dann zB im Speicher abgelegt werden.
- Transferineffektivität: Faktor bestimmen der übrig bleibt
- TP-Verhalten: ist meist bei Transferineffektivität mit drin, wird sonst in ähnlicher Weise behandelt
- Smear: durch Filter beseitigen
- bei CCD-Matrizen im Konsumerbereich ist Photonenrauschen bestimmende Größe
- wenn bessere SNR erreicht werden sollen, muss ich Photonenrauschen vermindern
- wird durch Zusammenhang zwischen Sättigungselektronenzahl und Rauschen ermöglicht
- benötigt werden also größere Pixelflächen und insgesamt mehr Si-Fläche
- bisher nur in wisschenschaftlichen CCD's
14. Aufgabe
- Was geschieht mit den örtlichen und zeitlichen Rauschanteilen bei der Subtraktion von zwei Bildern der gleichen Szene?
- Mittelwert verschwindet, Streuung steig
15. Aufgabe
- Erläutern Sie anhand des Zusammenhanges zwischen Bildspektrum und 1-D-Spektrum auf dem Übertragungskanal den Einfluß eines asynchronen Störers!
16. Aufgabe
- Wie wirkt ein Tiefpaß im 1-D-Signalweg auf das Spektrum des abgetasteten, übertragenen und im Speicher abgelegten Bildes?
- 2D-Bildinformationen werden Zeilenweise über den 1D-Signalweg übertragen. Dabei entsteht ein kontinuierlier Fluss von Intensitätswerten (Unter Vernachlässigung des Dunkelsignales und der Zeilenpause).
- Ein Tiefpass würde also hohe Frequenzen unterdrücken und somit alle großen Intensitätsunterschiede auf dem 1D-Signalweg Dämpfen.
Reale CCD-Bauelemente - CCD-Kamera
17. Aufgabe
- Nennen Sie Abweichungen vom idealen Verhalten bei realen CCD-Bauelelementen bzw. CCD-Kameras. Wie kann man diese Effekte erfassen und wie kann man sie korrigieren?
- Sample & Hold Schaltung:
- Abtast- und Haltestufen führen zu einer charakteristischen Signalbeeinflussung
- CCD-Signal ist durch Taktsteuerung korreliert
- es entsteht Signalpegel der Pixelinformation enthält
- Rauschen welches bei der Ladungsgenerierung wirkt, ist auch korreliert zum Takt
- thermisches Rauschen verursacht zufällige Signalanteile unkorreliert zum Takt (auch 1/f-Rauschen genannt)
- unkorrelierte Anteile werden durch CDS (Correlated Duopple Sampling) wesentlich beeinflusst
- Idealer ADU:
- Fehler im Intervall gleichverteilt von
- Signalleistung ergibt sich aus Moment zweiter Ordnung:
- führt zu:
- Rauschleistung:
- Realer ADU:
- zusätzliche Effekte die SNR verschlechtern:
- Nichtlinearität der globalen Kennlinie
- differentielle Nichtlinearität (DNL)
- ist Maß für unterschiedliche Breite der einzelnen Code-Stufen
- mit
- DNL führt zu einer integralen NL (Wanderkennlinie):
- Sprünge in der Kennlinie
- zur Beschreibung des Verhaltens, tatsächliches SNR bestimmen und effektiv auflösbare Bitbreite berechnen
- Tests durchführen um Kennlinie zu erhalten: sollten statisch und dynamisch sein
- bei statischen Testsignalen separate Spannungsquelle verwenden (Batterie)
- bei dynamischen Test auf statistische Auswertung stützen
- reale Auflösung:
18. Aufgabe
- Welcher Zusammenhang besteht zwischen den in Aufg. 17 gefundenen relevanten Parametern und einer sinnvollen Auflösung eines ADU in einer Kamera ?
- reale Auflösung:
19. Aufgabe
- Wie kann ein in Aufg. 17 entwickelter Korrekturalgorithmus umgesetzt werden (Software, Hardware) ?
Optische Abbildung
20. Aufgabe
- Bestimmen Sie die beugungsbedingte Punktverwaschungsfunktion eines Objektives bei Abbildung aus dem Unendlichen ! (f=50 mm, k=4, \lambda=550nm)
- Hinweis:
21. Aufgabe
- Aus welchen Anteilen setzt sich die Punktverwaschungsfunktion bei einer realen optischen Abbildungsanordnung zusammen ? Wie kann man die Anteile beschreiben ?
22. Aufgabe
- Bestimmen Sie die notwendige Defokussierung, wenn damit eine Tiefpaßfilterung (Antialiasing) mit einer 3dB-Grenzfrequenz von 20 LP/mm erreicht werden soll !
23. Aufgabe
- Wie kann man das Übertragungsverhalten eines optischen Abbildungssystems messen?
24. Aufgabe
- Skizzieren Sie das Grundprinzip einer optischen Anordnung zur Generierung des Betrages des Ortsfrequenzspektrums einer transparenten Struktur!
25. Aufgabe
- Mit inkohärenter monochromatischer Beleuchtung sollen Gitterstrukturen (Gewebe) vermessen werden. Die Gitterstrukturen befinden sich in der Blendenebene eines Punktabbildungssystems. Die Brennweite beträgt f = 100 mm. Das Abbildungssystem besteht aus einer Tandemoptik.
- Bild: Abbildungssystem zur Vermessung von Gitterstrukturen
- Die CCD-Matrix mit 752 * 582 Pixel hat einen Pixelabstand von 11 µm * 11 µm. Zur Erfassung der Ergebnisstruktur sollen die Peakabstände d > 20 Pixel und d < 200 Pixel sein.
- Die Beleuchtung erfolgt mit
- Welche Gitterkonstanten (Bereich von - bis) können vermessen werden ?
- Es gilt:
- Die Transmission des Gitters wird der einfachheit halber als einfache Cos-Funktion angenommen. Ausserdem ist es ausreichend wenn man das Gitter nur in eine Dimension betrachtet, da die andere Dimension analog zu berechnen ist und das Gitter in X und in Y Richtung seperierbar ist. Damit gilt für das Gitter als Blendenfunktion:
- D ... Gitterkonstante
- ... eine Dimension des Gitters
- Eingesetzt in die obige Formel gibt das:
- Durch Substitution von kann das Integral in das Fourierintegral überführt werden
- Damit ergibt sich:
- Dieses Integral liefert nur für Werte von , (Gleichanteil ist in unserer Formel nicht erfasst, muss aber mit betrachtet werden, da dieser in der Realität auftritt) und Werte
- Damit die Ergebnisstruktur erfasst werden kann muss zwischen diesen Werten aussreichend Platz sein. Daher folgt:
- Nach Rückgängigmachen der Substitution und umstellen erhält man:
- ... Wellenlänge
- ... Brennweite der Linse
- ... Abstand in m (Pixelanzahl * Pixelbreite)
- Damit ergibt sich für das Größte Gitter:
- und für das kleinste Gitter:
- Damit ergibt sich als Ergebnis: 0.025mm < D < 0.25 mm
Andere Abbildungssysteme
26. Aufgabe
- Geben Sie die Abbildungseigenschaften bei Röntgenabbildung (Abbildungsmaßstab, Schwächung) an !
- ist material- und wellenlängenabhängig
- zurückgelegter Weg d und damit die Schwächung sind winkelabhängig
- Ausbreitung der Röntgenstrahlung in Materie und Vakuum geradlinig
- kann deshalb durch Zentralprojektion beschrieben werden
- Abbildungsmaßstab:
- gilt damit immer
27. Aufgabe
- Erläutern Sie das Grundprinzip von Tomografieverfahren !
- Röntgenstrahlen werden beim Durchgang durch Materie gedämpft (Gleichung siehe Aufgabe 26)
- logarithmiertes Verhältnis, stellt Projketion der Materialeigenschaften längs des Weges dar:
- Tomographieverfahren bietet Möglichkeit Information über Materialeigenschaften in bereit zu stellen
- Vereinfachungen:
- Strahlungsquellen mit paralleler Ausstrahlung
- Strahlungsquellen und Empfänger parallel zu einander
- Strahlungsquellen und Empfänger mehrfach vorhanden oder gemeinsam um Objekt gedreht
- ausgesendete Strahlung soll auf konstant sein
- Logarithmus der empfangenen Strahlung entspricht Projektion der Materialeigenschaften entlang des Weges
- heißt soviel wie, das eine Projektion im Ortsbereich einem Schnitt durch den Ortsfrequenzbereich entspricht
- Verteilung kann somit aus vielen Projektionen/Schnitten gewonnen werden:
- Projektionen werden jeweils um den Winkel gedreht und im Ortsfrequenzbereich eingetragen
- solange durchführen bis Ortsfrequenzbereich hinreichend dicht belegt ist
- 2D-Rücktransformation liefert dann gewünschte Verteilung in Ebene
- 3D-Abbildung durch Hinzunahme der Koordinate