Systemtechnik der Bildverarbeitung:Fragenkatalog: Unterschied zwischen den Versionen

Aus II-Wiki
Wechseln zu: Navigation, Suche
(Erläutern Sie das Phänomen des Randabfalls der durch ein Objektiv abgebildeten Strahldichten!)
(Erläutern Sie das Phänomen des Randabfalls der durch ein Objektiv abgebildeten Strahldichten!)
Zeile 305: Zeile 305:
 
*** Die Entfernung zur Fläche wird größer  
 
*** Die Entfernung zur Fläche wird größer  
 
*** Die Linse ist von der Fläche aus gesehen auch nicht mehr Kreisförmig sondern elliptisch
 
*** Die Linse ist von der Fläche aus gesehen auch nicht mehr Kreisförmig sondern elliptisch
** Daraus lässt sich sich Ableiten das sich der Lichtstrom von der Fläche zur Kamera (weiter durch Optik und auf CCD) wie folgt ändert <br> <math> \Phi' = \Phi_0 cos^4 (\alpha) </math>
+
** Daraus lässt sich sich folgendes ableiten
*** <math>\alpha</math> ... ist der Winkel zwischen Diagonale zur Linse  
+
*** [[Datei:Skizze randabfall.svg]]
*** <math>\Phi_0</math> ... Lichtstrom der Fläche in der optischen Achse
+
 
*** <math>\Phi'</math> ... Lichtstrom der Fläche unter einem Winkel zur optischen Achse
+
*** Für den Lichtstrom in der Optischen Achse gilt:
 +
**** <math>\alpha = 0</math> damit folgt aus dem Photometrischen Grundgesetz für den Lichtstrom
 +
**** <math> d^2\Phi = \frac{L_{e0}\cdot \omega_0}{r^2} dA_Q dA_E </math>
 +
*** Verschiebt man nun den Punkt aus der optischen Achse
 +
*** <math> d^2\Phi' = \frac{L_{E0} \cdot \omega_0}{r'} \cdot cos \alpha \cdot cos \alpha \cdot dA_Q dA_E </math>
 +
*** <math> r' = \frac {r}{cos \alpha} </math>
 +
*** <math> d^2\Phi' = \frac{L_{E0} \cdot \omega_0}{r^2} cos^4 \alpha \cdot dA_Q dA_E </math>
 +
*** Ein vergleich mit dem Ergebnis für die optischen Achse zeigt dann das gilt:  <br> <math> \Phi' = \Phi_0 cos^4 (\alpha) </math>
 +
**** <math>\alpha</math> ... ist der Winkel zwischen Diagonale zur Linse  
 +
**** <math>\Phi_0</math> ... Lichtstrom der Fläche in der optischen Achse
 +
**** <math>\Phi'</math> ... Lichtstrom der Fläche unter einem Winkel zur optischen Achse
 
** Das ganze bezeichnet man dann als Randabfall
 
** Das ganze bezeichnet man dann als Randabfall
 
** selbst bei Lichtverlust in der Optik und Blende bleibt der Haupteinfluss beim <math>cos^4</math> Gesetz
 
** selbst bei Lichtverlust in der Optik und Blende bleibt der Haupteinfluss beim <math>cos^4</math> Gesetz

Version vom 21. März 2009, 11:56 Uhr

Inhaltsverzeichnis

Technische Sehsysteme

Nennen Sie Parameter, von denen die notwendige Rechenlei­stung eines Bildverarbeitungssystems abhängt!

  • Datenmenge
    • Größe des Objektes (z.B. 300mm Si-Wafer)
    • Bildauflösung (Strukturen bis 100 nm auf dem Wafer sollen erkennbar sein) -> das bestimmt Anzahl der Pixel auf dem Sensor
    • Farbe? Graustufen? Auflösung von Farbe und Graustufen (8 Bit, 4 Bit, ...)
  • Geschwindigkeit
    • Wie oft sollen Bilder aufgenommen werden, zB 50x pro Sekunde oder einmal pro Stunde?

Schätzen Sie anhand eines selbstgewählten Beispiels aus der Automatisierungstechnik die Größenordnung der notwendigen Rechenleistung ab!

  • Werkstück aus Box nehmen: 128x128 Pixel, 16 Bit Daten

Sensoren

Erläutern Sie die Phänomene „innerer photoelektrischer Effekt“ und „äußerer photoelektrischer Effekt“ !

Innerer:

  • Photonen dringen in ein Material, z.B. einen Halbleiter, ein und lösen dort Elektronen aus den Atomen. Somit entstehen freie Ladungsträger. Wird eine Spannung angelegt, ist daher ein Stromfluss möglich.

Äußerer:

  • Photonen treffen auf die Oberfläche eines Materials, z.B. eines Metalls, auf und schlagen Elektronen heraus, die dann außerhalb des Materials als freie Ladungsträger zur Verfügung stehen.
  • Ordnet man Elektroden um das Material an, kann ein Stromfluss beobachtet werden.

Wie kann man mit Einzelsensoren ortsaufgelöste Bilddaten gewinnen ?

  • Man nehme zwei rotierende Spiegel deren Roationsachse um 90° gekippt ist
    • Bild kann so "abgerastert" werden
    • nur vergleichsweise langsame Bildaufnahme möglich
  • Nimmt man eine CCD-Zeile zur Aufnahme reicht ein rotierender Spiegel um ein Bild aufzunehmen
  • Ein Aufbau mit einem DMD-Chip ist auch denkbar
  • Indem man sie über das zu vermessende Objekt bewegt. Beispiel: CCD-Zeile über Müll bewegen zur Mülltrennung. (jaja, eine Zeile ist kein Einzelsensor...)
  • günstig da, wo sich das Objekt schon von selbst bewegt, zB aufm Fließband
  • Vorteil: Schnelleres Auslesen, damit höhere Bilderfassungsfrequenz - wenn die Beleuchtung stimmt, da die Integrationszeiten klein werden

Erläutern Sie das Grundprinzip von CCD-Bauelementen !

  • Anordnung von Einzelsensoren in einer Matrix, jeder dieser Sensoren generiert Elektronen mit innerem fotoelektrischen Effekt
  • Ladungen müssen transportiert werden:
    • Verschieben von Ladungen durch Aneinanderreihung von Elektroden über Halbleitern -> jede Elektrode erzeugt ein elektrisches Feld
    • Elektronen sammeln sich an Elektrode -> Elektronenwolke
    • Erzeugen eines höheren Potentials an einer Nachbar-Elektrode veranlasst die Elektronenwolke, sich zu dieser Nachbar-Elektrode zu bewegen
    • somit analoges Schieberegister realisiert
    • Möglichkeit der mehrstufigen Realisierung

Erläutern Sie die Funktionsweise von CCD-Zeilen !

  • Einzelsensoren aneinanderpappen zu einer Zeile, bis zu 10.000 Elemente möglich
  • Effizientes Auslesen möglich durch parallele Ausgänge (Multi Channel Strukturen) => bis zu einigen kHz möglich
  • sehr kurze Integrationszeiten möglich => gute Beleuchtung

Nennen Sie Vor- und Nachteile von CCD-Zeilen und -Matrizen bei der 2-D-Bilddatengewinnung!

Blöde Frage: Vorteile gegenüber welchem Vergleichsobjekt denn?! Vorteile:

  • regelmäßige Anordnung der Einzelsensoren, damit Ortsausflösung implizit gegeben (bei Zeile: Wenn Zeile über Objekt bewegt wird)
  • Alle Pixel gleichzeitig ausgelesen, daher kein Verwischeffekt wie bei CMOS, dafür möglicherweise smear
    • Vergleiche CMOS: CMOS-Sensoren können wie ein Speicher ausgelesen werden, das heißt es kann über eine Adressierungsmatrix auf jedes Pixel zugegriffen werden. Daher wird jedes Pixel zu einem bestimmten Zeitpunkt ausgelesen, unabhängig von den anderen Pixeln. Liest du z.B. eine Zeile von links nach rechts, kann sich das aufzunehmende Objekt während der Auslesezeit schon weiter bewegt haben und du kriegst Bewegungsunschärfe. Bei Interline Transfer CCD hingegen schiebst du alle Ladungen gleichzeitig in ein Schiebregister, das heißt, die Daten aller Pixel werden gleichzeitig gewonnen. Klar, die Daten werden danach nochmal sequentiell über den ganzen Chip geschoben und erreichen den Speicher hintereinander. Aber die Daten sind zur gleichen Zeit entstanden.
  • Einfache Möglichkeit Halbbilder zu erzeugen, indem man einfach 1 Schieberegister für 2 Pixel nutzt

Nachteile:

  • begrenzte Aufnahmegeschwindigkeit: Integrationszeit und Auslesezeit
  • Braucht recht komplexe Spannungsversorgung (Viele Verschiedene Spannungen zur Generierung der Potentialunterschiede beim Schieben)
  • Komplexes Taktregime notwendig (Takte zum Zeilen- und Spaltenschieben, sowie für Shutterimpulse)

Erläutern Sie die Grundprinzipien von Interline- und Frame-Transfermatrizen!

Schiebt man Ladungen durch den Sensor, gibt's smear-Effekte und außerdem dauert's lange, bis neue Ladungen gesammelt werden können. Zwei Ansätze:

Interline:

  • für jedes Pixel ein lichtunempfindliches Schieberegister (oder ein Register für zwei Pixel), in das die Ladungen nach der Integrationszeit rein geschoben werden (parallel für alle Pixel, also sehr schnell)
  • dann in Ruhe die Schieberegister auslesen, währenddessen können die lichtempfindlichen Pixel schon wieder Ladungen generieren
  • Nachteil: Verringerung der Auflösung/Empfindlichkeit
    • umgehen z.B. mit Mikrolinsen, die das Licht, was auf die unempfindlichen Register trifft, auf die empfindlichen Pixel lenkt
      • weiterer Nebeneffekt: drastische Reduzierung von Interferenzerscheinungen durch verschiedene Einfallswinkel

Frame:

  • Das Hochschieben der Daten geht recht schnell, was dauert ist das sequentielle Einschieben für das horizontale Rausschieben (oberste Zeile)
  • Also: Obere Hälfte der CCD-Matrix abdecken und Daten schnell n den "dunklen" Bereich schieben
  • Nachteile: Halbierung der Aufnahmefläche, smear wird nicht beseitigt
  • Vorteil: Es können mehrere Bilder auf der abgedunkelten Chipfläche zwischengespeichert werden. Z.B. 3 Bilder speicherbar, wenn nur ein Viertel der Sensorfläche lichtempfindlich ist. -> Nutzbar bei Hochgeschwindigkeitsaufnahmen.

Was versteht man unter einer Shutterkamera? Erläutern Sie das Grundprinzip! Wo kann man solche Systeme sinnvoll einsetzen?

  • bevor man neues Bild auslesen kann, muss das alte Bild fertig ausgelesen sein - und das kann lange dauern
  • also eigentlich keine Integrationszeiten möglich, die kürzer als die Auslesezeit sind
  • Lösung: shuttern.
    • dabei werden die in den Pixeln generierten Ladungen regelmäßig ins Substrat abgeführt, nur kurz vorm Auslesen werden die Ladungen bis zum Auslesen gehalten.
    • sozusagen ein invertierter Refresh ;)

Wie kann man mit Interline-Transfermatrizen videonormgerechte Signale, d.h. nach dem interlaced-Prinzip zur Verfügung stellen ?

  • Wenn ein Schieberegister für zwei Pixel zur Verfügung steht, kann man bei Bild n Pixel gerader Zeilen auslesen, bei Bild n+1 Pixel ungerader Zeilen

Wie kann man bei CCD-Matrixsensoren Hochgeschwindigkeitskameras realisieren.?

  • mehrere parallele Ein- und Ausgänge
  • mit Frame-Transfer-Matrizen, die mehrere Bilder speichern können (zB 90% des Sensors lichtunempfindlich, nur zum Speichern genutzt)

Welche Vor- und Nachteile haben CMOS-Sensoren gegenüber CCD-Sensoren ?

Vorteile:

  • Kamera on-a-chip möglich, da Zusatzelektronik direkt mit droffgepappt werden kann
  • beliebiges Auslesen der Pixel (ansprechen wie RAM mit Adressierungsmatrix)
  • Vorverarbeitung direkt in den Pixeln, z.B. Verstärkung (aktive Pixel) oder logarithmische Kennlinien (angelehnt an Sinnensempfinden des Menschen)
  • schnelleres Auslesen, da paralleles Auslesen möglich: n AD-Wandler
  • intelligentes Auslesen: Elektronik erkennt von vornherein, wo das zu beobachtende Objekt auf dem Chip abgebildet wird und liefert nur diese Bereiche = kleinere Datenmenge
  • kein Blooming
  • keine krummen Spannungen und zig Taktgeneratoren, das was gebraucht wird kann auch gleich auf den Sensor mit droff
  • billiger

Nachteile:

  • stärkeres Rauschen durch mehr analoge Bauelemente (z.B. ein Transistor pro Pixel, mehrere AD-Wandler) => Festmusterrauschen
  • Dunkelsignalrauschen ist generell wesentlich temperaturabhängiger aufgrund der vielen integrierten Bauelemente
  • Zeilenrauschen nicht so einfach korrigierbar, da mehrere Ausgangsleitungen
  • da Pixel zu beliebigen Zeiten ausgelesen werden können, kann es zu Bewegungsunschärfen kommen

Multikanal (Farb-) Sensoren

Was muss man bei der Realisierung von Farbaufnahmesystemen beachten ?

  • Farbe ist nur im Zusammenhang mit dem menschlichen Sehsystem definiert
    • Linearität zwischen Wellenlängenempfindlichkeit der Kamerasensoren und menschlichen Empfindlichkeiten gewünscht
    • verschiedene Farbreize können beim Menschen das gleiche Farbempfinden hervorrufen
    • Helligkeitsinformation wichtiger als Farbinformationen
    • unterschiedliche Empfindlichkeiten für unterschiedliche Wellenlängen, gleich helle blaue LED und rote LED werden nicht als gleich hell empfunden
    • Menschen nehmen die Farbe Grün besonders stark wahr
    • das alles is auch noch ortabhängig
  • Sensoren sind für größere Wellenlängenbereiche als das Auge empfindlich (IR, UV)
  • mit drei Farbkanälen können nicht alle Farben dargestellt werden, mehr Kanäle -> höhere Kosten

Geben Sie Möglichkeiten der Aufnahme und Wiedergabe von Farbbildern an!

Kamera:

  • Aufnahme mit 3 Sensoren, komplizierte und teure Objektive nötig, die das Bild positionsgenau in drei Wellenlängenbereiche (R,G,B) aufteilen
  • 1 Sensor, verschiedene Farbfilter, z.B. Rotieren mit Rad
  • 1 Sensor mit Pixeln, die empfindlich für verschiedene Wellenlängen sind (Consumer-Technik)

Wiedergabe:

  • RGB Monitor
  • CMYK-Drucker
  • ...

Welche Möglichkeiten zur Erfassung von Farbinformationen ergeben sich, wenn die Aufgabenstellung Verarbeitung der Farbinformation (Informationsextraktion) und nicht Wiedergabe von Farbbildern lautet.

  • (1) örtliche Informationen komplett weglassen, dh. nur Spektrum des Bildes aufnehmen
    • zum Beispiel um Lacke zu prüfen
    • Möglichkeit: mit Prisma Abbildung auf CCD-Zeile, Prisma bricht verschiedene Wellenlängen unterschiedlich stark => Spektrometer / Spektroskopie
  • (2) Verzicht auf komplette spektrale Auflösung, nur Teil des Spektrums erfassen (mich interessiert z.B. nur gelb) => Multikanel Vektor Bilder
  • Kombination aus (1) und (2), z.B. Farbkoordianten

Erläutern Sie die Unterschiede zwischen 1- und 3-Chip-CCD-Farbkameras?

  • 3 Farbkanäle: R,G,B
  • 3-Chip:
    • drei verschiedene CCD-Sensoren mit gleicher Größe benutzen, je einer für R,G und B
    • Strahlteilung durch halbdurchässige Spiegel / Prismen oder Kaleidoskopoptik
    • Genaue Positionierung der CCDs nötig (im µm Bereich), damit örtliche Verteilung erhalten bleibt
    • teuer, aber beste Bilder
  • 1 Chip SW:
    • Filterrad mit versch. Filtern für verschiedene spektrale Empfindlichkeiten
  • 1-Chip RGB:
    • Gruppen von jeweils 4 Pixeln werden für verschiedene Farbkanäle genutzt: 1 Pixel R, 2 Pixel G, 1 Pixel B
    • Filterung mit Farbfiltern
    • Verlust von Auflösung
    • Möglichkeit der einfachen Berechnung für YCrCb Farbrum bei Interline-Matrizen: Geschicktes "Addieren" der Elektronen in den Schieberegistern, Subtrahieren mit S&H Schaltungen

Kamera

Wodurch wird die reale photometrische Auflösung (Anzahl realistischer Graustufen) von CCD-Sensoren bestimmt?

  • Güte des AD-Wandlers
  • Dunkelsignal (zu hohes Dunkelrauschen macht hohe Auflösung des AD-Wandlers sinnlos)

Nennen Sie Parameter, die die Abweichung vom idealen Ver­halten bei CCD-Matrizen beschreiben!

  • Apertur der Pixel - nicht überall gleich empfindlich, außerdem Beeinflussung der Nachbarpixel
  • Dunkelsignalrauschen - Ladungsgenerierung ohne Lichteinfall
  • Güte des Siliziums (Dotierung, Verunreinigung) nicht überall auf dem Chip identisch => Unterschiede der Empfindlichkeit bei exakt gleichmäßiger Beleuchtung messbar, Abweichungen im bereich 1-3%

Was versteht man unter Transferineffektivität? Wie wirkt sie sich aus?

  • Beim Schieben der Ladungen werden nicht alle Elektronen bewegt, ein kleiner Teil bleibt "hängen"
    • Grund: Abstoßung der Elektronen untereinander
  • Daher gehen Informationen über die Leuchtstärke, die auf das entsprechende Pixel wirkte, verloren oder werden fälschlicherweise auf andere Pixel abgebildet (wenn die Elektronen beim späteren Schieben nachkommen)

Was wird mit dem Begriff Shading bei CCD-Kameras erfasst? Wie kann man die Auswirkungen korrigieren?

  • Objektiv leuchtet nicht den gesamten Bereich des Sensors gleich gut aus, vor allem am Rand
  • Lösung: bessere bzw. größere Objektive

Was versteht man unter Smear bei Frame-Transfermatrizen ? Welche Möglichkeiten zur Verminderung werden eingesetzt ?

  • Ladungen von unten werden nach oben durchgereicht, sie passieren also lichtempfindliche Pixel
  • passieren Ladungen aus unbeleuchteten Pixeln beleuchtete Pixel, werden während der Ladungsverschiebung neue Elektronen generiert
  • dunkle Pixel werden daher also heller interpretiert, als sie eigentlich sind
  • Gesamtbild sieht dann aus wie verwischt -> smear

Beleuchtung

Nennen Sie einige Anforderungen an Szenenbeleuchtung am Beispiel einer selbst gewählten Bildverarbeitungsaufgabenstellung !

  • Angenommen ich will rote von grünen Tomaten unterscheiden, so brauch ich Auflicht, welches sowohl einen Rot, als auch einen Grünanteil beinhaltet.
  • Kratzer in Spiegel untersuchen mit Dunkelfeld oder Hellfeld
  • Länge eines Werkstückes mit Durchlicht und telezentrischem Objektiv

Welche Rolle spielt die spektrale Verteilung der Strahlung bei der Szenenbeleuchtung für Bildverarbeitungssysteme?

  • Das Licht enthält z.B. Infrarotstrahlung, die der Mensch nicht sieht, welche aber die Kamera stark stört
    • beleuchtet man eine Szene, weil man etwas messen will, nimmt der Sensor auch Informationen über IR-Strahlung auf, die man garnicht sehen kann
    • Verfälschung der Messung.
  • Manche Strukturen brechen Licht wellenlängenabhägig=> gut für Spektrometer, kann aber auch stören
  • Interferenz wellenlängenabhägig
  • Lösung: Filter

Erläutern Sie die Grundaussage des photometrischen Grundge­setzes!

  • Das photometrische Grundgesetz beschreibt den Leistungsaustausch zwischen einer leuchtenden Fläche A1 (mit der Leuchtdichte L) und einer bestrahlten Fläche A2 in Abhängigkeit ihrer Verdrehung im Raum

Welche physikalischen Effekte werden zur Erzeugung von Licht eingesetzt ?

  • Die Glühbirne, was wirklich passiert
    • Durch das Anlegen eines elektrischen Feldes an den Glühdraht werden die Elektronen im Metall beschleunigt
      • Die Valenzband Elektronen können sich in Metallen frei bewegen → Elektronengas
    • Es kommt zu Zusammenstößen der Elektronen mit Elektronen und den Atomrümpfen → der Draht hat einen Widerstand
    • Die übertragene Energie der Elektronen an die Atomrümpfe führt dazu das diese eine größere Eigenschwingung ausführen → Die Temperatur des Glühdrathes steigt
    • Jeder warme Körper sendet ein kontinuierliches Spektrum an elektromagnetischer Strahlung aus (Plancksches Strahlungsgesetz)
    • Ist der Drath genügend heiß so können wir die abgegebene Strahlung im sichtbaren Bereich sehen (nur ein geringer Teil der Strahlung wir in diesem Bereich ausgesendet) → Die Lampe leuchtet


Jan's Version:

  • Licht durch Glühemmission (z.B. Glühbirnen, Halogenlampen) -> stochastische Bewegung der Elektronen, daher Reibungsenergie mit den Atomen des Glüchdrahtes => Abgabe vieler unterschiedlicher Wellenlängen
    • kontinuierliches Spektrum
  • Licht durch Stoßionisation (z.B. in Entladungslampen) -> Elektronen stoßen Atome => heben Elektronen kurzzeitig auf höheres Energie-Niveau, beim Rückfallen werden Lichquanten freigesetzt
    • diskretes Spektrum
  • Licht am PN-Übergang ( in LEDs) -> Rekombination der Elektronen im Valenzband setzt Photonen frei
    • diskretes Spektrum


Martin's Version:

  • Licht durch Glühemmission (z.B. Glühbirnen, Halogenlampen) -> Thermische Energie in den Atomen hebt Elektronen kurzzeitig auf höheres Energie-Niveau und beim Rückfallen werden Lichquanten freigesetzt
    • kontinuierliches Spektrum
  • Licht durch Stoßionisation (z.B. in Entladungslampen) -> Rekombination der Ionen mit den Elektronen setzen Photonen frei
    • diskretes Spektrum
  • Licht am PN-Übergang ( in LEDs) -> Rekombination der Elektronen im Valenzband setzt Photonen frei
    • diskretes Spektrum

Nennen Sie einige Lampentypen und erläutern Sie die Prinzipien der Lichterzeugung ?

  • Wärmestrahlung: Material erwärmen, bis es Strahlung im Wellenlängenbereich von Licht abstrahlt, z.B. Elektronen durch Wolframdraht drängeln
    • kontinuierliches Spektrum mit hohem Infrarotanteil
  • Entladungslampen: Ionisierung von Gasen durch Spannungen, Freisetzung von Photonen.
    • diskretes Spektrum, kontinuierlich nur mit Beschichtungen (Anregung von Leuchtstoffen)
  • Halbleiter: Rekombination am PN-Übergang, damit wieder die Energieniveaugeschichte
    • diskretes Spektrum, kontinuierlich nur mit Beschichtungen (Anregung von Leuchtstoffen)

Nennen Sie Eigenschaften unterschiedlicher Lampentypen !

Glühbirnen:

  • Vorteil:
    • billig
    • breites Spektrum
    • einfache Beschaltung
    • in jeder Größe herstellbar
  • Nachteil
    • recht kurze Lebensdauer
    • hohe Lichtineffizienz (Dunkelleuchter)
    • Spektrum ist temperaturabhängig
    • Verdunkeln mit der Zeit, da Wolfram sich am Glas absetzt
  • Verbesserung:
    • Halogenleuchten - Halogen bindet Wolfram, dadurch werden die Glaswände nicht dunkler. Gleichzeitig bildet sich um den glühenden Wolframdraht eine Wolke, die weiteren Abtrag verhindert (irgendwie :-/ )
    • Beschichtung des Glases, was das Austreten der Infrarotstrahlung mindert und somit zu einer Erhitzung des Wendels beiträgt. (Spart Energie)


Entladungslampen

  • Vorteil
    • Teilweise hohe Leuchtstärke (XEON-Licht), vor allem bei Hochdrucklampen
    • "Dünnes" Spektrum (kann auch von Vorteil sein, z.B. wenn andere Farben stören würden)
  • Nachteil
    • Eigentlich nur kleines, diskretes, meist nicht sichtbares Spektrum (Lösung durch Fluriszierende Beschichtung)
    • Benötigt etwas komplexere Beschaltung (Elektromagnetische Vorschaltegeräte EVG)
    • Nichtlineare Kennlinie
    • Nicht beliebig klein baubar, da Elektroden relativ groß sind
    • Hochdrucklampen müssen erst "hochfahren" und sind explosionsgefährdet


Leuchtdioden

  • Vorteil
    • Klein und in vielen Farben herstellbar
    • Vergleichsweise hohe Lebensdauer
    • Geringer Verbrauch bei hoher Leistung
  • Nachteil
    • Dimmen durch PWM
    • Temperaturabhängiges Licht (in Intensität und Wellenlänge)
    • recht schmales Spektrum -> Weißes Licht durch RGB-Kombination oder Blaue LED mit Phosphorschicht
    • Lassen mit der Zeit an Leuchtkraft nach
    • Großteil der Photonen dringen nicht nach außen, weil sie IM PN-Übergang entstehen

Was versteht man unter dem Flimmerfaktor von Lampen? Welche Rolle spielt er für CCD-Bildaufnahmesysteme (Zeilen, Matri­zen)?

  • Lampen werden mit Wechselstrom oder gepulster Gleichspannung betrieben, geben daher nicht kontinuierlich die gleiche Strahlung ab sondern mit bestimmter Frequenz -> Flimmern
  • CCD: so kurze Integrationszeiten, dass dieses Flimmern die Bildaufnahme beeinflusst
  • Abtastung immer zum gleichen Zeitpunkt: kein Problem
  • Abtastung zu verschiedenen Zeitpunkten: Bei einem Bild Lampe hell, beim anderen Lampe gerade dunkel: Müst

Wie kann man eine näherungsweise gleichmäßige Ausleuchtung einer ebenen Fläche erreichen?

  • Durch Punktleuchten mit einem Höhen/Abstands-Verhältnis von 0,82
  • Durch Ringleuchten mit einem Höhen/Durchmesser-Verhältnis von (unwichtig)

Optische Abbildung

Wie wirken sich Modulationstransferfunktion, Ver­zeichnung, Randabfall von Objektiven auf die resultierenden Eigen­schaften eines Bildaufnahmekanals aus!

Nennen Sie Anforderungen aus der Bildverarbeitung, die Einfluss auf die Auswahl von Objektiven haben!

  • Abstand es Objektes zum Sensor => Brennweite
  • Größe des Objektes, Größe des Sensors => Abbildungsmaßsstab, Brennweite
  • Art der Messaufgabe (hyperzentrisches, endozentrisches oder telezentrisches Objektiv)

Was versteht man unter telezentrischem Strahlengang? Welche Vorteile bringt er? Wie ist er erreichbar?

  • Öffnungsblende im Brennpunkt der Bildseite -> lässt nur Brennpunktstrahlen durch, die auf Objektseite Parallelstrahlen sind
  • keine Verzeichnung des Objektes, unabhängig vom Abstand des Objektes zur Linse -> ideal zur Längenmessung

Erläutern Sie das Phänomen des Randabfalls der durch ein Objektiv abgebildeten Strahldichten!

  • Am Besten malt man eine Skizze des Optischen Systems. Auf der man sieht dann, dass die Hauptstrahlen alle durch den Linsenmittelpunkt müssen. Dann geht man davon aus, dass die größte Lichtaussendung eines Objektes genau entlang dieses Hauptstrahls am Größten ist. Wenn man jetzt die Objekthöhe besonders hoch wählt, dann sieht man, dass dessen Hauptstrahl in der Bildebene immer weiter von der optischen Achse wegwandert (also nach Unten). Ab einem bestimmten Winkel wird dann der Hauptstrahl nichtmehr auf die Sensorfläche treffen weil er in der Bildebene darunter liegt. Dann wird auch nicht mehr das gesamte Licht auf den Sensor treffen. Ergo: Je steiler der Winkel, desto dunkler werden die lichtpunkte des Objektes auf dem Sensor, was man dann Randabfall nennt.
    • Nette Theorie aber folgende Punkte werden nicht erklärt
      • Der Randabfall ist sofort zu beobachten auch wenn sich der leuchtende Punkt nur minimal neben der Optischen Achse befindet (Der Punkt kann also noch locker auf die CCD abgebildet werden)
      • Der Randabfall läßt sich nicht dadurch beheben, dass man die CCD - Größer macht, was ja nach dieser Theorie gehen müsste :)
      • --DarkGhost 16:12, 20. Mär. 2009 (UTC)
  • Der Randabfall, oder auch das cos^4 Gesetz
    • Folgende Annahme: Linse ist ideal, keine Blende, keine Lichtverluste in der Optik der Kamera
    • Betrachten wir eine Fläche A die gleichmäßig Licht in Richtung Kamera aussendet und sich in der optischen Achse befindet
      • Der Raumwinkel der leuchtenden Fläche ergibt sich damit zu
      • d ... Linsendurchmesser
      • g ... Abstand der Fläche zur Linse
    • Wird nun diese Fläche ein Stückchen aus der optischen Achse bewegt ändern sich folgende Dinge
      • Der Raumwinkel wird kleiner (mit )
      • Die Fläche verkürzt sich perspektivisch (mit )
      • Die Entfernung zur Fläche wird größer
      • Die Linse ist von der Fläche aus gesehen auch nicht mehr Kreisförmig sondern elliptisch
    • Daraus lässt sich sich folgendes ableiten
      • Skizze randabfall.svg
      • Für den Lichtstrom in der Optischen Achse gilt:
        • damit folgt aus dem Photometrischen Grundgesetz für den Lichtstrom
      • Verschiebt man nun den Punkt aus der optischen Achse
      • Ein vergleich mit dem Ergebnis für die optischen Achse zeigt dann das gilt:
        • ... ist der Winkel zwischen Diagonale zur Linse
        • ... Lichtstrom der Fläche in der optischen Achse
        • ... Lichtstrom der Fläche unter einem Winkel zur optischen Achse
    • Das ganze bezeichnet man dann als Randabfall
    • selbst bei Lichtverlust in der Optik und Blende bleibt der Haupteinfluss beim Gesetz

Cos4.png

Für welche Abbildungsverhältnisse sind Fotoobjektive präde­stiniert? Welche Probleme sind beim Einsatz für die digita­le Bildverarbeitung zu beachten?

Bildverarbeitungssysteme

Warum steht bei Bildverarbeitungssystemen die Forderung nach einem eigenständigen Bilddatenbus?

  • große Datenmengen, meist streng strukturiert
  • hohe Echtzeitanforderungen, daher hohe Übertragungsrate gewünscht, bestenfalls isochron
  • Möglichkeit der parallelen Verarbeitung
  • ein Datum idR klein, 8 Bit zB

Welche Forderungen sind an analoge Bilddatenkanäle (on-chip-Verstärker, ..., Vorverstärker für ADU) zu stellen?

  • geringe Temperaturabhängigkeiten
  • gutes Rauschverhalten
  • hoher Anspruch an Linearität

Was versteht man unter Auflösung und was unter Genauigkeit eines ADU?

Auflösung:

  • ja wie viel Bit die Möhre halt hat ;)

Genauigkeit:

  • Güte der Diskretisierung des Wertebereichs
  • SNR

Welche Forderungen sind an Bilddatenausgabegeräte (Visuali­sierung über Monitor) zu stellen? Ordnen Sie dabei Unter­schiede zwischen interaktiver und automatischer Bildver­arbeitung ein!

Martin's Theorie:

  • Bei automatisierungsteschnischen Prozessen reicht es, wenn ich dem Bediener ein aufbereites, meinetwegen tausendmal gefiltertes Bild darstelle um dem "Experten" eventuell zu erklären, weshalb mein System diese Klassifikation getroffen hat.
  • Bei einer interaktiven Bildverarbeitung muss also der Bediener entscheiden, wie der nächste Schritt zu erfolgen hat. Daher brauch ich ein hochaufgelöstes Bild, was auch etliche Sekunden angezeigt werden muss.

Welche Architekturmerkmale von µ-Prozessoren sind für die Bilddatenverarbeitung von größerem Interesse?

  • viele Register, Cache
  • Vektor-Rechenwerke, zB SSE, MMX
  • viele Datenwege (Speichercontroller aufm Die, HT-Link usw)
  • hohe Flexibilität bezüglich Zusatzhardware (HW für PCI, RAM erweitern usw.)
  • breite Verfügbarkeit, Preis (Massenproduktion)

Wodurch sind moderne Bus-Systeme der µ-Rechentechnik ge­kennzeichnet? Welche Parameter sind für die Bildverarbei­tung besonders interessant?

  • hoher Datendurchsatz, geringe Zugriffszeiten, Parallelität (Pipelining, SMT)
  • mehrere Busse parallel, zB bei Speicher: Zugriff auf Speicher (Daten reinfüttern) lähmt CPU nicht
  • hohe Datenmengen durch Bilder erzeugt => müssen transportiert werden

Welche Eigenschaften zeichnen µ-Controller gegenüber µ-Prozessoren aus?

µ-Prozessoren:

  • ursprünglich für Steuerungsaufgaben entwickelt, daraus entwickelten sich Heimrechner
  • daher große Vielfalt an Software und Hardware, auch ausgereift durch viele Beta-Tester
  • einfache Mensch-Maschine-Kommunikation
  • viele Zusatzbauelemente benötigt (Board, gRaka, taktgeber)
  • sehr begrenzte Echtzeitfähigkeiten von Soft- und Hardware
  • kurze Lebensdauer / Verfügbarkeit der Bauteile
  • Standard-PCs nicht für Industrie-Einsatz geeignet, Industrie PCs laut, teuer, stromhungrig

=> Geeignet für Systeme mit hohem Anteil an Mensch-Maschine-Kommunikation

µ-Controller:

  • kleinere Systeme, wichtigste Bauteile auf dem Chip integriert
  • Spezialhardware für bestimmte Aufgaben (µC: Steuerung, DSPs: MAC-Befehler) => speziell auf das Problem angepasste HW verfügbar
  • costum design möglich
  • Echtzeitanforderungen realisierbar
  • Parallelität

=> Geeignet für autonome Systeme

Welche Voraussetzungen an die Aufgabenstellungen müssen erfüllt sein, um sie auf parallelen Strukturen abarbeiten zu können? Nennen Sie Beispiel aus der Bildverarbeitung!

  • Algorithmen müssen sich parallelisieren lassen, rein sequentielle Abläufe nicht geeignet

SIMD: Parallelität der Daten, Daten lassen sich aufteilen

  • Filterstrukturen
  • Nachbarschaftssuche
  • Bild in mehrere Teile unterteilen und einzeln berechnen
  • Ganze Arbeitsabläufe parallelisieren (zB Fehlstücke vom Band schmeißen, System1 untersucht gerade Fehlstücke, System2 ungerade)

MISD:

  • Pipelining, dh einen Algorithmus nicht von einem Chip verarbeiten lassen sondern von mehreren Chips
  • Einzelne Chips sind Koniferen auf ihrem Gebiet und können die speziellen Aufgabe daher mit Gravur lösen
  • Kommunikationsoverhead

MIMD:

  • verschiedene Aufgaben mit verschiedenen Daten parallel ausführen

Was sind parallel arbeitende Rechnersysteme? Welche Struk­turen sind für Aufgaben der Bildverarbeitung denkbar?

  • Parallel arbeitende Rechensysteme sind Rechner, die mehrere Berechnugnsschritte zur gleichen Zeit erledigen können
  • Bildverarbeitung: hohe Datenmengen und/oder hohe Echtzeitanforderung, dadurch können schon einfachste Probleme komplex werden
  • daher kiwi-Prinzip: kill it with iron, solange Hardware reinschmeißen, bis es funktioniert ;)
  • dh: Aufgaben aufteilen auf verschiedene Rechensysteme

Nennen Sie einige vom von-Neumann-Prinzip abweichende Rech­nerarchitekturen und erläutern Sie diese Strukturen!

  • Harvard: getrennte Speicher für Daten und Programme, zB bei Cache in x86 CPUs
  • Filtersturkturen: Multiplizierer an jeder Datenleitung zum beaufschlagen mit Konstanten, dahinter Addierer für alle Datenleitungen -> hochparallel

Zeigen Sie einige Möglichkeiten der Verlagerung von Algo­rithmen der Bildverarbeitung in Hardware!

  • bevorzeugt für Algorithmen, die identisch für das ganze Bild sind
  • Punktoperationen (zB Grauwerte verändern) => Look Up Tables (einfach und schnell)
  • Einfache Filter können in Hardware gemacht werden, Miltiplikation von Konstanten udn Aufaddierung
  • nichlineare Filer in fester Nachbarschaft: Sortieren, Neuordnung etc
  • Neuronale Netze mit einfachen Neurocomputern

Welche Möglichkeiten bieten Look-up-table, um Aufgaben der digitalen Bildverarbeitung in Hardware zu lösen?

  • Hardware ist nur ein schneller Speicher, der eine einfache funktionale Abbildung realisiert
  • x ist Eingang, f(x) ist Ausgang
  • Koeffizienten bzw. Funktionswerte sollten sich verändern lassen (programmierbare rEgister)

Skizzieren Sie eine Struktur, die es gestattet, Grauwerthi­stogramme on-line zu erzeugen!

  • Speicher bauen, dessen Adress-Eingang der Grauwert des Pixels ist
  • Ausgang des Speichers inkrementiert den Eingang
  • ergibt n Zähler, die über Adresse angesprochen werden, Adresse ist der Grauwert

Skizzieren Sie eine Struktur. die es gestattet, ausgehend von einem seriellen digitalen Bilddatenfluß, die Umgebung eines Bildpunktes parallel zur Verfügung zu stellen?

  • Sender sendet seriellen Datenstrom und Empfänger soll den in parallelen strom zerlegen
  • Sortierung des Bildes nach Zeilen => für jede Zeile steht am Empfänger ein Register zur Verfügung
  • Sender und Empfänger müssen beide wissen, wie viele Pixel/Zeile es gibt und wie viel Zeilen, so sind keine Trennzeichen erforderlich
  • Empfänger kann seriellen Eingangsdatenstrom nach einer Zeile kappen und für eine neue Zeile einen neuen Ausgangsdatenstrom erzeugen, Zwischenspeicher in rEgistern

Wie könnte die Struktur einer Hardwarebaugruppe aussehen, die es gestattet, Faltungsoperationen on-line durchzufüh­ren?

  • zuerst mal heißt das on-the-fly ;)
  • Filterstruktur: sum(a*x)
  • Pixel trödeln parallel ein => n Datenleitungen für n Pixel
  • jedes Pixel mit Konstante aus Register multiplizieren => pro Datenleitung ein Konstantenregister
  • Am Ende ein großer Adder, der alle Werte addiert

Klassifizieren Sie Bildverarbeitungssysteme nach Aufgaben­stellung und daraus resultierender einzusetzender Rechen­tech­nik!

  • PC, Industrie-PC für Anwendungen mit Mensch-Maschine Kommunikation
  • µC, DSP für standalone Systeme