Systemtechnik der Bildverarbeitung:Fragenkatalog: Unterschied zwischen den Versionen
Zur Navigation springen
Zur Suche springen
Zeile 83: | Zeile 83: | ||
* Kamera on-a-chip möglich, da Zusatzelektronik direkt mit droffgepappt werden kann | * Kamera on-a-chip möglich, da Zusatzelektronik direkt mit droffgepappt werden kann | ||
* beliebiges Auslesen der Pixel (ansprechen wie RAM mit Adressierungsmatrix) | * beliebiges Auslesen der Pixel (ansprechen wie RAM mit Adressierungsmatrix) | ||
− | * Vorverarbeitung direkt in den Pixeln, | + | * Vorverarbeitung direkt in den Pixeln, z.B. Verstärkung (aktive Pixel) oder logarithmische Kennlinien (angelehnt an Sinnensempfinden des Menschen) |
* schnelleres Auslesen, da paralleles Auslesen möglich: n AD-Wandler | * schnelleres Auslesen, da paralleles Auslesen möglich: n AD-Wandler | ||
* intelligentes Auslesen: Elektronik erkennt von vornherein, wo das zu beobachtende Objekt auf dem Chip abgebildet wird und liefert nur diese Bereiche = kleinere Datenmenge | * intelligentes Auslesen: Elektronik erkennt von vornherein, wo das zu beobachtende Objekt auf dem Chip abgebildet wird und liefert nur diese Bereiche = kleinere Datenmenge | ||
Zeile 90: | Zeile 90: | ||
* billiger | * billiger | ||
Nachteile: | Nachteile: | ||
− | * stärkeres Rauschen durch mehr analoge | + | * stärkeres Rauschen durch mehr analoge Bauelemente (z.B. ein Transistor pro Pixel, mehrere AD-Wandler) => Festmusterrauschen |
− | * Dunkelsignalrauschen nicht so einfach korrigierbar, da mehrere Ausgangsleitungen | + | * Dunkelsignalrauschen ist generell wesentlich temperaturabhängiger aufgrund der vielen integrierten Bauelemente |
− | * da Pixel zu beliebigen Zeiten ausgelesen werden können, kann es zu Bewegungsunschärfen kommen | + | * Zeilenrauschen nicht so einfach korrigierbar, da mehrere Ausgangsleitungen |
+ | * da Pixel zu beliebigen Zeiten ausgelesen werden können, kann es zu Bewegungsunschärfen kommen | ||
+ | |||
== Multikanal (Farb-) Sensoren == | == Multikanal (Farb-) Sensoren == | ||
=== Was muss man bei der Realisierung von Farbaufnahmesystemen beachten ? === | === Was muss man bei der Realisierung von Farbaufnahmesystemen beachten ? === |
Version vom 16. Juli 2008, 16:05 Uhr
Technische Sehsysteme
Nennen Sie Parameter, von denen die notwendige Rechenleistung eines Bildverarbeitungssystems abhängt!
- Datenmenge
- Größe des Objektes (z.B. 300mm Si-Wafer)
- Bildauflösung (Strukturen bis 100 nm auf dem Wafer sollen erkennbar sein) -> das bestimmt Anzahl der Pixel auf dem Sensor
- Farbe? Graustufen? Auflösung von Farbe und Graustufen (8 Bit, 4 Bit, ...)
- Geschwindigkeit
- Wie oft sollen Bilder aufgenommen werden, zB 50x pro Sekunde oder einmal pro Stunde?
Schätzen Sie anhand eines selbstgewählten Beispiels aus der Automatisierungstechnik die Größenordnung der notwendigen Rechenleistung ab!
- Werkstück aus Box nehmen: 128x128 Pixel, 16 Bit Daten
Sensoren
Erläutern Sie die Phänomene „innerer photoelektrischer Effekt“ und „äußerer photoelektrischer Effekt“ !
Innerer:
- Photonen dringen in ein Material, z.B. einen Halbleiter, ein und lösen dort Elektronen aus den Atomen. Somit entstehen freie Ladungsträger. Wird eine Spannung angelegt, ist daher ein Stromfluss möglich.
Äußerer:
- Photonen treffen auf die Oberfläche eines Materials, z.B. eines Metalls, auf und schlagen Elektronen heraus, die dann außerhalb des Materials als freie Ladungsträger zur Verfügung stehen.
- Ordnet man Elektroden um das Material an, kann ein Stromfluss beobachtet werden.
Wie kann man mit Einzelsensoren ortsaufgelöste Bilddaten gewinnen ?
- Indem man sie über das zu vermessende Objekt bewegt. Beispiel: CCD-Zeile über Müll bewegen zur Mülltrennung. (jaja, eine Zeile ist kein Einzelsensor...)
- günstig da, wo sich das Objekt schon von selbst bewegt, zB aufm Fließband
- Vorteil: Schnelleres Auslesen, damit höhere Bilderfassungsfrequenz - wenn die Beleuchtung stimmt, da die Integrationszeiten klein werden
Erläutern Sie das Grundprinzip von CCD-Bauelementen !
- Anordnung von Einzelsensoren in einer Matrix, jeder dieser Sensoren generiert Elektronen mit innerem fotoelektrischen Effekt
- Ladungen müssen transportiert werden:
- Verschieben von Ladungen durch Aneinanderreihung von Elektroden über Halbleitern -> jede Elektrode erzeugt ein elektrisches Feld
- Elektronen sammeln sich an Elektrode -> Elektronenwolke
- Erzeugen eines höheren Potentials an einer Nachbar-Elektrode veranlasst die Elektronenwolke, sich zu dieser Nachbar-Elektrode zu bewegen
- somit analoges Schieberegister realisiert
- Möglichkeit der mehrstufigen Realisierung
Erläutern Sie die Funktionsweise von CCD-Zeilen !
- Einzelsensoren aneinanderpappen zu einer Zeile, bis zu 10.000 Elemente möglich
- Effizientes Auslesen möglich durch parallele Ausgänge (Multi Channel Strukturen) => bis zu einigen kHz möglich
- sehr kurze Integrationszeiten möglich => gute Beleuchtung
Nennen Sie Vor- und Nachteile von CCD-Zeilen und -Matrizen bei der 2-D-Bilddatengewinnung!
Blöde Frage: Vorteile gegenüber welchem Vergleichsobjekt denn?! Vorteile:
- regelmäßige Anordnung der Einzelsensoren, damit Ortsausflösung implizit gegeben (bei Zeile: Wenn Zeile über Objekt bewegt wird)
- Alle Pixel gleichzeitig ausgelesen, daher kein Verwischeffekt wie bei CMOS, dafür möglicherweise smear
- Vergleiche CMOS: CMOS-Sensoren können wie ein Speicher ausgelesen werden, das heißt es kann über eine Adressierungsmatrix auf jedes Pixel zugegriffen werden. Daher wird jedes Pixel zu einem bestimmten Zeitpunkt ausgelesen, unabhängig von den anderen Pixeln. Liest du z.B. eine Zeile von links nach rechts, kann sich das aufzunehmende Objekt während der Auslesezeit schon weiter bewegt haben und du kriegst Bewegungsunschärfe. Bei Interline Transfer CCD hingegen schiebst du alle Ladungen gleichzeitig in ein Schiebregister, das heißt, die Daten aller Pixel werden gleichzeitig gewonnen. Klar, die Daten werden danach nochmal sequentiell über den ganzen Chip geschoben und erreichen den Speicher hintereinander. Aber die Daten sind zur gleichen Zeit entstanden.
- Einfache Möglichkeit Halbbilder zu erzeugen, indem man einfach 1 Schieberegister für 2 Pixel nutzt
Nachteile:
- begrenzte Aufnahmegeschwindigkeit: Integrationszeit und Auslesezeit
- Braucht recht komplexe Spannungsversorgung (Viele Verschiedene Spannungen zur Generierung der Potentialunterschiede beim Schieben)
- Komplexes Taktregime notwendig (Takte zum Zeilen- und Spaltenschieben, sowie für Shutterimpulse)
Erläutern Sie die Grundprinzipien von Interline- und Frame-Transfermatrizen!
Schiebt man Ladungen durch den Sensor, gibt's smear-Effekte und außerdem dauert's lange, bis neue Ladungen gesammelt werden können. Zwei Ansätze:
Interline:
- für jedes Pixel ein lichtunempfindliches Schieberegister (oder ein Register für zwei Pixel), in das die Ladungen nach der Integrationszeit rein geschoben werden (parallel für alle Pixel, also sehr schnell)
- dann in Ruhe die Schieberegister auslesen, währenddessen können die lichtempfindlichen Pixel schon wieder Ladungen generieren
- Nachteil: Verringerung der Auflösung/Empfindlichkeit
- umgehen z.B. mit Mikrolinsen, die das Licht, was auf die unempfindlichen Register trifft, auf die empfindlichen Pixel lenkt
- weiterer Nebeneffekt: drastische Reduzierung von Interferenzerscheinungen durch verschiedene Einfallswinkel
- umgehen z.B. mit Mikrolinsen, die das Licht, was auf die unempfindlichen Register trifft, auf die empfindlichen Pixel lenkt
Frame:
- Das Hochschieben der Daten geht recht schnell, was dauert ist das sequentielle Einschieben für das horizontale Rausschieben (oberste Zeile)
- Also: Obere Hälfte der CCD-Matrix abdecken und Daten schnell n den "dunklen" Bereich schieben
- Nachteile: Halbierung der Aufnahmefläche, smear wird nicht beseitigt
- Vorteil: Es können mehrere Bilder auf der abgedunkelten Chipfläche zwischengespeichert werden. Z.B. 3 Bilder speicherbar, wenn nur ein Viertel der Sensorfläche lichtempfindlich ist. -> Nutzbar bei Hochgeschwindigkeitsaufnahmen.
Was versteht man unter einer Shutterkamera? Erläutern Sie das Grundprinzip! Wo kann man solche Systeme sinnvoll einsetzen?
- bevor man neues Bild auslesen kann, muss das alte Bild fertig ausgelesen sein - und das kann lange dauern
- also eigentlich keine Integrationszeiten möglich, die kürzer als die Auslesezeit sind
- Lösung: shuttern.
- dabei werden die in den Pixeln generierten Ladungen regelmäßig ins Substrat abgeführt, nur kurz vorm Auslesen werden die Ladungen bis zum Auslesen gehalten.
- sozusagen ein invertierter Refresh ;)
Wie kann man mit Interline-Transfermatrizen videonormgerechte Signale, d.h. nach dem interlaced-Prinzip zur Verfügung stellen ?
- Wenn ein Schieberegister für zwei Pixel zur Verfügung steht, kann man bei Bild n Pixel gerader Zeilen auslesen, bei Bild n+1 Pixel ungerader Zeilen
Wie kann man bei CCD-Matrixsensoren Hochgeschwindigkeitskameras realisieren.?
- mehrere parallele Ein- und Ausgänge
- mit Frame-Transfer-Matrizen, die mehrere Bilder speichern können (zB 90% des Sensors lichtunempfindlich, nur zum Speichern genutzt)
Welche Vor- und Nachteile haben CMOS-Sensoren gegenüber CCD-Sensoren ?
Vorteile:
- Kamera on-a-chip möglich, da Zusatzelektronik direkt mit droffgepappt werden kann
- beliebiges Auslesen der Pixel (ansprechen wie RAM mit Adressierungsmatrix)
- Vorverarbeitung direkt in den Pixeln, z.B. Verstärkung (aktive Pixel) oder logarithmische Kennlinien (angelehnt an Sinnensempfinden des Menschen)
- schnelleres Auslesen, da paralleles Auslesen möglich: n AD-Wandler
- intelligentes Auslesen: Elektronik erkennt von vornherein, wo das zu beobachtende Objekt auf dem Chip abgebildet wird und liefert nur diese Bereiche = kleinere Datenmenge
- kein Blooming
- keine krummen Spannungen und zig Taktgeneratoren, das was gebraucht wird kann auch gleich auf den Sensor mit droff
- billiger
Nachteile:
- stärkeres Rauschen durch mehr analoge Bauelemente (z.B. ein Transistor pro Pixel, mehrere AD-Wandler) => Festmusterrauschen
- Dunkelsignalrauschen ist generell wesentlich temperaturabhängiger aufgrund der vielen integrierten Bauelemente
- Zeilenrauschen nicht so einfach korrigierbar, da mehrere Ausgangsleitungen
- da Pixel zu beliebigen Zeiten ausgelesen werden können, kann es zu Bewegungsunschärfen kommen
Multikanal (Farb-) Sensoren
Was muss man bei der Realisierung von Farbaufnahmesystemen beachten ?
- Farbe ist nur im Zusammenhang mit dem menschlichen Sehsystem definiert
- Linearität zwischen Wellenlängenempfindlichkeit der Kamerasensoren und menschlichen Empfindlichkeiten gewünscht
- verschiedene Farbreize können beim Menschen das gleiche Farbempfinden hervorrufen
- Hellogkeitsinformation wichtiger als Farbinformationen
- unterschiedliche Empfindlichkeiten für unterschiedliche Wellenlängen, gleich helle blaue LED und rote LED werden nicht als gleich hell empfunden
- das alles is auch noch ortabhängig
- Sensoren sind für größere Wellenlängenbereiche als das Auge empfindlich (IR, UV)
- mit drei Farbkanälen können nicht alle Farben dargestellt werden, mehr Kanäle -> höhere Kosten
Geben Sie Möglichkeiten der Aufnahme und Wiedergabe von Farbbildern an!
Kamera:
- Aufnahme mit 3 Sensoren, komplizierte und teure OObjektive nötig, die das Bild positionsgenau in drei Wellenlängenbereiche (R,G,B) aufteilen
- 1 Sensore, verschiedene Farbfilter, zB Rotieren mit Rad
- 1 Sensor mit Pixeln, die empfindlich für verschiedene Wellenlängen sind (Consumer-Technik)
Welche Möglichkeiten zur Erfassung von Farbinformationen ergeben sich, wenn die Aufgabenstellung Verarbeitung der Farbinformation (Informationsextraktion) und nicht Wiedergabe von Farbbildern lautet.
- (1) örtliche Informationen komplett weglassen, dh. nur Spektrum des Bildes aufnehmen
- zum Beispiel um Lacke zu prüfen
- Möglichkeit: mit Prisma Abbildung auf CCD-Zeile, Prisma bricht verschiedene Wellenlängen unterschiedlich stark => Spektrometer / Spektroskopie
- (2) Verzicht auf komplette spektrle Auflösung, nur Teil des Spektrums erfassen (mich interessiert zB nur gelb) => Multikanel Vektor Bilder
- Kombination aus (1) und (2), zB Farbkoordianten
Erläutern Sie die Unterschiede zwischen 1- und 3-Chip-CCD-Farbkameras?
- 3 Farbkanäle: R,G,B
- 3-Chip:
- drei verschiedene CCD-Sensoren mit gleicher Größe benutzen, je einer für R,G und B
- Strahlteilung durch halbdurchässige Spiegel / Prismen
- Genaue Positionierung der CCDs nötig (im µm Bereich), damit örtliche Verteilung erhalten bleibt
- teuer, aber beste Bilder
- 1 Chip SW:
- Filterrad mit versch. Filtern für verschiedene spektrale Empfindlichkeiten
- 1-Chip RGB:
- Gruppen von jeweils 4 Pixeln werden für verschiedene Farbkanäle genutzt: 1 Pixel R, 2 Pixel G, 1 Pixel B
- Filterung mit Farbfiltern
- Verlust von Auflösung
- Möglichkeit der einfachen Berechnung für YCrCb Farbrum bei Interline-Matrizen: Geschicktes "Addieren" der Elektronen in den Schieberegistern, Subtrahieren mit S&H Schaltungen
Kamera
Erläutern Sie, wie die Aufnahme hochaufgelöster Bilder mit Mikro- bzw. Makroscanningkameras erfolgt!
Wodurch wird die reale photometrische Auflösung (Anzahl realistischer Graustufen) von CCD-Sensoren bestimmt?
- Güte des AD_Wandlers
- Dunkelsignal (zu hohes Dunkelrauschen macht hohe Auflösung des AD-Wandlers sinnlos)
Nennen Sie Parameter, die die Abweichung vom idealen Verhalten bei CCD-Matrizen beschreiben!
Was versteht man unter Transferineffektivität? Wie wirkt sie sich aus?
- Beim Schieben der Ladungen werden nicht alle Elektronen bewegt, ein kleiner Teil bleibt "hängen"
- Grund: Abstoßung der Elektronen untereinander
- Daher gehen Informationen über die Leuchtstärke, die auf das entsprechende Pixel wirkte, verloren
Was wird mit dem Begriff Shading bei CCD-Kameras erfasst? Wie kann man die Auswirkungen korrigieren?
- Objektiv leuchtet nicht den gesamten Bereich des Sensors gleich gut aus, vor allem am Rand
- Lösung: bessere bzw. größere Objektive
Was versteht man unter Smear bei Frame-Transfermatrizen ? Welche Möglichkeiten zur Verminderung werden eingesetzt ?
- Ladungen von unten werden nach oben durchgereicht, sie passieren also lichtempfindliche Pixel
- passieren Ladungen aus unbeleuchteten Pixeln beleuchtete Pixel, werden im Zuge der Ladungsverschiebung neue Elektronen generiert
- dunkle Pixel werden von der Auswerte-Logik also heller interpretiert, als sie eigentlich sind
- Gesamtbild sieht dann aus wie verwischt -> smear
Beleuchtung
Nennen Sie einige Anforderungen an Szenenbeleuchtung am Beispiel einer selbst gewählten Bildverarbeitungsaufgabenstellung !
Welche Rolle spielt die spektrale Verteilung der Strahlung bei der Szenenbeleuchtung für Bildverarbeitungssysteme?
- Si ist zB im infrarot-Bereich empfindlich, das menschliche Auge nicht
- beleuchtet man eine Szene, weil man etwas messen will, nimmt der Sensor auch Informationen über IR-Strahlung auf, die man garnicht sehen kann
- Verfälschung der Messung.
- Lösung: Filter
Erläutern Sie die Grundaussage des photometrischen Grundgesetzes!
Welche physikalischen Effekte werden zur Erzeugung von Licht eingesetzt ?
Nennen Sie einige Lampentypen und erläutern Sie die Prinzipien der Lichterzeugung ?
- Wärmestrahlung: Material erwärmen, bis es Strahlung im Wellenlängenbereich von Licht abstrahlt, zB Elektronen durch Wolframdraht drängeln
- kontinuierliches Spektrum
- Entladungslampen: Anregung von Atomen, zB Gasatomen, Elektronen von hohen auf niedrige Energieniveuas fallen zu lassen, dabei Abgabe von Quanten
- diskretes Spektrum, kontinuierlich nur mit Beschichtungen (Anregung von Leuchtstoffen)
- Halbleiter: Rekombination am PN-Übergang, damit wieder die Energieniveaugeschichte
- diskretes Spektrum, kontinuierlich nur mit Beschichtungen (Anregung von Leuchtstoffen)
Nennen Sie Eigenschaften unterschiedlicher Lampentypen !
Was versteht man unter dem Flimmerfaktor von Lampen? Welche Rolle spielt er für CCD-Bildaufnahmesysteme (Zeilen, Matrizen)?
- Lampen werden mit Wechselstrom oder gepulster Gleichspannung betrieben, geben daher nicht kontinuierlich die gleiche Strahlung ab sondern mit bestimmter Frequenz -> Flimmern
- CCD: so kurze Integrationszeiten, dass dieses Flimmern die Bildaufnahme beeinflusst
- Abtastung immer zum gleichen Zeitpunkt: kein Problem
- Abtastung zu verschiedenen Zeitpunkten: Bei einem Bild Lampe hell, beim anderen Lampe gerade dunkel: Müst
Wie kann man eine näherungsweise gleichmäßige Ausleuchtung einer ebenen Fläche erreichen?
Optische Abbildung
Wie wirken sich Modulationstransferfunktion, Verzeichnung, Randabfall von Objektiven auf die resultierenden Eigenschaften eines Bildaufnahmekanals aus!
Nennen Sie Anforderungen aus der Bildverarbeitung, die Einfluss auf die Auswahl von Objektiven haben!
Was versteht man unter telezentrischem Strahlengang? Welche Vorteile bringt er? Wie ist er erreichbar?
- Öffnungsblende im Brennpunkt der Bildseite -> lässt nur Brennpunktstrahlen durch, die auf Objektseite Parallelstrahlen sind
- keine Verzeichnung des Objektes, unabhängig vom Abstand des Objektes zur Linse -> ideal zur Längenmessung
Erläutern Sie das Phänomen des Randabfalls der durch ein Objektiv abgebildeten Strahldichten!
Für welche Abbildungsverhältnisse sind Fotoobjektive prädestiniert? Welche Probleme sind beim Einsatz für die digitale Bildverarbeitung zu beachten?
Bildverarbeitungssysteme
Warum steht bei Bildverarbeitungssystemen die Forderung nach einem eigenständigen Bilddatenbus?
- große Datenmengen, meist streng strukturiert
- hohe Echtzeitanforderungen, daher hohe Übertragungsrate gewünscht
- Möglichkeit der parallelen Verarbeitung
- ein Datum idR klein, 8 Bit zB
Welche Forderungen sind an analoge Bilddatenkanäle (on-chip-Verstärker, ..., Vorverstärker für ADU) zu stellen?
- geringe Temperaturabhängigkeiten
- gutes Rauschverhalten
- hoher Anspruch an Linearität
Was versteht man unter Auflösung und was unter Genauigkeit eines ADU?
Auflösung:
- ja wie viel Bit die Möhre halt hat ;)
Genauigkeit:
- Güte der Diskretisierung des Wertebereichs
- SNR
Welche Forderungen sind an Bilddatenausgabegeräte (Visualisierung über Monitor) zu stellen? Ordnen Sie dabei Unterschiede zwischen interaktiver und automatischer Bildverarbeitung ein!
Welche Architekturmerkmale von µ-Prozessoren sind für die Bilddatenverarbeitung von größerem Interesse?
- viele Register, Cache
- Vektor-Rechenwerke, zB SSE, MMX
- viele Datenwege (Speichercontroller aufm Die, HT-Link usw)
- hohe Flexibilität bezüglich Zusatzhardware (HW für PCI, RAM erweitern usw.)
- breite Verfügbarkeit, Preis (Massenproduktion)
Wodurch sind moderne Bus-Systeme der µ-Rechentechnik gekennzeichnet? Welche Parameter sind für die Bildverarbeitung besonders interessant?
- hoher Datendurchsatz, geringe Zugriffszeiten, Parallelität (Pipelining, SMT)
- Beschkomplexe B
- mehrere Busse parallel, zB bei Speicher: Zugriff auf Speicher (Daten reinfüttern) lähmt CPU nicht
- hohe Datenmengen durch Bilder erzeugt => müssen transportiert werden
Welche Eigenschaften zeichnen µ-Controller gegenüber µ-Prozessoren aus?
µ-Prozessoren:
- ursprünglich für Steuerungsaufgaben entwickelt, daraus entwickelten sich Heimrechner
- daher große Vielfalt an Software und Hardware, auch ausgereift durch viele Beta-Tester
- einfache Mensch-Maschine-Kommunikation
- viele Zusatzbauelemente benötigt (Board, gRaka, taktgeber)
- sehr begrenzte Echtzeitfähigkeiten von Soft- und Hardware
- kurze Lebensdauer / Verfügbarkeit der Bauteile
- Standard-PCs nicht für Industrie-Einsatz geeignet, Industrie PCs laut, teuer, stromhungrig
=> Geeignet für Systeme mit hohem Anteil an Mensch-Maschine-Kommunikation
µ-Controller:
- kleinere Systeme, wichtigste Bauteile auf dem Chip integriert
- Spezialhardware für bestimmte Aufgaben (µC: Steuerung, DSPs: MAC-Befehler) => speziell auf das Problem angepasste HW verfügbar
- costum design möglich
- Echtzeitanforderungen realisierbar
- Parallelität
=> Geeignet für autonome Systeme
Welche Voraussetzungen an die Aufgabenstellungen müssen erfüllt sein, um sie auf parallelen Strukturen abarbeiten zu können? Nennen Sie Beispiel aus der Bildverarbeitung!
- Algorithmen müssen sich parallelisieren lassen, rein sequentielle Abläufe nicht geeignet
SIMD: Parallelität der Daten, Daten lassen sich aufteilen
- Filterstrukturen
- Nachbarschaftssuche
- Bild in mehrere Teile unterteilen und einzeln berechnen
- Ganze Arbeitsabläufe parallelisieren (zB Fehlstücke vom Band schmeißen, System1 untersucht gerade Fehlstücke, System2 ungerade)
MISD:
- Pipelining, dh einen Algorithmus nicht von einem Chip verarbeiten lassen sondern von mehreren Chips
- Einzelne Chips sind Koniferen auf ihrem Gebiet und können die speziellen Aufgabe daher mit Gravur lösen
- Kommunikationsoverhead
MIMD:
- verschiedene Aufgaben mit verschiedenen Daten parallel ausführen
Was sind parallel arbeitende Rechnersysteme? Welche Strukturen sind für Aufgaben der Bildverarbeitung denkbar?
- Parallel arbeitende Rechensysteme sind Rechner, die mehrere Berechnugnsschritte zur gleichen Zeit erledigen können
- Bildverarbeitung: hohe Datenmengen und/oder hohe Echtzeitanforderung, dadurch können schon einfachste Probleme komplex werden
- daher kiwi-Prinzip: kill it with iron, solange Hardware reinschmeißen, bis es funktioniert ;)
- dh: Aufgaben aufteilen auf verschiedene Rechensysteme
Nennen Sie einige vom von-Neumann-Prinzip abweichende Rechnerarchitekturen und erläutern Sie diese Strukturen!
- Harvard: getrennte Speicher für Daten und Programme, zB bei Cache in x86 CPUs
- Filtersturkturen: Multiplizierer an jeder Datenleitung zum beaufschlagen mit Konstanten, dahinter Addierer für alle Datenleitungen -> hochparallel
Zeigen Sie einige Möglichkeiten der Verlagerung von Algorithmen der Bildverarbeitung in Hardware!
- bevorzeugt für Algorithmen, die identisch für das ganze Bild sind
- Punktoperationen (zB Grauwerte verändern) => Look Up Tables (einfach und schnell)
- Einfache Filter können in Hardware gemacht werden, Miltiplikation von Konstanten udn Aufaddierung
- nichlineare Filer in fester Nachbarschaft: Sortieren, Neuordnung etc
- Neuronale Netze mit einfachen Neurocomputern
Welche Möglichkeiten bieten Look-up-table, um Aufgaben der digitalen Bildverarbeitung in Hardware zu lösen?
- Hardware ist nur ein schneller Speicher, der eine einfache funktionale Abbildung realisiert
- x ist Eingang, f(x) ist Ausgang
- Koeffizienten bzw. Funktionswerte sollten sich verändern lassen (programmierbare rEgister)
Skizzieren Sie eine Struktur, die es gestattet, Grauwerthistogramme on-line zu erzeugen!
- Speicher bauen, dessen Adress-Eingang der Grauwert des Pixels ist
- Ausgang des Speichers inkrementiert den Eingang
- ergibt n Zähler, die über Adresse angesprochen werden, Adresse ist der Grauwert
Skizzieren Sie eine Struktur. die es gestattet, ausgehend von einem seriellen digitalen Bilddatenfluß, die Umgebung eines Bildpunktes parallel zur Verfügung zu stellen?
- Sender sendet seriellen Datenstrom und Empfänger soll den in parallelen strom zerlegen
- Sortierung des Bildes nach Zeilen => für jede Zeile steht am Empfänger ein Register zur Verfügung
- Sender und Empfänger müssen beide wissen, wie viele Pixel/Zeile es gibt und wie viel Zeilen, so sind keine Trennzeichen erforderlich
- Empfänger kann seriellen Eingangsdatenstrom nach einer Zeile kappen und für eine neue Zeile einen neuen Ausgangsdatenstrom erzeugen, Zwischenspeicher in rEgistern
Wie könnte die Struktur einer Hardwarebaugruppe aussehen, die es gestattet, Faltungsoperationen on-line durchzuführen?
- zuerst mal heißt das on-the-fly ;)
- Filterstruktur: sum(a*x)
- Pixel trödeln parallel ein => n Datenleitungen für n Pixel
- jedes Pixel mit Konstante aus Register multiplizieren => pro Datenleitung ein Konstantenregister
- Am Ende ein großer Adder, der alle Werte addiert
Klassifizieren Sie Bildverarbeitungssysteme nach Aufgabenstellung und daraus resultierender einzusetzender Rechentechnik!
- PC, Industrie-PC für Anwendungen mit Mensch-Maschine Kommunikation
- µC, DSP für standalone Systeme