Grundlagen der Bildverarbeitung und Mustererkennung: Unterschied zwischen den Versionen
Zur Navigation springen
Zur Suche springen
K |
|||
Zeile 513: | Zeile 513: | ||
= Stochastische Approximation als Lernverfahren für Ebenenklassifikator (Farbpixelklassifikation 40 - 47) = | = Stochastische Approximation als Lernverfahren für Ebenenklassifikator (Farbpixelklassifikation 40 - 47) = | ||
+ | |||
+ | |||
+ | [[Kategorie:Studium]] |
Version vom 9. März 2009, 11:42 Uhr
Folien aus der Vorlesung
<hiddenlogin linktext="Passwort für die Folien">gdlmu</hiddenlogin>
Vorlesung 1 Vorlesung 2 Vorlesung 3 Vorlesung 4 Vorlesung 5 Vorlesung 6 Vorlesung 7 Vorlesung 8 Vorlesung 9 Vorlesung 10 Vorlesung 11 Vorlesung 12 Vorlesung 13 Vorlesung 14 Teil 1 Vorlesung 14 Teil 2 Vorlesung 15
Einführung und Vorbemerkungen (WTE 8 - 24)
Primäre Wahrnehmung (PWa 1 - 22)
- digitale Bildverarbeitung setzt Umsetzung von 2D-Strahlungsverteilungen in elektrische Signale voraus
- bei der Primärwahrnehmung erfolgt bereits beträchtliche Reduzierung der Information
- Beschränkung der örtlichen Auflösung Feinstrukturen nicht mehr sichtbar (PSF,MTF)
- Diskretisierung des Definitionsbereichs Rasterung, Abtastung, Aliasing
- Diskretisierung des Wertevorrats AD-Wandlung, Triggerung, Quantisierung
- Beschränkung des Spektralbereichs
Strahlung, Bestrahlung, Licht, Beleuchtung
Radiometrische Größen
- radiometrische Größen: absolute Bewertung elektromagnetischer Stahlung (strahlungsphysikalisch)
- photometrische Größen: drücken spezifische Einwirkung der Lichtstrahlung auf das menschliche Auge über ein Vergleichsnormal aus
- Umrechnung von radiometrischen in photometrische Größen erfordert Kenntnis der spektralen Zusammensetzung der Strahlung
- Das Auge nimmt Leuchtdichten als photometrisches Äquivalent der Strahldichte war
- Messtechnisch: wellenlängenabhängige Bewertung durch Filter
Raumwinkel:
- Der Raumwinkel einer Fläche ist die Zentralprojektion dieser Fläche auf die um den Beobachtungspunkt gelegte Einheitskugel
- Der Winkel zwischen Geraden und Ebenen ist als Streckenabschnitt auf dem Umfang des Einheitskreises definiert
- Der Raumwinkel wird analog definiert nur das es sich jetzt um einen Flächenauschnitt auf der Einheitskugel handelt
- Der Wertebereich des Raumwinkels liegt zwischen 0 und (gesamte Oberfläche der Einheitskugel)
Strahlungsphysikalische Größen:
- sind vom menschlichen Auge unabhängige physikalische Größen
Zeichen | Beschreibung | Formel | Einheit | |
---|---|---|---|---|
Strahlungsfluss | im Zeitmittel pro Zeiteinheit durch die Fläche hindurchgehende Energie | |||
Strahlungsmenge |
Beschreibung von Strahlungsquellen:
Zeichen | Beschreibung | Formel | Einheit | |
---|---|---|---|---|
Strahlstärke | ist der in ein Raumwinkelelement
einfallende Strahlungsanteil |
|||
Strahldichte | Flächenbezug des Strahlungsanteils
der von einem Punkt ausgeht |
Senkrecht zum Flächenelement:
schräge Blickrichtung:
|
||
Lambert-Strahler | ideal diffus strahlende Fläche |
Bestrahlte Flächen:
Zeichen | Beschreibung | Formel | Einheit | |
---|---|---|---|---|
Bestrahlungsstärke | Radiometrisches
Entfernungsgesetz |
senkrechtes Auftreffen der Strahlung:
schräg auftreffende Strahlung:
|
||
Radiometrisches Grundgesetz | Konkretisierung des
radiometrischen Entfernungsgesetzes |
Photometrische Größen
- unter Berücksichtigung der Menschlichenwahrnehmung bewertete Größen
- Die Umrechnung von radiometrischen Größen in photometrische Größen kann nur monocromatisch erfolgen da jede Wellenlänge mit der Wahrnehmungskurve des Auges gewichtet werden muss
- dazu ist die Kenntnis der Leistungsdichte notwendig
- Kann berechnet werden (bei Temperaturstrahlern nach Planckschem Strahlungsgesetz)
- Muss mit einem geeigneten Sensor erfasst werden
Bildtransformationen, -repräsentationen - Grundlagen (BR 1 - 27)
Bildrepräsentation
- alle Werte eines Signals lassen sich durch Wichtung von orthogonalen Basisvektoren darstellen
- Die für einen Wert notwendigen Gewichte kann man durch Projektion dieses Wertes auf die Basisvektoren ermitteln (inneres Produkt der Vektoren bilden)
- Jedes Bild lässt sich somit aus orthogonalen Basisbildern zusammensetzen
- Die Basisbilder haben die gleichen Abmessungen wie das gewünschte Bild
- Die Fourier Transformation ist lediglich die Umwandlung zwischen zwei verschiedenen Basisbildertypen
- Basisbilder setzen sich aus Sinus und Cosinus Schwingungen zusammen die beliebig orientiert sein können
- Eigenschaften: Mittelwert ist Rotations- und Translationsinvariant, Verschiebungssatz, Faltung ←→ Multiplikation, Drehung ←→ Drehung, Abtastung ←→ Periodifizierung
- Cos bzw Sin Transformation
- Basisbilder setzen sich aus zwei senkrecht aufeinanderstehenden Cos bzw. Sinus Schwingungen zusammen
- Hadamard bzw Haar- Transformation
- Basisbilder setzen sich aus orthogonalen Binärfunktionen zusammen
- Bei der Haar-Transformation werden aufgrund der lokalen Basismuster lokale Strukturen besser abgebildet
Bildpyramiden
- Siehe auch Auflösungsprymiden in RoboVis
- Bilder werden in verschiedenen Auflösungen betrachtet
- Ziele:
- Überwindung der lokalen Sicht der meisten Operatoren
- Anwendung kleiner Operatoren ist wesentlich schneller als große Operatoren
- Abtasttheorem muss beachtet werden → Tiefpassfilterung vor jeder Verkleinerung
- Laplace-Pyramiden können genutzt werden um die Informationsunterschiede zwische den beiden Auflösungen zu speichern um so das Bild aus einer kleineren Auflösung rekonstruieren zu können (Komprimierte Speicherung der Bilder)
- Dafür müssen die Bilder vor der Differenzbildung gleich groß gemacht werden → Interpolation der Fehlenden Pixel notwendig
- Siehe auch Interpolation und Resampling
Primäre Wahrnehmung - Grenzen der örtlichen Auflösung(PWb 1 - 18)
- Begrenzung erfolgt durch
- Beugungserscheinungen an den Blenden
- Abbildungsfehler
- Durch den Sensor (endliche kleine Sensorflächen)
PSF - Point Spread Function
- Punktantwort des Systems
- OTF (Optische Transferfunktion) ist die Fouriertrasnformierte der PSF
- Der Betrag der OTF ist die MTF (Modulationstransferfunktion)
- Die Aufglösungsgrenze ist erreicht wenn die MTF auf 10% das Maximums abgesunken ist
- Die PSF wird mit dem Bild im Ortsbereich gefaltet → Wichtung der Frequenzen im Frequenzbereich → "Modulation"
- Das Auge hat Bandpasscharakter
- zu langsame Änderungen werden nicht wahrgenommen genausowenig wie zu schnelle Änderungen
- Bei gesättigten Farben ist die Empfindluchkeit des Auges schlechter als z.B. bei Grauwerten
Sensorapertur
- Bildsignal ist im eine kontinuierliche zweidimensionale Funktion
- Abtastung des Bildes durch den Sensor mit endlichgroßen Aufnahmeflächen
- Faltung des Bildes mit Sensoraptertur
- anschließende Abtastung an den Pixelmitten
- Das führt zur Wichtung der Frequenzen mit einer si-Funktion (sinc beim Franke !!) und anschließender Periodifizierung des Bildfrequenzspektrums
- bei nicht aussreichender Bandbegrenzung führt das zu Aliasing
- Originalbild kann mit Hilfe der si-Interpolation wiedergewonnen werden (Multiplikation mit einem Rechteck im Frequenzbereich)
Farbe (GF 1 - 69)
Farbmessung (GF_FM 1 - 18)
Farbräume (F_CM 1 - 20)
Kameras (GF_Ka 1 - 12)
Bildvorverarbeitung (GT 1 - 33)
- Bilder sind meist stark gestört
- Mögliche Ursachen für Störungen sind:
- Inhomogene Beleuchtung
- Verunreinigungen in der Kamera (Streulicht und ähnliches)
- Nicht perfekte Optik (Randabfall, Verzerrungen)
- Nichlinearitäten des Bildsensors (Vorallem beim CMOS und Röhren)
- Rauschen der Elektronik
- Einkopplungen
- Ziel der Bildvorverarbeitung ist es:
- Normierung des Graustufen und Bildgeometrie
- Korrektur und Unterdrückung der Störungen
- Extraktion von Merkmalen für die Steuerung/ Parametrisierung von Algorithmen
- Erzielen von Invarianzeingenschaften
Geometrische Bildtransformation
- Ziel ist es das entzerrte Zielbild aus einem verzerrten Quellbild zu erhalten
- Wenn die Verzerrungseigenschaften des Systems bekannt sind kann die Transformation analytisch Beschrieben werden
- Bei unbekannten Verzerrungseingeschaften muss die Transformationsfunktion approximiert werden
- Passiert meist mit polynimialen Ansätzen
- Markieren von Passpunkten für die Approximation
- Vorwärtstransformation
- Das Zielbild wird direkt aus dem Quellbildberechnet in dem jedes Pixel des Quellbildes durchgegangen wird und ins Zielbild übertragen wird
- Problem ist das im Zielbild "Lücken" entstehen können aufgrund von Rundung der transformierten Koordinaten
- Rückwärtstransformation
- Das Zielbild wird aus dem Quellbild berechnet in dem jedes Pixel im Zielbild durchgegangen wird und geschaut wird welcher wert aus dem Quellbild eingetragen werden muss
- Es entstehen keine Lücken mehr im Zielbild
- Die zurücktransformierten Koordinaten müssen nicht genau auf ein Pixel im Quellbild treffen → Interpolation der Pixelwerte notwendig
Interpolationsverfahren zum Resampling
- gegeben ist ein Bild mit diskreten werten an bestimmten stellen
- Gesucht sind nun Werte an beliebigen stellen → als Wiederabtastung oder auch Resampling bezeichnet
- Dabei soll für die Interpolationsfunktion gelten das sollte genau ein Abtastwert getroffen werden so darf nur dieser den Wert des Zielpixels bestimmen
Ideale Interpolationsfunktion
- Wenn das Originalbild hinreichend Bandbegrenzt war läßt sich mit Hilfe von einer Summe si-Funktionen das koninuierliche Originalbild rekonstruieren
- Dazu wird in dem unendlichgroßen Bild auf jedes Pixel eine si-Funktion gesetzt mit dem gewicht des Grauwertes an dieser Stelle
- Multiplikation des Spektrums des Bildes mit einem Rechteck ... Rückgängigmachen der Periodifizierung durch die Abtastung
Nearest Neighbour Resampling
- wähle den nächsten Nachbarn als Funktionswert an dieser Stelle
- Führt zu Artefakten da der Funktionswert schlichtweg falsch ist
Bilineare Interpolation
- lineare Interpolation des Pixelwertes an der geünschten Stelle aus den vier benachbarten Pixeln (Abstand zu den Stützwerten geht mit in die Interpolation ein !!!)
- Immer noch sehr schnell
- besser als Runden aber immer noch Fehlerbehaftet
- Im Frequenzbereich wird das Spektrum des Bildes mit einer si²- Funktion multipliziert
- Verunschärfung von Kanten
- mögliche Aliasing Probleme durch Nebenmaxima
Kubische Interpolation
- Verwenden von 4x4 Pixeln zu Bestimmung des Interpolationspolynoms
- Unstetigkeitstelle nach der ersten Ableitung (Polynom wird für jede 4x4 Region unabhängig berechnet)
Kubische Spline Interpolation
- Bilden der gewichteten Summe aller Interpolationskoeffizienten
- imprinzip ist es eine diskrete Faltung
- Damit muss man nicht unbedingt das Gleichungssystem lösen man kann mit Hilfe der Faltungsinversen (so sie denn existiert) die Koeffizienten berechnen
- Geringe breite
- Stetigkeit
Lineare Bildtransformation
- nichtlineare Bildtransformationen können durch lineare Approximiert werden wenn diese auf kleine Elemente angewendet wird
- mit Hilfe von homogenen Koordinaten lässt sich die Transformation schreiben als Zielkoordinaten = Transformationsmatrix * Quellkoordinaten
- Durch umstellen kann man mit Hilfe von Passpunkten die Transformationsmatrix einfach berechnen
- Lieber mehr Puntke als nötig nehmen (Fehlerquadratmethode zum verbessern verwenden) und darauf achten das die Punkte nicht alle auf einer Gerade liegen
- Nach Fehlerquadratmethode:
- A ... Transformationsmatrix
- P 3xn Matrix für n Passpunkte (Quellkoordinaten)
- P' Zielkoordinaten
Grauwertstatistik (GwSt 1 - 25)
- Wird eingesetzt um
- Bilder zu charakterisiren
- Verarbeitungsalgorithmen zu Steuern
- Pixel zu klassifizieren
- Bildsegmentierung durchzuführen
- Texturen zu charakterisieren
- Beschreibung erfolgt durch
- Mittelwert
- Varianz, Schiefe, Exzess
- Entropie
- statistische Momente
- Wahrscheinlichkeitsdichten
- Farbbilder führen zu Mehrdimensionalenverteilungen
Co-Occurrence-Matrix
- Beschreibung der Häufigkeit des Auftretens von Grauwertpaaren entlang eines Verschiebungsvektors
- Schätzung der Verbundwahrscheinlichkeit
- Bei einem 8-bit Bild ergibt sich eine 256x256 Matrix für eine Verschiebung!! → Es wird meist mit verminderten Farbauflösungen gearbeitet
- ermöglicht aussagen über die Beschaffenheit der zu untersuchenden Textur
- Werte nahe der Hauptdiagonale sprechen ehr für eine Konstrastarme homogene Textur
- Werte an den Randbereichen sprechen ehr für eine konstrastreiche Textur
- Stark Richtungsabhänig da ein Verschiebungsvektor gewählt werden muss
- Invariant in grenzen gegenüber additiven Helligkeitsschwankungen
- Aus der Co-Occurrence-Matrix wurden verschiedene Maße abgeleitet
- Energie
- Entropie
- Kontrast
- inverses Differenzmoment
- Korrelation
Modifizierte Co-Occurrence-Matrix
- Richtungsabhängigkeit wird aufghoben in dem man nun alle Pixel im Abstand d zum Aufpunkt betrachtet
- Es werden nun ähnliche Grauwerte gezählt in dem eine Relation eingeführt wurde (Änderung des Grauwertes im Aufpunkt zum Grauwert in der Nachbarschaft darf einen bestimmten wert nicht überschreiten um gezählt zu werden )
- Additive Helligkeitsüberlagerung verschiebt die Grauwertstatistik lediglich und ändert nicht ihre Form (natürlich nur so lange wie nicht geclipt wird) → geeignetes Merkmal zu Erkennung bestimmter Texturen
Punktoperationen (PO 1 - 22)
- Grauwerte werden nur in Abhängigkeit von anderen Grauwerten und dem Wert selbst geändert
- Abhängigkeit der Pixelposition kann berücksichtigt werden
- Man unterscheidet zwei Arten
- inhomogene Punktoperationen wenn auch die Pixelposition mit eine Rolle spielt (alle gw werden in Abhängigkeit von ihrer Position geändert)
- homogene Punktoperationen wenn die Position nicht mit berücksichtigt wird (alle gw werden gleich geändert)
inhomogene Punktoperationen
Shadingkorrektur
- Ursache für Abschattungen im Bild:
- inhomogene beläuchtung
- Randabfall des Objektivs
- Inhomogenität des Bildsensors (Unterschiedliche Pixelempfindlichkeiten, Transportverluste)
- Korrektur ist notwendig wenn hochpreäziese Bestimmte Strukturorte bestimmt werden sollen (z.b. Kanten müssen sauber erkannt werden)
- Bei radiometrischen Messungen (geht ja nicht an das das die erkannte Farbe am Rand dunkler ist als in der Bildmitte)
- Wenn nachfolgende Algorithmen mit Schwellwerten Arbeiten
- Korrektur erfolgt linear
- Dunkelsignal für jedes Pixel abziehen
- gw mit ein Faktor multiplizieren so das der gewünschte Maximale Grauwert erreicht werden kann
- Bei digitaler Korrektur erhöht sich die Farbauflösung nicht → wenn vorher die werte zwischen 0...128 lagen und dann auf 0..255 aufgezogen werden dann wird nur jede zweite Grauwertstufe mit einem Wert versehen
- Bei analoger Korrektur kann die Farbauflösung erhöht werden .... ist aber wesentlich aufwendiger
homogene Punktoperationen
- Ziele:
- Linearisierung bzw Formung der Kennline des Systems
- Anpassung an unterschiedliche Beleuchtungen und Kontrastverhältnisse
Polygonal Image Scaling
- als Übertragungsfunktion wird ein Polygonzug benutzt
- Kennlinie kann aus der Sensorkennline gewonnen werden wenn z.b. eine Linearisierung vorgenommen werden soll
- Oder kann per Hand festgelegt werden → z.B. zur Kontrastverbesserung
- LUT - werden eingesetzt um schnell die neuen Grauwerte zuweisen zu können
- Polygonzug kann aus den Statistischen Momenten konstruiert werden so das eine automatischer Histogrammausgleich erfolgen kann → Contrast Stratching
- Funktioniert nur wenn das Histogramm eine geeignete Verteilung aufweist
Histogrammausgleich
- Die Anzahl der Pixel in einem Bild ist konstant
- Wenn die Transferfunktion zwischen Grauwerten bekannt ist kann das neue Histogramm aus dem alten direkt berechnet werden
- Anzahl der Pixel unter der Kurve ist konstant
- ... Die Transferfunktion
- ... Ableitung der Transferfunktion
- ... Umkehrfunktion der Transferunktion
- ... Ausgangshistorgamm
- ... Zielhistogramm
- Damit läßt sich aber auch die Transferfunktion berechnen die Notwendig ist um eine bestimmte Histogrammform zu erreichen
Entropiemaximierung
- automatische, nichtlineare Grauwertransformation
- Zielhistogramm ist im mittel eine Gleichverteilung
- Nun lässt sich die Transferfunktion berechnen und ergibt sich zu
-
- .... gewünschte Anzahl der Graustufen im Zielhistogramm
- .... Wahrscheinlichkeit für das Auftreten des Grauwertes im Quellbild (Kommt aus dem Quellhistogramm Wert/Pixelzahl)
-
Lokale Operatoren zur Bildverbesserung (LOa 1 - 44)
- globale Operatoren
- alle Bildpunkte fließen in die Berechnung jedes Bildpunktes des Zielbildes mit ein
- bekanntes Beispiel ist die Fouriertransformation
- lokale Operatoren
- nur eine beschränkte Umgebung um den Aufpunkt fließt in die Berechnung des Zielpixels ein
- akausal sowohl vorrausgehende als auch Nachfolgende Pixel werden mit berücksichtigt
- kausal nur vorrausfolgende Pixel werden berücksichtigt (meist unsymetrische Filtermasken, ist ehr die Ausnahme)
- nur eine beschränkte Umgebung um den Aufpunkt fließt in die Berechnung des Zielpixels ein
Tiefpassfilter
- die wesentlichen Bildinhalte liegen meist in den mittleren und niedrigen Frequenzen
- hohe Frequenzen beinhalten oft die Hauptteile des Bildrauschens
- Filter müssen mittelwerterhaltend sein → Summe aller Gewichte muss 1 ergeben
- Filter dürfen die Objektpositionen nicht verändern → Phasenverschiebung =0 → nur symetrische Filter
Spalttiefpass
- aka Boxoperator
- einfachste Form zur Dämpfung von Rauscheinflüssen
- Mittelwertbildung im Ortsbereich
- nicht Monoton abklingend im Frequnzbereich (schwingt wieder auf)
Dreieckfilter
- Gewichte sind Dreiecksförmig verteilt 1/16 ([1 2 1]^T * [1 2 1])
- im Vergleich zum Spalttiefpass
- besitzt geringeres Aufschwingen
- größere obere Grenzfrequenz
- geringere Anisotropoe
Binomialfilter
- binomiale Wichtung reduziert die Nachteile von Box- und Dreiecksfilter
- Filterkoeffizienten kommen aus dem Pascalschen Dreieck
- bsp 5x5 1/256([1 4 6 4 1]^T * [1 4 6 4 1])
- im Vergleich
- Das Überschwingen verschwindet bei großen Fenstergrößen
- isotropes Verhalten
- noch höhere Grenzfrequenz als der Dreiecksfilter
- Binomialfilter entstehen auch duche die Kaskadierung von Boxfiltern
- Interressant für die Effiziente Implementierung wenn Zwischenergebnisse genutzt werden können
- Parallelisierbarkeit
- effektive Filterbreite kann erhöht werden in dem man Zeropadding (einfügen von Nullen) durchführt
- Der Nachteil ist das unerwünschte Frequenzen nun voll übertragen werden
- Lösung ist das Kaskadieren verschiedener Filter
- somit kann eine sehr kleine Grenzfrequenz erreicht werden ohne das es zu störenden Nebenmaxima kommt
effektive Filterbreite
- um Filter mit einander zu vergleichen muss ein Vergleichmaß gefunden werden
- Aufsummieren der Quadratischen Abstände der Gewichte von der Filtermitte gewichtet mit eben diesen Gewichten ergibt die Varianz als effektive Filterbreite
- Filter können so mit dem entsprechenden Boxfilter verglichen werden
Nichtlineare Filter
- notwendig wenn einzelne Pixel keine relevanten Informationen mehr Tragen (defekt Pixel z.B.)
- Mittelung würde den Fehler nur verschmieren
- Zweites Anwendungsgebiet ist das unterdrücken von Gaußschem Rauschen ohne das dabei Kanten verschmiert werden
Medianoperator
- Berechnung erfolgt NICHT durch Faltung
- Günstig ist die Ermittlung des Medianwertes aus dem Histogram des Bildfensters
- Medianfilter unterdrückt auch bei kleinen Koppelweiten effektiv Impulsrauschen und vermeidet nahezu Verunschärfungen im Bild
- Filter funktioniert nicht für Gaußches Rauschen !!!
gewichtete Mittelwertbildung
- es soll nur dann gefiltert werden wenn keine Kante im Filterfenster vermutet wird → Erhaltung der Kanten und trozdem Rauschunterdrückung
- Kann z.B. erreicht werden in dem man sagt das die mittlere Abweichung im Fenster eine bestimmte Schwelle nicht überschreiten darf sonst wird der filter halt einfach nicht angewendet
- Das Ganze kann mit verschiedenen Wichtungen der Nachbarpixel passieren
- Man unterscheidet ausserdem das harte Entscheidungskriterium bei dem es nur Filtern und nicht Filtern gibt und das weiche Entscheidungskriterium bei dem es auch ein bischen Filtern gibt
- Es besteht die Möglichkeit das ganze Gradienteninvers zu machen
- Die Idee ist hier das Kanten einen hohen Gradienten im Bildfenster erzeugen
- wenn also kein hoher Gradient vorliegt dann ist vermutlich keine Kante im Fenster
- Eine weitere Möglichkeit ist das Filtern von der Varianz im Bildfensterabhängig zu machen
- kleine Varianz heiß keine Kante
- hohe Varianz vermutlich eine Kante
Kombination von Average und Medianfilterung
- Ziel ist es beide Filter geeignet zu Kombinieren damit man die Vorteile beider Filter nutzen kann
- Extended Median Filter
- average Filter immer dann wenn die Abweichung des Resultierenden Grauwertes von Originalwert kleiner ist als die des Medianfilters
- Medianfilter immer dann wenn nicht der average Filter genommen wird
- α - trimmed Median filter
- Mittlung der Funktionswerte die in einer α-Umgebung um den Median liegen (nach dem Sortieren der Funktionswerte)
Effiziente Implementierung von lokalen Operatoren (EI 1 - 12)
Dekomposition von Faltungsoperatoren
- statt eines großen Operators wird dessen Koppelweite erreicht in dem man n Päße mit mehreren kleinen Operatoren ausführt
- damit lässt sich der Rechenaufwand auf etwa 50% senken
- nicht alle Operatoren lassen sich dekomponieren
- eine Dekomposition ist immer dann möglich wenn die Matrix linear Abhängige Zeilen und Spalten enthält also nicht den vollen Rang besitzt
- Je nach Größe der dekomponierten Matrizen müssen mehr oder weniger Zeilen linear Abhänig sein
- Bei einer 5x5 Matrix muss der Rang <=3 sein damit sie sich in zwei 3x3 Matrizen zerlegen lässt
Separierung von Fensteroperatoren
- Zerlegung eines 2D-Filters in 2 Pässe mit einem 1D-Operator (eine 1xn und einen nx1 Operator)
- Erhebliche Reduzierung des Rechenaufwandes (bei einem 7x7 Filter sinkt er auf 30%)
Updating
- Wiederverwendung von Zwischenergebnissen aus benachbarten Operatoren
- Erforder gegebenenfalls "kreatives" Verschieben des Operators (Zeilenweise, Meanderförmig, Hilbertkurve)
- Bei Boxfilter z.B. brauchen nur die neuen Pixel hinzugenommen werden und die alten abgezogen werden
- Unter Verwendung von Separierbarkeiten kann der Rechenaufwand darmatisch gesengt werden
- Boxoperator z.B. brauch nur 4 Operationen pro Pixel unabhängig von der Größe (wenn man jetzt mal den Anfang und die Ränder Vernachläßigt)
Beispiel zu Median und Mean bei Gaußschem Rauschen (LOa 45 - 54)
- Siehe Nichtlineare Filter
Diffusionsfilter (DiFi 1 - 10)
- Ist die Anlehnung an den Physikalischen Diffusionsprozess
- Es werden drei Diffusionsmodelle unterschieden
- Isotrope homogene Diffusion (einfach alles gleichmäßig wegdiffundieren)
- Isotrope inhomogene Diffusion (Stärke der Diffusion wird durch das vorhandensein einer Kante beeinflusst)
- Anisotrope Diffusion (Diffusion erfolgt nur noch parallel zu Kanten)
Mathematik des Diffusionsfilters
- Die Divergenz (kurz DIV gibt) gibt an wieviel in ein Volumen einströhmt oder ausströmt
- ein skalarer Wert
- in kartesischen Koordniaten ist div (W) = Summe der partiellen Ableitungen von W nach seinen Komponenten
- Die Änderung der Konzentration erfolgt entgegengesetzt zu divergenz des Konzentrationsflusses
- Und der aktuelle Fluss ist wiederum natürlich von der aktuellen Konzentration abhängig
- Mit Hilfe der Matrix D kann nun das gewünschte Diffusionsverhalten eingestellt werden
- Mit dieser Matrix gibt man an wie sich ein Gradient in X bzw Y Richtung auf den Fluss auswirken soll
- Eine Taylorreihenentwicklung kann genutzt werden um eine iterative Berechnungsvorschrift für die neue Konzentration aus der alten Konzentration zu erhalten
isotrop homogener Filter
- Beim isotrop homogener Filter muss die Filterung richtungsunabhänig und Gradientenunabhängig erfoglen
- D wird also wie folgt eingestellt
- es wurde analytisch nachgewiesen das eine solche Einstellung nichts anderes bewirkt als mit einem Gaustiefpass zu Falten
isotrope inhomogene Filterung
- Beim isotrop inhomogenen Filterung muss die Filterung richtungsunabhänig aber in Abhängigkeit der Gradienten erfoglen
- D wird also wie folgt eingestellt
- für das variable kann man sich dann tolle dinge einfallen lassen z.B.
-
- Steuert dabei wie stark die Diffusion an Grandienten zurückgeht</math>
- Der Filter ist mit den streunungsinversen bzw. Gradientenabhänigen Filtern vergleichbar und hat keine neuen tollen Eigenschaften
anisotrope inhomogene Filter
- Die Filterung erfolgt nun abhängig vom Gradienten nur in bestimmte Richtungen
- D ist nun voll besetzt und wird wie folgt Konstruiert
- Die Eigenvektoren und geben dabei die Richtung der Diffusion vor und mit den Eigenwerten und kann die Stärke der Diffusion in diese Richtung eingestellt werden
- Um nur Diffusion parallel zu den Kanten zu haben wählt man einen Eigenvektor in Richtung des Gradienten und den anderen senkrecht dazu
- Bei dem Eigenvektor senkrecht zum Gradienten stellt man den zugehörigen Eigenwert auf eine Konstante größe z.B. 1
- Der Eigenwert in Richtung des Gradienten hingegen wird mit der wie beim isotropen inhomogenen Filter invers zum Gradienten eingestellt
- Dieser Filter ermöglicht eine gute Rauschunterdrückung auch in Kantennähe und besitzt trozdem eine sehr gute Kantenerhaltung
Bildrestauration (BR 1 - 4)
- Ziel ist es bekannte deterministische Störungen rückgängig zu machen
- So z.B. die verschmierende Wirkung der PSF
- Dazu muss diese ersteinmal ermittelt werden
- Idee: Anwendung der Inversen der störenden Funktion
- im Frequenzbereich braucht man nur durch die Funktion zu teilen (theoretisch ;))
- Problematisch sind Nullstellen und Werte nahe 0 der Inversen Funktion ... hier sind alle Informationen futsch und ein dividieren durch 0 macht alles nur schlimmer nicht besser
- Eine mögliche Lösung ist einfach das weglassen der entsprechenden Frequenzen in dem die Korrekturfunktioin einen mindestwert überschreiten muss bevor man Anfängt die stelle zu Korregieren
- Ein weiteres Problem ergibt sich wenn man nun noch additives Rauschen annimmt
- Diesees wird vorallem bei hohen Frequenzen stark verstärkt und macht das Ergebnis damit unbrauchbar
- Das Wiener Filter versucht diese Probleme zu Berücksichtigen und zu minimieren in dem es ein Rauschmodell annimmt