Grundlagen der Bildverarbeitung und Mustererkennung: Unterschied zwischen den Versionen

Aus II-Wiki
Wechseln zu: Navigation, Suche
(Lokale Operatoren zur Bildverbesserung (LOa 1 - 44))
(Effiziente Implementierung von lokalen Operatoren (EI 1 - 12))
Zeile 397: Zeile 397:
  
 
= Effiziente Implementierung von lokalen Operatoren (EI 1 - 12) =
 
= Effiziente Implementierung von lokalen Operatoren (EI 1 - 12) =
 +
== Dekomposition von Faltungsoperatoren ==
 +
* statt eines großen Operators wird dessen Koppelweite erreicht in dem man n Päße mit mehreren kleinen Operatoren ausführt
 +
* damit lässt sich der Rechenaufwand auf etwa 50% senken
 +
* nicht alle Operatoren lassen sich dekomponieren
 +
** eine Dekomposition ist immer dann möglich wenn die Matrix linear Abhängige Zeilen und Spalten enthält also nicht den vollen Rang besitzt
 +
** Je nach Größe der dekomponierten Matrizen müssen mehr oder weniger Zeilen linear Abhänig sein
 +
** Bei einer 5x5 Matrix muss der Rang <=3 sein damit sie sich in zwei 3x3 Matrizen zerlegen lässt
 +
 +
== Separierung von Fensteroperatoren ==
 +
* Zerlegung eines 2D-Filters in 2 Pässe mit einem 1D-Operator (eine 1xn und einen nx1 Operator)
 +
* Erhebliche Reduzierung des Rechenaufwandes (bei einem 7x7 Filter sinkt er auf 30%)
 +
 +
== Updating ==
 +
* Wiederverwendung von Zwischenergebnissen aus benachbarten Operatoren
 +
* Erforder gegebenenfalls "kreatives" Verschieben des Operators (Zeilenweise, Meanderförmig, Hilbertkurve)
 +
* Bei Boxfilter z.B. brauchen nur die neuen Pixel hinzugenommen werden und die alten abgezogen werden
 +
* Unter Verwendung von Separierbarkeiten kann der Rechenaufwand darmatisch gesengt werden
 +
* Boxoperator z.B. brauch nur 4 Operationen pro Pixel unabhängig von der Größe (wenn man jetzt mal den Anfang und die Ränder Vernachläßigt)
  
 
= Beispiel zu Median und Mean bei Gaußschem Rauschen (LOa 45 - 54) =
 
= Beispiel zu Median und Mean bei Gaußschem Rauschen (LOa 45 - 54) =

Version vom 8. März 2009, 17:15 Uhr

Inhaltsverzeichnis

Folien aus der Vorlesung

<hiddenlogin linktext="Passwort für die Folien">gdlmu</hiddenlogin>

Vorlesung 1 Vorlesung 2 Vorlesung 3 Vorlesung 4 Vorlesung 5 Vorlesung 6 Vorlesung 7 Vorlesung 8 Vorlesung 9 Vorlesung 10 Vorlesung 11 Vorlesung 12 Vorlesung 13 Vorlesung 14 Teil 1 Vorlesung 14 Teil 2 Vorlesung 15

Einführung und Vorbemerkungen (WTE 8 - 24)

Primäre Wahrnehmung (PWa 1 - 22)

  • digitale Bildverarbeitung setzt Umsetzung von 2D-Strahlungsverteilungen in elektrische Signale voraus
  • bei der Primärwahrnehmung erfolgt bereits beträchtliche Reduzierung der Information
    • Beschränkung der örtlichen Auflösung Feinstrukturen nicht mehr sichtbar (PSF,MTF)
    • Diskretisierung des Definitionsbereichs Rasterung, Abtastung, Aliasing
    • Diskretisierung des Wertevorrats AD-Wandlung, Triggerung, Quantisierung
    • Beschränkung des Spektralbereichs

Strahlung, Bestrahlung, Licht, Beleuchtung

Radiometrische Größen

  • radiometrische Größen: absolute Bewertung elektromagnetischer Stahlung (strahlungsphysikalisch)
  • photometrische Größen: drücken spezifische Einwirkung der Lichtstrahlung auf das menschliche Auge über ein Vergleichsnormal aus
  • Umrechnung von radiometrischen in photometrische Größen erfordert Kenntnis der spektralen Zusammensetzung der Strahlung
  • Das Auge nimmt Leuchtdichten als photometrisches Äquivalent der Strahldichte war
  • Messtechnisch: wellenlängenabhängige Bewertung durch Filter

Raumwinkel:

  • Der Raumwinkel einer Fläche ist die Zentralprojektion dieser Fläche auf die um den Beobachtungspunkt gelegte Einheitskugel
  • Der Winkel zwischen Geraden und Ebenen ist als Streckenabschnitt auf dem Umfang des Einheitskreises definiert
  • Der Raumwinkel wird analog definiert nur das es sich jetzt um einen Flächenauschnitt auf der Einheitskugel handelt
  • Der Wertebereich des Raumwinkels liegt zwischen 0 und (gesamte Oberfläche der Einheitskugel)

Strahlungsphysikalische Größen:

  • sind vom menschlichen Auge unabhängige physikalische Größen
Zeichen Beschreibung Formel Einheit
Strahlungsfluss im Zeitmittel pro Zeiteinheit durch die Fläche hindurchgehende Energie
Strahlungsmenge

Beschreibung von Strahlungsquellen:

Zeichen Beschreibung Formel Einheit
Strahlstärke ist der in ein Raumwinkelelement

einfallende Strahlungsanteil

Strahldichte Flächenbezug des Strahlungsanteils

der von einem Punkt ausgeht

Senkrecht zum Flächenelement:

schräge Blickrichtung:

Lambert-Strahler ideal diffus strahlende Fläche

Bestrahlte Flächen:

Zeichen Beschreibung Formel Einheit
Bestrahlungsstärke Radiometrisches

Entfernungsgesetz

senkrechtes Auftreffen der Strahlung:

schräg auftreffende Strahlung:

Radiometrisches Grundgesetz Konkretisierung des

radiometrischen

Entfernungsgesetzes

Photometrische Größen

  • unter Berücksichtigung der Menschlichenwahrnehmung bewertete Größen
  • Die Umrechnung von radiometrischen Größen in photometrische Größen kann nur monocromatisch erfolgen da jede Wellenlänge mit der Wahrnehmungskurve des Auges gewichtet werden muss
  • dazu ist die Kenntnis der Leistungsdichte notwendig
    • Kann berechnet werden (bei Temperaturstrahlern nach Planckschem Strahlungsgesetz)
    • Muss mit einem geeigneten Sensor erfasst werden

Bildtransformationen, -repräsentationen - Grundlagen (BR 1 - 27)

Bildrepräsentation

  • alle Werte eines Signals lassen sich durch Wichtung von orthogonalen Basisvektoren darstellen
    • Die für einen Wert notwendigen Gewichte kann man durch Projektion dieses Wertes auf die Basisvektoren ermitteln (inneres Produkt der Vektoren bilden)
  • Jedes Bild lässt sich somit aus orthogonalen Basisbildern zusammensetzen
    • Die Basisbilder haben die gleichen Abmessungen wie das gewünschte Bild
    • Die Fourier Transformation ist lediglich die Umwandlung zwischen zwei verschiedenen Basisbildertypen
      • Basisbilder setzen sich aus Sinus und Cosinus Schwingungen zusammen die beliebig orientiert sein können
      • Eigenschaften: Mittelwert ist Rotations- und Translationsinvariant, Verschiebungssatz, Faltung ←→ Multiplikation, Drehung ←→ Drehung, Abtastung ←→ Periodifizierung
    • Cos bzw Sin Transformation
      • Basisbilder setzen sich aus zwei senkrecht aufeinanderstehenden Cos bzw. Sinus Schwingungen zusammen
    • Hadamard bzw Haar- Transformation
      • Basisbilder setzen sich aus orthogonalen Binärfunktionen zusammen
      • Bei der Haar-Transformation werden aufgrund der lokalen Basismuster lokale Strukturen besser abgebildet

Bildpyramiden

  • Siehe auch Auflösungsprymiden in RoboVis
  • Bilder werden in verschiedenen Auflösungen betrachtet
  • Ziele:
    • Überwindung der lokalen Sicht der meisten Operatoren
    • Anwendung kleiner Operatoren ist wesentlich schneller als große Operatoren
  • Abtasttheorem muss beachtet werden → Tiefpassfilterung vor jeder Verkleinerung
  • Laplace-Pyramiden können genutzt werden um die Informationsunterschiede zwische den beiden Auflösungen zu speichern um so das Bild aus einer kleineren Auflösung rekonstruieren zu können (Komprimierte Speicherung der Bilder)
    • Dafür müssen die Bilder vor der Differenzbildung gleich groß gemacht werden → Interpolation der Fehlenden Pixel notwendig
    • Siehe auch Interpolation und Resampling

Primäre Wahrnehmung - Grenzen der örtlichen Auflösung(PWb 1 - 18)

  • Begrenzung erfolgt durch
    • Beugungserscheinungen an den Blenden
    • Abbildungsfehler
    • Durch den Sensor (endliche kleine Sensorflächen)

PSF - Point Spread Function

  • Punktantwort des Systems
  • OTF (Optische Transferfunktion) ist die Fouriertrasnformierte der PSF
  • Der Betrag der OTF ist die MTF (Modulationstransferfunktion)
  • Die Aufglösungsgrenze ist erreicht wenn die MTF auf 10% das Maximums abgesunken ist
  • Die PSF wird mit dem Bild im Ortsbereich gefaltet → Wichtung der Frequenzen im Frequenzbereich → "Modulation"
  • Das Auge hat Bandpasscharakter
    • zu langsame Änderungen werden nicht wahrgenommen genausowenig wie zu schnelle Änderungen
    • Bei gesättigten Farben ist die Empfindluchkeit des Auges schlechter als z.B. bei Grauwerten

Sensorapertur

  • Bildsignal ist im eine kontinuierliche zweidimensionale Funktion
  • Abtastung des Bildes durch den Sensor mit endlichgroßen Aufnahmeflächen
    • Faltung des Bildes mit Sensoraptertur
    • anschließende Abtastung an den Pixelmitten
  • Das führt zur Wichtung der Frequenzen mit einer si-Funktion (sinc beim Franke !!) und anschließender Periodifizierung des Bildfrequenzspektrums
    • bei nicht aussreichender Bandbegrenzung führt das zu Aliasing
    • Originalbild kann mit Hilfe der si-Interpolation wiedergewonnen werden (Multiplikation mit einem Rechteck im Frequenzbereich)

Farbe (GF 1 - 69)

Farbmessung (GF_FM 1 - 18)

Farbräume (F_CM 1 - 20)

Kameras (GF_Ka 1 - 12)

Bildvorverarbeitung (GT 1 - 33)

  • Bilder sind meist stark gestört
  • Mögliche Ursachen für Störungen sind:
    • Inhomogene Beleuchtung
    • Verunreinigungen in der Kamera (Streulicht und ähnliches)
    • Nicht perfekte Optik (Randabfall, Verzerrungen)
    • Nichlinearitäten des Bildsensors (Vorallem beim CMOS und Röhren)
    • Rauschen der Elektronik
    • Einkopplungen
  • Ziel der Bildvorverarbeitung ist es:
    • Normierung des Graustufen und Bildgeometrie
    • Korrektur und Unterdrückung der Störungen
    • Extraktion von Merkmalen für die Steuerung/ Parametrisierung von Algorithmen
    • Erzielen von Invarianzeingenschaften

Geometrische Bildtransformation

  • Ziel ist es das entzerrte Zielbild aus einem verzerrten Quellbild zu erhalten
  • Wenn die Verzerrungseigenschaften des Systems bekannt sind kann die Transformation analytisch Beschrieben werden
  • Bei unbekannten Verzerrungseingeschaften muss die Transformationsfunktion approximiert werden
    • Passiert meist mit polynimialen Ansätzen
    • Markieren von Passpunkten für die Approximation
  • Vorwärtstransformation
    • Das Zielbild wird direkt aus dem Quellbildberechnet in dem jedes Pixel des Quellbildes durchgegangen wird und ins Zielbild übertragen wird
    • Problem ist das im Zielbild "Lücken" entstehen können aufgrund von Rundung der transformierten Koordinaten
  • Rückwärtstransformation
    • Das Zielbild wird aus dem Quellbild berechnet in dem jedes Pixel im Zielbild durchgegangen wird und geschaut wird welcher wert aus dem Quellbild eingetragen werden muss
    • Es entstehen keine Lücken mehr im Zielbild
    • Die zurücktransformierten Koordinaten müssen nicht genau auf ein Pixel im Quellbild treffen → Interpolation der Pixelwerte notwendig

Interpolationsverfahren zum Resampling

  • gegeben ist ein Bild mit diskreten werten an bestimmten stellen
  • Gesucht sind nun Werte an beliebigen stellen → als Wiederabtastung oder auch Resampling bezeichnet
  • Dabei soll für die Interpolationsfunktion gelten das sollte genau ein Abtastwert getroffen werden so darf nur dieser den Wert des Zielpixels bestimmen

Ideale Interpolationsfunktion

  • Wenn das Originalbild hinreichend Bandbegrenzt war läßt sich mit Hilfe von einer Summe si-Funktionen das koninuierliche Originalbild rekonstruieren
  • Dazu wird in dem unendlichgroßen Bild auf jedes Pixel eine si-Funktion gesetzt mit dem gewicht des Grauwertes an dieser Stelle
  • Multiplikation des Spektrums des Bildes mit einem Rechteck ... Rückgängigmachen der Periodifizierung durch die Abtastung

Nearest Neighbour Resampling

  • wähle den nächsten Nachbarn als Funktionswert an dieser Stelle
  • Führt zu Artefakten da der Funktionswert schlichtweg falsch ist

Bilineare Interpolation

  • lineare Interpolation des Pixelwertes an der geünschten Stelle aus den vier benachbarten Pixeln (Abstand zu den Stützwerten geht mit in die Interpolation ein !!!)
  • Immer noch sehr schnell
  • besser als Runden aber immer noch Fehlerbehaftet
  • Im Frequenzbereich wird das Spektrum des Bildes mit einer si²- Funktion multipliziert
    • Verunschärfung von Kanten
    • mögliche Aliasing Probleme durch Nebenmaxima

Kubische Interpolation

  • Verwenden von 4x4 Pixeln zu Bestimmung des Interpolationspolynoms
  • Unstetigkeitstelle nach der ersten Ableitung (Polynom wird für jede 4x4 Region unabhängig berechnet)

Kubische Spline Interpolation

  • Bilden der gewichteten Summe aller Interpolationskoeffizienten
    • imprinzip ist es eine diskrete Faltung
    • Damit muss man nicht unbedingt das Gleichungssystem lösen man kann mit Hilfe der Faltungsinversen (so sie denn existiert) die Koeffizienten berechnen
  • Geringe breite
  • Stetigkeit

Lineare Bildtransformation

  • nichtlineare Bildtransformationen können durch lineare Approximiert werden wenn diese auf kleine Elemente angewendet wird
  • mit Hilfe von homogenen Koordinaten lässt sich die Transformation schreiben als Zielkoordinaten = Transformationsmatrix * Quellkoordinaten
  • Durch umstellen kann man mit Hilfe von Passpunkten die Transformationsmatrix einfach berechnen
    • Lieber mehr Puntke als nötig nehmen (Fehlerquadratmethode zum verbessern verwenden) und darauf achten das die Punkte nicht alle auf einer Gerade liegen
  • Nach Fehlerquadratmethode:
    • A ... Transformationsmatrix
    • P 3xn Matrix für n Passpunkte (Quellkoordinaten)
    • P' Zielkoordinaten

Grauwertstatistik (GwSt 1 - 25)

  • Wird eingesetzt um
    • Bilder zu charakterisiren
    • Verarbeitungsalgorithmen zu Steuern
    • Pixel zu klassifizieren
    • Bildsegmentierung durchzuführen
    • Texturen zu charakterisieren
  • Beschreibung erfolgt durch
    • Mittelwert
    • Varianz, Schiefe, Exzess
    • Entropie
    • statistische Momente
    • Wahrscheinlichkeitsdichten
  • Farbbilder führen zu Mehrdimensionalenverteilungen

Co-Occurrence-Matrix

  • Beschreibung der Häufigkeit des Auftretens von Grauwertpaaren entlang eines Verschiebungsvektors
    • Schätzung der Verbundwahrscheinlichkeit
    • Bei einem 8-bit Bild ergibt sich eine 256x256 Matrix für eine Verschiebung!! → Es wird meist mit verminderten Farbauflösungen gearbeitet
  • ermöglicht aussagen über die Beschaffenheit der zu untersuchenden Textur
    • Werte nahe der Hauptdiagonale sprechen ehr für eine Konstrastarme homogene Textur
    • Werte an den Randbereichen sprechen ehr für eine konstrastreiche Textur
  • Stark Richtungsabhänig da ein Verschiebungsvektor gewählt werden muss
  • Invariant in grenzen gegenüber additiven Helligkeitsschwankungen
  • Aus der Co-Occurrence-Matrix wurden verschiedene Maße abgeleitet
    • Energie
    • Entropie
    • Kontrast
    • inverses Differenzmoment
    • Korrelation

Modifizierte Co-Occurrence-Matrix

  • Richtungsabhängigkeit wird aufghoben in dem man nun alle Pixel im Abstand d zum Aufpunkt betrachtet
  • Es werden nun ähnliche Grauwerte gezählt in dem eine Relation eingeführt wurde (Änderung des Grauwertes im Aufpunkt zum Grauwert in der Nachbarschaft darf einen bestimmten wert nicht überschreiten um gezählt zu werden )
  • Additive Helligkeitsüberlagerung verschiebt die Grauwertstatistik lediglich und ändert nicht ihre Form (natürlich nur so lange wie nicht geclipt wird) → geeignetes Merkmal zu Erkennung bestimmter Texturen

Punktoperationen (PO 1 - 22)

  • Grauwerte werden nur in Abhängigkeit von anderen Grauwerten und dem Wert selbst geändert
    • Abhängigkeit der Pixelposition kann berücksichtigt werden
  • Man unterscheidet zwei Arten
    • inhomogene Punktoperationen wenn auch die Pixelposition mit eine Rolle spielt (alle gw werden in Abhängigkeit von ihrer Position geändert)
    • homogene Punktoperationen wenn die Position nicht mit berücksichtigt wird (alle gw werden gleich geändert)

inhomogene Punktoperationen

Shadingkorrektur

  • Ursache für Abschattungen im Bild:
    • inhomogene beläuchtung
    • Randabfall des Objektivs
    • Inhomogenität des Bildsensors (Unterschiedliche Pixelempfindlichkeiten, Transportverluste)
  • Korrektur ist notwendig wenn hochpreäziese Bestimmte Strukturorte bestimmt werden sollen (z.b. Kanten müssen sauber erkannt werden)
    • Bei radiometrischen Messungen (geht ja nicht an das das die erkannte Farbe am Rand dunkler ist als in der Bildmitte)
    • Wenn nachfolgende Algorithmen mit Schwellwerten Arbeiten
  • Korrektur erfolgt linear
    • Dunkelsignal für jedes Pixel abziehen
    • gw mit ein Faktor multiplizieren so das der gewünschte Maximale Grauwert erreicht werden kann
    • Bei digitaler Korrektur erhöht sich die Farbauflösung nicht → wenn vorher die werte zwischen 0...128 lagen und dann auf 0..255 aufgezogen werden dann wird nur jede zweite Grauwertstufe mit einem Wert versehen
    • Bei analoger Korrektur kann die Farbauflösung erhöht werden .... ist aber wesentlich aufwendiger

homogene Punktoperationen

  • Ziele:
    • Linearisierung bzw Formung der Kennline des Systems
    • Anpassung an unterschiedliche Beleuchtungen und Kontrastverhältnisse

Polygonal Image Scaling

  • als Übertragungsfunktion wird ein Polygonzug benutzt
  • Kennlinie kann aus der Sensorkennline gewonnen werden wenn z.b. eine Linearisierung vorgenommen werden soll
  • Oder kann per Hand festgelegt werden → z.B. zur Kontrastverbesserung
  • LUT - werden eingesetzt um schnell die neuen Grauwerte zuweisen zu können
  • Polygonzug kann aus den Statistischen Momenten konstruiert werden so das eine automatischer Histogrammausgleich erfolgen kann → Contrast Stratching
    • Funktioniert nur wenn das Histogramm eine geeignete Verteilung aufweist

Histogrammausgleich

  • Die Anzahl der Pixel in einem Bild ist konstant
  • Wenn die Transferfunktion zwischen Grauwerten bekannt ist kann das neue Histogramm aus dem alten direkt berechnet werden
    • Anzahl der Pixel unter der Kurve ist konstant
    • ... Die Transferfunktion
    • ... Ableitung der Transferfunktion
    • ... Umkehrfunktion der Transferunktion
    • ... Ausgangshistorgamm
    • ... Zielhistogramm
  • Damit läßt sich aber auch die Transferfunktion berechnen die Notwendig ist um eine bestimmte Histogrammform zu erreichen

Entropiemaximierung

  • automatische, nichtlineare Grauwertransformation
  • Zielhistogramm ist im mittel eine Gleichverteilung
  • Nun lässt sich die Transferfunktion berechnen und ergibt sich zu
      • .... gewünschte Anzahl der Graustufen im Zielhistogramm
      • .... Wahrscheinlichkeit für das Auftreten des Grauwertes im Quellbild (Kommt aus dem Quellhistogramm Wert/Pixelzahl)

Lokale Operatoren zur Bildverbesserung (LOa 1 - 44)

  • globale Operatoren
    • alle Bildpunkte fließen in die Berechnung jedes Bildpunktes des Zielbildes mit ein
    • bekanntes Beispiel ist die Fouriertransformation
  • lokale Operatoren
    • nur eine beschränkte Umgebung um den Aufpunkt fließt in die Berechnung des Zielpixels ein
      • akausal sowohl vorrausgehende als auch Nachfolgende Pixel werden mit berücksichtigt
      • kausal nur vorrausfolgende Pixel werden berücksichtigt (meist unsymetrische Filtermasken, ist ehr die Ausnahme)

Tiefpassfilter

  • die wesentlichen Bildinhalte liegen meist in den mittleren und niedrigen Frequenzen
  • hohe Frequenzen beinhalten oft die Hauptteile des Bildrauschens
  • Filter müssen mittelwerterhaltend sein → Summe aller Gewichte muss 1 ergeben
  • Filter dürfen die Objektpositionen nicht verändern → Phasenverschiebung =0 → nur symetrische Filter

Spalttiefpass

  • aka Boxoperator
  • einfachste Form zur Dämpfung von Rauscheinflüssen
  • Mittelwertbildung im Ortsbereich
  • nicht Monoton abklingend im Frequnzbereich (schwingt wieder auf)

Dreieckfilter

  • Gewichte sind Dreiecksförmig verteilt 1/16 ([1 2 1]^T * [1 2 1])
  • im Vergleich zum Spalttiefpass
    • besitzt geringeres Aufschwingen
    • größere obere Grenzfrequenz
    • geringere Anisotropoe

Binomialfilter

  • binomiale Wichtung reduziert die Nachteile von Box- und Dreiecksfilter
  • Filterkoeffizienten kommen aus dem Pascalschen Dreieck
    • bsp 5x5 1/256([1 4 6 4 1]^T * [1 4 6 4 1])
  • im Vergleich
    • Das Überschwingen verschwindet bei großen Fenstergrößen
    • isotropes Verhalten
    • noch höhere Grenzfrequenz als der Dreiecksfilter
  • Binomialfilter entstehen auch duche die Kaskadierung von Boxfiltern
    • Interressant für die Effiziente Implementierung wenn Zwischenergebnisse genutzt werden können
    • Parallelisierbarkeit
  • effektive Filterbreite kann erhöht werden in dem man Zeropadding (einfügen von Nullen) durchführt
    • Der Nachteil ist das unerwünschte Frequenzen nun voll übertragen werden
    • Lösung ist das Kaskadieren verschiedener Filter
    • somit kann eine sehr kleine Grenzfrequenz erreicht werden ohne das es zu störenden Nebenmaxima kommt

effektive Filterbreite

  • um Filter mit einander zu vergleichen muss ein Vergleichmaß gefunden werden
  • Aufsummieren der Quadratischen Abstände der Gewichte von der Filtermitte gewichtet mit eben diesen Gewichten ergibt die Varianz als effektive Filterbreite
  • Filter können so mit dem entsprechenden Boxfilter verglichen werden

Nichtlineare Filter

  • notwendig wenn einzelne Pixel keine relevanten Informationen mehr Tragen (defekt Pixel z.B.)
  • Mittelung würde den Fehler nur verschmieren
  • Zweites Anwendungsgebiet ist das unterdrücken von Gaußschem Rauschen ohne das dabei Kanten verschmiert werden

Medianoperator

  • Berechnung erfolgt NICHT durch Faltung
  • Günstig ist die Ermittlung des Medianwertes aus dem Histogram des Bildfensters
  • Medianfilter unterdrückt auch bei kleinen Koppelweiten effektiv Impulsrauschen und vermeidet nahezu Verunschärfungen im Bild
  • Filter funktioniert nicht für Gaußches Rauschen !!!

Effiziente Implementierung von lokalen Operatoren (EI 1 - 12)

Dekomposition von Faltungsoperatoren

  • statt eines großen Operators wird dessen Koppelweite erreicht in dem man n Päße mit mehreren kleinen Operatoren ausführt
  • damit lässt sich der Rechenaufwand auf etwa 50% senken
  • nicht alle Operatoren lassen sich dekomponieren
    • eine Dekomposition ist immer dann möglich wenn die Matrix linear Abhängige Zeilen und Spalten enthält also nicht den vollen Rang besitzt
    • Je nach Größe der dekomponierten Matrizen müssen mehr oder weniger Zeilen linear Abhänig sein
    • Bei einer 5x5 Matrix muss der Rang <=3 sein damit sie sich in zwei 3x3 Matrizen zerlegen lässt

Separierung von Fensteroperatoren

  • Zerlegung eines 2D-Filters in 2 Pässe mit einem 1D-Operator (eine 1xn und einen nx1 Operator)
  • Erhebliche Reduzierung des Rechenaufwandes (bei einem 7x7 Filter sinkt er auf 30%)

Updating

  • Wiederverwendung von Zwischenergebnissen aus benachbarten Operatoren
  • Erforder gegebenenfalls "kreatives" Verschieben des Operators (Zeilenweise, Meanderförmig, Hilbertkurve)
  • Bei Boxfilter z.B. brauchen nur die neuen Pixel hinzugenommen werden und die alten abgezogen werden
  • Unter Verwendung von Separierbarkeiten kann der Rechenaufwand darmatisch gesengt werden
  • Boxoperator z.B. brauch nur 4 Operationen pro Pixel unabhängig von der Größe (wenn man jetzt mal den Anfang und die Ränder Vernachläßigt)

Beispiel zu Median und Mean bei Gaußschem Rauschen (LOa 45 - 54)

Diffusionsfilter (DiFi 1 - 10)

Bildrestauration (BR 1 - 4)

Morphologische Operationen zur Binärbildverarbeitung (MO 1 - 26)

Kantendetektion (LK 1 - 38)

Segmentierung von Bildern (RS 1 - 15)

Kontursegmentierung / Konturapproximation (LBS 1 - 37)

Merkmalextraktion (ME 1 - 4)

Morphometrische Merkmale (MM 1 - 14)

Klassifikation (Klassifikation 1 - 20)

Clusterverfahren (Klassifikation 21 - 38)

Stochastische Approximation als Lernverfahren für Ebenenklassifikator (Farbpixelklassifikation 40 - 47)