Grundlagen der Bildverarbeitung und Mustererkennung

Aus II-Wiki
Wechseln zu: Navigation, Suche

Inhaltsverzeichnis

Folien aus der Vorlesung

<hiddenlogin linktext="Passwort für die Folien">gdlmu</hiddenlogin>

Vorlesung 1 Vorlesung 2 Vorlesung 3 Vorlesung 4 Vorlesung 5 Vorlesung 6 Vorlesung 7 Vorlesung 8 Vorlesung 9 Vorlesung 10 Vorlesung 11 Vorlesung 12 Vorlesung 13 Vorlesung 14 Teil 1 Vorlesung 14 Teil 2 Vorlesung 15

Einführung und Vorbemerkungen (WTE 8 - 24)

Primäre Wahrnehmung (PWa 1 - 22)

  • digitale Bildverarbeitung setzt Umsetzung von 2D-Strahlungsverteilungen in elektrische Signale voraus
  • bei der Primärwahrnehmung erfolgt bereits beträchtliche Reduzierung der Information
    • Beschränkung der örtlichen Auflösung Feinstrukturen nicht mehr sichtbar (PSF,MTF)
    • Diskretisierung des Definitionsbereichs Rasterung, Abtastung, Aliasing
    • Diskretisierung des Wertevorrats AD-Wandlung, Triggerung, Quantisierung
    • Beschränkung des Spektralbereichs

Strahlung, Bestrahlung, Licht, Beleuchtung

Radiometrische Größen

  • radiometrische Größen: absolute Bewertung elektromagnetischer Stahlung (strahlungsphysikalisch)
  • photometrische Größen: drücken spezifische Einwirkung der Lichtstrahlung auf das menschliche Auge über ein Vergleichsnormal aus
  • Umrechnung von radiometrischen in photometrische Größen erfordert Kenntnis der spektralen Zusammensetzung der Strahlung
  • Das Auge nimmt Leuchtdichten als photometrisches Äquivalent der Strahldichte war
  • Messtechnisch: wellenlängenabhängige Bewertung durch Filter

Raumwinkel:

  • Der Raumwinkel einer Fläche ist die Zentralprojektion dieser Fläche auf die um den Beobachtungspunkt gelegte Einheitskugel
  • Der Winkel zwischen Geraden und Ebenen ist als Streckenabschnitt auf dem Umfang des Einheitskreises definiert
  • Der Raumwinkel wird analog definiert nur das es sich jetzt um einen Flächenauschnitt auf der Einheitskugel handelt
  • Der Wertebereich des Raumwinkels liegt zwischen 0 und (gesamte Oberfläche der Einheitskugel)

Strahlungsphysikalische Größen:

  • sind vom menschlichen Auge unabhängige physikalische Größen
Zeichen Beschreibung Formel Einheit
Strahlungsfluss im Zeitmittel pro Zeiteinheit durch die Fläche hindurchgehende Energie
Strahlungsmenge

Beschreibung von Strahlungsquellen:

Zeichen Beschreibung Formel Einheit
Strahlstärke ist der in ein Raumwinkelelement

einfallende Strahlungsanteil

Strahldichte Flächenbezug des Strahlungsanteils

der von einem Punkt ausgeht

Senkrecht zum Flächenelement:

schräge Blickrichtung:

Lambert-Strahler ideal diffus strahlende Fläche

Bestrahlte Flächen:

Zeichen Beschreibung Formel Einheit
Bestrahlungsstärke Radiometrisches

Entfernungsgesetz

senkrechtes Auftreffen der Strahlung:

schräg auftreffende Strahlung:

Radiometrisches Grundgesetz Konkretisierung des

radiometrischen

Entfernungsgesetzes

Photometrische Größen

  • unter Berücksichtigung der Menschlichenwahrnehmung bewertete Größen
  • Die Umrechnung von radiometrischen Größen in photometrische Größen kann nur monocromatisch erfolgen da jede Wellenlänge mit der Wahrnehmungskurve des Auges gewichtet werden muss
  • dazu ist die Kenntnis der Leistungsdichte notwendig
    • Kann berechnet werden (bei Temperaturstrahlern nach Planckschem Strahlungsgesetz)
    • Muss mit einem geeigneten Sensor erfasst werden

Bildtransformationen, -repräsentationen - Grundlagen (BR 1 - 27)

Bildrepräsentation

  • alle Werte eines Signals lassen sich durch Wichtung von orthogonalen Basisvektoren darstellen
    • Die für einen Wert notwendigen Gewichte kann man durch Projektion dieses Wertes auf die Basisvektoren ermitteln (inneres Produkt der Vektoren bilden)
  • Jedes Bild lässt sich somit aus orthogonalen Basisbildern zusammensetzen
    • Die Basisbilder haben die gleichen Abmessungen wie das gewünschte Bild
    • Die Fourier Transformation ist lediglich die Umwandlung zwischen zwei verschiedenen Basisbildertypen
      • Basisbilder setzen sich aus Sinus und Cosinus Schwingungen zusammen die beliebig orientiert sein können
      • Eigenschaften: Mittelwert ist Rotations- und Translationsinvariant, Verschiebungssatz, Faltung ←→ Multiplikation, Drehung ←→ Drehung, Abtastung ←→ Periodifizierung
    • Cos bzw Sin Transformation
      • Basisbilder setzen sich aus zwei senkrecht aufeinanderstehenden Cos bzw. Sinus Schwingungen zusammen
    • Hadamard bzw Haar- Transformation
      • Basisbilder setzen sich aus orthogonalen Binärfunktionen zusammen
      • Bei der Haar-Transformation werden aufgrund der lokalen Basismuster lokale Strukturen besser abgebildet

Bildpyramiden

  • Siehe auch Auflösungsprymiden in RoboVis
  • Bilder werden in verschiedenen Auflösungen betrachtet
  • Ziele:
    • Überwindung der lokalen Sicht der meisten Operatoren
    • Anwendung kleiner Operatoren ist wesentlich schneller als große Operatoren
  • Abtasttheorem muss beachtet werden → Tiefpassfilterung vor jeder Verkleinerung
  • Laplace-Pyramiden können genutzt werden um die Informationsunterschiede zwische den beiden Auflösungen zu speichern um so das Bild aus einer kleineren Auflösung rekonstruieren zu können (Komprimierte Speicherung der Bilder)
    • Dafür müssen die Bilder vor der Differenzbildung gleich groß gemacht werden → Interpolation der Fehlenden Pixel notwendig
    • Siehe auch Interpolation und Resampling

Primäre Wahrnehmung - Grenzen der örtlichen Auflösung(PWb 1 - 18)

  • Begrenzung erfolgt durch
    • Beugungserscheinungen an den Blenden
    • Abbildungsfehler
    • Durch den Sensor (endliche kleine Sensorflächen)

PSF - Point Spread Function

  • Punktantwort des Systems
  • OTF (Optische Transferfunktion) ist die Fouriertrasnformierte der PSF
  • Der Betrag der OTF ist die MTF (Modulationstransferfunktion)
  • Die Aufglösungsgrenze ist erreicht wenn die MTF auf 10% das Maximums abgesunken ist
  • Die PSF wird mit dem Bild im Ortsbereich gefaltet → Wichtung der Frequenzen im Frequenzbereich → "Modulation"
  • Das Auge hat Bandpasscharakter
    • zu langsame Änderungen werden nicht wahrgenommen genausowenig wie zu schnelle Änderungen
    • Bei gesättigten Farben ist die Empfindluchkeit des Auges schlechter als z.B. bei Grauwerten

Sensorapertur

  • Bildsignal ist im eine kontinuierliche zweidimensionale Funktion
  • Abtastung des Bildes durch den Sensor mit endlichgroßen Aufnahmeflächen
    • Faltung des Bildes mit Sensoraptertur
    • anschließende Abtastung an den Pixelmitten
  • Das führt zur Wichtung der Frequenzen mit einer si-Funktion (sinc beim Franke !!) und anschließender Periodifizierung des Bildfrequenzspektrums
    • bei nicht aussreichender Bandbegrenzung führt das zu Aliasing
    • Originalbild kann mit Hilfe der si-Interpolation wiedergewonnen werden (Multiplikation mit einem Rechteck im Frequenzbereich)

Farbe (GF 1 - 69)

Farbmessung (GF_FM 1 - 18)

Farbräume (F_CM 1 - 20)

Kameras (GF_Ka 1 - 12)

Bildvorverarbeitung (GT 1 - 33)

  • Bilder sind meist stark gestört
  • Mögliche Ursachen für Störungen sind:
    • Inhomogene Beleuchtung
    • Verunreinigungen in der Kamera (Streulicht und ähnliches)
    • Nicht perfekte Optik (Randabfall, Verzerrungen)
    • Nichlinearitäten des Bildsensors (Vorallem beim CMOS und Röhren)
    • Rauschen der Elektronik
    • Einkopplungen
  • Ziel der Bildvorverarbeitung ist es:
    • Normierung des Graustufen und Bildgeometrie
    • Korrektur und Unterdrückung der Störungen
    • Extraktion von Merkmalen für die Steuerung/ Parametrisierung von Algorithmen
    • Erzielen von Invarianzeingenschaften

Geometrische Bildtransformation

  • Ziel ist es das entzerrte Zielbild aus einem verzerrten Quellbild zu erhalten
  • Wenn die Verzerrungseigenschaften des Systems bekannt sind kann die Transformation analytisch Beschrieben werden
  • Bei unbekannten Verzerrungseingeschaften muss die Transformationsfunktion approximiert werden
    • Passiert meist mit polynimialen Ansätzen
    • Markieren von Passpunkten für die Approximation
  • Vorwärtstransformation
    • Das Zielbild wird direkt aus dem Quellbildberechnet in dem jedes Pixel des Quellbildes durchgegangen wird und ins Zielbild übertragen wird
    • Problem ist das im Zielbild "Lücken" entstehen können aufgrund von Rundung der transformierten Koordinaten
  • Rückwärtstransformation
    • Das Zielbild wird aus dem Quellbild berechnet in dem jedes Pixel im Zielbild durchgegangen wird und geschaut wird welcher wert aus dem Quellbild eingetragen werden muss
    • Es entstehen keine Lücken mehr im Zielbild
    • Die zurücktransformierten Koordinaten müssen nicht genau auf ein Pixel im Quellbild treffen → Interpolation der Pixelwerte notwendig

Interpolationsverfahren zum Resampling

  • gegeben ist ein Bild mit diskreten werten an bestimmten stellen
  • Gesucht sind nun Werte an beliebigen stellen → als Wiederabtastung oder auch Resampling bezeichnet
  • Dabei soll für die Interpolationsfunktion gelten das sollte genau ein Abtastwert getroffen werden so darf nur dieser den Wert des Zielpixels bestimmen

Ideale Interpolationsfunktion

  • Wenn das Originalbild hinreichend Bandbegrenzt war läßt sich mit Hilfe von einer Summe si-Funktionen das koninuierliche Originalbild rekonstruieren
  • Dazu wird in dem unendlichgroßen Bild auf jedes Pixel eine si-Funktion gesetzt mit dem gewicht des Grauwertes an dieser Stelle
  • Multiplikation des Spektrums des Bildes mit einem Rechteck ... Rückgängigmachen der Periodifizierung durch die Abtastung

Nearest Neighbour Resampling

  • wähle den nächsten Nachbarn als Funktionswert an dieser Stelle
  • Führt zu Artefakten da der Funktionswert schlichtweg falsch ist

Bilineare Interpolation

  • lineare Interpolation des Pixelwertes an der geünschten Stelle aus den vier benachbarten Pixeln (Abstand zu den Stützwerten geht mit in die Interpolation ein !!!)
  • Immer noch sehr schnell
  • besser als Runden aber immer noch Fehlerbehaftet
  • Im Frequenzbereich wird das Spektrum des Bildes mit einer si²- Funktion multipliziert
    • Verunschärfung von Kanten
    • mögliche Aliasing Probleme durch Nebenmaxima

Kubische Interpolation

  • Verwenden von 4x4 Pixeln zu Bestimmung des Interpolationspolynoms
  • Unstetigkeitstelle nach der ersten Ableitung (Polynom wird für jede 4x4 Region unabhängig berechnet)

Kubische Spline Interpolation

  • Bilden der gewichteten Summe aller Interpolationskoeffizienten
    • imprinzip ist es eine diskrete Faltung
    • Damit muss man nicht unbedingt das Gleichungssystem lösen man kann mit Hilfe der Faltungsinversen (so sie denn existiert) die Koeffizienten berechnen
  • Geringe breite
  • Stetigkeit

Lineare Bildtransformation

  • nichtlineare Bildtransformationen können durch lineare Approximiert werden wenn diese auf kleine Elemente angewendet wird
  • mit Hilfe von homogenen Koordinaten lässt sich die Transformation schreiben als Zielkoordinaten = Transformationsmatrix * Quellkoordinaten
  • Durch umstellen kann man mit Hilfe von Passpunkten die Transformationsmatrix einfach berechnen
    • Lieber mehr Puntke als nötig nehmen (Fehlerquadratmethode zum verbessern verwenden) und darauf achten das die Punkte nicht alle auf einer Gerade liegen
  • Nach Fehlerquadratmethode:
    • A ... Transformationsmatrix
    • P 3xn Matrix für n Passpunkte (Quellkoordinaten)
    • P' Zielkoordinaten

Grauwertstatistik (GwSt 1 - 25)

  • Wird eingesetzt um
    • Bilder zu charakterisiren
    • Verarbeitungsalgorithmen zu Steuern
    • Pixel zu klassifizieren
    • Bildsegmentierung durchzuführen
    • Texturen zu charakterisieren
  • Beschreibung erfolgt durch
    • Mittelwert
    • Varianz, Schiefe, Exzess
    • Entropie
    • statistische Momente
    • Wahrscheinlichkeitsdichten
  • Farbbilder führen zu Mehrdimensionalenverteilungen

Co-Occurrence-Matrix

  • Beschreibung der Häufigkeit des Auftretens von Grauwertpaaren entlang eines Verschiebungsvektors
    • Schätzung der Verbundwahrscheinlichkeit
    • Bei einem 8-bit Bild ergibt sich eine 256x256 Matrix für eine Verschiebung!! → Es wird meist mit verminderten Farbauflösungen gearbeitet
  • ermöglicht aussagen über die Beschaffenheit der zu untersuchenden Textur
    • Werte nahe der Hauptdiagonale sprechen ehr für eine Konstrastarme homogene Textur
    • Werte an den Randbereichen sprechen ehr für eine konstrastreiche Textur
  • Stark Richtungsabhänig da ein Verschiebungsvektor gewählt werden muss
  • Invariant in grenzen gegenüber additiven Helligkeitsschwankungen
  • Aus der Co-Occurrence-Matrix wurden verschiedene Maße abgeleitet
    • Energie
    • Entropie
    • Kontrast
    • inverses Differenzmoment
    • Korrelation

Modifizierte Co-Occurrence-Matrix

  • Richtungsabhängigkeit wird aufghoben in dem man nun alle Pixel im Abstand d zum Aufpunkt betrachtet
  • Es werden nun ähnliche Grauwerte gezählt in dem eine Relation eingeführt wurde (Änderung des Grauwertes im Aufpunkt zum Grauwert in der Nachbarschaft darf einen bestimmten wert nicht überschreiten um gezählt zu werden )
  • Additive Helligkeitsüberlagerung verschiebt die Grauwertstatistik lediglich und ändert nicht ihre Form (natürlich nur so lange wie nicht geclipt wird) → geeignetes Merkmal zu Erkennung bestimmter Texturen

Punktoperationen (PO 1 - 22)

  • Grauwerte werden nur in Abhängigkeit von anderen Grauwerten und dem Wert selbst geändert
    • Abhängigkeit der Pixelposition kann berücksichtigt werden
  • Man unterscheidet zwei Arten
    • inhomogene Punktoperationen wenn auch die Pixelposition mit eine Rolle spielt (alle gw werden in Abhängigkeit von ihrer Position geändert)
    • homogene Punktoperationen wenn die Position nicht mit berücksichtigt wird (alle gw werden gleich geändert)

inhomogene Punktoperationen

Shadingkorrektur

  • Ursache für Abschattungen im Bild:
    • inhomogene beläuchtung
    • Randabfall des Objektivs
    • Inhomogenität des Bildsensors (Unterschiedliche Pixelempfindlichkeiten, Transportverluste)
  • Korrektur ist notwendig wenn hochpreäziese Bestimmte Strukturorte bestimmt werden sollen (z.b. Kanten müssen sauber erkannt werden)
    • Bei radiometrischen Messungen (geht ja nicht an das das die erkannte Farbe am Rand dunkler ist als in der Bildmitte)
    • Wenn nachfolgende Algorithmen mit Schwellwerten Arbeiten
  • Korrektur erfolgt linear
    • Dunkelsignal für jedes Pixel abziehen
    • gw mit ein Faktor multiplizieren so das der gewünschte Maximale Grauwert erreicht werden kann
    • Bei digitaler Korrektur erhöht sich die Farbauflösung nicht → wenn vorher die werte zwischen 0...128 lagen und dann auf 0..255 aufgezogen werden dann wird nur jede zweite Grauwertstufe mit einem Wert versehen
    • Bei analoger Korrektur kann die Farbauflösung erhöht werden .... ist aber wesentlich aufwendiger

homogene Punktoperationen

  • Ziele:
    • Linearisierung bzw Formung der Kennline des Systems
    • Anpassung an unterschiedliche Beleuchtungen und Kontrastverhältnisse

Polygonal Image Scaling

  • als Übertragungsfunktion wird ein Polygonzug benutzt
  • Kennlinie kann aus der Sensorkennline gewonnen werden wenn z.b. eine Linearisierung vorgenommen werden soll
  • Oder kann per Hand festgelegt werden → z.B. zur Kontrastverbesserung
  • LUT - werden eingesetzt um schnell die neuen Grauwerte zuweisen zu können
  • Polygonzug kann aus den Statistischen Momenten konstruiert werden so das eine automatischer Histogrammausgleich erfolgen kann → Contrast Stratching
    • Funktioniert nur wenn das Histogramm eine geeignete Verteilung aufweist

Histogrammausgleich

  • Die Anzahl der Pixel in einem Bild ist konstant
  • Wenn die Transferfunktion zwischen Grauwerten bekannt ist kann das neue Histogramm aus dem alten direkt berechnet werden
    • Anzahl der Pixel unter der Kurve ist konstant
    • ... Die Transferfunktion
    • ... Ableitung der Transferfunktion
    • ... Umkehrfunktion der Transferunktion
    • ... Ausgangshistorgamm
    • ... Zielhistogramm
  • Damit läßt sich aber auch die Transferfunktion berechnen die Notwendig ist um eine bestimmte Histogrammform zu erreichen

Entropiemaximierung

  • automatische, nichtlineare Grauwertransformation
  • Zielhistogramm ist im mittel eine Gleichverteilung
  • Nun lässt sich die Transferfunktion berechnen und ergibt sich zu
      • .... gewünschte Anzahl der Graustufen im Zielhistogramm
      • .... Wahrscheinlichkeit für das Auftreten des Grauwertes im Quellbild (Kommt aus dem Quellhistogramm Wert/Pixelzahl)

Lokale Operatoren zur Bildverbesserung (LOa 1 - 44)

  • globale Operatoren
    • alle Bildpunkte fließen in die Berechnung jedes Bildpunktes des Zielbildes mit ein
    • bekanntes Beispiel ist die Fouriertransformation
  • lokale Operatoren
    • nur eine beschränkte Umgebung um den Aufpunkt fließt in die Berechnung des Zielpixels ein
      • akausal sowohl vorrausgehende als auch Nachfolgende Pixel werden mit berücksichtigt
      • kausal nur vorrausfolgende Pixel werden berücksichtigt (meist unsymetrische Filtermasken, ist ehr die Ausnahme)

Tiefpassfilter

  • die wesentlichen Bildinhalte liegen meist in den mittleren und niedrigen Frequenzen
  • hohe Frequenzen beinhalten oft die Hauptteile des Bildrauschens
  • Filter müssen mittelwerterhaltend sein → Summe aller Gewichte muss 1 ergeben
  • Filter dürfen die Objektpositionen nicht verändern → Phasenverschiebung =0 → nur symetrische Filter

Spalttiefpass

  • aka Boxoperator
  • einfachste Form zur Dämpfung von Rauscheinflüssen
  • Mittelwertbildung im Ortsbereich
  • nicht Monoton abklingend im Frequnzbereich (schwingt wieder auf)

Dreieckfilter

  • Gewichte sind Dreiecksförmig verteilt 1/16 ([1 2 1]^T * [1 2 1])
  • im Vergleich zum Spalttiefpass
    • besitzt geringeres Aufschwingen
    • größere obere Grenzfrequenz
    • geringere Anisotropoe

Binomialfilter

  • binomiale Wichtung reduziert die Nachteile von Box- und Dreiecksfilter
  • Filterkoeffizienten kommen aus dem Pascalschen Dreieck
    • bsp 5x5 1/256([1 4 6 4 1]^T * [1 4 6 4 1])
  • im Vergleich
    • Das Überschwingen verschwindet bei großen Fenstergrößen
    • isotropes Verhalten
    • noch höhere Grenzfrequenz als der Dreiecksfilter
  • Binomialfilter entstehen auch duche die Kaskadierung von Boxfiltern
    • Interressant für die Effiziente Implementierung wenn Zwischenergebnisse genutzt werden können
    • Parallelisierbarkeit
  • effektive Filterbreite kann erhöht werden in dem man Zeropadding (einfügen von Nullen) durchführt
    • Der Nachteil ist das unerwünschte Frequenzen nun voll übertragen werden
    • Lösung ist das Kaskadieren verschiedener Filter
    • somit kann eine sehr kleine Grenzfrequenz erreicht werden ohne das es zu störenden Nebenmaxima kommt
  • Für große Filterbreiten nähren sich die Gewichte der Gaußglockenkurve an

effektive Filterbreite

  • um Filter mit einander zu vergleichen muss ein Vergleichmaß gefunden werden
  • Aufsummieren der Quadratischen Abstände der Gewichte von der Filtermitte gewichtet mit eben diesen Gewichten ergibt die Varianz als effektive Filterbreite
  • Filter können so mit dem entsprechenden Boxfilter verglichen werden

Nichtlineare Filter

  • notwendig wenn einzelne Pixel keine relevanten Informationen mehr Tragen (defekt Pixel z.B.)
  • Mittelung würde den Fehler nur verschmieren
  • Zweites Anwendungsgebiet ist das unterdrücken von Gaußschem Rauschen ohne das dabei Kanten verschmiert werden

Medianoperator

  • Berechnung erfolgt NICHT durch Faltung
  • Günstig ist die Ermittlung des Medianwertes aus dem Histogram des Bildfensters
  • Medianfilter unterdrückt auch bei kleinen Koppelweiten effektiv Impulsrauschen und vermeidet nahezu Verunschärfungen im Bild
  • Filter funktioniert nicht für Gaußches Rauschen !!!

gewichtete Mittelwertbildung

  • es soll nur dann gefiltert werden wenn keine Kante im Filterfenster vermutet wird → Erhaltung der Kanten und trozdem Rauschunterdrückung
  • Kann z.B. erreicht werden in dem man sagt das die mittlere Abweichung im Fenster eine bestimmte Schwelle nicht überschreiten darf sonst wird der filter halt einfach nicht angewendet
  • Das Ganze kann mit verschiedenen Wichtungen der Nachbarpixel passieren
  • Man unterscheidet ausserdem das harte Entscheidungskriterium bei dem es nur Filtern und nicht Filtern gibt und das weiche Entscheidungskriterium bei dem es auch ein bischen Filtern gibt
  • Es besteht die Möglichkeit das ganze Gradienteninvers zu machen
    • Die Idee ist hier das Kanten einen hohen Gradienten im Bildfenster erzeugen
    • wenn also kein hoher Gradient vorliegt dann ist vermutlich keine Kante im Fenster
  • Eine weitere Möglichkeit ist das Filtern von der Varianz im Bildfensterabhängig zu machen
    • kleine Varianz heiß keine Kante
    • hohe Varianz vermutlich eine Kante

Kombination von Average und Medianfilterung

  • Ziel ist es beide Filter geeignet zu Kombinieren damit man die Vorteile beider Filter nutzen kann
  • Extended Median Filter
    • average Filter immer dann wenn die Abweichung des Resultierenden Grauwertes von Originalwert kleiner ist als die des Medianfilters
    • Medianfilter immer dann wenn nicht der average Filter genommen wird
  • α - trimmed Median filter
    • Mittlung der Funktionswerte die in einer α-Umgebung um den Median liegen (nach dem Sortieren der Funktionswerte)

Effiziente Implementierung von lokalen Operatoren (EI 1 - 12)

Dekomposition von Faltungsoperatoren

  • statt eines großen Operators wird dessen Koppelweite erreicht in dem man n Päße mit mehreren kleinen Operatoren ausführt
  • damit lässt sich der Rechenaufwand auf etwa 50% senken
  • nicht alle Operatoren lassen sich dekomponieren
    • eine Dekomposition ist immer dann möglich wenn die Matrix linear Abhängige Zeilen und Spalten enthält also nicht den vollen Rang besitzt
    • Je nach Größe der dekomponierten Matrizen müssen mehr oder weniger Zeilen linear Abhänig sein
    • Bei einer 5x5 Matrix muss der Rang <=3 sein damit sie sich in zwei 3x3 Matrizen zerlegen lässt

Separierung von Fensteroperatoren

  • Zerlegung eines 2D-Filters in 2 Pässe mit einem 1D-Operator (eine 1xn und einen nx1 Operator)
  • Erhebliche Reduzierung des Rechenaufwandes (bei einem 7x7 Filter sinkt er auf 30%)

Updating

  • Wiederverwendung von Zwischenergebnissen aus benachbarten Operatoren
  • Erforder gegebenenfalls "kreatives" Verschieben des Operators (Zeilenweise, Meanderförmig, Hilbertkurve)
  • Bei Boxfilter z.B. brauchen nur die neuen Pixel hinzugenommen werden und die alten abgezogen werden
  • Unter Verwendung von Separierbarkeiten kann der Rechenaufwand darmatisch gesengt werden
  • Boxoperator z.B. brauch nur 4 Operationen pro Pixel unabhängig von der Größe (wenn man jetzt mal den Anfang und die Ränder Vernachläßigt)

Beispiel zu Median und Mean bei Gaußschem Rauschen (LOa 45 - 54)

Diffusionsfilter (DiFi 1 - 10)

  • Ist die Anlehnung an den Physikalischen Diffusionsprozess
  • Es werden drei Diffusionsmodelle unterschieden
    1. Isotrope homogene Diffusion (einfach alles gleichmäßig wegdiffundieren)
    2. Isotrope inhomogene Diffusion (Stärke der Diffusion wird durch das vorhandensein einer Kante beeinflusst)
    3. Anisotrope Diffusion (Diffusion erfolgt nur noch parallel zu Kanten)

Mathematik des Diffusionsfilters

  • Die Divergenz (kurz DIV gibt) gibt an wieviel in ein Volumen einströhmt oder ausströmt
    • ein skalarer Wert
    • in kartesischen Koordniaten ist div (W) = Summe der partiellen Ableitungen von W nach seinen Komponenten
  • Die Änderung der Konzentration erfolgt entgegengesetzt zu divergenz des Konzentrationsflusses
    • Und der aktuelle Fluss ist wiederum natürlich von der aktuellen Konzentration abhängig
    • Mit Hilfe der Matrix D kann nun das gewünschte Diffusionsverhalten eingestellt werden
      • Mit dieser Matrix gibt man an wie sich ein Gradient in X bzw Y Richtung auf den Fluss auswirken soll
  • Eine Taylorreihenentwicklung kann genutzt werden um eine iterative Berechnungsvorschrift für die neue Konzentration aus der alten Konzentration zu erhalten

isotrop homogener Filter

  • Beim isotrop homogener Filter muss die Filterung richtungsunabhänig und Gradientenunabhängig erfoglen
  • D wird also wie folgt eingestellt
  • es wurde analytisch nachgewiesen das eine solche Einstellung nichts anderes bewirkt als mit einem Gaustiefpass zu Falten

isotrope inhomogene Filterung

  • Beim isotrop inhomogenen Filterung muss die Filterung richtungsunabhänig aber in Abhängigkeit der Gradienten erfoglen
  • D wird also wie folgt eingestellt
    • für das variable kann man sich dann tolle dinge einfallen lassen z.B.
      • Steuert dabei wie stark die Diffusion an Grandienten zurückgeht</math>
  • Der Filter ist mit den streunungsinversen bzw. Gradientenabhänigen Filtern vergleichbar und hat keine neuen tollen Eigenschaften

anisotrope inhomogene Filter

  • Die Filterung erfolgt nun abhängig vom Gradienten nur in bestimmte Richtungen
  • D ist nun voll besetzt und wird wie folgt Konstruiert
    • Die Eigenvektoren und geben dabei die Richtung der Diffusion vor und mit den Eigenwerten und kann die Stärke der Diffusion in diese Richtung eingestellt werden
    • Um nur Diffusion parallel zu den Kanten zu haben wählt man einen Eigenvektor in Richtung des Gradienten und den anderen senkrecht dazu
    • Bei dem Eigenvektor senkrecht zum Gradienten stellt man den zugehörigen Eigenwert auf eine Konstante größe z.B. 1
    • Der Eigenwert in Richtung des Gradienten hingegen wird mit der wie beim isotropen inhomogenen Filter invers zum Gradienten eingestellt
  • Dieser Filter ermöglicht eine gute Rauschunterdrückung auch in Kantennähe und besitzt trozdem eine sehr gute Kantenerhaltung

Bildrestauration (BR 1 - 4)

  • Ziel ist es bekannte deterministische Störungen rückgängig zu machen
  • So z.B. die verschmierende Wirkung der PSF
  • Dazu muss diese ersteinmal ermittelt werden
  • Idee: Anwendung der Inversen der störenden Funktion
    • im Frequenzbereich braucht man nur durch die Funktion zu teilen (theoretisch ;))
  • Problematisch sind Nullstellen und Werte nahe 0 der Inversen Funktion ... hier sind alle Informationen futsch und ein dividieren durch 0 macht alles nur schlimmer nicht besser
    • Eine mögliche Lösung ist einfach das weglassen der entsprechenden Frequenzen in dem die Korrekturfunktioin einen mindestwert überschreiten muss bevor man Anfängt die stelle zu Korregieren
  • Ein weiteres Problem ergibt sich wenn man nun noch additives Rauschen annimmt
    • Diesees wird vorallem bei hohen Frequenzen stark verstärkt und macht das Ergebnis damit unbrauchbar
  • Das Wiener Filter versucht diese Probleme zu Berücksichtigen und zu minimieren in dem es ein Rauschmodell annimmt

Morphologische Operationen zur Binärbildverarbeitung (MO 1 - 26)

  • in diesem Kapitel geht es vorallem um Binärbilder die mit Hilfe von Schwellwertoperationen oder durch Labelung entstanden sind
  • Ziel ist:
    • Objektformen zu verbessern
    • Formen zu erkennen und zu extrahieren

Basisoperationen Erosion und Dilatation

  • Definitionen
    • Binärbild ... eine NxM Matrix bestehend aus 0 und 1, wobei alle indizes Positiv sind
    • Strukturierendes Element ... eine KxL Matrix aus 0 ,1 und don't care, wobei wenn nicht ausdrücklich anderst angegeben der Wertebereich der indizes von -K/2 bis +K/2 bzw. -L/2 bis +L/2 geht
      • Symetrisch zum Aufpunkt in der Mitte
      • Muss nicht Quadratisch sein ...
  • Erosion
    • Abtragen
    • Der Aufpunkt des Strukturierenden Elements wird im Zielbild nur gesetzt wenn alle Werte im Strukturierenden Element UND verknüpft mit dem Bild 1 ergeben
  • Dilatation
    • Anlagern
    • Der Aufpunkt des Strukturierenden Elements wird im Zielbild gesetzt, wenn ein Werte im Strukturierenden Element UND verknüpft mit dem Bild eins ergibt
  • Unterverwendung von logischen Operationen ergeben sich Faltungsähnliche Ausdrücke

Opening und Closing

  • Opening
    • Dünnwandinge Objekte werde mit Errosion geöffnet und der Flächenverlust der anderen Objekte wird mit anschließender Dilatation ausgeglichen
  • Closing
    • Kleine Löcher/Risse werden mit Dilatation geschlossen und der Flächenzuwachs wird anschließend mit Erosion beseitigt
  • Beide Operationen sind Idempotent, was heißt das man sie nur einmal anwenden braucht weil jede weitere Anwendung das Ergebnis nicht mehr verändert
  • Die Form des verwendeten Strukturierenden Elements verändert auch die Form der Objekte im Bild

Hit & Miss

  • Dient der Extraktion einer bestimmten binären Form im Bild
  • Dazu werden zwei Masken definiert
    • Hit Maske enthält die gesuchte Objektform
    • Miss Maske enthält nur die Berandung der gesuchten Form
  • Die Hit Maske wird mit Hilfe der Errosion auf das das Bild angewendet
    • Alle Objekte die größer oder gleich der Hitmaske sind bleiben im Zielbild
  • Dann wird das negierte Quell Bild mit der Miss Maske Erodiert ... nun verschwinden alle Objekte die größer als die gesuchte Form sind
  • Die UND Verknüpfung beider Bilder ergibt dann das Endergebnis
  • Da der Schnitt der Hit und Miss Maske leer ist kann man beide durch ODER Verknüpfung zur Hit&Miss Maske zusammenführen → Es ist nur ein Pass Notwendig um die gewünschten Formen zu finden
    • dazu muss man aber ein negiertes XOR verwenden für die Vernküpfung von Bild und Maske
  • Durch einfügen von Don't Care werten kann man auch eine Variabilität der gefundenen Form zulassen

Eckendetecktion

  • Man kann spezielle Hit&Miss Masken verwenden um Ecken zu detektieren
    • Dafür muss die Hit-Makse den Rand es Operators berühren dürfen (vorher war die Hit-Maske vollständig von der Miss-Maske umgeben)
  • Beispiel für einen Operator der untere Rechte Ecken detektiert
x 1 0
1 1 0
0 0 0
  • Die anderen alle Ecken eines Objektes kann man finden in dem man einen Satz von Operationen auf das Bild losläßt (einfach nach allen 4 Eckentypen suchen )

Thinning

  • Häufig will man Objekte bis auf einen dünnen Rand ausdünnen ohne das die Berandung aufreist
  • mit Errosion nicht möglich
  • Man verwendet wie bei Eckendektor einen Satz von Hit&Miss Masken die alle vier möglichen Kanten enthalten
  • Die Masken müssen Zyklische nacheinander Angewendet werden
    • Das Ergebnis eines Passes soll ich erst ergeben wenn man das erhaltene Ergebnis des Passes von dem gesammt Ergebnis des vorhergehenden abzieht (warum is mir momentan auch nicht klar ... werd ich in der Konsultation mal ansprechen)
    • So lange bis es keine Änderungen mehr im Bild gibt

Skelettierung/Zusammenhänge und Nachbarschaften

  • Basierend auf dem Jordan Theorem: eine Koninuierliche Linie trennt den Vordergrund vom Hintergrund gilt:
    • Im Vordergrund nutzt man die 8ter Nachbarschaft (also auch die Diagonalen sind Benachbart)
    • Für den Hintergrund wird nur die 4er Nachrbarschaft genutzt (Diagonalen sind nicht Benachbart)
  • Skeletierung ist die extraktion von 1 pixelbreiten Linien die den Vordergund noch vom Hintergrund trennen
  • Je nach Anzahl der Nachbarn kann man unterscheiden
    • 2 nichtbenachbarte Nachbarn: Ecke und Linie
    • 3 nichtbenachbarte Nachbarn: Verzweigungen
    • 4 Nichtbenachbarte Nachbarn: Kreuzung
  • Die Verfahren basieren meist auf dem Thinning und unterscheiden sich nur durch verschiedene Maskensätze
    • Der Verwendete Maskensatz bestimmt die Qualität der Skelette
  • Es gibt Masken die in einem Pass Lücken schließen können oder den Rand glätten

Kantendetektion (LK 1 - 38)

  • Wir benötigt für die Extraktion von Segmenten und Objekten
  • Vektorisierung von Bildern
  • zwei Verfahren zur Kantendetektion und Kantenortbestimmung
    1. Kantenverstärkung und Schwellwertoperationen
      • Problem ist die Wahl des Schwellwertes (einerseits will man Rauschen unterdrücken andererseits auch schwache Kanten finden)
      • möglich sind auch ortsabhängige Schwellwerte
      • Man kann zwischen steigenden und fallenden Kanten mit Hilfe des Gradienten unterscheiden
    2. Fitting einer Modellkante
      • lokale Pixelbereiche werden geprüft ob sie mit einem Kantenmodell übereinstimmen → wenn gut dann detektion einer Kante
      • Kantenort kann Subpixelgenau bestimmt werden

Lineare Filter zur Kantendetektion

  • Kantenverstärkung bei gleichzeitiger Unterdrückung konstanter Grauwerte → Ableitungsoperatoren
  • Ziel ist es immer noch das die Filter den Ort der Kante nicht verschieben dürfen
    • Wird erreicht in dem alle Phasen um 90° gedreht werden → rein imaginäre Transferfunktion
    • antisymetrische Filtermasken → ungerade Fiterbreiten und eine Nullspalte in der Mitte
  • Berechnung des Gradienten ermöglicht auch gleichzeitiges Berechnen der Orientierung der Kante

Roberts- und Sobeloperator

  • Roberts:
    • rauschempfindlich, Gitterversatz um ungleichen Ortsbezug zu vermeiden
  • Sobel:
    • Mittelwertbildung durch Dreiecksoperator → Veringerte Rauschempfindlichkeit
    • kein Gitterversatz weil asymetrisch in differenzierende Richtung
  • im Frequenzbereich ergibt sich 1D in Differenzierende Richtung ein Sin → Bandpasscharackter
  • Höhere Koppelweiten führen dazu das mehrere Bänder an frequenzen durchgelassen werden (Sinus im Frequenzbereich bekommt eine höhere Frequenz)
    • Steile Kanten werden unscharf im Ort
    • Flache Kanten haben eine höhere Antwort

Differenzierter Gauß

  • Gradientenoperation auf das Gaußgeglättete Bild
  • leint an Auflösung anpassbar
  • einfache Realisierung unterschiedlicher Grenzfrequenzen
  • optimaler Kompromiss zwischen Lokalisation und Detektion
  • ist Seperierbar

Kanten- Differentialoperatoren 2. Ordung

Laplace Operator

  • Differenzen zwischen benachbarten Neigungen → steigende und fallende Katen werden durch Vorzeichenfolgen unterschieden nicht nur durch das Vorzeichen allein
  • Doppelkonturen bei Betragsbildung
  • Kantenort wird durch den Nulldurchgang bestimmt
  • Im Frequenzbereicht ergibt sich ein Bandpass mit ½-½*cos(pi*k)

Laplacian of Gaussian

  • Besteht aus 2 Gausfunktionen
  • Hat gegenüber dem Laplace Operator eine größere Koppelweite bei gleichzeitiger 2D - Gaußglättung
  • ist der Menschlichen Wahrnehmung sehr nahe
  • geringe Rauschempfindlichkeit
  • erkennt auch geringe Kanten

nichtlineare Kantenhervorhebung

  • verschiedene Möglichkeiten
    • nichtlineare Verknüpfung linearer Teilergebnisse → Rosenfeld
      • Betrag oder L2-Norm
      • Summe der Beträge oder L1-Norm
      • Naximale Komponente oder L∞-Norm
    • nichtlineare Transformation der Grauwerte und linearer Kantenoperator → Wallis
    • nichtlineare Kantenhervorhebung im Grundsatz

Rosenfeld Operator

  • Verwendung mehrerer Verschiedengroßer Operatoren der Form -1 1, -1 -1 1 1, -1 -1 -1 1 1 1 , ...
  • Multiplikative Verknüpfung der Ergebnise der einzelnen Operatoren → Unterstuützung aller positiven Eigenschaften

Wallis

  • Der Logarithmus der Luminanz des Zentralenpixels muss die mittlere logarithmische Luminanz seiner 4 nächsten Nachbarn übersteigen
  • Nach Logarithmengesetzt führt das dazu das das Verhaltnis des Zentralpixels zum Produkt aller Nachbarn größer einer bestimmten schwelle sein muss
  • Entspricht dem Laplaceoperator angewendet auf logarithmischen Daten

morphologische Kantendetektion

  • Durch Anwenden von Errosion bzw. Dilatation auf ein Bild und anschließendem abziehen des Ergebnisbildes vom Ursprungsbildes entsteht ein Kantenbild bei dem die Kante um ein Pixel in das Objekt bzw aus dem Objekt herraus geschoben wurde
  • Durch Anwenden des Minimusoperators zwischen beiden Ergebnisbildern kann der Kantenort genau bestimmt werden (Kante muss vorher geglättet werden)
  • gute Rauschunterdrückung

Segmentierung von Bildern (RS 1 - 15)

  • Ziel ist es die Bildinhalte zu strukturieren
  • Dazu muss man zusammenhängende Bereiche im Bild finden die ähnliche Eingenschaften haben
  • Die Segmente haben bestimmte Eigenschaften
    • Alle Segmente sind zusammenhängend
    • der Schnitt zweier Segmente ist leer
    • Es gibt keine zwei Segmente die die gleichen Eigenschaften haben
    • Die Vereinigung aller Segmente ergibt das Bild

Regionsorientierte Segementierung Pixelklassifikation

  • Klassifikation von grauwertigen bzw farbigen Bildern
  • Uniformitätskriterien werden aus dem Histogramm entnommen
  • Für die Automatische ermittlung der Uniformitätskriterien sollten es möglichst einfache Zweiklassenprobleme sein
    • hoher Kontrast
    • gleichmäßige Ausleuchtung
  • Lernen von Trenngeraden mit Hilfe von statistischen Operationen aus vorgelabelten Beispielen

Segmentierung - K&Z- Zeilenkoinzidenzverfahren

  • Anwendung nach der Pixelklassifikation
  • Zeilenweise Testen zu welcher Klassen das Pixel gehöhrt, jeweils die "Region" der Nachbarn übernhemen
  • wenn zwei verschiedene Regionen aufeinander Treffen → eintrag in Äquivalenzliste
  • im zweiten Pass alle indirekten Äquivalenzen auflösen
  • Ergebnis ist ein Bild in dem die verschiedenen Regionen einer Klasse markiert sind

Region Growing

  • Beachten der Uniformität und der Nachbarschaft gleichzeitig
  • Zufälliges setzen von kleinen Wachstumskernen
  • Kerne auf Objektkanten werden entfernt
  • Zyklisches Wachsen aller Regionen bei fortlaufender Berechnung der Regionseigenschaften
  • nach dem die Regionen aufgehöhrt haben zu Wachsen werden die Uniformitätskrieterien so lange aufgeweicht bis alle Pixel zugeordnet wurden
  • Nach Abschluss des Wachstums erfolgt das verbinden von benachbarten Regionen mit gleichen oder ähnlichen Eigenschaften
    • Auflösen von Schwachen Kanten
  • Danach Neuberechung der Eigenschaften der Region und wieder von vorne beginnen
  • Probleme
    • Regionen ohne Kerne wachsen zu
    • viele Kerne führen zu hohen Aufwand

Split and Merge

  • rekursives Zerlegen des Bildes so lange bis homogene Bereiche im Sinne des Uniformitätskriteriums gefunden wurden
  • Im Merge Schritt werden alle benachbarten Regionen mit gleichen Eigenschaften verbunden (Baumstruktur ist hier von Vorteil)

Kontursegmentierung / Konturapproximation (LBS 1 - 37)

Linienverfolgung in Linienbildern

  • Suchstrahlmethode
    • Ausgangspunkt ist ein Punkt der Linie/Kontur
    • Linie wird immer in Richtung des größten Mittelwertes fortgesetzt
  • Einbereichsverfahren
    • im Radius R wird ein Kreis Segment gelegt
    • Die Grauwerte auf dem Kreis werden über ihren Winkel abgetragen
    • Linie wird in Richtung des größten Grauwertes vortgesetzt
    • Anfällig gegenüber Störungen und Unterbrechungen der Kontur
  • Mehrbereichsverfahren
    • Erweitern des Einbereichsverfahren durch mehrere achsenparallele Schnitte (Mittelung über mehrere Grauwerte)
    • Je nach Richtung der Linie muss die Schnittrichtung angepasst werden

Linienverfolgung in Gradientenbildern

  • Graphentheoretischer Ansatz
  • Regeln:
    • Ein Graph besteht aus Knoten und Kanten und die Kanten verbinden die Knoten
    • Zwischen zwei Knoten exisistiert genau eine Kante
    • Eine Kante verbindet immer zwei Knoten (keine schleifen)
    • Den Kanten wird mit einer Gewichtsfunktion ein Gewicht zugeordnet
    • Kantenfolgen bestehen aus zusammenhängenden Kanten die immer einen gemeinsamen Knoten haben
    • Ein Pfad ist eine Kantenfolge aus verschiedenen Kanten
    • Ein Zyklus entsteht wenn der gleiche Knoten mehrmals nicht benachbart auftritt
    • Das Gewicht eines Pfades ist die Summer aller Gewichte der Kanten
  • Ziel ist es einen maximalen oder minimalen Pfad zu finden
  • ohne Einschränkungen führt da schnell zur kombinatorischen Explosion

Linienverfolgung in binarisierten Linienbildern ohne Skeletierung

  • Linienverfolgung erfolgt mit Hilfe von Schnitten parallel zu den Achsen
    • ein Schnitt besteht aus zwei "0" Punkten zwischen denen eine begrenzte Anzahl von "1" Punkten liegt
  • Es werden in der Nachbarschaft von bereits gefundenen Liniensegmenten weitere durch Schnitte gesucht
  • Keine Nachbarpunkte → Linienende
  • Wenn ein "1"-Punkt in der Nachbarschaft liegt aber kein gültiger Schnitt → Schnittrichtungswechsel machen
    • Wenn dann immer noch kein gültiger Schnitt exisistiert → Verzweigung/ Kreuzung

Linienverfolgung in skelettierten Bildern

  • Konturbilder sind binarisiert und sekelettiert
  • FREEMAN-Ketten
    • Richtungszahlen zur Beschreibung der Linien
    • Koordinaten für Anfangs, Endpunkte, Verzweigungen und Kreuzungspunkte
  • Einteilung der 3x3 Umgebung in Relevanzklassen
    1. irlevante Punkte (Punkte auf den Linien)
    2. Eckpunkte
    3. Endpunkte
    4. Kreuzungen und Verzweigungen
  • Wenn mehrere Relevante Pixel benachbart sind wird nur der mit der höheren Relevanz notiert
  • Weitere Vereinfachungen können dann durch Approximationsalgorithmen erfogeln

Modellbasierte Segmentierung (Houghtransformation)

  • Ziel ist das suchen von Objekten bei starken Störungen
  • Idee ist das überführen des Bildes in einen Parameteraum in dem die enthaltenen Objekte einfach abglesen werden können
  • Am Bsp einer Linie
    • Jeder Punkt kann ein Punkt beliebig vieler geraden sein
    • Alle diesen möglichen Parameter dieser Linien werden jetzt im Parameterraum eingezeichnet
    • als Transformationsformel, wenn man m vareieren möchte ergibt sich
    • liegen nun mehrer Punkte auf ein und der selben Gerade ergibt sich im Parameteraum ein Schnittpunkt bei dem Parameter dieser Geraden
    • Senkrechte geraden haben Schnittpunkte im unendlichen wenn man nicht die Hessesche Normalform für Geraden verwendet
  • um das verfahren zu Beschleunigen können zusätzliche Informationen genutzt werden die die möglichen Parameter einschränken können (z.B. Gradientenrichtungen bei Linien)
  • So lange der Parameterraum nicht zu groß wird können so beliebige Objekte gefunden werden

Segmentierung in Kurvenprimitiven

  • Ziel ist das Zerlegen eines Bildes in Kreise, Splines, Polygone
  • Zur Bildanalyse reicht meist die Zerlegung in Polygone

Split & Merge

  • Zwei Punkte notwendig (einen Anfangspunkt und einen Endpunkt)
    1. Wähle den Punkt mit der größten Abweichung die über dmax liegen muss und füge ihn der Kontur hinzu (Split)
    2. Wiederhole so lange bis alle Punkte einen Abstand <dmax haben
    3. Verbinde Geraden die einen Winkel von 180° +- Toleranz haben (Merge)

Strip Algorithmus

    1. Wähle die ersten beiden Punkte eines Geradensegments
    2. Alle Punkte innerhalb innerhalb des Slauchs liegen werden einer verketteten Liste hinzugefügt
    3. Der erste Punkt ausserhalb und der letzte in der Liste ergeben eine neue gerade
    4. Wiederhole bis alle Punkte zugeordnet sind
  • Problem ergibt sich wenn zwei Punkte aufgrund von Fehlern die Gerade nicht Optimal vorgeben

Enhanced Strip Algorithmus

    1. Wähle den ersten Punkt und den ersten Punkt der ausserhalb eines Kreises mit dem Radius den Toleranzschlauches liegt
    2. Die beiden Punkte bestimmen die Gerade mit ihrem Toleranzschlauch
    3. Suche nun den am weitesten Entfernten Punkt der keinen Schnitt mehr mit dem Toleranzschlauch hat (Kreis um Punkt ist ausschlaggebend)
    4. nehme den vorhergehenden Punkt und beginne dort mit einem neuen Liniensegement
    5. Wiederholen bis alle Punkte Verbaucht sind
  • Hat Probleme bei Rückläufigen Kurven → Dunham hat Lösung vorgeschlagen bei dem der Punkt, der am dichtesten an dem weitentferntesten Punkt des aktuellen Segments und den größten Index hat, der Endpunkt des Segments werden sollte

Merkmalextraktion (ME 1 - 4)

Morphometrische Merkmale (MM 1 - 14)

Klassifikation (Klassifikation 1 - 20)

Siehe Grundlagen der Farbbildverarbeitung

Clusterverfahren (Klassifikation 21 - 38)

Stochastische Approximation als Lernverfahren für Ebenenklassifikator (Farbpixelklassifikation 40 - 47)