Grundlagen der Farbbildverarbeitung
Zum Verständnis von Farbe, Spektren und ähnlichen Grundlagen (ca 50% der Vorlesung) empfiehlt sich folgendes Buch:
"Multispektrale Verarbeitung und Reproduktion von Farbbildern" von Werner Praefcke (siehe Bibliothek)
Link zum Vip toolkit
Einführung (GF_a 8 - 47)
Geschichtliches zur Farbe
Newton
- 1672: New Theory about Light and Colours
- Sonnenlicht = Mischung einzelner Farben
- Spektralfarben sind objektive Eigenschaft des Lichtes
[...]
Goethe
[...]
Begriff der Farbe
- Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar
- Leistungsdichte stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft
- Vektoren sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes
- Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:
- zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen
- zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System
- zur Nutzung optimaler Naturprinzipien für technische Lösungen
- weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist
- weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen
- weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden
- menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden
- Drei grundsätzliche Anwendungen von Farbinformation:
- Pseudokolorierung
- Falschfarbendarstellung
- Echtfarbdarstellung (True Color) hier Schwerpunkt
Farbtäuschung
- Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden
- Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen
- es existieren unterschiedliche Arten solcher Täuschungen:
- Farbinduktion oder simultaner Farbkontrast (Farbe wird durch ihre Umgebung modifiziert)
- Farbkonflikt (es konkurrieren verschiedene Sehinformationen miteinander)
- Subjektive Farben (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)
Simultaner Farbkontrast:
- erstmals 1839 beschrieben
- wo der Effekt entsteht (Auge, Cortex) ist unklar
Farbinduktion:
- bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung
- kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein
Farbkonflikt:
- Formen und Strukturen konkurrieren mit Farben (White'sche Illusion)
Subjektive Farben:
- durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren (Drehwurm in Farbe)
Farbwahrnehmung beim Menschen
[...]
Rezeptive Wahrnehmung
- 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)
- erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren
Postrezeptive Wahrnehmung
- Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden
- Es werden 4 Farben als besonderst "rein" empfunden (Rot, Gelb,Grün, Blau)
- Unbunte Farben werden werden als das fehlen von Farben wahrgenommen
- Schwarz scheint gleichberechtigt zu Weiß
- keine wahrgenommene Farbe erscheint zugleich rötlich und grün
- das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte
- Rot - Grün
- Gelb - Blau
- Schwarz - Weiß
- → CIELab-Farbraum
Kortikale Kodierung
- Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen
- Deshalb erweitertes Modell
- Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben
- Sättigung beschreibt wie stark eine Farbe verblasst ist
- Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist
- Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt
Die Ordnung in der Welt der Farben
- Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen
- Goethe verwendete das Gegenfarbenmodell
- Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind
- führt zu einem geometrisch nicht regelmäßigen Körper
Das Modell der Farbe
- Definition
- Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)
- Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell
- drei linear unabhängige Größen
- Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)
- drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes
Farbvalenz
- Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben
- ... Farbvalenz
- ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)
- ... die Farbwerte
- ... die drei Primärvalenzen
- Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode
- Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird
- wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte
- Innere Farbmischung
- das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät
- Äußere Farbmischung
- Wir beleuchten das Target mit farbigen Lichte
Farbreizmetrik
- Die Farbreizfunktion beschreibt die spektrale Zusammensetzung der Farbempfindungen
- Selbstleuchtende Objekte
- beschreibt die spektrale Verteilung der Quelle
- Wahrnehmung:
- Auflicht Vorlagen
- beschreibt den spektralen Remisionsgrad der Vorlage
- Wahrnehmung: Licht reflektiert von der Vorlage
- Durchlichtvorlagen
- spektraler Transmissionsgrad der Vorlage
- Wahrnehmung von Licht welches die Vorlage durchdrungen hat
- Selbstleuchtende Objekte
- Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe
- Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)
- Das Remmisionsverhalten der beleuchteten Oberfläche
- Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges
- Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen
- Die Farbwerte könnte man dann wie folgt ermitteln:
- Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt
- Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden
- Man erhält damit folgende Kurven
- Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln
Farbanalyse, Zusammenhang mit der Farbwidergabe
- Das Kammera - Monitor System soll die Farbe exakt wiedergeben
- Der Monitor verwendet EBU Phosphore für die Farbdarstellung
- haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr
- Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)
- Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen
- technisch ist das nicht möglich
- es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen
Subtraktive Farbmischung
- Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )
- wenn die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man
- mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen
- w ... Dicke des Materials im Verhältnis zum norm Material
- mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen
- c... Das Verhältnis der neuen zur alten Dichte
- kann man auch kombinieren zu (Lambert-Beersches Gesetz)
- mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen
- Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)
- Damit vereinfacht sich das Lambert-Beersche gesetz zu:
- selbstverständlich sind die Transmission und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen
- Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche
- Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch dringt an Licht durch den ersten Filter!
- ... Remmisionsgrad der ersten Farbe
- ... Spektrale Verteilung der Lichtquelle
- Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch dringt an Licht durch den ersten Filter!
Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55)
Unterschiedliche bildgebende Systeme z.B. Farbkameras Farbscanner Spezialkameras
Widerspruch Farbmetrische Schnittstelle
Unterschiedliche Bildwiedergabesysteme "True-Color-Darstellung" - unterschiedliche Monitore, Beamer, Drucker etc.
Leuchtdichte (Luminanz)
- Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden
- Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte konstant bleibt
\\ Bild
- Leuchtdichte berechnet sich nach dem Abneyschen Gesetz:
-
- Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem
- Leuchtdichte L Intensität I
- die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt
\\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz
Gammakorrektur und Luma
- Gammakorrektur:
- Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal
- Die Luminaz der drei einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!
- Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten
- Die Gammakorrektur ordnet dem Linearen verlauf der Helligkeit, eines Monitors zum Beispiel, eine Quadratische Kurve zu, damit die Hellempfindungskurven des Menschen und die modifizierte Helligkeitskurve des Monitors, zu einer linearen Funktion werden --> lineares Hellempfinden
- Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden
- Luma:
- Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'
- Damit ist Luma nicht gleich Luminanz
- Brightness
- Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder wie hell sie erscheint
- Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL
Farbsysteme, Farbräume, reduzierte Farbräume
- Die Intensität einer Farbe ist
- Wählt man die Intensität konstant mit so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht
- Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel
- Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben
- in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden
- Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt
Das Normvalenz- oder XYZ-System (GF a 76 - 86)
- Alle Farbwerte sollen durch positive Farbwerte darstellbar sein
- Für Farbmessung von Interesse
- Das XYZ- Dreieck muss den spektralen Kurvenzug voll umschließen
- Eine weitere Forderung ist das die Leuchtdichte als unabhängige Komponete auftreten soll
- Die Fläche des Dreiecks soll so klein wie möglich sein
- Die dadurch berechnbaren Normalvalenzen sind physikalisch nicht erzeugbar -> Die Spektralwertkurven für das System müssen berechnet werden
- Die Berechneten Spektralwertkurven sind stets nichtnegativ -> immer positive Transmissionsgrade und Sensorempfindlichkeiten
- Mit dem XYZ-System kann man nun Farbdreiecke vergleichen und Bewerten
- Abstände, Fehler und Systemeigenschaften sollten aber in einem empfindungsmäßig gleichabständigen Farbraum bewertet werden (u'v'w' und CIELab)
- Optimalfarbkörper
- Beschreibt die Grenze aller darstellbaren Körperfarben
- Zur Erstellung schneidet man rechteckförmige Stückchen aus dem Spektrum von Idealweißem Licht aus
Das UVW-System
- Informationsgehalt der Farbe für den Menschen hängt davon ab welche Farbunterschiede er wahrnehmen kann
- Vor allem ist das interessant wenn Bildverarbeitungsprobleme auf der menschlichen Wahrnehmung formuliert sind
- xy-Farbtafel hat starke Unterschiede zwischen örtlichen Abstenden und empfindungsmäßigen Abständen -> ungeeignet
- erste Lösung
- lineare Transformation
- W' -> Helligkeit
- U' -> Rot-Grün Bundheit
- V' -> Gelb-Blau Bundheit
- Ergebnis
- Wesentlich besseres Darstellung der Empfindung (Faktor 10 gegenüber dem XYZ-System)
- verbesserte Lösung
- verwenden einer nicht linearen Abbildung (Auge wird mit berücksichtigt)
L*a*b* oder CIELAB-Raum
- Gegenfarbmodell
- empfindungsmäßig gleichabständiger Raum
- Grundsätzlich zur Angabe von Farbabweichungen verwendet
- Geeignet zur Bewertung von Druckern, Monitoren und Abweichungen von Nachfärbungen
- als Farbdifferenzmaß wird der euklidische Abstand benutzt (<1 nicht mehr Wahrnehmbar)
L*u*v* oder CIELUV
- für additive Mischung vorgesehen
- wie der CIELAB- Raum ein empfindungsmäßiger gleichabständiger Raum
YCbCr - Crominanzwertsystem
- Entwickelt damit Farbfernsehen und S/W-Fernsehen Parallel betrieben werden konnten
- Crominanzwerte
- sind von Leuchtdichte befreite Werte
- verschwinden für alle unbunten Farben
- Cr= R-Y, Cg = G-Y, Cb = B-Y
- Das System aus CrCbCg und Y ist überbestimmt => Es reicht die Übetragung von Cr , Cb und Y
- Da das Auge auf Helligkeitsunterschiede empfindlicher reagiert als auf Farbunterschiede können die Crominanzwerte mit geringerer Auflösung übertragen werden
ΘSY - System
- Der Bunttonwinkel Θ berechnet sich aus dem Verhältnis der Crominanzwerte Cb und Cr
- Die Sättigung S ist der Betrag des Vektors CrCb
HSI - Farbraum
- Intensität:
- Sättigung:
- Hue:
- Raum ist nicht gleichmäßig gefüllt
- bei kleinen Intensitäten I in Buntton und Sättigung Instabil
- Es kann bei Farbmanipulationen dazu führen das es keine Entsprechungen im RGB gibt
- Lösungen:
- Dachförmige Begrenzung des HSI Raums -> sehr Aufwendig
- Normieren der Intensitäten -> Bild kann ins dunkle verschoben werden
- Maximalwert setzen -> Falsche Farbwerte (werden ins unbunte verschoben)
- proportionales skalieren bis Farbe im RGB-Würfel liegt
- Lösungen:
- Farbunterschiede sind nicht empfindungsmäßig gleichabständig
HSL - Farbraum
- Gern für Computergrafik verwendet
- einfache Beziehungen
- Die Verwendeten Biegriffe H,S,L entsprechen nicht der Bedeutung in der Farblehre und Form des Raumes
- Farbunterschiede sind nicht empfindungsmäßig gleichabständig
- Buntton ist extrem instabil bei kleinen Sättigungen
- Form des Raumes ist unpraktisch
Farbmessung (GF 1 - 11)
- Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen
- 3 Messmethoden:
- Vergleichsmethode oder Gleichheitsverfahren
- Spektralverfahren
- Dreibereichsverfahren
Gleichheitsverfahren
- Vergleiche:
- Vorlage mit additivem Gemisch
- Vorlage mit Farbmusterkarten (DIN-Karten)
- unverzichtbar bei physiologischen Untersuchungen
- aufwendig und bei kleinen Probandengruppen ungenau
- d.h. für technische Messungen ohne Bedeutung
Messbedingungen nach DIN:
- helladaptiertes und blendfreies Sehen
- unbunter Messraum
- neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld
- gut ausgeruhtes und neutral gestimmtes Auge
- farbnormalsichtiger Beobachter
Spektralverfahren
- zu messende Farbvalenz = Summe spektraler Farbvalenzen
- greift auf gemessene Normspektralwertkurven zurück
- spektrale Messung zur Ermittlung der Farbreizfunktion
- Selbststrahler: direkte Messung der Strahlungsfunktion
- remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus heraus zu rechnen
- farbvalenzmetrische Auswertung
- wenn ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle eingesetzt werden
- Normierungskonstante k:
- Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig
- Körperfarben: Y für mattweißen Körper = 100, d.h.
Messgeometrien:
\\ Bildergalerie (45°,8°,Transmission)
- 45°-Geometrie: Beleuchtung unter 45° schließt Glanzeinfluss aus Sensor blickt senkrecht auf Probe
- 8°-Geometrie: Beleuchtung diffus über Ulbricht-Kugel Sensor blickt unter 8° auf Probe; Messung mit/ohne (mittels Absorber) Glanz möglich
- Transmissionsgeometrie: Probe wird durchleuchtet
Dreibereichsverfahren
- die drei Farbwerte werden direkt photometrisch gemessen
- Filter und spektrale Empfindlichkeite der Strahlungsempfänger müssen an die spektrale Bewertungsfunktion angepasst sein
- Luther-Bedingung:
- ... Filtertransmission
- ... Sensorempfindlichkeit (hier im ersten Kanal)
- ... Gerätekonstante
- Für den Y und Z Kanal ist die Formel analog
- Der notwendige Filter kann gut durch ein Set von Schmalbandigen Filtern realisiert werden
Spektralmaskenverfahren
- spezielles Dreibereichsverfahren
- Lichtzerlegung erfolgt mit einem Prisma
- Das zerlegte Lich beleuchtet eine Maske (Papier, Plaste, Metal .... ne richtige echte Maske)
- Messen der spektralen Verteilung (CCD-Zeile)
- Ähnlich dem Spektralverfahren nur das das spektrum bereits im analogen entsprechend gewichtet wird
Metamerie
- zwei Farbproben die bei einer bestimmten Beleuchtung gleich aussehen können bei einer anderen Beleuchtung ganz anderst aussehen
- Der Metermarie-Index beschreibt diesen durch Beleuchtungswechsel entstehenden Farbwechsel
- KEIN Maß für die Farbkonstantheit sondern für den Unterschied von zwei Proben
- Berechnung erfolgt im L*a*b* Raum
- T ... Testlicht
- B ... Bezugslicht
- 1,2 ... Probennummern
Klassifikation von Messaufgaben (GF 82 - 86)
- Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen
- vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)
- Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein
- Wahrnehmung unterschiedlicher Farben eher Nebeneffekt
- Überwachung der Stabilität von farblichen Erscheinungen
- ist bei einer oder mehreren Beleuchtungen zu überwachen
- absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt
- Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln
- absolute Farbmessung
- d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen
- Spektralwertkurven müssen realisiert werden
- Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien
- ausschließlich spektrale Messverfahren
- Messung der Strahlungsfunktion und der remittierten Leistungsdichte
- Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index
steigende Ansprüche mit steigender Nummerierung
Einfache Farbkalibrierung (GF 16 - 41)
- Farben sollen möglichst exakt Wiedergegeben werden
Ausgleich von Beleuchtungseinflüssen
- Körperfarben werden durch ihre Remmision bestimmt
- Bei unterschiedlicher Beleuchtung sehen Farben unterschiedlich aus aber das Auge kann sich an die Beleuchtung adaptieren
- Funktioniert bei Fotos aber nicht -> Beleuchtungsausgleich ist wichtig
- Bei Farbvergleich noch viel mehr
- Wird realisiert durch Weißabgleich (auf integraler Farbebene nicht möglich )
- Direkte Vermessung der spektralen Eingenschaften der Kamera nicht möglich (Da Werte in Kamera bereits verrechnet werden um z.B. die negativen Anteile der Spektralkurven zu realisieren)
- sehr Aufwendig (Kamera auseinanderbasteln um an die echten werte zu kommen + das durchgehen durch das Spektrum in kleinen Schritten)
- Daher Verwendung von Testfarben
- Führt auf Lösung eines linearen Gleichungssystem
- Für menschliches empfinden -> Optimieren im CIELAB-Raum
- Vorsicht bei nichtlinearen Funktionen zur Farbkalibrierung -> Kann bei zu wenig Testfarben zu total falschen Ergebnissen führen !!
Color Management (F CM 1 - 20)
- verschiedene Geräte können verschiedenen Farben darstellen
- verschiedene Geräte verwenden andere Grundfarben zum mischen
- Mit Hilfe von Profilen (Tabellierung der Farbwerteumrechnungen) wird eine Konvertierung der Farben vom Geräteraum in den CIELab Raum bzw umgekehrt durchgeführt
- in den Profilen wird auch vermerkt welche Farben darstellbar sind und welche nicht
- Somit kann man eine "Druckvorschau" auch auf einem Monitor erreichen (natürlich nur für Farben die auf beiden Geräten dargestellt werden können)
- Jedes Mapping der Farben (Gamut-Mapping stellt somit einen Kompromiss dar)
- Perceptual (Die Farbbeziehungen untereinander werden erhalten) Komprimierung des Gamuts bis er in den zur Darstellung verwendeten passt
- Colometrisch -> Exakte Reproduktion aller in beiden Gamuts darstellbaren Farben
- relativ -> weiß wird auf weiß abgebildet und alle anderen Farben relativ dazu
- absoult farbmetrisch
- Saturation, alle Farben außerhalb des Zielgamuts werden zugunsten der Sättiung verändert
- Jedes Mapping der Farben (Gamut-Mapping stellt somit einen Kompromiss dar)
- Kalibrierung -> Versetzen des Gerätes in einen definierten, reproduzierbaren Zustand
- Charakterisierung -> Modellierung eines Gerätes welches sich ein einem stabilen definierten Zustand befindet
Kameras (GF_Ka 1 - 12)
Einsatzfelder:
- ortsaufgelöste Messung von Farbe
- Aufnahme und Wiedergabe von True-Color Bildern
- Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)
- Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)
- Radiometrische Anwendungen (Messen im Spektralbereich)
Dreibereichsmessung:
- setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind
Dreichip-Kameras
\\ Bild
- optische Kanaltrennung und Bewertung
- beste Bildqualität, da hohe Auflösung in allen drei Kanälen
- keinen örtlichen Versatz der Pixel in den drei Farbauszügen
- Filter einfacher und präziser zu realisieren
- befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen
\\ Hot-Mirror-, Cold-Mirror-Korrektur????
Einchip-Kameras
\\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges
- örtliche Kanaltrennung und Bewertung
- Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung
- 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation
- Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein
- kostengünstiger und kleiner als Dreichip-Kameras
- Probleme:
- Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)
- nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen
generelle Anforderungen an die Signalverarbeitung:
- primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)
- je nach realisierten Filtern und Genauigkeitsansprüchen lineare Matrizierung (meist Kameraintern) oder komplexere Approximation
- bei hohen Genauigkeitsansprüchen Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind
- insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:
- Farbvalenz ändert sich kontinuirlich mit der Shutterzeit
- Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt
- Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt
- Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus
4 spektrale Bereiche:
\\ Bild
- vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität
- im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern
- Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus
Sequentielle Einchip-Kamera
\\ Bild
- zeitliche Kanaltrennung und Bewertung
- relativ genaue Approximation der Spektralwertkurven möglich
Elektrisch steuerbare Filter
- über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen
Verarbeitung von Farbbildern (1 - 31)
- Das unabhängige verarbeiten der Farbkanäle eines Farbbildes führt zu Nebeneffekten wie Farbsäume
- Die höhere Vielfalt des mehrdimensionalen Raumes von Farbbildern kann Vorteilhaft genutzt werden für Pixelklassifikation, Segmentierung
- Abstände, Mittlere Werte und örtliche Veränderungen sind in empfindungsmäßig gleichabständigen Räumen zu definieren und zu bewerden
Histogramme und Statistiken für Farbbilder
- Farbbilder liefern dreidimensionale Häufigkeitsverteilungen im Farbraum → können als Approximation der entsprechenden 3D-Dichten verwendet werden
- statistische Zusammenhänge zwischen den Kanälen werden in mehrdimensionalen Dichten betrachtet
- Für Handauswertung meist nur 2D-Dichten, wegen der Übersicht
- Für maschinelle Auswertung können diese dichten auch dreidimensional werden
- für die parametrische Darstellung der Cluster werden meist multivariante Gaußverteilungen eingesetzt
- Einr Gaußverteilung ist für die Beschreibung eines Bildes mit mehreren Objekten nicht geeignet
- Die Kovarianzmatrix einer solchen "Approximation" kann aber gut zur Einschätzung der Streuung und der Mittelwerte in dem Bild eingesetzt werden
Histogramm - Modifikationen
- Contrast Streching, Polygonal Image Scaling, Histogram-Equalisation Siehe Grundlagen der Bildverarbeitung
- Manipulation kann in verschiedenen Farbräumen ausgeführt werden (RGB,HSI,...)
- In nicht empfindungsmäßig gleichabständigen Räumen muss die Transformation nicht unbedingt zum Ziel führen
Manipulation im Farbraum RGB
- ist der Farbraum in dem die Daten häufig vorliegen
- Wirkung kann auf Grund der starken korrelation der RGB Werte bei geringen Sättigungen ausbleiben
- Farbverfälschung wenn einzelne Kompontenen unabhänig von einander behandelt werden
- hohes apriori-Wissen notwendig
- wenn Falschfarbdarstellung gewünscht ist kann dies das mittel der Wahl sein
Manipulationen im Farbraum HSI
- unproblematisch in Bezug auf Farbverfälschungen
- Zielsetzungen können sich einfacher beschreiben lassen (ähnelt der Beschreibung von Farbe durch den Menschen)
- unabhängige Komponente (Intensität)
- Kontrastverbesserung durch Sättigungsausgleich ohne Farbveränderung möglich
- Stabilitätsprobleme nahe den unbunten Farben
- Ausgleich des Intensitätshistogramms
- Werte möglich die keine entsprechung mehr im RGB haben → müssen geeignet herruntergerechnet werden
- bei kleinen Intensitäten sind die Bunttöne instabil → ausschließen von Veränderungen
- Sättigungsausgleich
- Modifikation der Sättigung unter Beibehaltung des Bunttones
- Bei kleinen Sättigungen und kleinen Intensitäten ist der Buntton instabil → Ausschließen
- Histogramm über alle Bunttöne ist häufig verschmiert → besser Histogramm über Buntton Segmente
- Bunttonausgleich
- Ziel sind Farbfalschbilder um Objekte besser unterscheiden zu können
- bei zu großen Buntton Änderungen wird die Interpretierbarkeit nur bei homogenen Flächen verbessert, meist wird sie eher verschlechtert
- Unsicherheit des Bunttons → bei geringen Sättigungen und Intensitäten ist der Buntton auszuschließen
segmentgesteuerte Farbvalenztransformationen
- Globale Statistiken werden häufig durch nicht interressante Objekte dominiert
- Ausweg ist das Betrachten von Ausschnitten und anwenden der Transformationen auf die Ausschnitte
- erfordert zu erst das Segmentieren des Bildes
Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 )
- unter bestimmten umständen kann auf eine Kalibrierung der Kamera mittels Referenzfarben verzichtet werden
- Zur Korrektur soll die parametrische Approximation der 3D-Histogramme durch multivariante Gaußverteilungen genutzt werden
Vorraussetzungen für die Anwendbarkeit
- Strukturierte Szene mit mehreren ntürlichen Objekten, die gleichmäßig über den Bunttonwinkel verteilt sind und durchschnittlichen Sättigungsgrad aufweisen
- Langgestreckter SW-Prozess im Vergleich zum Rot-Grün und Blau-Gelb Prozess
Vorgehensweise
- Korregieren von "vermutlichen" Abweichungen des Bildes in der Unbuntheitsachse
- Dazu Ermitteln der Hauptachsen mit PCA
- Drehen der Hauptachse in den SW-Prozess
- Rücktransformation und Darstellung
Histogrammbasiertes Farbmatching(1 - 15)
- Histogramme sind im 2D Bild invariant gegenüber Rotation, Translation und Maßstab (wenn die Angaben relativ erfolgen !)
- Histogramme sind auch relativ stabil gegenüber moderaten Verdeckungen und 3D-Rotation
- Grobe Quantisierung der Histogramme um Fehlertoleranz zu erhöhen
- Damit können Histogramme zur Objekterkennung eingesetzt werden → Bezeichnet als Color Indexing
uniformes Binning
- einteilen der Farben in ein gleichverteiltes Histogramm
- Suche in einem Bild den Ausschnitt welcher eine minimale Distanz zum Referenzbild hat
- Als Abstandsmaß verwendet werden die Histogramme genutzt
- Summe der Quadratischen Differenzen (Histogramme als Vektoren betrachtet und dann den euklidischen Abstand berechnet ohne Wurzel)
- Earth Movers Distance (Berechnen was sich wohinverteilt haben könnte ... erfordert die Lösung des Transportproblems)
- einfach aber die Bins ändern sich Sprunghaft, vor allem dann wenn Farben knapp an den willkürlichen Bingrenzen liegen
Unscharfe Chroma-Orts-Histogramme
- Nachteile des uniformen Binning sollen überwunden werden
- Alle Pixel bekommen eine unscharfe Klassenzugehörigkeit (Binnzugehörigkeit) je nach Abstand zum entsprechenden Binnmittelpunkt (wie bei Fuzzy-C-Means)
- Ein Parameter ermöglicht dabei die Verunschärfung einzustellen (von total unscharf bis zum festen Binning)
- Auch der absolute Ort der Segmente (aus denen die Histogramme erstellt werden) soll mit verwendet werden
- Dazu wird das Bild in entsprechende Bereiche geteilt (8x8,16x16,...)
- Alle Blöcke werden durchnnummeriert
- Auch hier kommt es zu harten Umbrüchen wenn Pixel knapp an den Grenzen liegen → auch hier verunschärfen
- Welche Indizees haben die Nachbarn? (Nachbarschaft in den Indizees der Blöcke heißt nicht gleich 2D-Nachbarschaft)
Cluster mittels Graphenansatz
- Ziel ist es:
- Sprunghafte Änderung der Binns zu verhindern
- wenige Merkmale zu verwenden
- Eng beieinander liegende Maxima trotzdem unterscheiden zu können
- Verwendete Bilddaten:
- Farbwinkelhistogramm, wenn Sättigung der Farben ausreichend ist
- Intensitätsdiagramm, wenn Sättigung der Farben zu gering wird
- Vorgehen:
- Jeder Wert im Histogramm zeigt auf den Größten in seiner Nachbarschaft
- Das Maximum zeigt auf sich selbst → Wird Merkmal
- Weiteres Merkmal ist die Fläche die zum Maximum gehört (Nachbarn die direkt bzw. indirekt auf das entsprechende Maximum zeigen)
- Match:
- Finde ein Maxima-Tupelpaar (Maxima in Referenzhistogram und Suchhistogram mit dem geringsten Abstand)
- Ziehe gemeinsame Fläche von jedem Tupel des Paares ab --> negative Flächen
- summiere nun die beiden Flächenwerte --> Elemente di zu Tupel gehören werden entfernt durch negative Flächenwerte
- Wiederhole bis sich keine Tupelpaare mehr bilden lassen
- beziehe die laufende Summe auf das Maximum der Summe der ursprünglichen Flächen
Störunterdrückung (SU 1 - 16)
- Für nachfolgende Verarbeitungsschritte ist die Störunterdrückung sehr wichtig
- Verschiedene verfahren der Rauschunterdrückung sind in BV eingeführt worden
Störunterdrückung durch Faltungsfilter
- Anwendung wird einfach vektoriell durchgeführt (als würde man drei unabhängige Bilder gleichzeitig Filtern wollen)
- es entstehen neue Farbtöne an den Übergängen zwischen Farben
- im HSI Farbraum ist eine getrennte Betrachtung der Farbe und der Sättigung/Intensität möglich
- Buntton ist zyklisch → muss bei der Mittelung beachtet werden
- in der Farbe kann stärker gemittelt werden als in der Helligkeit (Auge nimmt Farbveränderungen schlechter wahr)
- Komplexe Zahlen bieten sich hier als Rechenmittel an
adaptive gewichtete Mittelung
- detailerhaltende Fähigkeiten von Filtern wegen der Farbsäume besonders von Interesse
- Abstände verkomplizieren sich im Vergleich zu Grauwertbildern (Vektorabstandsmaße, Winkeldifferenzen,...)
- Vorgehen nach dem Berechnen des Abstandes dann wieder Analog zur Grauwertfilterung
Medianfilterung
- Problem bei der Übertragung des Rangordnungsgedankens auf Vektoren
- Komponentenweises Vorgehen ist nicht geeignet (absolute Farbverfälschungen möglich)
- Suche des besten Vertreters des SETS (wenn der verwendete Media im SET ist werden keine zu falschen Farben gewählt/gesetzt)
- kleinste Abstandssumme zu allen anderen Pixeln
Kombination von Averaging und Medianfilterung
- Medianfilter ist gut für Impulsrauschen, schlecht bei Gauß hier ist Average gut
- Bei den Filtern gibt es keinen unterschied zu den Grauwertbildern (unterschied besteht nur in der Realisierung der verwendeten Media/Average Filter nicht in ihrere Kombination)
Vektor-Richtungs-Filter
- Basic Vecotr Directional Filter
- Winkel zwischen Farbvalenzen als Distanzmaß
- Ergebnis ist die Farbvalenz mit der kleinsten Winkeldifferenzsumme zu allen Valenzen des Fensters
- Achromatische Rauschkomponenten werden nicht beseitigt
- Generalized Vector Directional Filter
- Suche nach den besten Vektoren aus Sicht der Richtung
- Medianfilterung der Beträge der Vektoren
- Directional Distance Filter
- Vermeiden der Ineffizenz des GVDF Filters durch ein gemischtes Distanzmaß (Betrag und Winkel gleichzeitig)
Kantendetektion in Farbbildern (1 - 21)
- Wichtig für Segmentierung, Bildanalyse und Bildverstehen
- Kantenfilter bereits aus BV bekannt
- Vektrogradient
- Berechnen der Jacobi-Matrix
- Wurzel aus dem größten Eigenwert ist der Vektorgradient
- Extrem Rechenaufwendig
- Mittelwert der Richtungsableitungen
- Entspricht dem Gradienten im Intensitätsbild
- Zwei engegengesetzte Gradienten in unterschiedlichen Farben können sich gegenseitig aufheben → der Gradient der dritten Farbe dominiert egal wie klein er ist
- Maximaler Gradient
- Suche nach dem Gradienten mit dem größten Betrag
- Korrelation der einzelnen Gradienten ist nicht von Bedeutung
Farbpixelklassifikation (Farbpixelklassifikation 1 - 21)
- Die Farbvalenzen bilden die Merkmale der Pixel
- Anzustrebende Eigenschaften
- Gute Beschreibung der Klassencluster und gute Trenneigenschaften
- Einfache Belehrbarkeit (Aus Beispielen oder Expertenwissen)
- Echtzeitfähigkeit
- möglichst frühe Stufe der Verarbeitungskette ("Anspruchslosigkeit an das Bild")
- Nutzen von Klassenzugehörigkeitsmaßen
optimaler Klassifikator
- basiert auf dem Bayes-Theorem
- findet die optimale Klassenentscheidung
- Jeder Datenpunkt wird in die Klasse eingeordnet zur der er am Wahrscheinlichsten gehöhrt und bei der er die kleinsten Kosten für die anderen Klassen verursacht
- Benötigt eine Risikofunktion die Angibt wie groß die Kosten bei Fehlklassifikation zwischen zwei Klassen sind
- Meist unbekannt und deswegen wird davon ausgegangen das die Kosten für jede Fehlklassifizierung gleich sind
- Kosten können durchaus auch bei richtiger Klassifikation definiert werden
- Benötigt die Wahrscheinlichkeitsverteilung der Klassen im Raum (Meist unbekannt → Problem)
- können beliebig sein werden aber meist durch Gaußfunktionen approximiert
- in der Lernphase werden die Parameter dieser Verteilung geschätzt
- Benötigt eine Risikofunktion die Angibt wie groß die Kosten bei Fehlklassifikation zwischen zwei Klassen sind
- Da Wahrscheinlichkeitsverteilung meist unbekannt ist, wird der Klassifikator ehr genutzt um einen anderen Klassifikator zu bewerten, wenn man eine bestimmt Wahrscheinlichkeitsverteilung festlegt (wie optimal ist der andere Klassifiaktor)
Maximum-Likliehood-Klassifikator
- im Ansatz wie optimaler Klassifikator
- setzten der Risikofunktion für alle Fehlklassifikationen auf einen konstanten Wert
- verwenden von multivarianten Gaußdichten zur Beschreibung der Klassen
- Entscheidung wird nur noch nach der a posteriori Wahrscheinlichkeit und der Klassen Verteilung gefällt
Malanobis-Abstandsklassifiaktor
- schränkt den optimalen Klassifikator noch weiter ein im vergleich zum MLK Klassifikator
- Kostenfunktion für Fehlklassifikation ist konstant für alle Fehlklassifikationen
- Die a posteriorie Wahrscheinlichkeit für das auftreten der Klassen sein für alle Klassen gleich
- Die Kovarianzmatrizen der Gaußverteilung der Klassen sind ähnlich
- Damit ist die zuordnung zu den Klassen nur noch vom Abstand zu den Klassenzentren bestimmt
- Abstandsmaß ist die Mahalanobis-Distanz
Gaußklassifikator und Kernel-Densitiy-Klassifikator
- schränken noch weiter ein
- Gaußklassifikator
- keine Kovarianzen mehr in der klassen Verteilung → Kugelförmige Klassenverteilungen
- Kernel-Density-Klassifikator
- Spezialfall von Gauß-Mischverteilungen
- [... was genau der Macht frage ich in der Konsultation mal nach ... im Skript steht nix brauchbares]
LUT-Klassifikator
- direktes Verwenden der Stichprobenhistogramme
- erforder Closing im Merkmalsraum da nicht alles durch die Stichproben abgedeckt werden wird
Clusterverfahren (Farbpixelklassifikation 19 - 29)
- Ziel ist es komplexe Klassenbeschreibungen durch mehrere parametrische Einzelcluster zu approximieren
- Beliebig komplexe Klassenformen lassen sich so Speichereffizient beschreiben
- trotz Komplexer Beschreibung bleibt eine weiche Klassengrenze möglich
Erzeugen der Cluster
Radiusrestriktionsmethode
- keine Startpartition erforderlich
- indirekte Optimierung: Zielfunktion dient nur der Bewertung der fertigen Partition
- Ablauf:
- Erstes Element initialisiert das erste Cluster
- Alle Elemente werden einem Cluster zugeordnert wenn der Abstand zum Clusterzentrum unterhalb eines bestimmten Wertes liegt
- Für alle Elemente die damit ausserhalb der Cluster liegen wird ein neuer Cluster angelegt
- Wichtig ist eine gute Radiusschätzung der Cluster (Varianz der Stichprobe durch Anzahl der gewünschten Cluster)
- als Gütefunktion nutzt man die Quadratische Abweichung von den Clusterzentren
Minimaldistanzmethode
- Ausgangspunkt ist eine nur die Radiusrestriktionsmethode erstellte Partition
- Alle Klassen Mittelpunkte werden neu Berechnet
- Berechnen einer neuen Minimaldistanzpartiton anhand einer gewählten Metrik
- Ein Abbruchkriterium entscheidt über das weitere vorgehen
- Kriterium für Partition ist besser geworden → mache Weiter
- Anzahl der Interationschritte überschritten → Abbruch
- Anzahl der Interationschritte noch nicht überschritten && Kriterium für Partition ist gleich geblieben → mache weiter
- Kriterium für Partition ist schlechter geworden → breche ab
k-Means-Austauschverfahren
- Ausgangspunkt ist eine Startpartition
- Merkmalsvektoren umgruppieren wenn die distanz zu einem anderen Klassenzentrum kleiner ist als zum aktuellen
- Neu berechnen der Klassenmetriken
- Abbruch wenn anzahl der Interartionsschritte überschritten ist oder keine Umgrupierung mehr erfolgt
- Meist eingesetzt wird die Mahalanobis-Distanz → Hypereliptische Cluster die sich wunderbar eignen langgestreckte Verteilungen zu approximieren
Trennfunktionsklassifikatoren (Farbpixelklassifikation 30 -39)
- Bei gegen Null gehenden Verteilungsdichten trangen weit entfernte Regionen keine Aussagekraft mehr → daher ist es Angebracht eine Rückweisungsklasse einzuführen
Mahalanobis
- Verwenden der Mahalanobis-Distanz zur Klassifikation
- wenn die Hauptdiagonale der Kovarianzmatrix >> als die restlichen Matrixelemente
- Vereinfachung des Distanzmaßen möglich zu einem achsenparallelen Elipsoiden
- wenn Streuung der einzelnen Merkmale gering ist vereinfacht sich der Ellipsoid zu einer Kugel (euklidisches Abstandsmaß)
- wenn Streuung in den Klassen etwa gleich Groß ist können die Klassenspezifischen Skalierungen entfallen
Hyperquader-Klassifikation
- Zur Zuordnung sind nur noch Intervalltests notwendig
- Sehr grobe approximation der Klasse da meist elliptische Datenverteilungen auftreten
- Funktioniert gut bei dekorrelierten Merkmalen → achsenparallele Ellipsen
- schnell und einfach
- kann eingesetzt werden um die Überlappung von Klassen zu abzuschätzen
Decision-Tree-Klassifikator
- Verwenden einfacher Schwellen zur Abgrenzung der Klassen
- Klassenbeschreibungsräume werden durch meherere Grenzen beschrieben
- Effiziente Beschreibung erfolgt mit Bäumen
Linear Klassifikator → Hyperebene
- Trennen des Merkmalsraumes mittels Hyperebene in zwei Halbräume
- Separierbare Zweiklassenprobleme sind damit lösbar
- Nichtlineare Klassengrenzen können stückweise lineare Aproximation mit mehreren Teilebenen gelöst werden
- mittels Gradientenabstieg wird die Hyperebene angepasst
- Eeiterentwicklung ist die SVM
Support Vector Machines
- Maximierung des Abstandes der Trennebene von den Klassenrepresentanten
- Transformation in einen höherdimesnionalen Raum um linear sepparieren zu können
k-Nächster-Nachbar-Klassifikator
- Klassifikation erfolgt nach dem Abstand zum nächsten Klassenrepresentanten aus der Stichprobe
- Metrik kann beliebig gewählt werden
Neuronale Klassifikatoren (Farbpixelklassifikation 40- 45)
Multi-Layer-Perzeptron
- entspricht der Vernküpfung mehrerer linearer Klassifikatoren
- i.a. zwei Hiddenschichten mit Fermi-Ausgabefunktion
- Anlernen ist aufwendig
- Stabilitäts-Plastizitäts-Dilemma
- Gegenbeispiele fürs Training notwendig ... meist aber nicht vorhanden → Problem
- Vollständige Verkopplung der Hiddenschicht
Modulare Netzwerke
- wie MLP nur das die Hiddenschicht nicht vollständig verkoppelt ist
- Ausbildung von Segmenten die sich auf spezielle Merkmale spezialisiert werden
RBF-Netzwerke
- Bestehen aus Eingabe, RBF und Ausgabeschicht
- Jeder RBF-Knoten hat eine Position im Merkmalsraum
- Aktivierung durch Abstände im Merkmalsraum unter Berücksichtigung der RBF
- Zusammensetzen der Klassenregionen
Self Organizing Feature Maps (SOFM)
- Nur Input/Output Schicht
- Abbilden eines Hochdiemesnioinalen Raumes auf einen niederdimensionalen
- Ähnliche Muster werden auf benachbarte Neuronen abgebildet
- Selbsständiges erkennen der Struktur der Klassen
- Bestimmen des Best Matching Neurons mittels abstand
- Anpassen der Gewichte erfolgt beim Training nach dem Abstand
- Anfangs werden benachbarte Neuronen mit trainiert um Nachberschaft zu erhalten später dann nicht mehr
Segmentierung (Seg 1 - 8)
- Ziel: Tiefgründige Bildinhaltsanalyse
- Siehe auch: Grundlagen der Bildverarbeitung und Mustererkennung
- Zur Eignung welche Merkmale sich besonderst eignen und welcher Farbraum besonderst gut ist gibt es widersprüchliche Aussagen
- Daher sollte immer ausprobiert werden welches der Merkmale am geeingnetsten ist für eine bestimmte Aufgabe
Hierarchische Segmentierung
- Maskieren bereits Segmentierter Bildbereiche (werden ausgeblendet)
- Für den Rest beste Unterscheidungsmerkmal suchen um weitere Segmente abzutrennen
- Pixelklassifikation und normale Segmentierung wie bei GW -Bildern
- wiederhole bis das ganze Bild segmentiert ist